突觸可塑性

突觸可塑性

在神經科學中,突觸可塑性(Synaptic plasticity)是指神經細胞間的連線,即突觸,其連線強度可調節的特性。突觸的形態和功能可發生較為持久的改變的特性或現象。突觸會隨著自身活動的加強與減弱相應得到加強與減弱。在人工神經網路中,突觸可塑性是指利用神經科學中突觸可塑性有關理論結合數學模型來構造神經元之間的聯繫。

基本介紹

  • 中文名:突觸可塑性
  • 外文名:synaptic plasticity
  • 分類:短期突觸可塑性,長期突觸可塑性
  • 釋義:突觸的形態和功能發生改變的現象
  • 學科:自動化、神經科學
  • 領域:深度學習、模式識別
簡介,有關理論,長期增強作用,長期抑制作用,短期突觸可塑性,人工神經網路,概述,特點優點,

簡介

突觸可塑性主要包括短期突觸可塑性(short-term synaptic plasticity)與長期突觸可塑性(long-term synaptic plasticity)。短期突觸可塑性主要包括易化(facilitation),抑制(depression),增強(potentiation).長期突觸可塑性主要表現形式為-長時程增強(Long-term potentiation)和長時程抑制(Long-term depression),這兩者已被公認為是學習記憶活動的細胞水平的生物學基礎。現在人工神經網路主要利用神經細胞學習記憶功能,在神經網路的構建中,突觸可塑性有關理論的套用必不可少。

有關理論

長期增強作用

長期增強作用(Long-term potentiation,LTP)又稱長時程增強作用、長期增益效應,是由於同步刺激兩個神經元而發生在兩個神經元信號傳輸中的一種持久的增強現象。這是與突觸可塑性——突觸改變強度的能力相關的幾種現象之一。由於記憶被認為是由突觸強度的改變來編碼的,LTP被普遍視為構成學習與記憶基礎的主要分子機制之一。LTP是1966年泰耶·勒莫在兔海馬體中發現的,一直以來是研究的熱門主題。許多現代的LTP研究試圖更好地了解其生物學基本原理,而其他一些研究則以探索LTP和行為學習之間的因果關係為目標。還有一些則試圖開發通過提高LTP改善學習和記憶的方法,不管是採用藥物手段還是其他手段。LTP還是臨床研究的主題,比如在阿茲海默病和成癮醫學領域。LTP具有幾個特性,包括輸入專一性、關聯性、協同性和持久性。
輸入專一性
一個突觸的LTP一經誘導,不會擴散到其他突觸,因而LTP具有輸入專一性。LTP傳播到那些依據關聯性和協同性法則所規定的突觸。但是,LTP的輸入專一性法則在短距離內不一定特別精確。弗雷和莫里斯在1997年提出了一種解釋輸入專一性的假說,即突觸標識和捕獲假說。
關聯性
關聯性是指,當一條通路的弱刺激尚不足以誘導LTP時,另一通路的強刺激會同時誘導兩條通路的LTP。
協同性
LTP可由強烈的強直刺激激發突觸的單一通路,或通過許多較弱的刺激協作引發。當一條通向突觸的路徑受到弱刺激,它產生的突觸後去極化不足以誘導LTP。與此相反,當微弱的刺激施加到許多通路,而這些通路均匯聚到一片單一的突觸後膜時,產生個別性突觸後去極化可以共同突觸後細胞去極化,足以誘導LTP的合作。突觸標識可能是關聯性與協同性的共同基礎。布魯斯·麥克諾頓認為,關聯性和協同性之間的差別僅僅是語義上的。
持久性
LTP的作用時間是持久的,可以持續幾分鐘乃至幾個月。這是它與其他突觸可塑性的根本區別。

長期抑制作用

長期抑制作用(Long-term depression,LTD)又稱長時程抑制作用、長期抑勢,指神經突觸持續幾個小時到幾天的抑制行為。強烈的突觸刺激(小腦Purkinje細胞)或者長期的弱突觸刺激(海馬體)均可導致長期抑勢的形成。長期抑勢被認為是後突觸接受體密度的改變導致的,但是前突觸釋放物的改變也可能有一定影響。小腦的長期抑勢被假定對運動神經的學習具有重要作用。海馬體的長期抑勢也可能對清除過去的記憶具有重要作用。海馬體/大腦皮層長期抑勢可由NMDA接受體,代謝型麩胺酸鹽受體(mGluR)或者endocannabinoids控制。

短期突觸可塑性

短時程的突觸可塑性是突觸可塑性的一種重要表現形式,對實現神經系統的正常功能起著重要作用。突觸的短時程可塑性能夠加強突觸傳遞的確定性,調節大腦皮層興奮和抑制之間的平衡,形成神經活動的時間、空間特性,形成並調節皮層丘腦網路的同步振盪。突觸的短時程可塑性可能也參與了注意、啟動效應、睡眠節律和學習記憶等神經系統高級功能的實現。短時程突觸可塑性又分為短時程的增強和壓抑作用。

人工神經網路

概述

在機器學習和認知科學領域,人工神經網路(artificial neural network,縮寫ANN),簡稱神經網路(英文:neural network,縮寫NN)或類神經網路,是一種模仿生物神經網路(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用於對函式進行估計或近似。神經網路由大量的人工神經元聯結進行計算。大多數情況下人工神經網路能在外界信息的基礎上改變內部結構,是一種自適應系統。[來源請求]現代神經網路是一種非線性統計性數據建模工具。典型的神經網路具有以下三個部分:
結構 (Architecture) 結構指定了網路中的變數和它們的拓撲關係。例如,神經網路中的變數可以是神經元連線的權重(weights)和神經元的激勵值(activities of the neurons)。
激勵函式(Activity Rule) 大部分神經網路模型具有一個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。一般激勵函式依賴於網路中的權重(即該網路的參數)。
學習規則(Learning Rule)學習規則指定了網路中的權重如何隨著時間推進而調整。這一般被看做是一種長時間尺度的動力學規則。一般情況下,學習規則依賴於神經元的激勵值。它也可能依賴於監督者提供的目標值和當前權重的值。

特點優點

人工神經網路的特點和優越性,主要表現在三個方面:
第一,具有自學習功能。例如實現圖像識別時,只在先把許多不同的圖像樣板和對應的應識別的結果輸入人工神經網路,網路就會通過自學習功能,慢慢學會識別類似的圖像。自學習功能對於預測有特別重要的意義。預期未來的人工神經網路計算機將為人類提供經濟預測、市場預測、效益預測,其套用前途是很遠大的。
第二,具有聯想存儲功能。用人工神經網路的反饋網路就可以實現這種聯想。
第三,具有高速尋找最佳化解的能力。尋找一個複雜問題的最佳化解,往往需要很大的計算量,利用一個針對某問題而設計的反饋型人工神經網路,發揮計算機的高速運算能力,可能很快找到最佳化解。

相關詞條

熱門詞條

聯絡我們