① 時序異常檢測演算法
STL 表示基於損失的季節性分解的過程。該技術能夠將時間序列信號分解為三個部分: 季節性變化(seasonal)、趨勢變化(trend)和剩餘部分(resie) 。
顧名思義,這種方法適用於季節性的時間序列,這是比較常見的情況。
這里不太明顯的地方是,我們為了得到更可靠的異常檢測結果,使用了 絕對中位偏差 。該方法目前最好的實現是 Twitter 的異常檢測庫 ,它使用了 Generalized Extreme Student Deviation (廣義的 ESD 演算法)測試殘差點是否是一個離群點。
該方法的優點在於其簡單性和健壯性。它可以處理很多不同的情況,並且所有的異常情況仍然可以直觀解釋。
它主要擅長於附加的異常值檢測。如果想要檢測一些水平變化,則可以對移動平均信號進行分析。
該方法的缺點是在調整選項方面過於死板。你所能做的只有通過顯著性水平來調整置信區間。
當信號特徵發生了劇烈變化時,該方法就失效了。例如,跟蹤原本對公眾是關閉狀態的,卻突然對公眾開放的網站用戶數量。在這種情況下,就應該分別跟蹤在啟動開放之前和開放之後發生的異常。
分類回歸樹(CART)是目前最穩健、最有效的機器學習技術之一。它也可以應用於異常檢測問題。
分類樹學習的最流行實現是 xgboost 庫 。
這種方法的優點是它不受信號結構的任何約束,而且可以引入許多的特徵參數進行學習,以獲得更為復雜的模型。
該方法的缺點是會出現越來越多的特徵,這很快會影響到整體的計算性能。在這種情況下,你應該有意識地選擇有效特徵。
自回歸移動平均模型(ARIMA)是一種設計上非常簡單的方法,但其效果足夠強大,可以預測信號並發現其中的異常。
該方法的思路是從過去的幾個數據點來生成下一個數據點的預測,在過程中添加一些隨機變數(通常是添加白雜訊)。以此類推,預測得到的數據點可以用來生成新的預測。很明顯:它會使得後續預測信號數據更平滑。
使用這種方法最困難的部分是 選擇 差異數量、自動回歸數量和預測誤差系數。
該方法的另一個障礙是信號經過差分後應該是固定的。也就是說,這意味著信號不應該依賴於時間,這是一個比較顯著的限制。
異常檢測是利用離群點來建立一個經過調整的信號模型,然後利用 t-統計量 來檢驗該模型是否比原模型能更好的擬合數據。
該方法最受歡迎的實現是 R 語言中的 tsoutliers 包。在這種情況下,你可以找到適合信號的 ARIMA 模型,它可以檢測出所有類型的異常。
指數平滑方法與 ARIMA 方法非常相似。基本的指數模型等價於 ARIMA (0, 1, 1) 模型。
從異常檢測的角度來看,最有趣的方法是 Holt-Winters 季節性方法 。該方法需要定義季節性周期,比如周、月、年等等。
如果需要跟蹤多個季節周期,比如同時跟蹤周和年周期,那麼應該只選擇一個。通常是選擇最短的那個:所以這里我們就應該選擇周季節。
這顯然是該方法的一個缺點,它會大大影響整體的預測范圍。
和使用 STL 或 CARTs 方法一樣,我們可以通過統計學方法對離群值進行統計來實現異常檢測。
與 CART 方法一樣, 神經網路 有兩種應用方式:監督學習和無監督學習。
我們處理的數據是時間序列,所以最適合的神經網路類型是 LSTM 。如果構建得當,這種循環神經網路將可以建模實現時間序列中最復雜的依賴關系,包括高級的季節性依賴關系。
如果存在多個時間序列相互耦合,該方法也非常 有用 。
② 【神經網路時間序列】請教NAR網路預測問題,謝謝
NAR網路是只有y(t),NARX網路是有x(t)和y(t).
對於NAR網路來說,其只能夠輸出相對於延遲向量的下一個值。故需要用循環不斷更新集合,把時間步往前推進。
T=tonndata(force,false,false); %輸入和輸出矩陣須為cell類型的矩陣,且不能用num2cell來轉換,如果使用二維cell矩陣,將會被認為是兩個輸入從而不能訓練.假設force數據集只有50個(一行)。
force_raw=T(1:30); %創造一個1*30的Xi,與延遲向量1:30對應起來。為已知矩陣。
for j=1:50 %y1的前20個是對照著force裡面第31個到50個,加上可以預測後面30個數據。
y1(j)=net(T(10),force_raw); %這里還需要大神指教,T(10)裡面是當前矩陣,數字可以任意取,結果都一樣。只是為了輸出一維矩陣
force_raw=[force_raw(2:end),y1(j)]; %更新得到新的已知矩陣,為2,3~,30,31,下一步第一行應該是得到第43個。 不斷更新即可得到預測值。
③ 是一種處理時序數據的神經網路,常用於語音識別,機器翻譯等領域
搜一下:是一種處理時序數據的神經網路,常用於語音識別,機器翻譯等領域
④ 循環神經網路(RNN)簡介
循環神經網路英文名稱為 ( Recurrent Neural Network, RNN ),其通過使用帶自反饋的神經元,能夠處理任意長度的 時序 數據。
給定輸入時序序列
式中, 表示一段時序數據, 為時間長度
以一段英文段落為例,其時序數據可以表示為:
若是一段視頻,將其每一幀通過CNN網路處理得到相應的編碼向量
循環神經網路通過以下公式更新隱藏層的活性值
循環神經網路圖示
RNN的基本模型如下圖所示,為便於理解,圖中將RNN的模型展開,按照時序方向對其前向傳播流程進行介紹
RNN的基本模型
利用數學表達式整個過程可以變得更加清晰,RNN的前向傳播公式如下:
將上述過程整合到一個RNN cell中,可以表示為如下圖所示的過程:
RNN的前向傳播示意圖
缺陷:
沒有利用到模型後續的信息,可以通過雙向RNN網路進行優化
RNN主要有兩種計算梯度的方式:隨時間反向傳播(BPTT)和實時循環學習法(RTRL)演算法
本文中主要介紹隨時間反向傳播的方法 ( BackPropagation Through Time )
RNN的損失函數與任務有關,對於同步的序列對序列任務,其loss可以用交叉熵公式表示
然後通過BPTT演算法便可以進行梯度的反向傳播計算
梯度爆炸的解決方法:梯度修剪
梯度消失的解決方法:增加長程依賴 LSTM,GRU
GRU的基本思路:增加相關門(Relate Gate)和更新門(Update Gate),進而使得RNN單元具有記憶能力
首先從數學角度對GRU的前向傳播過程進行介紹,具體公式如下:
公式中各變數的含義:
將上述數學公式轉化為圖像,可得
GRU Cell的前向傳播流程
LSTM意為長短時記憶網路 (Long Short-Term Memory Network,LSTM) ,可以有效地解決簡單神經網路的梯度消失和爆炸問題
在LSTM中,與GRU主要有兩點不同
同樣,先從數學公式入手,對LSTM的前向傳播過程進行了解
基於數學公式的過程,可將LSTM CELL的前向傳播過程總結為(圖片借用於nndl):
LSTM Cell的前向傳播示意圖
從上圖中可以看出,LSTM在前向傳播的過程中傳輸了兩個狀態:內部狀態 以及外部狀態 ,在整個傳播過程中 外部狀態(隱狀態) 每個時刻都會被重寫,因此可以看作一種 短時記憶 ,而 內部狀態 可以在某個時刻捕捉一些關鍵信息,並將此信息保存一段時間間隔,可以看作一種 長時記憶 (長的短時記憶)
此外,在LSTM網路初始化訓練的時候,需要手動將遺忘門的數值設置的大一些,否則在參數初始化的時候,遺忘門的數據會被初始化為一個很小的值,前一時刻的內部狀態 大部分都會丟失,這樣網路很難獲取到長距離的依賴信息,並且相鄰時間間隔的梯度會非常小,導致 梯度彌散 問題,因此遺忘門的 偏置變數 的初始值 一般很大,取 1或2
將 設置為1即可,但是長度非常的大的時候會造成記憶單元的飽和,降低性能
三個門不僅依賴於 和 ,也依賴於
將兩者合並為一個門,即:
首先,我們要理解什麼是深層的RNN,對於單個的RNN cell,若將其在時間維度上展開,其深度與時間維度的長度成正比,但若將一個RNN cell看作為單個從 的映射函數,則單個cell實際上是很淺顯的一層,因此深層循環神經網路要做的就是把多個RNN cell組合起來,換句話說,就是增加從輸入 到輸出 的路徑,使得網路的深度更深。
如何增加從輸入 到輸出 的路徑呢?兩種途徑:
堆疊循環神經網路示意圖
將網路帶入到實際應用場景中:假如我們要翻譯一段句子
在這里,is和are實際上是由後面的Lucy和they所決定的,而這種單向的按照時序進行傳播的方式沒有利用到後面的信息。因此誕生了雙向循環網路
雙向循環神經網路示意圖
雙向循環神經網路實際上就是簡單的雙層循環神經網路,只不過第二層網路的傳播方式為按時序的逆向傳播,其傳播公式為:
⑤ 對於時序隨機數據用什麼神經網路做處理
將歷史數據作為樣本訓練,最後用一組對應的樣本作為輸入,輸出自然是未來數據。神經網路預測就是這么做的。
對商品價格變動的分析,可歸結為對影響市場供求關系的諸多因素的綜合分析。傳統的統計經濟學方法因其固有的局限性,難以對價格變動做出科學的預測,而人工神經網路容易處理不完整的、模糊不確定或規律性不明顯的數據,所以用人工神經網路進行價格預測是有著傳統方法無法相比的優勢。從市場價格的確定機制出發,依據影響商品價格的家庭戶數、人均可支配收入、貸款利率、城市化水平等復雜、多變的因素,建立較為准確可靠的模型。該模型可以對商品價格的變動趨勢進行科學預測,並得到准確客觀的評價結果。
⑥ 請問:RBF神經網路中的參數如何確定輸入的信號是一維的好還是多維的好我研究的是語音信號時間序列預測
你說的過程是學習的過程,屬於有監督學習,這個過程只是確定隱藏層與輸出層之間的權值
⑦ 時間序列模型和神經網路模型有何區別
時間序列模型是指採用某種演算法(可以是神經網路、ARMA等)模擬歷史數據,找出其中的變化規律,
神經網路模型是一種演算法,可以用於分類、聚類、預測等等不用領域;
兩者一個是問題模型,一個是演算法模型
⑧ 循環神經網路(RNN)淺析
RNN是兩種神經網路模型的縮寫,一種是遞歸神經網路(Recursive Neural Network),一種是循環神經網路(Recurrent Neural Network)。雖然這兩種神經網路有著千絲萬縷的聯系,但是本文主要討論的是第二種神經網路模型——循環神經網路(Recurrent Neural Network)。
循環神經網路是指一個隨著時間的推移,重復發生的結構。在自然語言處理(NLP),語音圖像等多個領域均有非常廣泛的應用。RNN網路和其他網路最大的不同就在於RNN能夠實現某種「記憶功能」,是進行時間序列分析時最好的選擇。如同人類能夠憑借自己過往的記憶更好地認識這個世界一樣。RNN也實現了類似於人腦的這一機制,對所處理過的信息留存有一定的記憶,而不像其他類型的神經網路並不能對處理過的信息留存記憶。
循環神經網路的原理並不十分復雜,本節主要從原理上分析RNN的結構和功能,不涉及RNN的數學推導和證明,整個網路只有簡單的輸入輸出和網路狀態參數。一個典型的RNN神經網路如圖所示:
由上圖可以看出:一個典型的RNN網路包含一個輸入x,一個輸出h和一個神經網路單元A。和普通的神經網路不同的是,RNN網路的神經網路單元A不僅僅與輸入和輸出存在聯系,其與自身也存在一個迴路。這種網路結構就揭示了RNN的實質:上一個時刻的網路狀態信息將會作用於下一個時刻的網路狀態。如果上圖的網路結構仍不夠清晰,RNN網路還能夠以時間序列展開成如下形式:
等號右邊是RNN的展開形式。由於RNN一般用來處理序列信息,因此下文說明時都以時間序列來舉例,解釋。等號右邊的等價RNN網路中最初始的輸入是x0,輸出是h0,這代表著0時刻RNN網路的輸入為x0,輸出為h0,網路神經元在0時刻的狀態保存在A中。當下一個時刻1到來時,此時網路神經元的狀態不僅僅由1時刻的輸入x1決定,也由0時刻的神經元狀態決定。以後的情況都以此類推,直到時間序列的末尾t時刻。
上面的過程可以用一個簡單的例子來論證:假設現在有一句話「I want to play basketball」,由於自然語言本身就是一個時間序列,較早的語言會與較後的語言存在某種聯系,例如剛才的句子中「play」這個動詞意味著後面一定會有一個名詞,而這個名詞具體是什麼可能需要更遙遠的語境來決定,因此一句話也可以作為RNN的輸入。回到剛才的那句話,這句話中的5個單詞是以時序出現的,我們現在將這五個單詞編碼後依次輸入到RNN中。首先是單詞「I」,它作為時序上第一個出現的單詞被用作x0輸入,擁有一個h0輸出,並且改變了初始神經元A的狀態。單詞「want」作為時序上第二個出現的單詞作為x1輸入,這時RNN的輸出和神經元狀態將不僅僅由x1決定,也將由上一時刻的神經元狀態或者說上一時刻的輸入x0決定。之後的情況以此類推,直到上述句子輸入到最後一個單詞「basketball」。
接下來我們需要關注RNN的神經元結構:
上圖依然是一個RNN神經網路的時序展開模型,中間t時刻的網路模型揭示了RNN的結構。可以看到,原始的RNN網路的內部結構非常簡單。神經元A在t時刻的狀態僅僅是t-1時刻神經元狀態與t時刻網路輸入的雙曲正切函數的值,這個值不僅僅作為該時刻網路的輸出,也作為該時刻網路的狀態被傳入到下一個時刻的網路狀態中,這個過程叫做RNN的正向傳播(forward propagation)。註:雙曲正切函數的解析式如下:
雙曲正切函數的求導如下:
雙曲正切函數的圖像如下所示:
這里就帶來一個問題:為什麼RNN網路的激活函數要選用雙曲正切而不是sigmod呢?(RNN的激活函數除了雙曲正切,RELU函數也用的非常多)原因在於RNN網路在求解時涉及時間序列上的大量求導運算,使用sigmod函數容易出現梯度消失,且sigmod的導數形式較為復雜。事實上,即使使用雙曲正切函數,傳統的RNN網路依然存在梯度消失問題,無法「記憶」長時間序列上的信息,這個bug直到LSTM上引入了單元狀態後才算較好地解決。
這一節主要介紹與RNN相關的數學推導,由於RNN是一個時序模型,因此其求解過程可能和一般的神經網路不太相同。首先需要介紹一下RNN完整的結構圖,上一節給出的RNN結構圖省去了很多內部參數,僅僅作為一個概念模型給出。
上圖表明了RNN網路的完整拓撲結構,從圖中我們可以看到RNN網路中的參數情況。在這里我們只分析t時刻網路的行為與數學推導。t時刻網路迎來一個輸入xt,網路此時刻的神經元狀態st用如下式子表達:
t時刻的網路狀態st不僅僅要輸入到下一個時刻t+1的網路狀態中去,還要作為該時刻的網路輸出。當然,st不能直接輸出,在輸出之前還要再乘上一個系數V,而且為了誤差逆傳播時的方便通常還要對輸出進行歸一化處理,也就是對輸出進行softmax化。因此,t時刻網路的輸出ot表達為如下形式:
為了表達方便,筆者將上述兩個公式做如下變換:
以上,就是RNN網路的數學表達了,接下來我們需要求解這個模型。在論述具體解法之前首先需要明確兩個問題:優化目標函數是什麼?待優化的量是什麼?
只有在明確了這兩個問題之後才能對模型進行具體的推導和求解。關於第一個問題,筆者選取模型的損失函數作為優化目標;關於第二個問題,我們從RNN的結構圖中不難發現:只要我們得到了模型的U,V,W這三個參數就能完全確定模型的狀態。因此該優化問題的優化變數就是RNN的這三個參數。順便說一句,RNN模型的U,V,W三個參數是全局共享的,也就是說不同時刻的模型參數是完全一致的,這個特性使RNN得參數變得稍微少了一些。
不做過多的討論,RNN的損失函數選用交叉熵(Cross Entropy),這是機器學習中使用最廣泛的損失函數之一了,其通常的表達式如下所示:
上面式子是交叉熵的標量形式,y_i是真實的標簽值,y_i*是模型給出的預測值,最外面之所以有一個累加符號是因為模型輸出的一般都是一個多維的向量,只有把n維損失都加和才能得到真實的損失值。交叉熵在應用於RNN時需要做一些改變:首先,RNN的輸出是向量形式,沒有必要將所有維度都加在一起,直接把損失值用向量表達就可以了;其次,由於RNN模型處理的是序列問題,因此其模型損失不能只是一個時刻的損失,應該包含全部N個時刻的損失。
故RNN模型在t時刻的損失函數寫成如下形式:
全部N個時刻的損失函數(全局損失)表達為如下形式:
需要說明的是:yt是t時刻輸入的真實標簽值,ot為模型的預測值,N代表全部N個時刻。下文中為了書寫方便,將Loss簡記為L。在結束本小節之前,最後補充一個softmax函數的求導公式:
由於RNN模型與時間序列有關,因此不能直接使用BP(back propagation)演算法。針對RNN問題的特殊情況,提出了BPTT演算法。BPTT的全稱是「隨時間變化的反向傳播演算法」(back propagation through time)。這個方法的基礎仍然是常規的鏈式求導法則,接下來開始具體推導。雖然RNN的全局損失是與全部N個時刻有關的,但為了簡單筆者在推導時只關注t時刻的損失函數。
首先求出t時刻下損失函數關於o_t*的微分:
求出損失函數關於參數V的微分:
因此,全局損失關於參數V的微分為:
求出t時刻的損失函數關於關於st*的微分:
求出t時刻的損失函數關於s_t-1*的微分:
求出t時刻損失函數關於參數U的偏微分。注意:由於是時間序列模型,因此t時刻關於U的微分與前t-1個時刻都有關,在具體計算時可以限定最遠回溯到前n個時刻,但在推導時需要將前t-1個時刻全部帶入:
因此,全局損失關於U的偏微分為:
求t時刻損失函數關於參數W的偏微分,和上面相同的道理,在這里仍然要計算全部前t-1時刻的情況:
因此,全局損失關於參數W的微分結果為:
至此,全局損失函數關於三個主要參數的微分都已經得到了。整理如下:
接下來進一步化簡上述微分表達式,化簡的主要方向為t時刻的損失函數關於ot的微分以及關於st*的微分。已知t時刻損失函數的表達式,求關於ot的微分:
softmax函數求導:
因此:
又因為:
且:
有了上面的數學推導,我們可以得到全局損失關於U,V,W三個參數的梯度公式:
由於參數U和W的微分公式不僅僅與t時刻有關,還與前面的t-1個時刻都有關,因此無法寫出直接的計算公式。不過上面已經給出了t時刻的損失函數關於s_t-1的微分遞推公式,想來求解這個式子也是十分簡單的,在這里就不贅述了。
以上就是關於BPTT演算法的全部數學推導。從最終結果可以看出三個公式的偏微分結果非常簡單,在具體的優化過程中可以直接帶入進行計算。對於這種優化問題來說,最常用的方法就是梯度下降法。針對本文涉及的RNN問題,可以構造出三個參數的梯度更新公式:
依靠上述梯度更新公式就能夠迭代求解三個參數,直到三個參數的值發生收斂。
這是筆者第一次嘗試推導RNN的數學模型,在推導過程中遇到了非常多的bug。非常感謝互聯網上的一些公開資料和博客,給了我非常大的幫助和指引。接下來筆者將嘗試實現一個單隱層的RNN模型用於實現一個語義預測模型。
⑨ 如何用神經網路進行時間序列預測
神經網路是可以用來預測時間序列。例如神經網路人口預測。已知1990至2009年的某地區人口數[11 28 30 42 44 56 49 60 50 63 56 74 76 65 92 105 124 117 132 128]。預測2010-2016年的某地區人口數。
具體實施過程:
%已知數據
t=1990:2009;
x=[11 28 30 42 44 56 49 60 50 63 56 74 76 65 92 105 124 117 132 128];
% 自回歸階數
lag=3;
%預測步數為fn
fn=length(t);
%輸出數據
[f_out,iinput]=BP(x,lag,fn); %BP()神經網路預測函數
[x' iinput']
R2=corrcoef(x,iinput)
%預測年份或某一時間段
%t1=2015:2016;
t1=length(x)+1:length(x)+7;
%預測步數為fn
fn=length(t1);
[f_out,iinput]=BP(x,lag,fn);
P=vpa(f_out,5);
%預測數據
t1=2010:2016;
[t1' P']
% 畫出預測圖
figure(6),plot(t,x,'b*-'),hold on
plot(t(end):t1(end),[iinput(end),f_out],'rp-'),grid on
title('BP神經網路預測某地區人口數')
xlabel('年份'),ylabel('人口數');
legend('2009-2014年人口變化數','2014-2016年人口預測數');
⑩ 第三代神經網路 SNN--脈沖神經網路
脈沖神經網路 (SNN) 屬於第三代神經網路模型,實現了更高級的生物神經模擬水平。除了神經元和突觸狀態之外,SNN 還將時間概念納入了其操作之中,是一種模擬大腦神經元動力學的一類很有前途的模型。
那麼什麼是第一代和第二代神經網路模型呢?
第一代神經網路
第一代神經網路又稱為感知器,在1950年左右被提出來,它的演算法只有兩層,輸入層輸出層,主要是線性結構。它不能解決線性不可分的問題,對稍微復雜一些的函數都無能為力,如異或操作。
第二代神經網路:BP 神經網路
為了解決第一代神經網路的缺陷,在1980年左右 Rumelhart、Williams 等人提出第二代神經網路多層感知器 (MLP)。和第一代神經網路相比,第二代在輸入層之間有多個隱含層的感知機,可以引入一些非線性的結構,解決了之前無法模擬異或邏輯的缺陷
第三代神經網路:脈沖神經網路
第三代神經網路,脈沖神經網路 (Spiking Neural Network,SNN) ,旨在彌合神經科學和機器學習之間的差距, 使用最擬合生物神經元機制的模型來進行計算,更接近生物神經元機制。 脈沖神經網路與目前流行的神經網路和機器學習方法有著根本上的不同。SNN 使用脈沖——這是一種發生在時間點上的離散事件——而非常見的連續值。每個峰值由代表生物過程的微分方程表示出來,其中最重要的是神經元的膜電位。本質上,一旦神經元達到了某一電位,脈沖就會出現,隨後達到電位的神經元會被重置。對此,最常見的模型是 Leaky Integrate-And-Fire (LIF) 模型。此外,SNN 通常是稀疏連接的,並會利用特殊的網路拓撲。
脈沖神經網路 (SNN-Spiking Neuron Networks) 包含具有時序動力學特性的神經元節點、穩態-可塑性平衡的突觸結構、功能特異性的網路環路等,高度借鑒了生物啟發的局部非監督(如脈沖時序依賴可塑性、短時突觸可塑性、局部穩態調節等)、全局弱監督(如多巴胺獎賞學習、基於能量的函數優化等)的生物優化方法,因此具有強大的時空信息表徵、非同步事件信息處理、網路自組織學習等能力。 [1]
脈沖神經網路,其 模擬神經元 更加接近實際,除此之外,把時間信息的影響也考慮其中。思路是這樣的,動態神經網路中的 神經元 不是在每一次迭代傳播中都被激活(而在典型的多層感知機網路中卻是),而是在它的 膜電位 達到某一個特定值才被激活。當一個神經元被激活,它會產生一個信號傳遞給其他神經元,提高或降低其膜電位。
在脈沖神經網路中,神經元的當前激活水平(被建模成某種微分方程)通常被認為是當前狀態,一個輸入脈沖會使當前這個值升高,持續一段時間,然後逐漸衰退。出現了很多編碼方式把這些輸出脈沖序列解釋為一個實際的數字,這些編碼方式會同時考慮到脈沖頻率和脈沖間隔時間。
藉助於神經科學的研究,人們可以精確的建立基於脈沖產生時間 神經網路模型 。這種新型的神經網路採用脈沖編碼(spike coding),通過獲得脈沖發生的精確時間,這種新型的神經網路可以進行獲得更多的信息和更強的計算能力。
20220112【脈絡分明:脈沖神經網路及其應用】余肇飛:脈沖神經網路學習理論與方法_嗶哩嗶哩_bilibili
如何看待第三代神經網路 SNN?詳解脈沖神經網路的架構原理、數據集和訓練方法-極市開發者社區 (cvmart.net)
脈沖神經網路_網路 (.com)
Frontiers | Spiking Neural Network (SNN) With Memristor Synapses Having Non-linear Weight Update | Frontiers in Computational Neuroscience
【強基固本】脈沖神經網路(Spiking Neural Network)介紹 (qq.com)