Ⅰ bp神經網路的隱層節點數對預測精度有何影響
BP神經網路的隱藏層節點數對BP神經網路預測精度有較大的影響:節點數太少,網路不能很好地學習,需要增加訓練次數,訓練精度也受影響
Ⅱ matlab7.0做BP神經網路預測,精度怎麼看
應該是點performance那個按鈕,顯示一個誤差下降曲線圖。
事實上,不需過分關注這條曲線,除非是研究改進演算法提高收斂速度的。一般關注網路的實際訓練效果,以及實際應用能力,如預測能力等。
BP(Back Propagation)神經網路是1986年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。BP網路能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網路的權值和閾值,使網路的誤差平方和最小。BP神經網路模型拓撲結構包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。
Ⅲ bp神經網路預測結果誤差太大可以怎麼調整
呵呵,bp演算法本身有缺陷 ,你的訓練步長 迭代率啥的要設置好
Ⅳ 如何提高BP神經網路模型的預測精度
直接調用歸一化函數就可以啦,不會的話看一下這個帖子吧:遺傳演算法優化BP神經網路的案例(matlab代碼分享)
http://www.ilovematlab.cn/forum. ... &fromuid=679292
Ⅳ BP神經網路的隱層節點數對預測精度有何影響
神經網路本身的優化過程,實際上是對一組更加有效的層節點值進行選擇。這個問題的回答,於是可以用兩個很極端的例子來思考。一種情況是,只有一個節點。那麼這個方程就變成了一個非常簡單的線性方程y=ax+b的形式。其中a和b就是權值和偏置。在這種情況下,如果你有一個非線性的系統,那麼肯定,這個預測的偏差就會非常大。另外一種情況,節點的數量無窮多。因為你的樣本數量是有限的,那麼如果想要達到一個比較好的優化,就會出現無限多的權值和偏重組合。這些組合都不相同,但是都可以達到一個類似的結果。那麼結果就是,這些組合就會呈現出隨機的特性,因為他們的初始值都是隨機給出的。那麼產生的結果就是,針對你的訓練樣本,他們的表現很可能非常好,但是如果你要做內推和外推,這個結果就會呈現出非常非常大的隨機性。
那麼產生了一個矛盾,如果節點數太小,那麼無法完全的呈現出你樣本的關聯特性;如果選擇節點數太多,那麼你的神經網路結果又會呈現出極大的隨機性。這是一個很矛盾的問題。
直到目前為止,我讀到的文獻中,只有一個人曾經提到,你的神經網路節點數量應該是你輸入數據的大小*(2-32之間的數值)。比如你的輸入數據為5個點,你有100個樣本,那麼你的節點數量選擇就在5×2 到5×32之間。這個也和你的樣本總數量有個,如果你有100個樣本,那麼5×32這種節點數量可能就太大了。5×32總共有160個權值160個偏置,其中還有各種交叉。100個樣本想要解決這個問題,明顯你能感覺到好像是用2個數組解一個4元的方程組一樣。沒有固定的解。
因為沒有具體的問題,所以只能說這么多了。
Ⅵ BP神經網路最後得出的誤差很大
是校驗的意思吧!在訓練樣本中一部分用來進行訓練,一部分用來校驗!然後用別的樣本來進行測試test!
Ⅶ bp神經網路在多輸入多輸出的情況下,預測的精度為什麼這么差
BP神經網路對於訓練樣本數據的要求是比較高的,樣本數量一定要多,建議處理一下樣本數據,增多數量,加入動量因子並調整其數值。
Ⅷ 神經網路怎麼定義預測的精度
回歸問題一般均方誤差損失函數得到的函數值即為精度
分類問題的話一種可以用交叉熵損失函數的函數值作為精度,另外也可以用分類的准確性作為精度值
Ⅸ bp神經網路,是不是數據越多,預測能力越好!
准確的說是數據越全面,越能體現數據分布,預測才越好
但一般我們也不知道數據原本的分布是怎麼樣的~所以,收集越多的不同的數據,一般來說預測就越好。當然,如果發現數據多到一個程度後,預測效果沒什麼變化,說明數據的表達能力,或者說數據的分布已經很充沛了,特徵方差不變了,多了也沒什麼用