① BP網路是什麼
我們最常用的神經網路就是BP網路,也叫多層前饋網路。BP是back propagation的所寫,是反向傳播的意思。我以前比較糊塗,因為一直不理解為啥一會叫前饋網路,一會叫BP(反向傳播)網路,不是矛盾嗎?其實是這樣的,前饋是從網路結構上來說的,是前一層神經元單向饋入後一層神經元,而後面的神經元沒有反饋到之前的神經元;而BP網路是從網路的訓練方法上來說的,是指該網路的訓練演算法是反向傳播演算法,即神經元的鏈接權重的訓練是從最後一層(輸出層)開始,然後反向依次更新前一層的鏈接權重。因此二者並不矛盾,只是我沒有理解其精髓而已。
隨便提一下BP網路的強大威力:
1)任何的布爾函數都可以由兩層單元的網路准確表示,但是所需的隱藏層神經元的數量隨網路輸入數量呈指數級增長;
2)任意連續函數都可由一個兩層的網路以任意精度逼近。這里的兩層網路是指隱藏層使用sigmoid單元、輸出層使用非閾值的線性單元;
3)任意函數都可由一個三層的網路以任意精度逼近。其兩層隱藏層使用sigmoid單元、輸出層使用非閾值的線性單元。
參考資料:【注】參考自《機器學習》
② 如何得出一個bp網路的預測准確率啊
能不能詳細說說
我的理解:隨機預測一個數的人(假如100) 有兩種結果 一個是發病 一個不發病,然後真正調查這某數個人(100個),到底有幾個預測對了,假如有n個對了,准確率就是百分之 n
預測正確有兩種情況:設有一人甲 預測沒發病 調查沒發病 預測正確
設有一人乙 預測發病 調查發病 預測正確
預測不正確也有兩種情況:設有一人丙 預測沒發病 調查發病 預測不正確
設有一人乙 預測發病 調查沒發病 預測不正確
是不是啊???
③ 一個關於信號源識別的BP神經網路 BP網路看不懂 求大神幫助
A是輸出結果矩陣。E=T-A;這一句是計算輸出與實際的誤差。
輸入、輸出不是直接的數學表達式關系,是一個非線性系統,通過訓練得到的。
BP(Back Propagation)神經網路是年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。BP網路能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學習規則是使用最速下降法,通過反向傳播來不斷調整網路的權值和閾值,使網路的誤差平方和最小。BP神經網路模型拓撲結構包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。
④ bp神經網路 matlab 工具箱怎麼調出來
1. 常用的前饋型BP網路的轉移函數有logsig,tansig,有時也會用到線性函數purelin。當網路的最後一層採用曲線函數時,輸出被限制在一個很小的范圍內,如果採用線性函數則輸出可為任意值。以上三個函數是BP網路中最常用到的函數,但是如果需要的話你也可以創建其他可微的轉移函數。
2. 在BP網路中,轉移函數可求導是非常重要的,tansig、logsig和purelin都有對應的導函數dtansig、dlogsig和dpurelin。為了得到更多轉移函數的導函數,可以帶字元"deriv"的轉移函數:tansig('deriv')
ans = dtansig
第一步是建立網路對象。函數newff建立一個可訓練的前饋網路。這需要4個輸入參數。第一個參數是一個Rx2的矩陣以定義R個輸入向量的最小值和最大值。第二個參數是一個顢頇每層神經元個數的數組。第三個參數是包含每層用到的轉移函數名稱的細胞數組。最後一個參數是用到的訓練函數的名稱。
http://blog.sina.com.cn/s/blog_8684880b010117bv.html
⑤ 如何測試BP神經網路
先找一個期望函數,比如y=1/x,那麼輸入就是x(值隨便設),理想的輸出結果就是1/x。用實際的輸出結果與理想的結果做運算,依據運算結果對隱層和輸出層的權值矩陣進行調整。然後繼續輸入樣本,得到結果在與理想結果運算,再權值調整。一直到最後,你的輸出結果就會和你的理想結果相接近了。
如果沒有期望函數,或者期望的輸入輸出關系,那麼就談不上訓練好了一個神經網路。一個網路都是對於一定的輸入輸出關系而言的,關系徹底改變,那麼網路就要重新訓練。
⑥ Matlab BP神經網路訓練圖結果怎麼看,不會看
1、Redis和Memcached都是將數據存放在內存中,都是內存資料庫。不過Memcached還可用於緩存其他東西,例如圖片、視頻等等;
2、Redis不僅僅支持簡單的K/V類型的數據,同時還提供List,Set,Hash等數據結構的存儲;
3、虛擬內存–Redis當物理內存用完時,可以將一些很久沒用到的Value 交換到磁碟;
⑦ 什麼是BP神經網路
BP演算法的基本思想是:學習過程由信號正向傳播與誤差的反向回傳兩個部分組成;正向傳播時,輸入樣本從輸入層傳入,經各隱層依次逐層處理,傳向輸出層,若輸出層輸出與期望不符,則將誤差作為調整信號逐層反向回傳,對神經元之間的連接權矩陣做出處理,使誤差減小。經反復學習,最終使誤差減小到可接受的范圍。具體步驟如下:
1、從訓練集中取出某一樣本,把信息輸入網路中。
2、通過各節點間的連接情況正向逐層處理後,得到神經網路的實際輸出。
3、計算網路實際輸出與期望輸出的誤差。
4、將誤差逐層反向回傳至之前各層,並按一定原則將誤差信號載入到連接權值上,使整個神經網路的連接權值向誤差減小的方向轉化。
5、対訓練集中每一個輸入—輸出樣本對重復以上步驟,直到整個訓練樣本集的誤差減小到符合要求為止。