1. 新手,神經網路的問題,求大神們解答啊
我覺得 就 BP 神經網路就很好好 ,你 分為31 類, 輸出層31, 一般隱層 2-4 層就可以了,你的第一層 沒必要弄那麼多神經元吧,第二層也是,沒必要那麼多,你開始可以【5,5,31】,在設置 一定的迭代次數,和誤差,看看訓練結果 好不 ,不好的話在適當增加第1 .2 層的 神經元個數 比如改為【10,5 ,31】。。BP神經網路傳遞函數 一般包括:logsig(n) tansig(n) purelin(n)
這3 種 ,他們的取值范圍 分別為【0,1】 【-1,1】 【整個平面都可以取】 所以輸出層的傳遞函數 要依據你的輸出選函數,BP 的 訓練函數就比較多了,這個網路裡面都有 ;隱層常採用tansig
函數進行中間結果傳遞,
2. MATLAB中用(BP神經網路)工具箱直接畫出的圖怎麼去顏色
隨便吧。你怎麼加的顏色,就怎麼去。
3. 如何訓練神經網路
1、先別著急寫代碼
訓練神經網路前,別管代碼,先從預處理數據集開始。我們先花幾個小時的時間,了解數據的分布並找出其中的規律。
Andrej有一次在整理數據時發現了重復的樣本,還有一次發現了圖像和標簽中的錯誤。所以先看一眼數據能避免我們走很多彎路。
由於神經網路實際上是數據集的壓縮版本,因此您將能夠查看網路(錯誤)預測並了解它們的來源。如果你的網路給你的預測看起來與你在數據中看到的內容不一致,那麼就會有所收獲。
一旦從數據中發現規律,可以編寫一些代碼對他們進行搜索、過濾、排序。把數據可視化能幫助我們發現異常值,而異常值總能揭示數據的質量或預處理中的一些錯誤。
2、設置端到端的訓練評估框架
處理完數據集,接下來就能開始訓練模型了嗎?並不能!下一步是建立一個完整的訓練+評估框架。
在這個階段,我們選擇一個簡單又不至於搞砸的模型,比如線性分類器、CNN,可視化損失。獲得准確度等衡量模型的標准,用模型進行預測。
這個階段的技巧有:
· 固定隨機種子
使用固定的隨機種子,來保證運行代碼兩次都獲得相同的結果,消除差異因素。
· 簡單化
在此階段不要有任何幻想,不要擴增數據。擴增數據後面會用到,但是在這里不要使用,現在引入只會導致錯誤。
· 在評估中添加有效數字
在繪制測試集損失時,對整個測試集進行評估,不要只繪制批次測試損失圖像,然後用Tensorboard對它們進行平滑處理。
· 在初始階段驗證損失函數
驗證函數是否從正確的損失值開始。例如,如果正確初始化最後一層,則應在softmax初始化時測量-log(1/n_classes)。
· 初始化
正確初始化最後一層的權重。如果回歸一些平均值為50的值,則將最終偏差初始化為50。如果有一個比例為1:10的不平衡數據集,請設置對數的偏差,使網路預測概率在初始化時為0.1。正確設置這些可以加速模型的收斂。
· 人類基線
監控除人為可解釋和可檢查的損失之外的指標。盡可能評估人的准確性並與之進行比較。或者對測試數據進行兩次注釋,並且對於每個示例,將一個注釋視為預測,將第二個注釋視為事實。
· 設置一個獨立於輸入的基線
最簡單的方法是將所有輸入設置為零,看看模型是否學會從輸入中提取任何信息。
· 過擬合一個batch
增加了模型的容量並驗證我們可以達到的最低損失。
· 驗證減少訓練損失
嘗試稍微增加數據容量。
4. 現在人工智慧發展到什麼程度了
人工智慧發展過去、現在和未來的總覽。一起了解谷歌技術總監、人工智慧專家Kurzweil、機器學習專家Jeremy Howard和Wait But Why博客Tim Urban等人的觀點,我們在人工智慧的發展路線圖中處於什麼階段?什麼時候會出現像人類一樣厲害的人工智慧,還有超過人類智能總和的超人工智慧?
我們所說的人工智慧(AI),是一個廣義定義。雖然眾說紛紜,大部分專家認為,人工智慧發展有三個水準:

超人工智慧(ASI)
第三類智能水準:超過所有人類智能總和的AI——用Tim Urban的話說,「從比人聰明一點點……到聰明一千萬倍。」
那我們現在在哪個階段呢?我們現在達到了第一個水準——弱人工智慧——在很多方面,它已經進入了我們的生活中:
l 汽車里到處都是ANI,從可以在緊急情況下剎車的電腦,到可以調配汽車加油參數的系統。
l 谷歌搜索是一個很大的ANI,有很多非常復雜的方法將網頁排序,知道給你顯示什麼。同樣的,Facebook Newsfeed也是
l 電子郵件垃圾郵箱過濾器,知道什麼是垃圾郵件、什麼不是,並且學會按照你的偏好來過濾郵件。
l 你的電話就是一個小型ANI工廠……你用地圖APP導航,收到定製化的音樂推薦,和Siri聊天等等。
例子不勝枚舉。弱人工智慧系統不怎麼驚悚。失控的ANI會帶來危害,但通常是獨立事件。雖然ANI不會造成人類的生存性恐慌,相對人畜無害ANI應被視為一個先兆。每一次弱人工智慧的創新進步,都在往強人工智慧和超人工智慧更近一步
5. ps處理的照片2017版與2021版區別
安裝了2021ps最新的版本嘗鮮。在此之前必須首先警告:系統不是win10版本的,沒有獨立顯卡的,顯卡要高於1066的。內存要大於16MB的。總之這新的版本要求很高!
調試之簡單,簡直是傻瓜操作!更有摳圖,填色等等神奇功能~和暫時待更新的功能。
貼心的Adobe還在頂端給我們預置了藍天、日落、壯觀三大類的天空圖片。想要替換那一種風格的,只需要直接在預設里點擊即可,與此同時,還能微調圖片的明暗度和色溫,以提高圖片的融合度。
除了原先的預設之外,在其操作面板內,你還可以添加自己以前收集的「天空素材」,以適應各種需求。
新功能二:各種智能的AI濾鏡
這個功能和我們平常用美圖秀秀里的「人像美容」相類似,但其會更加強大一些。暫時,除了基本的「美白」,「磨皮」之外,新版的PS還支持表情的修改、年齡的修改、光線的方向等細節操作。使用方法和PS原先的操作方法一樣,只需拖拽按鈕,來回調節參數的大小即可。
新功能三:黑白老照片的上色
給照片「上色」,想必很多從事設計和攝影的同行們,都嘗試過黑白的老照片上色吧,這次,PS2021則直接將其加入到了神經網路的「AI濾鏡」中,且點擊側邊的按鈕就可以進行切換。
相對以往的手動上色而言,這個上色過程則很簡單,當你將照片調入到這個頁面之後,你會發現,其實上色的操作基本上已經完成了,剩下需要做的,就是針對照片的顏色,做一下微調。
6. 神經網路的隱層數,節點數設置。
我自己總結的:
1、神經網路演算法隱含層的選取
1.1 構造法
首先運用三種確定隱含層層數的方法得到三個隱含層層數,找到最小值和最大值,然後從最小值開始逐個驗證模型預測誤差,直到達到最大值。最後選取模型誤差最小的那個隱含層層數。該方法適用於雙隱含層網路。
1.2 刪除法
單隱含層網路非線性映射能力較弱,相同問題,為達到預定映射關系,隱層節點要多一些,以增加網路的可調參數,故適合運用刪除法。
1.3黃金分割法
演算法的主要思想:首先在[a,b]內尋找理想的隱含層節點數,這樣就充分保證了網路的逼近能力和泛化能力。為滿足高精度逼近的要求,再按照黃金分割原理拓展搜索區間,即得到區間[b,c](其中b=0.619*(c-a)+a),在區間[b,c]中搜索最優,則得到逼近能力更強的隱含層節點數,在實際應用根據要求,從中選取其一即可。
7. 神經網路演算法中,參數的設置或者調整,有什麼方法可以採用
若果對你有幫助,請點贊。
神經網路的結構(例如2輸入3隱節點1輸出)建好後,一般就要求神經網路里的權值和閾值。現在一般求解權值和閾值,都是採用梯度下降之類的搜索演算法(梯度下降法、牛頓法、列文伯格-馬跨特法、狗腿法等等),這些演算法會先初始化一個解,在這個解的基礎上,確定一個搜索方向和一個移動步長(各種法算確定方向和步長的方法不同,也就使各種演算法適用於解決不同的問題),使初始解根據這個方向和步長移動後,能使目標函數的輸出(在神經網路中就是預測誤差)下降。 然後將它更新為新的解,再繼續尋找下一步的移動方向的步長,這樣不斷的迭代下去,目標函數(神經網路中的預測誤差)也不斷下降,最終就能找到一個解,使得目標函數(預測誤差)比較小。
而在尋解過程中,步長太大,就會搜索得不仔細,可能跨過了優秀的解,而步長太小,又會使尋解過程進行得太慢。因此,步長設置適當非常重要。
學習率對原步長(在梯度下降法中就是梯度的長度)作調整,如果學習率lr = 0.1,那麼梯度下降法中每次調整的步長就是0.1*梯度,
而在matlab神經網路工具箱里的lr,代表的是初始學習率。因為matlab工具箱為了在尋解不同階段更智能的選擇合適的步長,使用的是可變學習率,它會根據上一次解的調整對目標函數帶來的效果來對學習率作調整,再根據學習率決定步長。
機制如下:
if newE2/E2 > maxE_inc %若果誤差上升大於閾值
lr = lr * lr_dec; %則降低學習率
else
if newE2 < E2 %若果誤差減少
lr = lr * lr_inc;%則增加學習率
end
詳細的可以看《神經網路之家》nnetinfo里的《[重要]寫自己的BP神經網路(traingd)》一文,裡面是matlab神經網路工具箱梯度下降法的簡化代碼
若果對你有幫助,請點贊。
祝學習愉快
8. 神經網路 seed 設置成多少
seed函數是對神經網路里用到的rand函數其作用的吧.設置seed為明確的值,只是不同的人或不同次運行隨機函數是能產生相同的隨機數,觀察到相同的結果。實際運行中,設置成多少應該是無所謂的,這才是隨機數。
9. 深度學習中的神經網路參數怎麼調整
根據前一次運行的情況做調整,例如出現梯度爆炸則要調低學習速率,出現過擬合則要調高正則化參數的系數。
10. 神經網路gradient怎麼設置
梯度是計算得來的,不是「設置」的。
傳統的神經網路通過前向、後向兩步運算進行訓練。其中最關鍵的就是BP演算法,它是網路訓練的根本方式。在運行BP的過程中,你需要先根據定義好的「代價函數」分別對每一層的參數(一般是W和b)求偏導(也就是你說的gradient),用該偏導數在每一次迭代中更新對應的W和b,直至演算法收斂。
具體實現思路和細節可以參考:http://deeplearning.stanford.e/wiki/index.php/%E5%8F%8D%E5%90%91%E4%BC%A0%E5%AF%BC%E7%AE%97%E6%B3%95