導航:首頁 > 網路共享 > 迭代調整的是神經網路哪個參數

迭代調整的是神經網路哪個參數

發布時間:2022-06-07 14:11:38

Ⅰ MATLAB的BP神經網路中記錄迭代次數的mse值的變數是什麼

mse是均方誤差(Mean Squared Error, MSE)是衡量「平均誤差」的一種較方便的方法,可以評價數據的變化程度。
在MATLAB神經網路里,它是衡量神經網路(BP一樣)在每一代的訓練表現情況,MSE越小說明BP訓練計算的越准確,結果越理想。
採納我把,有問題繼續問我

Ⅱ 神經網路演算法中,參數的設置或者調整,有什麼方法可以採用

若果對你有幫助,請點贊。
神經網路的結構(例如2輸入3隱節點1輸出)建好後,一般就要求神經網路里的權值和閾值。現在一般求解權值和閾值,都是採用梯度下降之類的搜索演算法(梯度下降法、牛頓法、列文伯格-馬跨特法、狗腿法等等),這些演算法會先初始化一個解,在這個解的基礎上,確定一個搜索方向和一個移動步長(各種法算確定方向和步長的方法不同,也就使各種演算法適用於解決不同的問題),使初始解根據這個方向和步長移動後,能使目標函數的輸出(在神經網路中就是預測誤差)下降。 然後將它更新為新的解,再繼續尋找下一步的移動方向的步長,這樣不斷的迭代下去,目標函數(神經網路中的預測誤差)也不斷下降,最終就能找到一個解,使得目標函數(預測誤差)比較小。
而在尋解過程中,步長太大,就會搜索得不仔細,可能跨過了優秀的解,而步長太小,又會使尋解過程進行得太慢。因此,步長設置適當非常重要。
學習率對原步長(在梯度下降法中就是梯度的長度)作調整,如果學習率lr = 0.1,那麼梯度下降法中每次調整的步長就是0.1*梯度,
而在matlab神經網路工具箱里的lr,代表的是初始學習率。因為matlab工具箱為了在尋解不同階段更智能的選擇合適的步長,使用的是可變學習率,它會根據上一次解的調整對目標函數帶來的效果來對學習率作調整,再根據學習率決定步長。
機制如下:
if newE2/E2 > maxE_inc %若果誤差上升大於閾值
lr = lr * lr_dec; %則降低學習率
else
if newE2 < E2 %若果誤差減少
lr = lr * lr_inc;%則增加學習率
end
詳細的可以看《神經網路之家》nnetinfo里的《[重要]寫自己的BP神經網路(traingd)》一文,裡面是matlab神經網路工具箱梯度下降法的簡化代碼

若果對你有幫助,請點贊。
祝學習愉快

Ⅲ 深度神經網路dnn怎麼調節參數

深度神經網路(DNN)目前是許多現代AI應用的基礎。
自從DNN在語音識別和圖像識別任務中展現出突破性的成果,使用DNN的應用數量呈爆炸式增加。這些DNN方法被大量應用在無人駕駛汽車,癌症檢測,游戲AI等方面。
在許多領域中,DNN目前的准確性已經超過人類。與早期的專家手動提取特徵或制定規則不同,DNN的優越性能來自於在大量數據上使用統計學習方法,從原始數據中提取高級特徵的能力,從而對輸入空間進行有效的表示。

然而,DNN超高的准確性是以超高的計算復雜度為代價的。
通常意義下的計算引擎,尤其是GPU,是DNN的基礎。因此,能夠在不犧牲准確性和增加硬體成本的前提下,提高深度神經網路的能量效率和吞吐量的方法,對於DNN在AI系統中更廣泛的應用是至關重要的。研究人員目前已經更多的將關注點放在針對DNN計算開發專用的加速方法。
鑒於篇幅,本文主要針對論文中的如下幾部分詳細介紹:
DNN的背景,歷史和應用
DNN的組成部分,以及常見的DNN模型
簡介如何使用硬體加速DNN運算
DNN的背景
人工智慧與深度神經網路

深度神經網路,也被稱為深度學習,是人工智慧領域的重要分支,根據麥卡錫(人工智慧之父)的定義,人工智慧是創造像人一樣的智能機械的科學工程。深度學習與人工智慧的關系如圖1所示:

圖1:深度神經網路與人工智慧的關系
人工智慧領域內,一個大的子領域是機器學習,由Arthur Samuel在1959年定義為:讓計算機擁有不需要明確編程即可學習的能力。
這意味著創建一個程序,這個程序可以被訓練去學習如何去做一些智能的行為,然後這個程序就可以自己完成任務。而傳統的人工啟發式方法,需要對每個新問題重新設計程序。
高效的機器學習演算法的優點是顯而易見的。一個機器學習演算法,只需通過訓練,就可以解決某一領域中每一個新問題,而不是對每個新問題特定地進行編程。
在機器學習領域,有一個部分被稱作brain-inspired computation。因為人類大腦是目前學習和解決問題最好的「機器」,很自然的,人們會從中尋找機器學習的方法。
盡管科學家們仍在探索大腦工作的細節,但是有一點被公認的是:神經元是大腦的主要計算單元。
人類大腦平均有860億個神經元。神經元相互連接,通過樹突接受其他神經元的信號,對這些信號進行計算之後,通過軸突將信號傳遞給下一個神經元。一個神經元的軸突分支出來並連接到許多其他神經元的樹突上,軸突分支和樹突之間的連接被稱為突觸。據估計,人類大腦平均有1014-1015個突觸。
突觸的一個關鍵特性是它可以縮放通過它的信號大小。這個比例因子可以被稱為權重(weight),普遍認為,大腦學習的方式是通過改變突觸的權重實現的。因此,不同的權重導致對輸入產生不同的響應。注意,學習過程是學習刺激導致的權重調整,而大腦組織(可以被認為是程序)並不改變。
大腦的這個特徵對機器學習演算法有很好的啟示。
神經網路與深度神經網路

神經元的計算是輸入值的加權和這個概念啟發了神經網路的研究。這些加權和對應於突觸的縮放值以及神經元所接收的值的組合。此外,神經元並不僅僅是輸入信號的加權和,如果是這樣的話,級聯的神經元的計算將是一種簡單的線性代數運算。
相反的是,神經元組合輸入的操作似乎是一種非線性函數,只有輸入達到某個閾值的時候,神經元才會生成輸出。因此,通過類比,我們可以知道神經網路在輸入值的加權和的基礎上應用了非線性函數。
圖2(a)展示了計算神經網路的示意圖,圖的最左邊是接受數值的「輸入層」。這些值被傳播到中間層神經元,通常也叫做網路的「隱藏層」。通過一個或更多隱藏層的加權和最終被傳播到「輸出層」,將神經網路的最終結果輸出給用戶。

圖2:神經網路示意圖

在神經網路領域,一個子領域被稱為深度學習。最初的神經網路通常只有幾層的網路。而深度網路通常有更多的層數,今天的網路一般在五層以上,甚至達到一千多層。
目前在視覺應用中使用深度神經網路的解釋是:將圖像所有像素輸入到網路的第一層之後,該層的加權和可以被解釋為表示圖像不同的低階特徵。隨著層數的加深,這些特徵被組合,從而代表更高階的圖像特徵。
例如,線可以被組合成形狀,再進一步,可以被組合成一系列形狀的集合。最後,再訓練好這些信息之後,針對各個圖像類別,網路給出由這些高階特徵組成各個對象的概率,即分類結果。
推理(Inference)與訓練(Training)
既然DNN是機器學習演算法中的一員,那麼它的基本編程思想仍然是學習。DNN的學習即確定網路的權重值。通常,學習過程被稱為訓練網路(training)。一旦訓練完成,程序可以使用由訓練確定的權值進行計算,這個使用網路完成任務的操作被被稱為推斷(inference)。
接下來,如圖3所示,我們用圖像分類作為例子來展示如何訓練一個深度神經網路。當我們使用一個DNN的時候,我們輸入一幅圖片,DNN輸出一個得分向量,每一個分數對應一個物體分類;得到最高分數的分類意味著這幅圖片最有可能屬於這個分類。
訓練DNN的首要目標就是確定如何設置權重,使得正確分類的得分最高(圖片所對應的正確分類在訓練數據集中標出),而使其他不正確分類的得分盡可能低。理想的正確分類得分與目前的權重所計算出的得分之間的差距被稱為損失函數(loss)。
因此訓練DNN的目標即找到一組權重,使得對一個較大規模數據集的loss最小。

圖3:圖像分類

權重(weight)的優化過程類似爬山的過程,這種方法被稱為梯度下降(gradient decent)。損失函數對每個權值的梯度,即損失函數對每個權值求偏導數,被用來更新權值(例:第t到t+1次迭代:,其中α被稱為學習率(Learning rate)。梯度值表明權值應該如何變化以減小loss。這個減小loss值的過程是重復迭代進行的。
梯度可以通過反向傳播(Back-Propagation)過程很高效地進行計算,loss的影響反向通過網路來計算loss是如何被每個權重影響的。
訓練權重有很多種方法。前面提到的是最常見的方法,被稱為監督學習,其中所有的訓練樣本是有標簽的。
無監督學習是另一種方法,其中所有訓練樣本都沒有標簽,最終目標是在數據中查找結構或聚類。半監督學習結合了兩種方法,只有訓練數據的一小部分被標記(例如,使用未標記的數據來定義集群邊界,並使用少量的標記數據來標記集群)。
最後,強化學習可以用來訓練一個DNN作為一個策略網路,對策略網路給出一個輸入,它可以做出一個決定,使得下一步的行動得到相應的獎勵;訓練這個網路的過程是使網路能夠做出使獎勵(即獎勵函數)最大化的決策,並且訓練過程必須平衡嘗試新行為(Exploration)和使用已知能給予高回報的行為(Exploitation)兩種方法。

用於確定權重的另一種常用方法是fine-tune,使用預先訓練好的模型的權重用作初始化,然後針對新的數據集(例如,傳遞學習)或新的約束(例如,降低的精度)調整權重。與從隨機初始化開始相比,能夠更快的訓練,並且有時會有更好的准確性。

Ⅳ 神經網路參數如何確定

神經網路各個網路參數設定原則:

①、網路節點  網路輸入層神經元節點數就是系統的特徵因子(自變數)個數,輸出層神經元節點數就是系統目標個數。隱層節點選按經驗選取,一般設為輸入層節點數的75%。如果輸入層有7個節點,輸出層1個節點,那麼隱含層可暫設為5個節點,即構成一個7-5-1 BP神經網路模型。在系統訓練時,實際還要對不同的隱層節點數4、5、6個分別進行比較,最後確定出最合理的網路結構。

②、初始權值的確定  初始權值是不應完全相等的一組值。已經證明,即便確定  存在一組互不相等的使系統誤差更小的權值,如果所設Wji的的初始值彼此相等,它們將在學習過程中始終保持相等。故而,在程序中,我們設計了一個隨機發生器程序,產生一組一0.5~+0.5的隨機數,作為網路的初始權值。

③、最小訓練速率  在經典的BP演算法中,訓練速率是由經驗確定,訓練速率越大,權重變化越大,收斂越快;但訓練速率過大,會引起系統的振盪,因此,訓練速率在不導致振盪前提下,越大越好。因此,在DPS中,訓練速率會自動調整,並盡可能取大一些的值,但用戶可規定一個最小訓練速率。該值一般取0.9。

④、動態參數  動態系數的選擇也是經驗性的,一般取0.6 ~0.8。

⑤、允許誤差  一般取0.001~0.00001,當2次迭代結果的誤差小於該值時,系統結束迭代計算,給出結果。

⑥、迭代次數  一般取1000次。由於神經網路計算並不能保證在各種參數配置下迭代結果收斂,當迭代結果不收斂時,允許最大的迭代次數。

⑦、Sigmoid參數 該參數調整神經元激勵函數形式,一般取0.9~1.0之間。

⑧、數據轉換。在DPS系統中,允許對輸入層各個節點的數據進行轉換,提供轉換的方法有取對數、平方根轉換和數據標准化轉換。

(4)迭代調整的是神經網路哪個參數擴展閱讀:

神經網路的研究內容相當廣泛,反映了多學科交叉技術領域的特點。主要的研究工作集中在以下幾個方面:

1.生物原型

從生理學、心理學、解剖學、腦科學、病理學等方面研究神經細胞、神經網路、神經系統的生物原型結構及其功能機理。

2.建立模型

根據生物原型的研究,建立神經元、神經網路的理論模型。其中包括概念模型、知識模型、物理化學模型、數學模型等。

3.演算法

在理論模型研究的基礎上構作具體的神經網路模型,以實現計算機模擬或准備製作硬體,包括網路學習演算法的研究。這方面的工作也稱為技術模型研究。

神經網路用到的演算法就是向量乘法,並且廣泛採用符號函數及其各種逼近。並行、容錯、可以硬體實現以及自我學習特性,是神經網路的幾個基本優點,也是神經網路計算方法與傳統方法的區別所在。

Ⅳ 神經網路中學習率、批處理樣本數量、迭代次數有什麼意義和影響

學習率是指每次訓練過程中(迭代)變數改變(更新)的比率,例如x(t+1) = x(t) - a * delta
其中a可以看出學習率,一般在0 - 1之間,相當於步長,而delta相當於方向。
批處理樣本數量,標準的BP是單樣本學習的方法,例如圖片識別,第一個圖是貓,然後輸入圖像,網路學習一次(變數更新一次),學習到圖片的特徵,然後再輸入第二個圖片狗,在前面的基礎上再學習。 而批訓練,就是說兩個圖片一起輸入後,計算兩個樣本學習的平均的誤差(Loss), 從整體上來學習整個訓練樣本集合,這樣的學習對於大樣本數據更加有效率。
迭代次數就是學習的次數了,每次迭代就是向最優點前進的一小步,神經網路要學習到樣本的特徵,那就要一步一步地走,走了很多步才能到達符合精度地地點,所以需要學習很多次。

Ⅵ python神經網路編程有什麼用

預測器
神經網路和計算機一樣,對於輸入和輸出都做了一些處理,當我們不知道這些是什麼具體處理的時候,可以使用模型來估計,模型中最重要的就是其中的參數。
對於以前所學的知識都是求出特定的參數,而在這里是使用誤差值的大小去多次指導參數的調整,這就是迭代。
誤差值=真實值-計算值
分類器
預測器是轉換輸入和輸出之間的關系,分類器是將兩類事物劃分開,只是預測器的目的是找到輸出在直線上,分類器是找到輸出分為兩類各在直線的上下方。但其實都是找到一個合適的斜率(只考慮簡單情況下)
分類器中的誤差值E=期望的正確值-基於A的猜測值得到的計算值$ E=t-y \quad E=(ΔA)x $這就是使用誤差值E得到ΔA
ΔA=E/x
,再將ΔA作為調整分界線斜率A的量
但是這樣會存在一個問題,那就是最終改進的直線會與最後一個訓練樣本十分匹配,近視可以認識忽略了之前的訓練樣本,所以要採用一個新的方法:採用ΔA幾分之一的一個變化值,這樣既能解決上面的問題,又可以有節制地抑制錯誤和雜訊的影響,該方法如下
ΔA=L(E/x)
此處的L稱之為調節系數(學習率)
使用學習率可以解決以上問題,但是當數據本身不是由單一線性過程支配時,簡單的線性分類器還是不能實現分類,這個時候就要採用多個線性分類器來劃分(這就是神經網路的核心思想)

Ⅶ hopfield神經網路怎麼迭代

人工神經網路模型主要考慮網路連接的拓撲結構、神經元的特徵、學習規則等。目前,已有近40種神經網路模型,其中有反傳網路、感知器、自組織映射、Hopfield網路、波耳茲曼機、適應諧振理論等。根據連接的拓撲結構,神經網路模型可以分為:

(1)前向網路 網路中各個神經元接受前一級的輸入,並輸出到下一級,網路中沒有反饋,可以用一個有向無環路圖表示。這種網路實現信號從輸入空間到輸出空間的變換,它的信息處理能力來自於簡單非線性函數的多次復合。網路結構簡單,易於實現。反傳網路是一種典型的前向網路。

(2)反饋網路 網路內神經元間有反饋,可以用一個無向的完備圖表示。這種神經網路的信息處理是狀態的變換,可以用動力學系統理論處理。系統的穩定性與聯想記憶功能有密切關系。Hopfield網路、波耳茲曼機均屬於這種類型。

學習是神經網路研究的一個重要內容,它的適應性是通過學習實現的。根據環境的變化,對權值進行調整,改善系統的行為。由Hebb提出的Hebb學習規則為神經網路的學習演算法奠定了基礎。Hebb規則認為學習過程最終發生在神經元之間的突觸部位,突觸的聯系強度隨著突觸前後神經元的活動而變化。在此基礎上,人們提出了各種學習規則和演算法,以適應不同網路模型的需要。有效的學習演算法,使得神經網路能夠通過連接權值的調整,構造客觀世界的內在表示,形成具有特色的信息處理方法,信息存儲和處理體現在網路的連接中。
根據學習環境不同,神經網路的學習方式可分為監督學習和非監督學習。在監督學習中,將訓練樣本的數據加到網路輸入端,同時將相應的期望輸出與網路輸出相比較,得到誤差信號,以此控制權值連接強度的調整,經多次訓練後收斂到一個確定的權值。當樣本情況發生變化時,經學習可以修改權值以適應新的環境。使用監督學習的神經網路模型有反傳網路、感知器等。非監督學習時,事先不給定標准樣本,直接將網路置於環境之中,學習階段與工作階段成為一體。此時,學習規律的變化服從連接權值的演變方程。非監督學習最簡單的例子是Hebb學習規則。競爭學習規則是一個更復雜的非監督學習的例子,它是根據已建立的聚類進行權值調整。自組織映射、適應諧振理論網路等都是與競爭學習有關的典型模型。
研究神經網路的非線性動力學性質,主要採用動力學系統理論、非線性規劃理論和統計理論,來分析神經網路的演化過程和吸引子的性質,探索神經網路的協同行為和集體計算功能,了解神經信息處理機制。為了探討神經網路在整體性和模糊性方面處理信息的可能,混沌理論的概念和方法將會發揮作用。混沌是一個相當難以精確定義的數學概念。一般而言,「混沌」是指由確定性方程描述的動力學系統中表現出的非確定性行為,或稱之為確定的隨機性。「確定性」是因為它由內在的原因而不是外來的雜訊或干擾所產生,而「隨機性」是指其不規則的、不能預測的行為,只可能用統計的方法描述。混沌動力學系統的主要特徵是其狀態對初始條件的靈敏依賴性,混沌反映其內在的隨機性。混沌理論是指描述具有混沌行為的非線性動力學系統的基本理論、概念、方法,它把動力學系統的復雜行為理解為其自身與其在同外界進行物質、能量和信息交換過程中內在的有結構的行為,而不是外來的和偶然的行為,混沌狀態是一種定態。混沌動力學系統的定態包括:靜止、平穩量、周期性、准同期性和混沌解。混沌軌線是整體上穩定與局部不穩定相結合的結果,稱之為奇異吸引子。

Ⅷ 神經網路訓練迭代次數到底是就是外層循環次數呢,還是外層循環次數*內層的樣本數目

迭代次數是:總的迭代次數即echo。
誤差曲線的縱坐標給出的是:測試樣本集中的幾組樣本的輸出誤差的mse。
自己編程的話,誤差計算方式可以自己定,可以是MSE、SSE、1/2*sse等等。

Ⅸ 深度學習入門課程筆記 神經網路

深度學習入門課程筆記 神經網路
神經網路:

首先咱們先來回顧一下之前課程所講前向傳播和反向傳播知識點,前往傳播就是從輸入X到最終得到LOSS值的過程,反向傳播是從最終的LOSS值經過梯度的傳播最終計算出權重矩陣W中所有參數對於最終的LOSS值影響大小,更新參數就是通過不同權重參數對終LOSS值的影響來調節參數,使得咱們的參數矩陣W能夠更擬合咱們的數據,也就是使得最終的LOSS值能夠降低。這一系列的過程就是相當於完成了一次迭代
神經網路本質

下面咱們就來看看神經網路跟傳統的線性分類到底有什麼區別,從公式中我們可以看出,一個最明顯的區別就是神經網路函數多了一個MAX()計算也就是說我們咱們現在的函數公式變成了一個非線性的操作,也正是這種非線性的函數使得神經網路相比於傳統的線性分類更強大,因為非線性可以使得咱們的函數去擬合更復雜的數據。
神經網路結構

接下來咱們就來看一下神經網路的結構,從途中可以看出,神經網路是一個層次的結構
輸入層也就是代表著數據源
隱層這個大家理解起來可能有些費勁,咱們可以把隱層當成是中間層也就是在這里對輸入數據進行了非線性的變換
激活函數它是跟隱層在一起的,比如這個MAX()函數就是一個激活函數,正是因為激活函數的存在才使得整個神經網路呈現出一種非線性的模式。
輸出層這個就是最終得到的結果了,比如一個分類任務,最終的輸出就是每個類別的概率值了

我們可以看到對應於多層的網路也就是有多個隱層,相當於咱們又加了一層非線性函數MAX(),這個理解起來很簡單了吧,對於深層網路來說,它具有更好的非線性也就是說網路的層數越深就更能夠去擬合更復雜的數據。
生物學上的結構

看過很多講解都提高了把神經網路和人類的腦結構相對比,我覺得這有些增加了游戲難度,因為很多同學本身對生物學結構就不是很清楚,又搞了這多名詞出來,理解起來好像更費勁了,這里咱們就不說生物學結構了,直接看右半部分,和之前的線性分類最大的區別就是我們多了一個activation function也就是咱們剛才所說的激活函數,可以說正是激活函數的存在使得整個神經網路變得強大起來。
神經元

那麼神經網路能表達多復雜的數據信息是由什麼決定的呢?這個例子給了咱們很好的解釋,神經網路是表達能力是由神經元的個數,也就是每一個隱層所函數神經元的個數來決定的,神經元越多,層數越深表達的能力也就越強,理論上我們認為神經元越多越好!
防止過擬合

咱們剛才說了神經網路具有很強的表達能力,但是也很危險的,就是說神經網路很容易發成過擬合現象,因為咱們有大量的神經元也就是導致了我們需要的參數是極其多的,那麼該怎麼辦呢?最直接的方法就是加上正則化項,它可以使得咱們的神經網路不至於過擬合很嚴重也是咱們訓練神經網路必做的一項,圖中顯示了正則化的作用!

Ⅹ 神經網路 的四個基本屬性是什麼

神經網路 的四個基本屬性:

(1)非線性:非線性是自然界的普遍特徵。腦智能是一種非線性現象。人工神經元處於兩種不同的激活或抑制狀態,它們在數學上是非線性的。由閾值神經元組成的網路具有更好的性能,可以提高網路的容錯性和存儲容量。

(2)無限制性:神經網路通常由多個連接廣泛的神經元組成。一個系統的整體行為不僅取決於單個神經元的特性,而且還取決於單元之間的相互作用和互連。通過單元之間的大量連接來模擬大腦的非限制性。聯想記憶是一個典型的無限制的例子。

(3)非常定性:人工神經網路具有自適應、自組織和自學習的能力。神經網路處理的信息不僅會發生變化,而且非線性動態系統本身也在發生變化。迭代過程通常用來描述動態系統的演化。

(4)非凸性:在一定條件下,系統的演化方向取決於特定的狀態函數。例如,能量函數的極值對應於系統的相對穩定狀態。非凸性是指函數具有多個極值,系統具有多個穩定平衡態,從而導致系統演化的多樣性。

(10)迭代調整的是神經網路哪個參數擴展閱讀:

神經網路的特點優點:

人工神經網路的特點和優越性,主要表現在三個方面:

第一,具有自學習功能。例如實現圖像識別時,只在先把許多不同的圖像樣板和對應的應識別的結果輸入人工神經網路,網路就會通過自學習功能,慢慢學會識別類似的圖像。自學習功能對於預測有特別重要的意義。預期未來的人工神經網路計算機將為人類提供經濟預測、市場預測、效益預測,其應用前途是很遠大的。

第二,具有聯想存儲功能。用人工神經網路的反饋網路就可以實現這種聯想。

第三,具有高速尋找優化解的能力。尋找一個復雜問題的優化解,往往需要很大的計算量,利用一個針對某問題而設計的反饋型人工神經網路,發揮計算機的高速運算能力,可能很快找到優化解。

閱讀全文

與迭代調整的是神經網路哪個參數相關的資料

熱點內容
電腦啟動之後網路掉線 瀏覽:456
如何加入電腦間的共享網路 瀏覽:115
適合在家做的網路工作有哪些 瀏覽:166
6月1日網路安全法 瀏覽:600
惠普筆記本如何解除無線網路 瀏覽:716
連接路由器無線網路顯示不可用 瀏覽:100
吳江區網路標志設計電話多少 瀏覽:846
維修網路手機號碼是多少 瀏覽:369
手機網路維修會不會盜走資料 瀏覽:910
塘廈網路信號改造 瀏覽:332
網路安全推文的形式 瀏覽:429
古劍奇譚網路版pk哪個職業強 瀏覽:606
迅捷網路wifi設置下載 瀏覽:885
新都移動網路斷網 瀏覽:604
怎麼做國家網路安全相關視頻 瀏覽:667
網路安全和信息化部門是哪個 瀏覽:195
韓國電話卡哪個公司網路穩定 瀏覽:737
網路擴大器哪個品牌好 瀏覽:444
關網路的路由器怎麼看不了電視 瀏覽:296
網路分享怎麼弄的 瀏覽:830

友情鏈接