導航:首頁 > 網路安全 > 如何把回歸網路改為分類

如何把回歸網路改為分類

發布時間:2022-08-18 14:23:20

如何把cnn分類程序變為回歸程序

你要看你的圖像是什麼。如果是彩色數字,先轉成灰度。用MNIST訓練網路。如果是各種主題,用彩色的imageNET訓練。如果你的數據量大到足以與數據集媲美,那麼直接用你的數據訓練網路即可。
在流行的數據集上訓練完,你需要固定卷積池化層,只訓練後面的全連接層參數,用你自己的數據集。
CNN一是調整網路結構,幾層卷積幾層池化,卷積的模板大小等。而是在確定結構上調整參數,weight scale,learning rate,reg等。
你用CNN做圖像分類,無非是把CNN當成學習特徵的手段,你可以吧網路看成兩部分,前面的卷積層學習圖像基本-中等-高層特徵,後面的全連接層對應普通的神經網路做分類。

需要學習的話,首先你去看UFLDL教程。然後cs231n

與其問別人,首先你看了imageNet數據集了嗎?

對於把流行數據集與自己數據混合訓練模型的方法。如果兩種數據十分相似,也未嘗不可。但是對於流行數據集而言,自己的標注數據量一般不會太大,如果是1:1000,1:100這種比例,那麼可能不加自己的數據,完全用數據集訓練的模型就能得到一個還好的結果。
如果自己的數據和數據集有些差別,那混在一起我認為自己的是在用自己的數據當做雜訊加到數據集中。cnn認為圖像是局部相關的,而欺騙CNN的方法則主要出於,自然圖像分布在一種流形結構中,訓練的模型需要這種流形假設,而人工合成的圖像由於添加非自然噪點,不滿足模型假設,所以能用肉眼難分辨的雜訊嚴重干擾分類結果。
如果二者相差過大,數據集是一種分布,你的數據是另一種,放到一起訓練,我沒試過,但我認為結果不會太好。
這時候只能把數據集用來訓練cnn的特徵提取能力。而後用於分類的全連接層,視你的數據量調整規模。

⑵ 如何使用spss對logistics回歸中分類變數進行

1.打開數據以後,菜單欄上依次點擊:analyse--regression--binary logistic,打開二分回歸對話框

2.將因變數和自變數放入格子的列表裡,如圖所示,上面的是因變數,下面的是自變數,我們看到這里有三個自變數

3.設置回歸方法,這里選擇最簡單的方法:enter,它指的是將所有的變數一次納入到方程。其他方法都是逐步進入的方法,在前面的文章中有介紹,這里就不再熬述。

4.點擊ok,開始處理數據並檢驗回歸方程,等待一會就會彈出數據結果窗口

5.看到的第一個結果是對case的描述,第一個列表告訴你有多少數據參與的計算,有多少數據是預設值;第二個列表告訴你因變數的編碼方式,得分為1代表患病,得分為0代表沒有患病

6.這個列表告訴你在沒有任何自變數進入以前,預測所有的case都是患病的正確率,正確率為%52.6

7.下面這個列表告訴你在沒有任何自變數進入以前,常數項的預測情況。B是沒有引入自變數時常數項的估計值,SE它的標准誤,Wald是對總體回歸系數是否為0進行統計學檢驗的卡方。

8.下面這個表格結果,通過sig值可以知道如果將模型外的各個變數納入模型,則整個模型的擬合優度改變是否有統計學意義。 sig值小於0.05說明有統計學意義
9.這個表格是對模型的全局檢驗,為似然比檢驗,供給出三個結果:同樣sig值<0.05表明有統計學意義。

10.下面的結果展示了-2log似然值和兩個偽決定系數。兩個偽決定系數反應的是自變數解釋了因變數的變異占因變數的總變異的比例。他們倆的值不同因為使用的方法不同。

11.分類表,這里展示了使用該回歸方程對case進行分類,其准確度為%71.8。

12.最後是輸出回歸方程中的各變數的系數和對系數的檢驗額值,sig值表明該系數是否具有統計學意義。到此,回歸方程就求出來了。
參考資料:http://jingyan..com/article/fdffd1f81f1c0ff3e98ca11e.html

⑶ 怎樣把NAT3類型的網路轉換成NAT2類型

實現的方法和詳細的操作步驟如下:

1、第一步,在計算機桌面上找到「計算機」圖標,然後雙擊進入,如下圖所示,然後進入下一步。

⑷ spss如何把因變數改為二分類變數

在spss菜單中依次選擇 轉換——重新編碼為不同變數,然後彈出一個對話框,將需要轉換的變數(如圖,假設a3就是年齡)選入「數字變數——輸出變數」的框中,然後在右邊輸出變數下面的名稱框中輸入年齡段這個新變數名,點擊更改按鈕,接著點擊舊值和新值按鈕,

在舊值那一欄下面選擇年齡范圍,在右邊的新值那欄下面輸入賦予的新值,然後點擊添加,OK即可,多次操作即可得到新的年齡段變數,比如圖中給年齡段18——25賦予新值1,

望採納。

⑸ 分類變數如何進行線性回歸分析

嗯,在分類變數中包括二分類的變數和多分類的變數,其中二分類的變數改成虛擬變數,只要將一類賦值為0,另一類賦值為1就可以了,0作為對照組;如果是多分類的變數,改成虛擬變數時,需要設立分類數減1的虛擬變數,比如年級有三個值:一年級、二年級、三年級,那就需要設兩個虛擬變數:年級1、年級2,以一年級作為對照組,那年級1和年級2同時為0則表示一年級,年級1為1,年級2為0表示二年級,年級1為0,年級2為1表示三年級。
在輸入數據時,數據中有兩個變數:年級1和年級2,兩個變數的取值都是0和1,在做回歸分析時將這兩個變數選入自變數中就可以了。(這些在logistic回歸中其實就一步完成了,但是在線性回歸中就按照上面說的,比較麻煩。)不知道我是否說明白了。

⑹ bp神經網路只有一類樣本怎麼分類

神經網路一列為一個樣本,所以對於matlab 而言,要求輸入和輸出的列數必須一樣的
經常有人問起的問題:
Error using ==> network/train
Targets are incorrectly sized for network.
Matrix must have 1 rows.
解決:要求P T 的列數一樣 ,如果不一樣 P=p』 t=t』 轉置一下
2.
歸一
澄清一個對歸一的錯誤理解1
樣本矩陣為9行4列。9組樣本,4個變數。現在歸一化:
x=[68.7 66.6 5610 19.2;
89.9 90.8 4500 11.8;
120.8 120.6 6800 20.6;
169 40.4 6160 40.6;
180.8 69.8 7330 33.4;
190.3 130.2 7320 31.6;
109.8 151.1 5754 86.1;
33.2 61.4 8255 22.6;
111.7 126.6 7040 13.6;]
寫法一:
for i=1:9
x1(i,:)=(x(i,:)-min(x(i,:)))/(max(x(i,:))-min(x(i,:)))
end
結果:
0.0089 0.0085 1.0000 0
0.0174 0.0176 1.0000 0
0.0148 0.0148 1.0000 0
0.0210 0 1.0000 0.0000
0.0202 0.0050 1.0000 0
0.0218 0.0135 1.00 00 0
0.0042 0.0115 1.0000 0
0.0013 0.0047 1.0000 0
0.0140 0.0161 1.0000 0

寫法二:
x=x'
for i=1:4
x1(i,:)=(x(i,:)-min(x(i,:)))/(max(x(i,:))-min(x(i,:)))
end
結果:
Columns 1 through 8

0.2260 0.3609 0.5576 0.8644 0.9395 1.0000 0.4876 0
0.2367 0.4553 0.7245 0 0.2656 0.8112 1.0000 0.1897
0.2956 0 0.6125 0.4421 0.7537 0.7510 0.3340 1.0000
0.0996 0 0.1184 0.3876 0.2907 0.2665 1.0000 0.1454

Column 9

0.4997
0.7787
0.6764
0.0242
注意:寫法2為正確的歸一化

對歸一的錯誤理解2
將數據集分為訓練集和測試集,對訓練集和測試集分別做歸一處理
所以就會有人問 如果我的測試集只有一個數據 如何歸一呀
最大最小值從那裡找呀
正確的理解是:
訓練集和測試集的歸一標準是一樣的
建議:
如果訓練集和測試集是一起歸一的 可以自己編程實現歸一
如果是訓練集和測試集是分開的,最好是使用matlab自帶的premnmx、postmnmx、tramnmx 函數
如果是自己編程的話 ,請注意訓練集和測試集的歸一標准需要一樣
premnmx、postmnmx、tramnmx 函數
的使用例子如下:
Example

Here is the code to normalize a given data set so
that the inputs and targets will fall in the
range [-1,1], using PREMNMX, and the code to train a network
with the normalized data.

p = [-10 -7.5 -5 -2.5 0 2.5 5 7.5 10];
t = [0 7.07 -10 -7.07 0 7.07 10 7.07 0];
[pn,minp,maxp,tn,mint,maxt] = premnmx(p,t);
net = newff(minmax(pn),[5 1],{'tansig' 'purelin'},'trainlm');
net = train(net,pn,tn);

If we then receive new inputs to apply to the trained
network, we will use TRAMNMX to transform them
first. Then the transformed inputs can be used
to simulate the previously trained network. The
network output must also be unnormalized using
POSTMNMX.

p2 = [4 -7];
[p2n] = tramnmx(p2,minp,maxp);
an = sim(net,pn);
[a] = postmnmx(an,mint,maxt);

這個是歸一到-1 和 1 之間 那我要歸一到0 1 之間怎麼辦
有人說可以使用加絕對值就歸一到 0 1之間了
我覺得加絕對值可能會有些問題
比較好的方式是變換
P 在-1 1 之間
Pp=(p+1)/2 就可以歸一到0 1之間
至於要歸一到0.1- 0.9 之間 選取合適的變換就可以做到了
二、神經網路(BP)系列(2)(初學者系列)每次結果不一樣解析
這個系列主要針對使用matlab 神經網路工具箱,對一些初學者容易理解錯誤的地方進行解析。
神經網路每次結果不同解析
神經網路每次結果不同是因為初始化的權值和閾值是隨機的
因為每次的結果不一樣,才有可能找到比較理想的結果啊
找到比較好的結果後,用命令save filename net;保存網路,
可使預測的結果不會變化,調用時用命令load filename net;
取p_test=[ ];
t_test=[ ];
t=sim(net,p_test);
err=t_test-t;
plot(p_test,err);
選擇誤差小的保存網路
save filename net
以後調用時
load filename net
p_test=[ ];
t_test=[ ];
t=sim(net,p_test);
err=t_test-t;
plot(p_test,err):
因為每次初始化網路時都是隨機的,而且訓練終止時的誤差也不完全相同,結果訓練後的權植和閥也不完全相同(大致是一樣的),所以每次訓練後的結果也略有不同
舉個例子,這樣初始化就能使網路的輸出結果是一樣的,另外也可以給網路特定的權值,一種方法是把預測結果後的效果比較好的權值做為初值
p=[0.8726 0.9441 0;0 0 0.7093;0.7378 0.7093 0.3795;0.6416 0.3795 0.7031;1 0.7031 0.4241;0.7774 0.4241 0.9559;0.9559 0.5012 0.7052;...
0.8209 0.7052 0.4983;0.6011 0.4983 1;]';
t=[0 0.7378 0.6416 1 0.7774 0.5012 0.8209 0.6011 0.9350];
rand('state',0);
net=newff(minmax(p),[6,1],{'tansig','logsig'},'trainlm');
net.trainParam.epochs=2000;
net.trainParam.goal=0.001;
net=train(net,p,t);
y=sim(net,p);
error=y-t;
res=norm(error);
p_test=[0.9350 1 0.6236;]';
t_test=[ 0.8027]
a=sim(net,p_test)
rand('state',0);
這個的作用是每次初始化一樣
0是種子數,如果換成其他數,就可以產生不同的隨機值
注: rand('state',0);的使用有點為結果相同而相同,至於這樣的結果網路性能是否達到好的要求則沒有考慮,建議還是不要用這種方法使每次結果相同
用保存網路的方法吧
消除初值影響可以考慮的另一個方法是簡單集成神經網路
原理
由於選擇不同的權值所得結果不同,使最終神經網路泛化能力體現出一定的隨機性。利用這個特性也可以改善神經網路的泛化能力,神經網路集成便是利用這種思路的體現,即先訓練一組只有初始權值不同的子網,然後通過各子網「表決(Voting)」 的形式(如加權和)得到學習系統的輸出。
當神經網路集成用於分類器時,集成的輸出通常由個體網路的輸出投票產生。通常利用絕對多數投票法(某分類成為最終結果當且僅當輸出結果為該分類的神經網路的數目最多)。理論分析和大量實驗表明,後者優於前者。因此,在對分類器進行集成時,目前大多採用相對多數投票法。
當神經網路集成用於回歸估計時,集成的輸出通常由各網路的輸出通過簡單平均或加權平均產生。Perrone等人認為,採用加權平均可以得到比簡單平均更好的泛化能力。

三、神經網路(BP)系列(3)(初學者請看)分類實例
分類實例
輸入輸出設計:
對某一問題分析,影響網路性能的輸入主要有5個指標,輸出則分為8類。8類的話可以用三位二進製表示。
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
神經網路的輸入為5維的向量,輸出為三維的向量。輸入的數據具有不同的單位和量級,所以在輸入在輸入神經網路之前應該首先進行歸一化處理,將樣本數據歸一到0 1之間。
樣本總共有328組數據
將樣本集分為訓練集和測試集
隨機抽取70取做為測試測試集
其餘的作為訓練集
網路設計
採用tansig(x)和logsig(x)函數作為傳輸函數,tansig(x)如下式:
tansig=2/(1+exp(-2x))-1
logsig(x) 如下式:
logsig(x) = 1 / (1 + exp(-n))
對於有限個輸入到輸出的映射,並不需要無限個隱層節點,這就涉及到如何選擇隱層節點數的問題,而這一問題的復雜性,使得至今為止尚未找到一個很好的解析 式,隱層節點數往往根據前人設計所得的經驗和自己進行試驗來確定。設計網路時我採用的方法是通過神經網路訓練來確定隱含層的個數,首先確定隱含層中節點數目的范圍,設計一個隱含層神經元數目可變的BP網路,通過誤差對比,確定最佳的隱含層神經元的個數。最後確定的隱含層的個數為12。所以網路結構為 5-12-3的三層結構。
load('CSHuju1.mat');
p=CC1(:,[1,3:6])';
T=[0 0 0;
1 1 1;
1 1 0;
1 0 1;
1 0 0;
0 1 1;
0 1 0;
0 0 1];
t=repmat(T,41,1)';
pp=p;
%%%%%%歸一到 0 1 之間
for i=1:5
p(i,:)=(p(i,:)-min(p(i,:)))/(max(p(i,:))-min(p(i,:)));
end
AllSamNum=328;%總樣本數
TrainSamNum=258;%訓練樣本數
TestSamNum=AllSamNum-TrainSamNum;%測試樣本數
PerPos=randperm(AllSamNum);
TrainDataIn=p(:,1:TrainSamNum)
TrainDataOut=t(:,1:TrainSamNum)
TestDataIn=p(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))
TestDataOut=t(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))
MaxMin=[0 1; 0 1; 0 1; 0 1;0 1];
net=newff(MaxMin,[12,3],{'tansig','logsig'},'trainlm');
%訓練參數設置
net.trainParam.epochs=1000;
%訓練次數
net.trainParam.goal=0.0001;
%訓練結束的目標
LP.lr=0.1;
%學習率
net.trainParam.show=20;
net=train(net,TrainDataIn,TrainDataOut);
out=sim(net,TestDataIn)

訓練結果:
TRAINLM, Epoch 0/1000, MSE 0.296308/0.0001, Gradient 83.9307/1e-010
TRAINLM, Epoch 20/1000, MSE 0.0224641/0.0001, Gradient 6.7605/1e-010
TRAINLM, Epoch 40/1000, MSE 0.00563627/0.0001, Gradient 3.27027/1e-010
TRAINLM, Epoch 60/1000, MSE 0.00348587/0.0001, Gradient 1.49868/1e-010
TRAINLM, Epoch 80/1000, MSE 0.00247714/0.0001, Gradient 0.459233/1e-010
TRAINLM, Epoch 100/1000, MSE 0.0018843/0.0001, Gradient 0.289155/1e-010
TRAINLM, Epoch 120/1000, MSE 0.00148204/0.0001, Gradient 0.392871/1e-010
TRAINLM, Epoch 140/1000, MSE 0.00119585/0.0001, Gradient 0.340864/1e-010
TRAINLM, Epoch 160/1000, MSE 0.000980448/0.0001, Gradient 0.391987/1e-010
TRAINLM, Epoch 180/1000, MSE 0.000779059/0.0001, Gradient 0.389835/1e-010
TRAINLM, Epoch 200/1000, MSE 0.000606974/0.0001, Gradient 0.310202/1e-010
TRAINLM, Epoch 220/1000, MSE 0.000388926/0.0001, Gradient 0.331632/1e-010
TRAINLM, Epoch 240/1000, MSE 0.000143563/0.0001, Gradient 0.0403953/1e-010
TRAINLM, Epoch 248/1000, MSE 9.87756e-005/0.0001, Gradient 0.174263/1e-010
TRAINLM, Performance goal met.
訓練好的權值、閾值的輸出方法是:
輸入到隱層權值:w1=net.iw{1,1}
隱層閾值:theta1=net.b{1}
隱層到輸出層權值:w2=net.lw{2,1};
輸出層閾值:theta2=net.b{2}
>>w1=net.iw{1,1}

w1 =

1.7663 -2.8022 -0.7142 -2.1099 -2.4011
3.6614 -2.5297 -4.4295 5.0508 8.1899
4.4007 7.6775 -6.0282 6.1567 1.8775
4.5009 -9.9915 5.9737 5.0234 3.3931
0.2703 -2.8850 0.4482 -2.9153 1.3648
2.3769 3.3151 0.8745 3.1900 1.2608
-2.2815 -6.6847 1.8738 2.4093 -2.9033
-5.3332 6.1506 -8.4386 -6.7979 3.1428
-0.0135 -10.8942 -9.6333 7.2311 12.0693
2.3130 5.2211 0.0155 2.9431 0.3135
-6.4017 -0.8987 0.1976 3.2527 0.1444
-3.6517 -1.6339 3.5505 2.4813 1.7880
>> theta1=net.b{1}

theta1 =

0.5955
-5.4876
-9.8986
-4.4731
3.6523
-4.0371
5.6187
5.7426
0.9147
-8.5523
-2.3632
-5.6106
>> w2=net.lw{2,1}

w2 =

Columns 1 through 8

-0.2751 -3.5658 -2.3689 -6.4192 -1.1209 1.5711 -1.7615 7.6202
-1.2874 -9.1588 -14.4533 7.5064 3.7074 0.9019 8.7033 -5.0031
3.3536 -0.8844 7.8887 0.9336 0.8410 -2.4905 1.0627 -9.3513

Columns 9 through 12

-2.5894 -1.9950 -3.0132 -4.7009
13.3490 -9.8521 -4.6680 -4.2037
-5.9251 2.9388 -1.6797 -2.1077
>> theta2=net.b{2}

theta2 =

-2.4762
0.5692
0.6694
輸出:
out =

Columns 1 through 8

1.0000 1.0000 0.0020 0.0000 1.0000 1.0000 0.0000 0.0000
1.0000 0.0000 0.0041 1.0000 1.0000 1.0000 1.0000 1.0000
0.9991 0.0000 0.0036 0.0015 0.9992 0.9985 0.0055 0.0036

Columns 9 through 16

1.0000 0.0000 0.0019 1.0000 0.0000 0.0000 0.0000 0.9996
1.0000 1.0000 0.9901 1.0000 1.0000 1.0000 1.0000 0.0000
0.9977 0.9999 0.9996 0.9994 0.0046 0.0023 0.0014 1.0000

Columns 17 through 24

0.0020 0.9925 0.0020 0.0000 0.0020 1.0000 0.0002 1.0000
0.0041 0.0284 0.0041 0.0284 0.0041 1.0000 0.9983 1.0000
0.0036 0.9955 0.0036 1.0000 0.0036 0.9989 0.9999 0.9990

Columns 25 through 32

1.0000 0.9938 1.0000 0.0000 1.0000 0.9999 0.0000 1.0000
1.0000 0.0177 0.0000 0.0021 1.0000 0.0006 1.0000 1.0000
0.0000 0.9971 0.0000 1.0000 0.0000 0.0004 0.9999 0.0000

Columns 33 through 40

0.9954 1.0000 0.0000 0.0000 0.9951 0.0020 0.0000 0.9997
0.0065 1.0000 1.0000 0.0025 0.0178 0.0041 1.0000 0.0000
0.9986 0.9990 0.9999 1.0000 0.0101 0.0036 0.0013 1.0000

Columns 41 through 48

0.0000 1.0000 0.9983 0.0000 0.0020 1.0000 0.0000 0.9873
0.0020 1.0000 0.0000 0.0037 0.0041 1.0000 0.0328 0.0637
1.0000 0.0000 0.9999 1.0000 0.0036 0.9982 1.0000 0.9884

Columns 49 through 56

0.0000 0.0001 1.0000 1.0000 1.0000 0.0000 0.0004 1.0000
0.0164 0.9992 0.9982 1.0000 1.0000 1.0000 0.9965 0.9998
1.0000 0.9999 0.9948 0.9991 0.9989 0.0024 0.9998 0.9968

Columns 57 through 64

1.0000 1.0000 0.0000 0.0020 0.0020 0.0001 0.0001 0.0000
0.9763 1.0000 0.0134 0.0041 0.0041 0.9990 0.0395 0.0017
0.0202 0.9988 1.0000 0.0036 0.0036 0.9999 0.9999 1.0000

Columns 65 through 70

0.9993 0.0000 0.0000 0.9978 1.0000 1.0000
0.0000 0.0018 0.0110 0.0001 1.0000 0.9998
1.0000 1.0000 1.0000 0.9999 0.9987 0.0007
每次結果因為初始化不同會不一樣,可以選取一個性能比較好的網路
保持起來
save myBpNet net
save myShu.mat TestDataIn TestDataOut
測試數據也保存起來
(TestDataIn TestDataOut 為測試數據的輸入向量和目標向量)
以後調用時
load myshu.mat
load myBpNet net
out=sim(net,TestDataIn)
基本框架程序:(前面的樣本數據自己根據實際情況設計)
load('CSHuju1.mat');
p=CC1(:,[1,3:6])';
T=[0 0 0;
1 1 1;
1 1 0;
1 0 1;
1 0 0;
0 1 1;
0 1 0;
0 0 1];
t=repmat(T,41,1)';
pp=p;
%%%%%%歸一到 0 1 之間
for i=1:5
p(i,:)=(p(i,:)-min(p(i,:)))/(max(p(i,:))-min(p(i,:)));
end
AllSamNum=328;%總樣本數
TrainSamNum=258;%訓練樣本數
TestSamNum=AllSamNum-TrainSamNum;%測試樣本數
PerPos=randperm(AllSamNum);
TrainDataIn=p(:,1:TrainSamNum)
TrainDataOut=t(:,1:TrainSamNum)
TestDataIn=p(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))
TestDataOut=t(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))
MaxMin=[0 1; 0 1; 0 1; 0 1;0 1];
net=newff(MaxMin,[12,3],{'tansig','logsig'},'trainlm');
net.trainParam.epochs=1000;
%訓練次數
net.trainParam.goal=0.0001;
%訓練結束的目標
LP.lr=0.1;
%學習率
net.trainParam.show=20;
net=train(net,TrainDataIn,TrainDataOut);
out=sim(net,TestDataIn)

蘋果手機還原網路設置會怎樣

使用該功能後需要重新手動連接Wifi,設置個人熱點等,不影響其他數據,用以解決手機中的網路問題,還原網路設置的方法如下:

1、打開手機中的設置。

閱讀全文

與如何把回歸網路改為分類相關的資料

熱點內容
花溪網路哪個公司好 瀏覽:175
列印機wifi怎麼連接網路 瀏覽:228
計算機網路映射埠如何打開 瀏覽:547
做建材網路營銷投資計劃 瀏覽:267
電腦網路如何自動連接 瀏覽:349
漳州網路運營中心在哪個區 瀏覽:605
千兆網路高速連接線誰用過怎麼樣 瀏覽:694
mfc7360共享網路列印 瀏覽:613
南京量業網路科技有限公司怎麼樣 瀏覽:909
sim卡信號和網路信號相同嗎 瀏覽:73
申通網路退網是怎麼回事 瀏覽:550
轉轉的網路伺服器是哪裡 瀏覽:310
峰尚網路科技有限公司在哪裡 瀏覽:636
網路信號干擾器上市公司 瀏覽:402
獵頭網路平台有哪些優勢 瀏覽:26
網路值班室要哪些東西 瀏覽:275
網路連接完wlan口不可連接 瀏覽:621
手機天線問題會導致網路問題嗎 瀏覽:10
日本網路播放器有哪些 瀏覽:623
電腦保持網路連接 瀏覽:615

友情鏈接