導航:首頁 > 無線網路 > 面試網路信號測試

面試網路信號測試

發布時間:2023-02-26 10:07:05

㈠ 這六個面試信號告訴你:面試有戲

這六個面試信號告訴你:面試有戲

「我覺得面試的感覺挺好的,為什麼沒有被錄用?」小陳最近頻頻面試,可總是沒有收到錄用通知。「到底怎樣才能知道面試官對自己感不感興趣呢?」

近期,有人發起了「哪些信號預示面試有戲」的投票討論,結合投票結果及網友們的反饋意見,我們評選出了六大預示面試有戲的信號,希望你在看完之後對面試結果更加有底。

信號一:主動詢問到崗時間

有戲程度:★★★★☆

求職者情景再現:曾經有好幾次面試,面試官只草草問了些問題,根本沒問什麼到崗時間就把我打發了。所以我認為如果面試官在問完其他問題後,再與我確認到崗時間的話,代表這次面試成功了一半。問到這個問題的潛台詞是,面試官對前面的面試過程比較滿意,願意再看看到崗時間。

HR獨白:在用人部門要人很急的情況下,我會著重把到崗時間確認一下,作為第一選項考慮。在其他條件差不多的時候,到崗位時間快的候選人會有優勢。

信號二:面試官熱情介紹並展示公司

有戲程度:★★★★

求職者情景再現:以往我去面試,對方公司根本不會主動介紹自己的公司,而這次卻不同,面試官不僅熱情地向我介紹公司的各種成果,還親自帶我參觀了辦公環境。我想一定是對我滿意才這么做的吧!

HR獨白:主動介紹公司要看介紹的程度。有的僅僅就是為了完成公司規定的招聘流程,畢竟公司總是想把最好的一面展示出來,從而增加社會對公司的良好口碑。

信號三:面試官主動留下聯系方式

有戲程度:★★★☆

求職者情景再現:如果面試官在面試後給我名片,並且說會與我聯系,我認為面試成功機率很高。我的最近一份工作就是如此。如果面試官不看好這次面試,他根本不用留下什麼聯系方式的,面試官也怕求職者糾纏吧!

HR 獨白:留下聯系方式,可能是工作需要,比如需要你提供一份粗略計劃書發到他郵箱。通常,一位求職者被企業錄用,可能是因為下列考量因素部分或全部得到了滿足:1.求職者各方面和招聘崗位很適合(包括能力、學識、期望薪資,注意這里說的是適合,有的求職者條件非常好也被拒,就是因為不適合。從求職者的.角度說,你有時候被拒其實和你能力、魅力無關,只是不適合)2.用人單位面臨著巨大招人難的壓力(長時間沒招到人,而崗位人員空缺)。其他一切都是 「你想多了」。

信號四:當場約定下次面試時間

有戲程度:★★★

求職者情景再現:當面試官和我約定下一場面試時間的時候,我知道這次絕對是有戲了。裸辭快兩個月了,現在終於有種「守得雲開見月明」的感覺了。

HR獨白:我們企業面試一般有兩輪,第一輪由我們HR負責。當我與求職者約定下一場面試時間時,只能說你「可能」有戲了。但最終會不會被錄用,還得看你接下來的表現了。

信號五:面試官主動詢問薪資要求

有戲程度:★☆

求職者情景再現:我是一個喜歡在面試時開門見山的人,一般在面試談薪環節,我都會主動向HR表明薪資底線,可是這次面試還沒等我開口,HR就來詢問我對薪資的要求了。這點讓我感到很驚訝,我想這是不是代表有成功的可能呢?

HR獨白:談薪是面試過程中必不可少的環節之一。企業通過薪資來反映個人工作能力和績效。同時,薪資也是企業給付人力成本的主要組成部分。所以,面試官主動詢問薪資要求也是為了通過這個問題做出是否錄用求職者的判斷,這並不能作為求職者判斷面試是否有戲的有效依據。

信號六:面試時間長

有戲程度:★

求職者情景再現:昨天面試面了將近一個小時,這種情況還是我第一次遇到。面試官問了我很多問題,包括今後幾年的職業規劃都問得很清楚。我想這次面試百分之八十是有戲的。

HR獨白:面試時遇到合眼的求職者,聊得開心之際,我就會不自覺的多問幾個問題。當然這不能完全代表面試有戲,因為錄用一個求職者除了眼緣外,他的個人素質、性格、工作經驗等都是需要綜合考量的。


;

㈡ 視頻面試技巧和注意事項

視頻面試技巧和注意事項:

1、個人的形象准備

了解企業招聘要求和經營情況,穿著符合面試的正式服裝並且穿戴整齊,適當妝容,發型整潔,盡量不戴帽子,以顯對面試的重視。用飽滿的精神狀態來應對,將專業度傳遞給面試官。

2、個人設備和網路

確認手機電量充足,對應的相機和麥克風功能可以正常使用;關閉任何會發出提示音的設備,避免面試中受到干擾;測試設備和網路是否正常,避免面試中斷網等低級錯誤。

3、室內場所的選擇

選擇一個安靜的沒有干擾的地方,視頻區域整潔沒有多餘的雜物;燈光明亮,讓面試官可清晰看到你;人身處於鏡頭正中間,畫面比例4:3為佳,給面試官留下良好的第一印象。

4、保持積極的心理調適

很多求職者對於視頻面試流程不太熟悉,容易產生不適感,此時應該積極調適自我的心理狀態。線上線下面試一樣,既不能因為沒有面對面與人事交流產生懶散感,也不能因為擔心視頻面試效果而過度緊張。保持平和專注的心態是成功的關鍵一步。

5、不要過早問及薪酬問題

有些面試者尤其是應屆生,視頻面試中很快就問薪酬問題、休息時間、保險問題等,這樣可能會讓面試官很尷尬。通常是先充分展示自己的學識、能力、經驗等,如果雙方問答到位,面試官就會主動問及或告訴你薪酬問題,並根據你的表現考慮薪酬等級。

6、注意肢體狀態和語言表達

雖然是線上面試隔著屏幕,但對方依然能通過你的一舉一動,甚至一些不經意的細節判斷你的個人素養,所以在面試中要避免歪頭、撥弄頭發等小動作,坐姿要保持端正。講話吐字要清晰,可慢不可快,面試官提問後可略微停頓一下再作回答,以免因網路延遲導致回答不完整,或打斷對方提問。

㈢ AI面試題第二彈(神經網路基礎)

提取主要特徵,減小網路參數量,減小計算量

層層傳遞的梯度>1 梯度爆炸

層層傳遞的梯度<1 梯度消失

與權重有很大關系,激活函數的影響較小。

每次訓練一層隱節點,訓練時將上一層隱節點的輸出作為輸入,而本層隱節點的輸出作為下一層隱節點的輸入,此過程就是逐層「預訓練」(pre-training);在預訓練完成後,再對整個網路進行「微調」(fine-tunning)。Hinton在訓練深度信念網路(Deep Belief Networks中,使用了這個方法,在各層預訓練完成後,再利用BP演算法對整個網路進行訓練。

這個方案主要是針對梯度爆炸提出的,其思想是設置一個梯度剪切閾值,然後更新梯度的時候,如果梯度超過這個閾值,那麼就將其強制限制在這個范圍之內。這可以防止梯度爆炸。

比較常見的是l1l1l1正則,和l2l2l2正則,在各個深度框架中都有相應的API可以使用正則化

反向傳播中,經過每一層的梯度會乘以該層的權重。

舉個簡單例子:

為了得到一致假設而使假設變得過度復雜稱為過擬合(overfitting), 過擬合表現在訓練好的模型在訓練集上效果很好,但是在測試集上效果差 。也就是說模型的泛化能力弱。

過擬合主要由兩個原因造成,數據集太小或模型太復雜

(1). 數據集擴增(Data Augmentation)

(2). 改進模型

·Early Stopping。在模型效果比較好的時候便提前停止訓練

 ·正則化(regularization)

L1:稀疏參數

L2:更小參數

·Dropout

·多任務學習

深度學習中兩種多任務學習模式:隱層參數的硬共享和軟共享

硬共享機制是指在所有任務中共享隱藏層,同時保留幾個特定任務的輸出層來實現。硬共享機制降低了過擬合的風險。多個任務同時學習,模型就越能捕捉到多個任務的同一表示,從而導致模型在原始任務上的過擬合風險越小。

軟共享機制是指每個任務有自己的模型,自己的參數。模型參數之間的距離是正則化的,以便保障參數相似性。

見後文

leaky relu

輸入是x輸出是y,正常的流程是:我們首先把x通過網路前向傳播,然後把誤差反向傳播以決定如何更新參數讓網路進行學習。使用Dropout之後,過程變成如下:

(1)首先隨機(臨時)刪掉網路中一半的隱藏神經元,輸入輸出神經元保持不變(圖中虛線為部分臨時被刪除的神經元)

(2) 然後把輸入x通過修改後的網路前向傳播,然後把得到的損失結果通過修改的網路反向傳播。一小批訓練樣本執行完這個過程後,在沒有被刪除的神經元上按照隨機梯度下降法更新對應的參數(w,b)。

(3)然後繼續重復這一過程:

恢復被刪掉的神經元(此時被刪除的神經元保持原樣,而沒有被刪除的神經元已經有所更新)

從隱藏層神經元中隨機選擇一個一半大小的子集臨時刪除掉(備份被刪除神經元的參數)。

對一小批訓練樣本,先前向傳播然後反向傳播損失並根據隨機梯度下降法更新參數(w,b) (沒有被刪除的那一部分參數得到更新,刪除的神經元參數保持被刪除前的結果)。

不斷重復這一過程。

沒有對數據進行歸一化

忘記檢查輸入和輸出

沒有對數據進行預處理

沒有對數據正則化

使用過大的樣本

使用不正確的學習率

在輸出層使用錯誤的激活函數

網路中包含壞梯度

初始化權重錯誤

過深的網路

隱藏單元數量錯誤

網路設計不合理(任務-網路不匹配)

機器學習有個很重要的假設:就是假設訓練數據和測試數據是滿足獨立同分布的,這保障了通過訓練數據獲得的優秀模型也能夠在測試集獲得好的效果。但是在機器學習訓練中輸入層的每個批量(X,Y)中X的分布是不一致的,並且神經網路的隱藏層的輸入分布在每次訓練迭代中發生變化。 BatchNorm就是在深度神經網路訓練過程中使得每一層神經網路的輸入保持相同分布的。

BN的基本思想其實相當直觀:因為深層神經網路在做非線性變換前(激活前)的 輸入值 (就是那個x=WU+B,U是輸入) 隨著網路深度加深或者在訓練過程中,其分布逐漸發生偏移或者變動,之所以訓練收斂慢,一般是整體分布逐漸往非線性函數的取值區間的上下限兩端靠近 (對於Sigmoid函數來說,意味著激活輸入值WU+B是大的負值或正值),所以這 導致反向傳播時低層神經網路的梯度消失 ,這是訓練深層神經網路收斂越來越慢的 本質原因 , 而BN就是通過一定的規范化手段,把每層神經網路任意神經元這個輸入值的分布強行拉回到均值為0方差為1的標准正態分布 ,其實就是把越來越偏的分布強制拉回比較標準的分布,這樣使得激活輸入值落在非線性函數對輸入比較敏感的區域,這樣輸入的小變化就會導致損失函數較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產生,而且梯度變大意味著學習收斂速度快,能大大加快訓練速度。

但是接下來的問題是:如果都通過BN,那麼不就跟把非線性函數替換成線性函數效果相同了,意味著網路的非線性表達能力下降了, 所以BN為了保證非線性的獲得,對變換後的滿足均值為0方差為1的x又進行了scale加上shift操作(y=scale*x+shift), 每個神經元增加了兩個參數scale和shift參數,這兩個參數是通過訓練學習到的,意思是通過scale和shift把這個值從標准正態分布左移或者右移一點並長胖一點或者變瘦一點,每個實例挪動的程度不一樣,這樣等價於激活前的值經過標准正太分布歸一化後再從正中心周圍的線性區往非線性區動了動。核心思想應該是想找到一個線性和非線性的較好平衡點,既能享受非線性的較強表達能力的好處,又避免太靠非線性區兩頭使得網路收斂速度太慢

Batch Normalization 好處:(1)提高了訓練速度,收斂速度也大大加快(2)另外調參過程也簡單多了,對於初始化要求沒那麼高,而且可以使用大的學習率等 (3)可以防止梯度消失(4)BN類似於Dropout的一種防止過擬合的正則化表達方式,可以有效防止過擬合,不用太依賴dropou和正則化

以下情況最好不要使用BN:(1)數據不平衡(2)batch_size太小

batch_size是機器學習中的一個重要參數,決定了梯度下降的方向,如果數據集比較小,完全可以採用全數據集的形式計算梯度,由全數據集確定的梯度方向能夠更好地代表樣本總體,從而更准確地朝向極值所在的方向。對於大型數據集則需要使用mini-batch_size,因為隨著數據集的海量增長和內存限制,一次性載入所有的數據進來變得越來越不可行。

當batch_size=1,即在線學習,模型難以達到收斂 。

合理增加batch_size好處 :

(1)內存利用率提高了,大矩陣乘法的並行化效率提高

(2)跑完一次 epoch(全數據集)所需的迭代次數減少,對於相同數據量的處理速度進一步加快。

(3)在一定范圍內,一般來說 Batch_Size 越大,其確定的下降方向越准,引起訓練震盪越小

盲目增大 Batch_Size 壞處 :

(1)內存利用率提高了,但是內存容量可能撐不住了

(2)跑完一次 epoch(全數據集)所需的迭代次數減少,要想達到相同精度所需要的 epoch 數量越來越多,花費的時間越長

(3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,後者具有更好的泛化能力。

總之batchsize在變得很大(超過一個臨界點)時,會降低模型的泛化能力。在這個臨界點之下,模型的性能變換隨batch size通常沒有學習率敏感

    目標所在的真實框(ground truth) 與演算法預測的目標所在的框(bounding box)的交集與並集的比值,我們會用IOU閾值來判定預測的bounding box是否有效。一般閾值會設定在0.5,當IOU的值大於等於0.5時,我們會把這個預測的bounding box 歸為正類,而小於0.5的歸為負類。

牛頓法使用的是目標函數的二階導數,在高維情況下這個Hessian(n*n維度)矩陣非常大,計算復雜度是n*n,計算和存儲都是問題

(1) 通過控制卷積核個數實現升維或者降維,從而減少模型參數和計算量

(2) 用於不同channel上特徵的融合

(3)1x1的卷積相當於全連接層的計算過程,並且加入了非線性激活函數,從而增加了網路的非線性,使得網路可以表達更加復雜的特徵。

它能夠把輸入的連續實值變換為0和1之間的輸出,如果是非常大的負數,那麼輸出就是0;如果是非常大的正數,輸出就是1

缺點:

(1)函數的飽和區,導致梯度幾乎為0,造成梯度消失問題

(2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893

(3)其解析式中含有冪運算,計算機求解時相對來講比較耗時。對於規模比較大的深度網路,這會較大地增加訓練時間。

它解決了Sigmoid函數的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運算的問題仍然存在。

(1)在正區間解決了梯度消失的問題

(2)函數簡單,計算速度快,收斂速度遠快於sigmoid和tanh

缺點:

(1)Relu函數輸出不是0均值

(2)神經元壞死問題:指的是某些神經元可能永遠不會被激活,導致相應的參數永遠不能被更新,有兩個主要原因導致這種狀況發生

        (1) 非常不幸的參數初始化,這種情況比較少見 

        (2) learning rate太高導致在訓練過程中參數更新太大,不幸使網路進入這種狀態。解決方法是可以採用Xavier初始化方法,以及避免將learning rate設置太大或使用adagrad等自動調節learning rate的演算法

為了解決ReLU函數帶來的神經元壞死問題 , 提出了將ReLU的前半段設為αx,α通常設為0.01,,另外一種直觀的想法是基於參數的方法PReLU函數, α可由方向傳播演算法學習出來。

ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優點,以及:(1)不會有神經元壞死現象(2)函數輸出均值接近於0

但是ELU的小問題就是計算量稍微有點大。

1、使用不同的激活函數,比如Relu,Leak-Relu,PRelu,elu等激活函數代替sigmoid函數

2、使用Batch Normalizaion(批量歸一化)

3、使用殘差網路

4、預訓練加微調

1、梯度裁剪

2、權重正則化

兩個3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時,用3x3的卷積核可以提升網路的深度,可以很明顯的減少計算量。

1、局部連接

2、權值共享:減小參數量

3、池化操作:增大感受野

4、多層次結構:可以提取low-level以及high-level的信息

1、數據集太小,數據樣本不足時,深度學習相對其它機器學習演算法,沒有明顯優勢。

2、數據集沒有局部相關特性,目前深度學習表現比較好的領域主要是圖像/語音/自然語言處理等領域,這些領域的一個共性是局部相關性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數據中單片語合成句子,這些特徵元素的組合一旦被打亂,表示的含義同時也被改變。對於沒有這樣的局部相關性的數據集,不適於使用深度學習演算法進行處理。舉個例子:預測一個人的健康狀況,相關的參數會有年齡、職業、收入、家庭狀況等各種元素,將這些元素打亂,並不會影響相關的結果。

作用 :對輸入的特徵圖進行壓縮,

一方面使特徵圖變小,簡化網路計算復雜度;

一方面進行特徵壓縮,提取主要特徵。

通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數據做了下采樣,但是 max-pooling感覺更像是做了特徵選擇,選出了分類辨識度更好的特徵,提供了非線性 。 pooling的主要作用一方面是去掉冗餘信息,一方面要保留feature map的特徵信息,在分類問題中,我們需要知道的是這張圖像有什麼object,而不大關心這個object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網路比較深的地方,特徵已經稀疏了,從一塊區域里選出最大的,比起這片區域的平均值來,更能把稀疏的特徵傳遞下去 。

average-pooling更強調對整體特徵信息進行一層下采樣,在減少參數維度的貢獻上更大一點,更多的體現在 信息的完整傳遞這個維度 上,在一個很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多採用average-pooling,在減少維度的同時,更有利信息傳遞到下一個模塊進行特徵提取。

average-pooling在 全局平均池化操作 中應用也比較廣,在ResNet和Inception結構中最後一層都使用了平均池化。有的時候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數據變成一位向量。

CNN網路中另外一個不可導的環節就是Pooling池化操作,因為Pooling操作使得feature map的尺寸變化,假如做2×2的池化(步長也為2),假設那麼第l+1層的feature map有16個梯度,那麼第l層就會有64個梯度,這使得梯度無法對位的進行傳播下去。其實解決這個問題的思想也很簡單,就是把1個像素的梯度傳遞給4個像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據這條原則,mean pooling和max pooling的反向傳播也是不同的

mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那麼反向傳播的過程也就是把 某個元素的梯度等分為n份分配給前一層,這樣就保證池化前後的梯度(殘差)之和保持不變 ,圖示如下 :

(2) max pooling

max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給後一層,而其他像素的值直接被舍棄掉。那麼 反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點在於需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個變數就是記錄最大值所在位置的,因為在反向傳播中要用到,那麼假設前向傳播和反向傳播的過程就如下圖所示 :

28、細粒度分類

29、LSTM&RNN

30、解釋LSTM結構(相對於RNN)的好處

31、RNN的梯度消失原因和解決辦法

32、Object Detection

33、Unet的介紹

34、FCN和Unet的區別

35、RCNN系列的演算法流程和區別

36、Fast RCNN中 bbox 回歸的損失函數什麼

37、解釋 ROI Pooling 和 ROI Align

38、Mask RCNN中 mask branch 如何接入 Faster RCNN中

39、解釋 FPN

40、解釋 ROI Align

41、簡述 YOLO 和 SSD

42、簡述 Hough 直線檢測、Sobel 邊緣檢測演算法流程

43、Mask RCNN中的anchors如何判定為正負樣本

44、簡述 NMS 演算法流程

45、attention起源是用在哪裡?pixel還是frame,是soft還是hard

46、anchor的正負樣本比是多少

47、演算法和激活函數等

48、BN的原理和作用

49、BN層反向傳播,怎麼求導

50、BN 的作用和缺陷,以及針對batch_size小的情況的改進(GN)

51、BN層,先加BN還是激活,有什麼區別

52、手推BP

53、優化演算法舉例和他們的區別(SGD、SGDM、RMSprop、Adam)

54、隨機梯度下降和梯度下降

55、訓練不收斂的原因有哪些

56、簡述 SVM 流程、核函數尋參及常見的核函數舉例

57、batch_size 和 learning rate 的關系(怎麼平衡和調整二者)

58、解釋過擬合和欠擬合,以及解決方法

59、激活函數有哪些,各自區別

60、損失函數有哪些

61、Sigmoid 和 ReLu 對比(各自優缺點)

62、為什麼不用sigmoid而用relu?做出了哪些改進?

63、梯度消失和梯度爆炸的原因和解決方法

64、Precision 和 Recall 的定義

65、精確率高、召回率低是為什麼

66、SVM,線性回歸和邏輯回歸的原理及區別

67、PCA原理,PCA和SVD的區別和聯系

68、正則化怎麼選擇,有哪些方式

69、L1、L2范數,區別

70、boost、Adaboost

71、dropout和batch normalization

72、講一下決策樹和隨機森林

73、講一下GBDT的細節,寫出GBDT的目標函數。 GBDT和Adaboost的區別與聯系

74、偏差、方差

75、距離度量公式哪些,區別

76、多標簽識別怎麼做

77、data argumentation怎麼處理的

78、數據不均衡怎麼處理、只有少量帶標簽怎麼處理

79、權重初始化方法都有哪些

80、權值衰減這個參數怎麼設置

81、分類問題有哪些評價指標?每種的適用場景。

82、無監督學習了解哪些

83、圖像處理Opencv

84、邊緣檢測運算元有哪些

85、霍夫變換

86、直方圖是什麼

87、canny運算元是怎麼做的

88、圖像的特徵提取有哪些演算法,適用范圍、優缺點

參考:

https://blog.csdn.net/bluesliuf/article/details/89389117

https://zhuanlan.hu.com/p/107279000

https://zhuanlan.hu.com/p/56475281

㈣ 網路管理員面試題目及答案(2)

網路管理員面試題目及答案(二)
39、堆棧操作中都是對棧頂單元進行的,訪問堆棧的地址是由SP指定的。它在操作過程中不需要用戶指定。在下推堆棧中,寫入堆棧的單元地址是(B)。

A.PC B.(SP)+1 C.SP D.指令寄存器

【解析】堆棧是一個專門的存儲區,其存取數據的順序是先進後出,每次操作都是對棧頂單元進行的。棧頂單元的地址,每次進出棧時都要自動修改。棧頂單元的地址放在堆棧指針SP中,寫入堆棧時,棧頂單元已經存有數據,再寫入新數據時,不能寫入原來的SP中,必須寫到棧頂單元的下一單元中,在堆棧地址是向下生長的下推式堆棧中,寫入數據的堆棧單元的堆棧單元地址是(SP)+1。即進棧操作把(SP)+1再把進棧的數據寫入新的棧頂單元(SP)+1的單元中。出棧時,把棧頂單元內容彈出,然後(SP)–1。

SP的修改是指令自動完成的,不需要用戶參與。

40、計算機可以運行各種高級程序設計語言編寫的程序,但是運行時必須經過編譯程序等先把它們轉換成(B),才能在計算機上執行。

A.匯編語言 B.二進制機器語言 C.中間語言 D.操作系統原語

【解析】計算機中各種設備是根據指令碼的要求進行操作的。指令的操作碼決定本指令完成什麼操作,指令的地址碼決定操作數存放的單元地址。計算的控制器通過操作碼解碼器來分析指令的具體要求,發出各種控制命令控制各個部件成完指令規定的功能。

計算機只能識別二進制編碼的機器指令,其他符號都不認識,使用各種高級語言編寫的程序,最終必須通過編譯程序等轉換成機器能夠識別的二進制機器指令才能執行。

41、介面是主機與外設通信的橋梁,介面接收主機送來的(1)(C)控制設備工作,介面反映設備的(2)(C),以便主機隨時查詢,決定下一步執行什麼操作。

(1)A.地址 B.數據 C.控制命令 D.應答信號

(2)A.速度 B.型號 C.工作狀態 D.地址編號

【解析】介面是主機與外設通信的橋梁,介面的主要功能是接收主機發來的控制命令來控制外設工作,如啟動外設傳送數據、停止外設工作等。介面還要反映外設目前的狀態,監視設備的工作情況,以便主機檢測設備狀態,根據設備不同的工作狀態,發出不同的控制命令,決定下一步設備執行什麼操作。

當然介面中還包括數據緩沖寄存器和中斷邏輯電路等。

42、計算機存儲器的最大容量決定於(C)。

A.指令中地址碼位數

B.指令字長

C.定址方式決定的儲器有效地址位數

D.存儲單元的位數

【解析】關於主存容量問題。

主存的容量大小直接影響用戶的應用范圍,特別是操作系統、系統軟體功能越完善,主機運行時佔用的主存的空間越大,因此主存的容量直接影響用戶能否使用該計算機。

計算機的主存容量決定於主存的地址位數,但主存的地址位數再多,CPU的訪問指令提供的地址位數較少也是沒用的,因此主存最大可以使用的容量決定於訪存指令訪問地址的位數。

在只有直接定址的指令中,主存容量直接決定於指令中地址碼位數。

由於指令字長的限制,指令地址碼的位數不可能太多,為了擴充CPU可訪問的主存空間,現在都使用變址定址、基地定址等,以增加操作數的地址位數。因此主存儲器的最大容量決定於由指令定址方式形成的操作數有效地址的位數。

43、計算機存儲系統中通常採用三級結構,其主要目的是(D)。

A.提高存儲器讀寫速度

B.擴大存儲器的容量

C.便於系統升級

D.解決存儲器速度、容量、價格的矛盾

【解析】計算機對存儲器的要求是速度快、容量大、價格低,這3個要求是互相矛盾的,實現起來非常困難。一般高速半導體存儲器速度快,但容量小、價格貴;磁碟等磁表面存儲器容量大、價格低,但速度較慢也不能作為主存使用。為了得到一個速度快、容量大、價格低的存儲器,最好的辦法也是最現實的辦法是利用現有的存儲設備構成一個三級存儲系統。大容量、速度較快、價格不太貴的半導體存儲器作為主存體(如常用的DRAM)。為了提高CPU訪問主存取數的速度,在主存與CPU之間增加一級高速緩沖存儲器cache,其特點是速度快,但價格貴、容量不大,用戶還是可以接受的。CPU從cache中讀出指令和數據比從主存中讀取快的多,可有效地提高訪存的速度。因為主存容量不夠,在主存外面增加一個輔助存儲器,如磁碟、磁帶等。其特點是容量很大、價格很低,但速度很慢,存放CPU暫時不使用的程序和數據,等到CPU要訪問這部分內容時,可成批調入主存,CPU從主存中再存取有關指令和數據,速度也不慢。三級存儲結構有效地解決了存儲器速度、容量和價格之間的矛盾,成為目前存儲系統的主流方案

44、原碼定點數乘除法運算中,乘積和商的符號是用(C)決定的。

A. 二數符號位相減 B. 二數符號位相與

C. 二數符號位異或 D. 用戶來設定

【解析】原碼定點數乘除運算時,因為其數值部分是該數值真值的絕對值,可直接對二數進行乘(除)操作求出積(商)即可。二數符號相同時,積(商)符號就可確定。如果二數符號不同時,根據同號二數相乘(除)結果為正,異號二數相乘(除)結果為負的原則,採用二個符號位進行異或運算求得1⊕1=0,0⊕0=1,1⊕0=1,0⊕1=0。

45、精簡指令系統計算機RISC中,大量設置通用寄存器,且指令格式僅用R-R型定址,目的是為了(B)。

A. 簡化指令格式 B. 提高指令運算速度

C . 用戶使用方便 D. 減少地址計算時間

【解析】大中型計算機的指令系統功能強,速度快,使用方便,但硬體代價太高。因此,IBM公司首先開展指令系統復雜性的研究工作,得出的結論並不是指令系統設計得很龐大的計算機最好,而是去掉那些復雜而又很少使用的指令,把經常大量使用的指令的處理速度盡可能提高。顯然,R-R定址指令的速度較快。因為

這種指令不需要訪問存取操作數,操作數在運算器的通用寄存器中存放。因此一個節拍即可得運算結果,節省大量的訪問時間。為了能在運算器中存放一些操作數據和中間結果,RISC計算機中設置了大量的通用寄存器。

46、文件系統中,文件按名字存取是為了(B)。

A. 方便操作系統對信息的管理 B. 方便用戶的使用

C. 確定文件的存取許可權 D. 加強對文件內容的保密

【解析】早期計算機系統中沒有文件管理機構,用戶自行管理輔助存儲器上的信息,按照物理地址安排信息,組織數據的輸入輸出,還要記住信息在存儲介質上的分布情況,煩瑣復雜、易於出錯、可靠性差。操作系統提供文件系統後,首先方便用戶使用,使用者無須記住信息存放在輔助存儲器中的物理位置,也無須考慮如何將信息存放在存儲介質上,只要知道文件名,給出有關操作要求便可存取信息,實現了“按名存取”。特別是當文件存放位置發生了改變,甚至更換了文件的存儲設備,對文件的使用者也沒有絲毫影響。其次,文件安全可靠,用戶通過文件系統才能實現對文件的訪問,而文件系統能提供各種安全、保密和保護 措施 ,因此可防止對文件信息有意或無意的破壞或竊用。此外,在文件使用過程中可能出現硬體故障,這時文件系統可組織重執,對於硬體失效而可能造成的文件信息破壞,可組織轉儲以提高文件的可靠性。最後,文件系統還能提供文件的共享功能,如不同的用戶可以使用同名或異名的同一文件。這樣,既節省了文件存放空間,又減少了傳遞文件的交換時間,進一步提高了文件和文件空間的利用率。

47、能使系統中多台計算機相互協作完成一件任務的操作系統是(D)。

A. 批處理操作系統 B. 分時操作系統

C. 網路操作系統 D. 分布式操作系統

【解析】常見的操作系統類型及其作用說明如下。

批處理操作系統:是一種早期的大型機用操作系統,其主要特徵是用戶離線使用計算機,成批處理,多道程序運行。

分時系統:分時操作系統是一個聯機的(on-line)多用戶(multi-user)互動式(interactive)的操作系統,具有交互性、同時性和獨立性。

實時系統:其主要特點是提供及時響應和高可靠性。

個人計算機上的操作系統:是聯機的互動式的單用戶操作系統。

網路操作系統:在原來各自計算機操作系統的基礎上按照網路體系結構的各個協議標准開發的網路管理、通信、資源共享、 系統安全 和多種網路應用服務。 分布式操作系統:通過通信網路將物理上分布的具有自治功能的數據處理系統或計算機系統連接起來,實現信息交換和資源共享,協作完成任務。

48、操作系統中不支持程序浮動的地址變換機制是(C)。

A. 頁式地址轉換 B. 段式地址轉換 C. 靜態重定位 D. 動態重定位

【解析】本題考查存儲管理的地址變換技術。

實現地址重定位或地址映射的方法有兩種:靜態地址重定位和動態地址重定位。 靜態地址重定位是在虛擬空間程序執行之前由裝配程序完成地址映射工作。優點是不需要硬體支持,缺點是程序一旦裝入內存之後就不能再移動,並且必須在程序執行之前將有關部分全部裝入,因而無法實現虛擬存儲。

動態地址重定位是在程序執行過程中,CPU訪問內存之前,將要訪問的程序或數據地址轉換成內存地址。動態地址重定位依靠硬體地址變換機構完成,其主要優點有可對內存進行非連續分配,可實現虛擬存儲,有利於程序段的共享。頁式和段式存儲管理均採用動態地址重定位技術。

49、不屬於存儲管理功能的是(C)。

A. 主存空間的分配和回收 B. 主存空間的共享和保護

C. 輔存空間的管理 D. 實現地址轉換

【解析】存儲管理是操作系統的重要組成部分,它負責管理計算機系統的重要資源主存儲器。存儲管理的主要功能包括:虛擬存儲器、地址變換、內外存數據傳輸的控制、內存的分配與回收、內存信息的共享與保護。

50、在請求頁式存儲管理中,當查找的頁不在(C)中時會產生缺頁中斷。

A. 外存 B. 虛存 C. 內存 D. 地址空間

【解析】請求頁式管理所採取的頁面調入方式是當需要執行某條指令而又發現它不在內存時或當執行某條指令需要訪問其他的數據或指令時,這些指令和數據不在內存中,就會發生缺頁中斷,系統將外存中相應的頁面調入內存。

51、現實世界中事物的一般特性在信息世界中稱為(C)。

A. 實體 B. 關系 C. 屬性 D. 關系鍵

【解析】概念模型,也稱信息模型,它是按照用戶觀點來對數據和信息建模,是現實世界到機器世界的一個中間層次,是資料庫設計人員和用戶之間進行交流的語言。概念模型涉及的基本概念有以下幾個。

實體(Entity):客觀存在的並可相互區別的事物稱為實體。

屬性(Attribute):實體所具有的某一特性稱為屬性。一個實體可以由若干個屬性來描述。

碼(Key):唯一標識實體的屬性集稱為碼。

域(Domain):屬性的取值范圍稱為該屬性的域。

實體型(Entity Type):用實體名及其屬性名集合來抽象和刻畫的同類實體,稱為實體型。

實體集(Entity Set):同型實體的集合稱為實體集。

聯系(Relationship):包括實體的各屬性之間的聯系和不同實體集之間的聯系。

52、SQL的Select語句中From Q應理解為(D)。

A. Q中的元組序號 B. 關系Q的元組變數

C. 基本表Q的結構定義 D. Q中的全部元組

【解析】 資料庫查詢是資料庫的核心操作。SQL語言提供了Select語句進行資料庫的查詢,該語句具有靈活的使用方式和豐富的功能,其一般格式為: Select [all | distinct]<目標列表達式>[,<目標列表達式>]

From <表名或視圖名>[,<表名或視圖名>]

[Where <條件表達式>]

[Group By <列名1> [Having <條件表達式>]]

[Order By <列名2> [Asc | Desc]]

Select語句的含義是:如有Where子句,則根據Where子句的條件表達式,從From子句指定的基本表或視圖中找到滿足條件的元組,再按Select子句中的目標表達式,選出元組中的屬性值形成結果表。如果有Group子句,則將結果<列名1>的值進行分組,該屬性列值相等的元組為一個組。通常會在每組中作用集函數,如果Group子句帶Having短句,則只有滿足指定條件的組才能輸出。如果有Order子句,則結果表還要按<列名2>的值升序或降序排序

53、關系代數中的θ連接操作由(B)操作組合而成。

A. 和 B. 和× C. 、和× D. 和×

【解析】本題考查關系運算。

連接也稱θ連接,它是從兩個關系的笛卡兒積中選取屬性間滿足一定條件的元組。而笛卡爾積用符號“×”來表示,選擇用符號“”來表示,所以答案為B。

54、元組比較操作(c1, c2), <=(d1, d2),其意義等價於(D)。

A. (c1<=d1) OR (c2<=d2)

B. (c1<=d1) OR ((c1=d1) AND (c2<=d2))

C. (c1<=d1) AND (c2<=d2)

D. (c1

【解析】兩個元組進行比較時,首先比較第一個分量,根據比較結果的不同執行不同的後續操作,說明如下。

不滿足給定的條件,則返回“假”,操作結束。

如果不相等且滿足給定的條件,返回“真”,操作結束。

如果相等,則繼續比較其他的分量。

按照上述規則,(c1, c2)和(d1, d2)進行比較時,首先比較c1和d1,如果c1
網路管理員面試題目及答案(三)
55、關系資料庫的數據和更新操作必須遵循的完整性規則包括(D)。

A. 實體完整性和參照完整性

B. 參照完整性和用戶定義的完整性

C. 實體完整性和用戶定義的完整性

D. 實體完整性、參照完整性和用戶定義的完整性

【解析】關系模型的完整性規則是對關系的某種約束條件。關系模型有3類完整性約束:實體完整性、參照完整性和用戶定義的完整性。其中實體完整性和參照完整性是關系模型必須滿足的完整性約束條件,被稱為是關系的兩個不變性,應該由關系系統自動支持。

實體完整性規則規定基本關系的所有主屬性都不能取空值,對於實體完整性規則

說明如下。

實體完整性規則是針對基本關系而言的。

現實世界中的實體是可區分的,即它們具有某種唯一性標識,相應的關系模型中以主碼作為唯一性標識。

主碼中的屬性即主屬性不能取空值。

參照完整性是對關系間引用數據的一種限制。若屬性組A是基本關系R1的外碼,它與基本關系R2的主碼K相對應,則R1中每個元組在A上的值要麼取空值,要麼等於R2中某元組的主碼值。

用戶定義的完整性是針對某一具體關系資料庫的約束條件。它反映某一應用所涉及的數據必須滿足的語義要求,例如某個屬性必須取唯一值,某些屬性之間應滿足一定的函數關系、某個屬性的取值范圍在0~100之間等。

56、ATM採用的復用方式是(C)

A. 非同步復用 B. 時分復用 C. 統計時分復用 D. 同步時分復用

【解析】ATM是非同步傳輸模式。所謂非同步就是指各個不同來源的信元,只要准備好就可進入信道,信元的排列不是固定的,也叫統計時分復用。

57、對於同步傳輸,描述正確的是(29)。

A. 數據塊之間不需要同步碼

B. 數據位元組之間需要同步碼

C. 數據位之間需要同步碼

D. 數據塊之間需要同步碼

58、TCP/IP層次模型中,IP層相當於OSI/RM中的(30)。

A. 物理層 B. 鏈路層 C. 網路層 D. 傳輸層

59、計算機網路的3個主要組成部分是(31)。

A. 通信軟體、通信子網和通信協議

B. 一組主機、一個通信子網和一組通信協議

C. 一組伺服器、一組終端和一組通信協議

D. 一組主機、若干通信線路和一組通信協議

60、(C適合於高速網路系統和中遠距離數據傳輸。

A. 雙絞線 B. 同軸電纜 C. 光纖 D. 無線介質

【解析】同軸電纜不適合高速傳輸,雙絞線隨著傳輸速度的提高,距離變得很短,無線介質也不適合高速網路系統和中遠距離數據傳輸,只有光纖適合高速網路系統和中遠距離數據傳輸

61介質的最大利用率取決於幀的長度和傳播時間,當幀的(C時,介質的利用率越高。

A. 長度越長,傳播時間越長

B. 長度越短,傳播時間越短

C. 長度越長,傳播時間越短

D. 長度越短,傳播時間越長

【解析】傳輸介質利用率是指有效傳輸數據的時間和總時間之比,傳播延遲佔用的時間越短,利用率越高。另外,幀的長度越長,即得到發送權後,傳輸的數據越多,有效時間就越多,介質的利用率就越高。

62、CSMA/CD 中一旦某個站點檢測到沖突,它就立即停止發送,其他站點(C)

A. 都處於發送狀態 B. 都會相繼競爭發送權

C. 都會收到阻塞信號 D. 仍有可能繼續發送幀

【解析】IEEE 802.3標准中對CSMA/CD工作方式約定,一旦某個站點檢測到沖突,它就立即停止發送,並發送一強的阻塞信號,便於其他站點迅速接收到,馬上停止數據發送

63、在一個主幹為1000Mbps交換式乙太網的結構中(B)。

A. 只能包括1000Mbps交換機

B. 可以包括1000Mbps、100Mbps和10Mbps交換機

C. 應包括 1000Mbps和100Mbps交換機

D. 可以包括1000Mbps和10Mbps交換機

【解析】主幹為1000Mbps的網路,一般主交換機為1000Mbps,二級交換機和三級交換機可以降低層次,用100Mbps或10Mbps的交換機。

64、在(A)方式的交換機部署中,交換機的位置比較靈活。

A. 級聯 B. 模塊 C. 菊花鏈堆疊 D. 矩陣堆疊

【解析】交換機的部署可以分為堆疊式和級聯式,堆疊式又分為菊花鏈堆疊和矩陣堆疊,差別在於後備的連接方式不同,但從位置上,都是集中式的。級聯式中,交換機可以部署在不同的位置,之間的距離可以擴大,部署起來比較靈活

65、VLAN和的關系是(A)。

A. 兩者的應用場合和目的不同

B. 兩者使用的技術相同

C. 兩者的目的相同

D. 兩者的用戶不同

【解析】VLAN和,一個稱為虛擬區域網,一個稱為虛擬專網,雖都有虛擬的意思,但概念不一樣,兩者的應用場合和目的也不同。VLAN是將區域網中連接在同一交換機或不同交換機的計算機按部門分組劃分,就像不同的子網一樣。而是指通過公共網路,將遠程的用戶或一個網路與本地網路連接,通過安全措施,達到像在內部網路使用一樣

66、在下面設備中,(38)不是工作在數據鏈路層的。

A. 網橋 B. 集線器 C. 網卡 D. 交換機

【解析】網橋、集線器和交換機屬於聯網設備,網橋工作在數據鏈路層,交換機也工作在數據鏈路層,集線器(Hub)是工作在物理層的設備,不具備交換功能。網卡是接到計算機上的屬於外圍設備,完成物理層和數據鏈路層的功能

67、在計算機網路中,能將異種網路互聯起來,實現不同網路協議相互轉換的網路互聯設備是(D)。

A. 網橋 B. 集線器 C. 路由器 D. 網關

【解析】實現異種網路互聯,是指運行不同網路協議的網路互聯,要解決的一個主要問題是網路協議相互轉換,這是傳輸層以上層的轉換任務,需要網關來實現

68、以無碎片直通方式工作的交換機對於乙太網的幀,(C)內容不去讀它。

A. 原地址 B. 目的地址 C. 大於64B的部分 D.小於64B的部分

【解析】交換機的工作方式可以分為存儲轉發式、直通式和無碎片直通式。無碎片 直通式是指交換機讀取部分數據,然後轉發出去,由於IEEE 802.3規定的乙太網的最 小幀的長度為64B,其中包含了源地址和目的地址,後面的不再讀入緩存,而是直接 轉發出去,這樣小於最小幀的數據就被認為是碎片,過濾掉了,稱為無碎片直通工作方式

69、網橋的功能不包括(C)。

A. 互聯不同MAC協議的區域網

B. 存儲幀

C. 處理網路分組

D. 轉發幀

【解析】網橋處理的是數據鏈路層的功能,可以實現不同MAC幀的轉化,如IEEE 802.3和IEEE 802.5幀格式的轉換,進行幀的接收存儲和轉發,但不能處理網路分組,處理分組是網路層設備的功能,如路由器

70、幀中繼網路的弱點是(C)。

A. 速度慢 B. 線路利用率低

C. 差錯處理能力差 D. 誤碼率高

【解析】幀中繼是在克服X.25缺點的基礎上發展起來的,由於採用光纜作為傳輸介質,幀中繼認為幀在傳輸過程中基本不出錯,因而在得到幀的目的地址後馬上轉發,減少了幀在每個結點的時延。這就造成了它的弱點是差錯處理能力差,要等到幀傳送到目的點完全接收下來,才知道錯誤。

閱讀全文

與面試網路信號測試相關的資料

熱點內容
網路連接列印機顯示11b錯誤 瀏覽:996
世界上第一個網路出現在哪個國家 瀏覽:574
移動網路的分層覆蓋 瀏覽:814
中公研究生網路課程如何 瀏覽:36
怎樣設置網路高級 瀏覽:195
蘇州網路設備軟體 瀏覽:92
華為手機網路制式4g是什麼意思 瀏覽:657
請問網路電視怎麼樣看衛視 瀏覽:3
網路持續連接 瀏覽:229
2021網路安全專業高校 瀏覽:943
福田電腦網路布線 瀏覽:292
網安大隊網路安全排查整改報告 瀏覽:558
機頂盒外部網路設置 瀏覽:57
網路游戲大全免費下載手機版 瀏覽:944
受限制或無連接網路圖標 瀏覽:628
網路盒光信號跳紅色是怎麼回事 瀏覽:432
安卓微信網路設置在哪裡打開 瀏覽:835
網路安全總隊培訓 瀏覽:82
無線網路未來十年十大產業 瀏覽:560
圍棋ai用的什麼神經網路 瀏覽:174

友情鏈接