㈠ 这六个面试信号告诉你:面试有戏
这六个面试信号告诉你:面试有戏
“我觉得面试的感觉挺好的,为什么没有被录用?”小陈最近频频面试,可总是没有收到录用通知。“到底怎样才能知道面试官对自己感不感兴趣呢?”
近期,有人发起了“哪些信号预示面试有戏”的投票讨论,结合投票结果及网友们的反馈意见,我们评选出了六大预示面试有戏的信号,希望你在看完之后对面试结果更加有底。
信号一:主动询问到岗时间
有戏程度:★★★★☆
求职者情景再现:曾经有好几次面试,面试官只草草问了些问题,根本没问什么到岗时间就把我打发了。所以我认为如果面试官在问完其他问题后,再与我确认到岗时间的话,代表这次面试成功了一半。问到这个问题的潜台词是,面试官对前面的面试过程比较满意,愿意再看看到岗时间。
HR独白:在用人部门要人很急的情况下,我会着重把到岗时间确认一下,作为第一选项考虑。在其他条件差不多的时候,到岗位时间快的候选人会有优势。
信号二:面试官热情介绍并展示公司
有戏程度:★★★★
求职者情景再现:以往我去面试,对方公司根本不会主动介绍自己的公司,而这次却不同,面试官不仅热情地向我介绍公司的各种成果,还亲自带我参观了办公环境。我想一定是对我满意才这么做的吧!
HR独白:主动介绍公司要看介绍的程度。有的仅仅就是为了完成公司规定的招聘流程,毕竟公司总是想把最好的一面展示出来,从而增加社会对公司的良好口碑。
信号三:面试官主动留下联系方式
有戏程度:★★★☆
求职者情景再现:如果面试官在面试后给我名片,并且说会与我联系,我认为面试成功机率很高。我的最近一份工作就是如此。如果面试官不看好这次面试,他根本不用留下什么联系方式的,面试官也怕求职者纠缠吧!
HR 独白:留下联系方式,可能是工作需要,比如需要你提供一份粗略计划书发到他邮箱。通常,一位求职者被企业录用,可能是因为下列考量因素部分或全部得到了满足:1.求职者各方面和招聘岗位很适合(包括能力、学识、期望薪资,注意这里说的是适合,有的求职者条件非常好也被拒,就是因为不适合。从求职者的.角度说,你有时候被拒其实和你能力、魅力无关,只是不适合)2.用人单位面临着巨大招人难的压力(长时间没招到人,而岗位人员空缺)。其他一切都是 “你想多了”。
信号四:当场约定下次面试时间
有戏程度:★★★
求职者情景再现:当面试官和我约定下一场面试时间的时候,我知道这次绝对是有戏了。裸辞快两个月了,现在终于有种“守得云开见月明”的感觉了。
HR独白:我们企业面试一般有两轮,第一轮由我们HR负责。当我与求职者约定下一场面试时间时,只能说你“可能”有戏了。但最终会不会被录用,还得看你接下来的表现了。
信号五:面试官主动询问薪资要求
有戏程度:★☆
求职者情景再现:我是一个喜欢在面试时开门见山的人,一般在面试谈薪环节,我都会主动向HR表明薪资底线,可是这次面试还没等我开口,HR就来询问我对薪资的要求了。这点让我感到很惊讶,我想这是不是代表有成功的可能呢?
HR独白:谈薪是面试过程中必不可少的环节之一。企业通过薪资来反映个人工作能力和绩效。同时,薪资也是企业给付人力成本的主要组成部分。所以,面试官主动询问薪资要求也是为了通过这个问题做出是否录用求职者的判断,这并不能作为求职者判断面试是否有戏的有效依据。
信号六:面试时间长
有戏程度:★
求职者情景再现:昨天面试面了将近一个小时,这种情况还是我第一次遇到。面试官问了我很多问题,包括今后几年的职业规划都问得很清楚。我想这次面试百分之八十是有戏的。
HR独白:面试时遇到合眼的求职者,聊得开心之际,我就会不自觉的多问几个问题。当然这不能完全代表面试有戏,因为录用一个求职者除了眼缘外,他的个人素质、性格、工作经验等都是需要综合考量的。
㈡ 视频面试技巧和注意事项
视频面试技巧和注意事项:
1、个人的形象准备
了解企业招聘要求和经营情况,穿着符合面试的正式服装并且穿戴整齐,适当妆容,发型整洁,尽量不戴帽子,以显对面试的重视。用饱满的精神状态来应对,将专业度传递给面试官。
2、个人设备和网络
确认手机电量充足,对应的相机和麦克风功能可以正常使用;关闭任何会发出提示音的设备,避免面试中受到干扰;测试设备和网络是否正常,避免面试中断网等低级错误。
3、室内场所的选择
选择一个安静的没有干扰的地方,视频区域整洁没有多余的杂物;灯光明亮,让面试官可清晰看到你;人身处于镜头正中间,画面比例4:3为佳,给面试官留下良好的第一印象。
4、保持积极的心理调适
很多求职者对于视频面试流程不太熟悉,容易产生不适感,此时应该积极调适自我的心理状态。线上线下面试一样,既不能因为没有面对面与人事交流产生懒散感,也不能因为担心视频面试效果而过度紧张。保持平和专注的心态是成功的关键一步。
5、不要过早问及薪酬问题
有些面试者尤其是应届生,视频面试中很快就问薪酬问题、休息时间、保险问题等,这样可能会让面试官很尴尬。通常是先充分展示自己的学识、能力、经验等,如果双方问答到位,面试官就会主动问及或告诉你薪酬问题,并根据你的表现考虑薪酬等级。
6、注意肢体状态和语言表达
虽然是线上面试隔着屏幕,但对方依然能通过你的一举一动,甚至一些不经意的细节判断你的个人素养,所以在面试中要避免歪头、拨弄头发等小动作,坐姿要保持端正。讲话吐字要清晰,可慢不可快,面试官提问后可略微停顿一下再作回答,以免因网络延迟导致回答不完整,或打断对方提问。
㈢ AI面试题第二弹(神经网络基础)
提取主要特征,减小网络参数量,减小计算量
层层传递的梯度>1 梯度爆炸
层层传递的梯度<1 梯度消失
与权重有很大关系,激活函数的影响较小。
每次训练一层隐节点,训练时将上一层隐节点的输出作为输入,而本层隐节点的输出作为下一层隐节点的输入,此过程就是逐层“预训练”(pre-training);在预训练完成后,再对整个网络进行“微调”(fine-tunning)。Hinton在训练深度信念网络(Deep Belief Networks中,使用了这个方法,在各层预训练完成后,再利用BP算法对整个网络进行训练。
这个方案主要是针对梯度爆炸提出的,其思想是设置一个梯度剪切阈值,然后更新梯度的时候,如果梯度超过这个阈值,那么就将其强制限制在这个范围之内。这可以防止梯度爆炸。
比较常见的是l1l1l1正则,和l2l2l2正则,在各个深度框架中都有相应的API可以使用正则化
反向传播中,经过每一层的梯度会乘以该层的权重。
举个简单例子:
为了得到一致假设而使假设变得过度复杂称为过拟合(overfitting), 过拟合表现在训练好的模型在训练集上效果很好,但是在测试集上效果差 。也就是说模型的泛化能力弱。
过拟合主要由两个原因造成,数据集太小或模型太复杂
(1). 数据集扩增(Data Augmentation)
(2). 改进模型
·Early Stopping。在模型效果比较好的时候便提前停止训练
·正则化(regularization)
L1:稀疏参数
L2:更小参数
·Dropout
·多任务学习
深度学习中两种多任务学习模式:隐层参数的硬共享和软共享
硬共享机制是指在所有任务中共享隐藏层,同时保留几个特定任务的输出层来实现。硬共享机制降低了过拟合的风险。多个任务同时学习,模型就越能捕捉到多个任务的同一表示,从而导致模型在原始任务上的过拟合风险越小。
软共享机制是指每个任务有自己的模型,自己的参数。模型参数之间的距离是正则化的,以便保障参数相似性。
见后文
leaky relu
输入是x输出是y,正常的流程是:我们首先把x通过网络前向传播,然后把误差反向传播以决定如何更新参数让网络进行学习。使用Dropout之后,过程变成如下:
(1)首先随机(临时)删掉网络中一半的隐藏神经元,输入输出神经元保持不变(图中虚线为部分临时被删除的神经元)
(2) 然后把输入x通过修改后的网络前向传播,然后把得到的损失结果通过修改的网络反向传播。一小批训练样本执行完这个过程后,在没有被删除的神经元上按照随机梯度下降法更新对应的参数(w,b)。
(3)然后继续重复这一过程:
恢复被删掉的神经元(此时被删除的神经元保持原样,而没有被删除的神经元已经有所更新)
从隐藏层神经元中随机选择一个一半大小的子集临时删除掉(备份被删除神经元的参数)。
对一小批训练样本,先前向传播然后反向传播损失并根据随机梯度下降法更新参数(w,b) (没有被删除的那一部分参数得到更新,删除的神经元参数保持被删除前的结果)。
不断重复这一过程。
没有对数据进行归一化
忘记检查输入和输出
没有对数据进行预处理
没有对数据正则化
使用过大的样本
使用不正确的学习率
在输出层使用错误的激活函数
网络中包含坏梯度
初始化权重错误
过深的网络
隐藏单元数量错误
网络设计不合理(任务-网络不匹配)
机器学习有个很重要的假设:就是假设训练数据和测试数据是满足独立同分布的,这保障了通过训练数据获得的优秀模型也能够在测试集获得好的效果。但是在机器学习训练中输入层的每个批量(X,Y)中X的分布是不一致的,并且神经网络的隐藏层的输入分布在每次训练迭代中发生变化。 BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。
BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前(激活前)的 输入值 (就是那个x=WU+B,U是输入) 随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近 (对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这 导致反向传播时低层神经网络的梯度消失 ,这是训练深层神经网络收敛越来越慢的 本质原因 , 而BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布 ,其实就是把越来越偏的分布强制拉回比较标准的分布,这样使得激活输入值落在非线性函数对输入比较敏感的区域,这样输入的小变化就会导致损失函数较大的变化,意思是 这样让梯度变大,避免梯度消失问题产生,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。
但是接下来的问题是:如果都通过BN,那么不就跟把非线性函数替换成线性函数效果相同了,意味着网络的非线性表达能力下降了, 所以BN为了保证非线性的获得,对变换后的满足均值为0方差为1的x又进行了scale加上shift操作(y=scale*x+shift), 每个神经元增加了两个参数scale和shift参数,这两个参数是通过训练学习到的,意思是通过scale和shift把这个值从标准正态分布左移或者右移一点并长胖一点或者变瘦一点,每个实例挪动的程度不一样,这样等价于激活前的值经过标准正太分布归一化后再从正中心周围的线性区往非线性区动了动。核心思想应该是想找到一个线性和非线性的较好平衡点,既能享受非线性的较强表达能力的好处,又避免太靠非线性区两头使得网络收敛速度太慢
Batch Normalization 好处:(1)提高了训练速度,收敛速度也大大加快(2)另外调参过程也简单多了,对于初始化要求没那么高,而且可以使用大的学习率等 (3)可以防止梯度消失(4)BN类似于Dropout的一种防止过拟合的正则化表达方式,可以有效防止过拟合,不用太依赖dropou和正则化
以下情况最好不要使用BN:(1)数据不平衡(2)batch_size太小
batch_size是机器学习中的一个重要参数,决定了梯度下降的方向,如果数据集比较小,完全可以采用全数据集的形式计算梯度,由全数据集确定的梯度方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。对于大型数据集则需要使用mini-batch_size,因为随着数据集的海量增长和内存限制,一次性载入所有的数据进来变得越来越不可行。
当batch_size=1,即在线学习,模型难以达到收敛 。
合理增加batch_size好处 :
(1)内存利用率提高了,大矩阵乘法的并行化效率提高
(2)跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。
(3)在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小
盲目增大 Batch_Size 坏处 :
(1)内存利用率提高了,但是内存容量可能撑不住了
(2)跑完一次 epoch(全数据集)所需的迭代次数减少,要想达到相同精度所需要的 epoch 数量越来越多,花费的时间越长
(3)大的batchsize收敛到sharp minimum,而小的batchsize收敛到flat minimum,后者具有更好的泛化能力。
总之batchsize在变得很大(超过一个临界点)时,会降低模型的泛化能力。在这个临界点之下,模型的性能变换随batch size通常没有学习率敏感
目标所在的真实框(ground truth) 与算法预测的目标所在的框(bounding box)的交集与并集的比值,我们会用IOU阈值来判定预测的bounding box是否有效。一般阈值会设定在0.5,当IOU的值大于等于0.5时,我们会把这个预测的bounding box 归为正类,而小于0.5的归为负类。
牛顿法使用的是目标函数的二阶导数,在高维情况下这个Hessian(n*n维度)矩阵非常大,计算复杂度是n*n,计算和存储都是问题
(1) 通过控制卷积核个数实现升维或者降维,从而减少模型参数和计算量
(2) 用于不同channel上特征的融合
(3)1x1的卷积相当于全连接层的计算过程,并且加入了非线性激活函数,从而增加了网络的非线性,使得网络可以表达更加复杂的特征。
它能够把输入的连续实值变换为0和1之间的输出,如果是非常大的负数,那么输出就是0;如果是非常大的正数,输出就是1
缺点:
(1)函数的饱和区,导致梯度几乎为0,造成梯度消失问题
(2)Sigmoid 的 output 不是0均值,具体解释见 https://blog.csdn.net/tyhj_sf/article/details/79932893
(3)其解析式中含有幂运算,计算机求解时相对来讲比较耗时。对于规模比较大的深度网络,这会较大地增加训练时间。
它解决了Sigmoid函数的不是零均值输出问题,然而,梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在。
(1)在正区间解决了梯度消失的问题
(2)函数简单,计算速度快,收敛速度远快于sigmoid和tanh
缺点:
(1)Relu函数输出不是0均值
(2)神经元坏死问题:指的是某些神经元可能永远不会被激活,导致相应的参数永远不能被更新,有两个主要原因导致这种状况发生
(1) 非常不幸的参数初始化,这种情况比较少见
(2) learning rate太高导致在训练过程中参数更新太大,不幸使网络进入这种状态。解决方法是可以采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法
为了解决ReLU函数带来的神经元坏死问题 , 提出了将ReLU的前半段设为αx,α通常设为0.01,,另外一种直观的想法是基于参数的方法PReLU函数, α可由方向传播算法学习出来。
ELU也是为解决ReLU存在的问题而提出,显然,ELU有ReLU的基本所有优点,以及:(1)不会有神经元坏死现象(2)函数输出均值接近于0
但是ELU的小问题就是计算量稍微有点大。
1、使用不同的激活函数,比如Relu,Leak-Relu,PRelu,elu等激活函数代替sigmoid函数
2、使用Batch Normalizaion(批量归一化)
3、使用残差网络
4、预训练加微调
1、梯度裁剪
2、权重正则化
两个3x3的卷积核的感受野比5x5的卷积核的感受野大,在保持相同感受野的同时,用3x3的卷积核可以提升网络的深度,可以很明显的减少计算量。
1、局部连接
2、权值共享:减小参数量
3、池化操作:增大感受野
4、多层次结构:可以提取low-level以及high-level的信息
1、数据集太小,数据样本不足时,深度学习相对其它机器学习算法,没有明显优势。
2、数据集没有局部相关特性,目前深度学习表现比较好的领域主要是图像/语音/自然语言处理等领域,这些领域的一个共性是局部相关性。图像中像素组成物体,语音信号中音位组合成单词,文本数据中单词组合成句子,这些特征元素的组合一旦被打乱,表示的含义同时也被改变。对于没有这样的局部相关性的数据集,不适于使用深度学习算法进行处理。举个例子:预测一个人的健康状况,相关的参数会有年龄、职业、收入、家庭状况等各种元素,将这些元素打乱,并不会影响相关的结果。
作用 :对输入的特征图进行压缩,
一方面使特征图变小,简化网络计算复杂度;
一方面进行特征压缩,提取主要特征。
通常来讲,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据做了下采样,但是 max-pooling感觉更像是做了特征选择,选出了分类辨识度更好的特征,提供了非线性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分类问题中,我们需要知道的是这张图像有什么object,而不大关心这个object位置在哪,在这种情况下显然max pooling比average pooling更合适。在 网络比较深的地方,特征已经稀疏了,从一块区域里选出最大的,比起这片区域的平均值来,更能把稀疏的特征传递下去 。
average-pooling更强调对整体特征信息进行一层下采样,在减少参数维度的贡献上更大一点,更多的体现在 信息的完整传递这个维度 上,在一个很大很有代表性的模型中,比如说DenseNet中的模块之间的连接大多采用average-pooling,在减少维度的同时,更有利信息传递到下一个模块进行特征提取。
average-pooling在 全局平均池化操作 中应用也比较广,在ResNet和Inception结构中最后一层都使用了平均池化。有的时候在模型接近 分类器的末端使用全局平均池化还可以代替Flatten操作 ,使输入数据变成一位向量。
CNN网络中另外一个不可导的环节就是Pooling池化操作,因为Pooling操作使得feature map的尺寸变化,假如做2×2的池化(步长也为2),假设那么第l+1层的feature map有16个梯度,那么第l层就会有64个梯度,这使得梯度无法对位的进行传播下去。其实解决这个问题的思想也很简单,就是把1个像素的梯度传递给4个像素,但是需要保证传递的loss(或者梯度)总和不变。根据这条原则,mean pooling和max pooling的反向传播也是不同的
mean pooling的前向传播就是把一个patch中的值求取平均来做pooling,那么反向传播的过程也就是把 某个元素的梯度等分为n份分配给前一层,这样就保证池化前后的梯度(残差)之和保持不变 ,图示如下 :
(2) max pooling
max pooling也要满足梯度之和不变的原则 ,max pooling的前向传播是把patch中最大的值传递给后一层,而其他像素的值直接被舍弃掉。那么 反向传播也就是把梯度直接传给前一层某一个像素,而其他像素不接受梯度,也就是为0。 所以max pooling操作和mean pooling操作不同点在于需要记录下池化操作时到底哪个像素的值是最大,也就是max id,这个变量就是记录最大值所在位置的,因为在反向传播中要用到,那么假设前向传播和反向传播的过程就如下图所示 :
28、细粒度分类
29、LSTM&RNN
30、解释LSTM结构(相对于RNN)的好处
31、RNN的梯度消失原因和解决办法
32、Object Detection
33、Unet的介绍
34、FCN和Unet的区别
35、RCNN系列的算法流程和区别
36、Fast RCNN中 bbox 回归的损失函数什么
37、解释 ROI Pooling 和 ROI Align
38、Mask RCNN中 mask branch 如何接入 Faster RCNN中
39、解释 FPN
40、解释 ROI Align
41、简述 YOLO 和 SSD
42、简述 Hough 直线检测、Sobel 边缘检测算法流程
43、Mask RCNN中的anchors如何判定为正负样本
44、简述 NMS 算法流程
45、attention起源是用在哪里?pixel还是frame,是soft还是hard
46、anchor的正负样本比是多少
47、算法和激活函数等
48、BN的原理和作用
49、BN层反向传播,怎么求导
50、BN 的作用和缺陷,以及针对batch_size小的情况的改进(GN)
51、BN层,先加BN还是激活,有什么区别
52、手推BP
53、优化算法举例和他们的区别(SGD、SGDM、RMSprop、Adam)
54、随机梯度下降和梯度下降
55、训练不收敛的原因有哪些
56、简述 SVM 流程、核函数寻参及常见的核函数举例
57、batch_size 和 learning rate 的关系(怎么平衡和调整二者)
58、解释过拟合和欠拟合,以及解决方法
59、激活函数有哪些,各自区别
60、损失函数有哪些
61、Sigmoid 和 ReLu 对比(各自优缺点)
62、为什么不用sigmoid而用relu?做出了哪些改进?
63、梯度消失和梯度爆炸的原因和解决方法
64、Precision 和 Recall 的定义
65、精确率高、召回率低是为什么
66、SVM,线性回归和逻辑回归的原理及区别
67、PCA原理,PCA和SVD的区别和联系
68、正则化怎么选择,有哪些方式
69、L1、L2范数,区别
70、boost、Adaboost
71、dropout和batch normalization
72、讲一下决策树和随机森林
73、讲一下GBDT的细节,写出GBDT的目标函数。 GBDT和Adaboost的区别与联系
74、偏差、方差
75、距离度量公式哪些,区别
76、多标签识别怎么做
77、data argumentation怎么处理的
78、数据不均衡怎么处理、只有少量带标签怎么处理
79、权重初始化方法都有哪些
80、权值衰减这个参数怎么设置
81、分类问题有哪些评价指标?每种的适用场景。
82、无监督学习了解哪些
83、图像处理Opencv
84、边缘检测算子有哪些
85、霍夫变换
86、直方图是什么
87、canny算子是怎么做的
88、图像的特征提取有哪些算法,适用范围、优缺点
参考:
https://blog.csdn.net/bluesliuf/article/details/89389117
https://zhuanlan.hu.com/p/107279000
https://zhuanlan.hu.com/p/56475281
㈣ 网络管理员面试题目及答案(2)
网络管理员面试题目及答案(二)
39、堆栈操作中都是对栈顶单元进行的,访问堆栈的地址是由SP指定的。它在操作过程中不需要用户指定。在下推堆栈中,写入堆栈的单元地址是(B)。
A.PC B.(SP)+1 C.SP D.指令寄存器
【解析】堆栈是一个专门的存储区,其存取数据的顺序是先进后出,每次操作都是对栈顶单元进行的。栈顶单元的地址,每次进出栈时都要自动修改。栈顶单元的地址放在堆栈指针SP中,写入堆栈时,栈顶单元已经存有数据,再写入新数据时,不能写入原来的SP中,必须写到栈顶单元的下一单元中,在堆栈地址是向下生长的下推式堆栈中,写入数据的堆栈单元的堆栈单元地址是(SP)+1。即进栈操作把(SP)+1再把进栈的数据写入新的栈顶单元(SP)+1的单元中。出栈时,把栈顶单元内容弹出,然后(SP)–1。
SP的修改是指令自动完成的,不需要用户参与。
40、计算机可以运行各种高级程序设计语言编写的程序,但是运行时必须经过编译程序等先把它们转换成(B),才能在计算机上执行。
A.汇编语言 B.二进制机器语言 C.中间语言 D.操作系统原语
【解析】计算机中各种设备是根据指令码的要求进行操作的。指令的操作码决定本指令完成什么操作,指令的地址码决定操作数存放的单元地址。计算的控制器通过操作码译码器来分析指令的具体要求,发出各种控制命令控制各个部件成完指令规定的功能。
计算机只能识别二进制编码的机器指令,其他符号都不认识,使用各种高级语言编写的程序,最终必须通过编译程序等转换成机器能够识别的二进制机器指令才能执行。
41、接口是主机与外设通信的桥梁,接口接收主机送来的(1)(C)控制设备工作,接口反映设备的(2)(C),以便主机随时查询,决定下一步执行什么操作。
(1)A.地址 B.数据 C.控制命令 D.应答信号
(2)A.速度 B.型号 C.工作状态 D.地址编号
【解析】接口是主机与外设通信的桥梁,接口的主要功能是接收主机发来的控制命令来控制外设工作,如启动外设传送数据、停止外设工作等。接口还要反映外设目前的状态,监视设备的工作情况,以便主机检测设备状态,根据设备不同的工作状态,发出不同的控制命令,决定下一步设备执行什么操作。
当然接口中还包括数据缓冲寄存器和中断逻辑电路等。
42、计算机存储器的最大容量决定于(C)。
A.指令中地址码位数
B.指令字长
C.寻址方式决定的储器有效地址位数
D.存储单元的位数
【解析】关于主存容量问题。
主存的容量大小直接影响用户的应用范围,特别是操作系统、系统软件功能越完善,主机运行时占用的主存的空间越大,因此主存的容量直接影响用户能否使用该计算机。
计算机的主存容量决定于主存的地址位数,但主存的地址位数再多,CPU的访问指令提供的地址位数较少也是没用的,因此主存最大可以使用的容量决定于访存指令访问地址的位数。
在只有直接寻址的指令中,主存容量直接决定于指令中地址码位数。
由于指令字长的限制,指令地址码的位数不可能太多,为了扩充CPU可访问的主存空间,现在都使用变址寻址、基地寻址等,以增加操作数的地址位数。因此主存储器的最大容量决定于由指令寻址方式形成的操作数有效地址的位数。
43、计算机存储系统中通常采用三级结构,其主要目的是(D)。
A.提高存储器读写速度
B.扩大存储器的容量
C.便于系统升级
D.解决存储器速度、容量、价格的矛盾
【解析】计算机对存储器的要求是速度快、容量大、价格低,这3个要求是互相矛盾的,实现起来非常困难。一般高速半导体存储器速度快,但容量小、价格贵;磁盘等磁表面存储器容量大、价格低,但速度较慢也不能作为主存使用。为了得到一个速度快、容量大、价格低的存储器,最好的办法也是最现实的办法是利用现有的存储设备构成一个三级存储系统。大容量、速度较快、价格不太贵的半导体存储器作为主存体(如常用的DRAM)。为了提高CPU访问主存取数的速度,在主存与CPU之间增加一级高速缓冲存储器cache,其特点是速度快,但价格贵、容量不大,用户还是可以接受的。CPU从cache中读出指令和数据比从主存中读取快的多,可有效地提高访存的速度。因为主存容量不够,在主存外面增加一个辅助存储器,如磁盘、磁带等。其特点是容量很大、价格很低,但速度很慢,存放CPU暂时不使用的程序和数据,等到CPU要访问这部分内容时,可成批调入主存,CPU从主存中再存取有关指令和数据,速度也不慢。三级存储结构有效地解决了存储器速度、容量和价格之间的矛盾,成为目前存储系统的主流方案
44、原码定点数乘除法运算中,乘积和商的符号是用(C)决定的。
A. 二数符号位相减 B. 二数符号位相与
C. 二数符号位异或 D. 用户来设定
【解析】原码定点数乘除运算时,因为其数值部分是该数值真值的绝对值,可直接对二数进行乘(除)操作求出积(商)即可。二数符号相同时,积(商)符号就可确定。如果二数符号不同时,根据同号二数相乘(除)结果为正,异号二数相乘(除)结果为负的原则,采用二个符号位进行异或运算求得1⊕1=0,0⊕0=1,1⊕0=1,0⊕1=0。
45、精简指令系统计算机RISC中,大量设置通用寄存器,且指令格式仅用R-R型寻址,目的是为了(B)。
A. 简化指令格式 B. 提高指令运算速度
C . 用户使用方便 D. 减少地址计算时间
【解析】大中型计算机的指令系统功能强,速度快,使用方便,但硬件代价太高。因此,IBM公司首先开展指令系统复杂性的研究工作,得出的结论并不是指令系统设计得很庞大的计算机最好,而是去掉那些复杂而又很少使用的指令,把经常大量使用的指令的处理速度尽可能提高。显然,R-R寻址指令的速度较快。因为
这种指令不需要访问存取操作数,操作数在运算器的通用寄存器中存放。因此一个节拍即可得运算结果,节省大量的访问时间。为了能在运算器中存放一些操作数据和中间结果,RISC计算机中设置了大量的通用寄存器。
46、文件系统中,文件按名字存取是为了(B)。
A. 方便操作系统对信息的管理 B. 方便用户的使用
C. 确定文件的存取权限 D. 加强对文件内容的保密
【解析】早期计算机系统中没有文件管理机构,用户自行管理辅助存储器上的信息,按照物理地址安排信息,组织数据的输入输出,还要记住信息在存储介质上的分布情况,烦琐复杂、易于出错、可靠性差。操作系统提供文件系统后,首先方便用户使用,使用者无须记住信息存放在辅助存储器中的物理位置,也无须考虑如何将信息存放在存储介质上,只要知道文件名,给出有关操作要求便可存取信息,实现了“按名存取”。特别是当文件存放位置发生了改变,甚至更换了文件的存储设备,对文件的使用者也没有丝毫影响。其次,文件安全可靠,用户通过文件系统才能实现对文件的访问,而文件系统能提供各种安全、保密和保护 措施 ,因此可防止对文件信息有意或无意的破坏或窃用。此外,在文件使用过程中可能出现硬件故障,这时文件系统可组织重执,对于硬件失效而可能造成的文件信息破坏,可组织转储以提高文件的可靠性。最后,文件系统还能提供文件的共享功能,如不同的用户可以使用同名或异名的同一文件。这样,既节省了文件存放空间,又减少了传递文件的交换时间,进一步提高了文件和文件空间的利用率。
47、能使系统中多台计算机相互协作完成一件任务的操作系统是(D)。
A. 批处理操作系统 B. 分时操作系统
C. 网络操作系统 D. 分布式操作系统
【解析】常见的操作系统类型及其作用说明如下。
批处理操作系统:是一种早期的大型机用操作系统,其主要特征是用户脱机使用计算机,成批处理,多道程序运行。
分时系统:分时操作系统是一个联机的(on-line)多用户(multi-user)交互式(interactive)的操作系统,具有交互性、同时性和独立性。
实时系统:其主要特点是提供及时响应和高可靠性。
个人计算机上的操作系统:是联机的交互式的单用户操作系统。
网络操作系统:在原来各自计算机操作系统的基础上按照网络体系结构的各个协议标准开发的网络管理、通信、资源共享、 系统安全 和多种网络应用服务。 分布式操作系统:通过通信网络将物理上分布的具有自治功能的数据处理系统或计算机系统连接起来,实现信息交换和资源共享,协作完成任务。
48、操作系统中不支持程序浮动的地址变换机制是(C)。
A. 页式地址转换 B. 段式地址转换 C. 静态重定位 D. 动态重定位
【解析】本题考查存储管理的地址变换技术。
实现地址重定位或地址映射的方法有两种:静态地址重定位和动态地址重定位。 静态地址重定位是在虚拟空间程序执行之前由装配程序完成地址映射工作。优点是不需要硬件支持,缺点是程序一旦装入内存之后就不能再移动,并且必须在程序执行之前将有关部分全部装入,因而无法实现虚拟存储。
动态地址重定位是在程序执行过程中,CPU访问内存之前,将要访问的程序或数据地址转换成内存地址。动态地址重定位依靠硬件地址变换机构完成,其主要优点有可对内存进行非连续分配,可实现虚拟存储,有利于程序段的共享。页式和段式存储管理均采用动态地址重定位技术。
49、不属于存储管理功能的是(C)。
A. 主存空间的分配和回收 B. 主存空间的共享和保护
C. 辅存空间的管理 D. 实现地址转换
【解析】存储管理是操作系统的重要组成部分,它负责管理计算机系统的重要资源主存储器。存储管理的主要功能包括:虚拟存储器、地址变换、内外存数据传输的控制、内存的分配与回收、内存信息的共享与保护。
50、在请求页式存储管理中,当查找的页不在(C)中时会产生缺页中断。
A. 外存 B. 虚存 C. 内存 D. 地址空间
【解析】请求页式管理所采取的页面调入方式是当需要执行某条指令而又发现它不在内存时或当执行某条指令需要访问其他的数据或指令时,这些指令和数据不在内存中,就会发生缺页中断,系统将外存中相应的页面调入内存。
51、现实世界中事物的一般特性在信息世界中称为(C)。
A. 实体 B. 关系 C. 属性 D. 关系键
【解析】概念模型,也称信息模型,它是按照用户观点来对数据和信息建模,是现实世界到机器世界的一个中间层次,是数据库设计人员和用户之间进行交流的语言。概念模型涉及的基本概念有以下几个。
实体(Entity):客观存在的并可相互区别的事物称为实体。
属性(Attribute):实体所具有的某一特性称为属性。一个实体可以由若干个属性来描述。
码(Key):唯一标识实体的属性集称为码。
域(Domain):属性的取值范围称为该属性的域。
实体型(Entity Type):用实体名及其属性名集合来抽象和刻画的同类实体,称为实体型。
实体集(Entity Set):同型实体的集合称为实体集。
联系(Relationship):包括实体的各属性之间的联系和不同实体集之间的联系。
52、SQL的Select语句中From Q应理解为(D)。
A. Q中的元组序号 B. 关系Q的元组变量
C. 基本表Q的结构定义 D. Q中的全部元组
【解析】 数据库查询是数据库的核心操作。SQL语言提供了Select语句进行数据库的查询,该语句具有灵活的使用方式和丰富的功能,其一般格式为: Select [all | distinct]<目标列表达式>[,<目标列表达式>]
From <表名或视图名>[,<表名或视图名>]
[Where <条件表达式>]
[Group By <列名1> [Having <条件表达式>]]
[Order By <列名2> [Asc | Desc]]
Select语句的含义是:如有Where子句,则根据Where子句的条件表达式,从From子句指定的基本表或视图中找到满足条件的元组,再按Select子句中的目标表达式,选出元组中的属性值形成结果表。如果有Group子句,则将结果<列名1>的值进行分组,该属性列值相等的元组为一个组。通常会在每组中作用集函数,如果Group子句带Having短句,则只有满足指定条件的组才能输出。如果有Order子句,则结果表还要按<列名2>的值升序或降序排序
53、关系代数中的θ连接操作由(B)操作组合而成。
A. 和 B. 和× C. 、和× D. 和×
【解析】本题考查关系运算。
连接也称θ连接,它是从两个关系的笛卡儿积中选取属性间满足一定条件的元组。而笛卡尔积用符号“×”来表示,选择用符号“”来表示,所以答案为B。
54、元组比较操作(c1, c2), <=(d1, d2),其意义等价于(D)。
A. (c1<=d1) OR (c2<=d2)
B. (c1<=d1) OR ((c1=d1) AND (c2<=d2))
C. (c1<=d1) AND (c2<=d2)
D. (c1
【解析】两个元组进行比较时,首先比较第一个分量,根据比较结果的不同执行不同的后续操作,说明如下。
不满足给定的条件,则返回“假”,操作结束。
如果不相等且满足给定的条件,返回“真”,操作结束。
如果相等,则继续比较其他的分量。
按照上述规则,(c1, c2)和(d1, d2)进行比较时,首先比较c1和d1,如果c1
网络管理员面试题目及答案(三)
55、关系数据库的数据和更新操作必须遵循的完整性规则包括(D)。
A. 实体完整性和参照完整性
B. 参照完整性和用户定义的完整性
C. 实体完整性和用户定义的完整性
D. 实体完整性、参照完整性和用户定义的完整性
【解析】关系模型的完整性规则是对关系的某种约束条件。关系模型有3类完整性约束:实体完整性、参照完整性和用户定义的完整性。其中实体完整性和参照完整性是关系模型必须满足的完整性约束条件,被称为是关系的两个不变性,应该由关系系统自动支持。
实体完整性规则规定基本关系的所有主属性都不能取空值,对于实体完整性规则
说明如下。
实体完整性规则是针对基本关系而言的。
现实世界中的实体是可区分的,即它们具有某种唯一性标识,相应的关系模型中以主码作为唯一性标识。
主码中的属性即主属性不能取空值。
参照完整性是对关系间引用数据的一种限制。若属性组A是基本关系R1的外码,它与基本关系R2的主码K相对应,则R1中每个元组在A上的值要么取空值,要么等于R2中某元组的主码值。
用户定义的完整性是针对某一具体关系数据库的约束条件。它反映某一应用所涉及的数据必须满足的语义要求,例如某个属性必须取唯一值,某些属性之间应满足一定的函数关系、某个属性的取值范围在0~100之间等。
56、ATM采用的复用方式是(C)
A. 异步复用 B. 时分复用 C. 统计时分复用 D. 同步时分复用
【解析】ATM是异步传输模式。所谓异步就是指各个不同来源的信元,只要准备好就可进入信道,信元的排列不是固定的,也叫统计时分复用。
57、对于同步传输,描述正确的是(29)。
A. 数据块之间不需要同步码
B. 数据字节之间需要同步码
C. 数据位之间需要同步码
D. 数据块之间需要同步码
58、TCP/IP层次模型中,IP层相当于OSI/RM中的(30)。
A. 物理层 B. 链路层 C. 网络层 D. 传输层
59、计算机网络的3个主要组成部分是(31)。
A. 通信软件、通信子网和通信协议
B. 一组主机、一个通信子网和一组通信协议
C. 一组服务器、一组终端和一组通信协议
D. 一组主机、若干通信线路和一组通信协议
60、(C适合于高速网络系统和中远距离数据传输。
A. 双绞线 B. 同轴电缆 C. 光纤 D. 无线介质
【解析】同轴电缆不适合高速传输,双绞线随着传输速度的提高,距离变得很短,无线介质也不适合高速网络系统和中远距离数据传输,只有光纤适合高速网络系统和中远距离数据传输
61介质的最大利用率取决于帧的长度和传播时间,当帧的(C时,介质的利用率越高。
A. 长度越长,传播时间越长
B. 长度越短,传播时间越短
C. 长度越长,传播时间越短
D. 长度越短,传播时间越长
【解析】传输介质利用率是指有效传输数据的时间和总时间之比,传播延迟占用的时间越短,利用率越高。另外,帧的长度越长,即得到发送权后,传输的数据越多,有效时间就越多,介质的利用率就越高。
62、CSMA/CD 中一旦某个站点检测到冲突,它就立即停止发送,其他站点(C)
A. 都处于发送状态 B. 都会相继竞争发送权
C. 都会收到阻塞信号 D. 仍有可能继续发送帧
【解析】IEEE 802.3标准中对CSMA/CD工作方式约定,一旦某个站点检测到冲突,它就立即停止发送,并发送一强的阻塞信号,便于其他站点迅速接收到,马上停止数据发送
63、在一个主干为1000Mbps交换式以太网的结构中(B)。
A. 只能包括1000Mbps交换机
B. 可以包括1000Mbps、100Mbps和10Mbps交换机
C. 应包括 1000Mbps和100Mbps交换机
D. 可以包括1000Mbps和10Mbps交换机
【解析】主干为1000Mbps的网络,一般主交换机为1000Mbps,二级交换机和三级交换机可以降低层次,用100Mbps或10Mbps的交换机。
64、在(A)方式的交换机部署中,交换机的位置比较灵活。
A. 级联 B. 模块 C. 菊花链堆叠 D. 矩阵堆叠
【解析】交换机的部署可以分为堆叠式和级联式,堆叠式又分为菊花链堆叠和矩阵堆叠,差别在于后备的连接方式不同,但从位置上,都是集中式的。级联式中,交换机可以部署在不同的位置,之间的距离可以扩大,部署起来比较灵活
65、VLAN和的关系是(A)。
A. 两者的应用场合和目的不同
B. 两者使用的技术相同
C. 两者的目的相同
D. 两者的用户不同
【解析】VLAN和,一个称为虚拟局域网,一个称为虚拟专网,虽都有虚拟的意思,但概念不一样,两者的应用场合和目的也不同。VLAN是将局域网中连接在同一交换机或不同交换机的计算机按部门分组划分,就像不同的子网一样。而是指通过公共网络,将远程的用户或一个网络与本地网络连接,通过安全措施,达到像在内部网络使用一样
66、在下面设备中,(38)不是工作在数据链路层的。
A. 网桥 B. 集线器 C. 网卡 D. 交换机
【解析】网桥、集线器和交换机属于联网设备,网桥工作在数据链路层,交换机也工作在数据链路层,集线器(Hub)是工作在物理层的设备,不具备交换功能。网卡是接到计算机上的属于外围设备,完成物理层和数据链路层的功能
67、在计算机网络中,能将异种网络互联起来,实现不同网络协议相互转换的网络互联设备是(D)。
A. 网桥 B. 集线器 C. 路由器 D. 网关
【解析】实现异种网络互联,是指运行不同网络协议的网络互联,要解决的一个主要问题是网络协议相互转换,这是传输层以上层的转换任务,需要网关来实现
68、以无碎片直通方式工作的交换机对于以太网的帧,(C)内容不去读它。
A. 原地址 B. 目的地址 C. 大于64B的部分 D.小于64B的部分
【解析】交换机的工作方式可以分为存储转发式、直通式和无碎片直通式。无碎片 直通式是指交换机读取部分数据,然后转发出去,由于IEEE 802.3规定的以太网的最 小帧的长度为64B,其中包含了源地址和目的地址,后面的不再读入缓存,而是直接 转发出去,这样小于最小帧的数据就被认为是碎片,过滤掉了,称为无碎片直通工作方式
69、网桥的功能不包括(C)。
A. 互联不同MAC协议的局域网
B. 存储帧
C. 处理网络分组
D. 转发帧
【解析】网桥处理的是数据链路层的功能,可以实现不同MAC帧的转化,如IEEE 802.3和IEEE 802.5帧格式的转换,进行帧的接收存储和转发,但不能处理网络分组,处理分组是网络层设备的功能,如路由器
70、帧中继网络的弱点是(C)。
A. 速度慢 B. 线路利用率低
C. 差错处理能力差 D. 误码率高
【解析】帧中继是在克服X.25缺点的基础上发展起来的,由于采用光缆作为传输介质,帧中继认为帧在传输过程中基本不出错,因而在得到帧的目的地址后马上转发,减少了帧在每个结点的时延。这就造成了它的弱点是差错处理能力差,要等到帧传送到目的点完全接收下来,才知道错误。