Ⅰ 手机上的CPU GPU NPU单元,都是什么意思
CPU是手机的控制中枢系统,GPU是手机的图形处理器,NPU是嵌入式神经网络处理器。
1、手机CPU是性能优异的智能手机最重要的部分,即CPU。它是整个手机的控制中心系统,也是逻辑部分的控制中心。微处理器通过在存储器中运行软件,调用存储器中的数据库,达到控制的目的。
2、GPU的英文全称为graphicprocessingunit,中文翻译为graphicprocessor。GPU是显示卡的“大脑”,它决定了显示卡的水平和大部分性能。在手机主板上,GPU芯片一般都接近CPU芯片。
3、嵌入式神经网络处理器(NPU)采用“数据驱动并行计算”架构,特别擅长处理视频、图像等海量多媒体数据。
(1)手机神经网络体现在哪里扩展阅读:
一、cpu厂商:
高通、华为、德州仪器、英特尔、三星、苹果、新势力。
二、GPU设备
GPU是显示卡的“大脑”,它决定了该显卡的档次和大部分性能,对于传统PC上来说,GPU同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。
参考资源来源:
网络-手机CPU
网络-手机GPU
网络-NPU
Ⅱ 苹果手机到底优秀在哪里为什么那么多人想买
说到手机,这几年的国产安卓手机进步突飞猛进,从系统的优化跟硬件的配套,已经不弱苹果手机了。
可以这样说,一部手机,论信号,WIFI速度,充电速度,电池续航,拍照清晰度等等,国产手机已超越了苹果手机。可为何苹果手机一旦降价活动,还那么多人拼命购买呢,小编总结了下,无非就是下面这几点:
一:系统。
平时提起手机系统,很多人总认为不就是流畅性吗,现在安卓系统也非常不错,像华为小米的系统非常快,各应用切换速度不输苹果 。一说到系统就是流畅其实这是一个误区。
广告,应用等方面都是系统问题。 安卓最常见的就是看浏览器中,不知道什么时候手机给你下载了N款APP应用。也不知道手机里几时莫名其妙的多了些图片出来。
看视频的时候,无意点到某个链接,也都会给你装上APP应用。 对,这就是安卓的特点。苹果手机没有这个问题存在。苹果的应用都会在应用商城中下载。这是一个系统区别。也可以理解为安全性的问题。
二:价格
从去年苹果11,今天今年的SE2,定价都算是中端价格。反观现在的安卓手机,无论是华为小米还是VO两家人,甚至是性价比的子品牌,如华为的荣耀,小米的红米,VI的IQOO,这些子品牌的价格都在三千多四千多。 主品牌更是5千的价位了。
有人会说苹果可以设5千价格,为什么国产机就不能。
玩过数码的人都知道原因,那就是降价。
比如都是花了6千元买的旗舰机:苹果11跟华为M30,在下一款旗舰机就是苹果12跟华为M40时,上一款手机价格一目了然。
很多国产现在的价格都定得很虚高。然后降价非常快。反观苹果手机,也是会适量的降价,但只是适量。
甚至一款苹果手机在用了一年,用了两年,两年半都能轻易的转手卖掉。
而安卓机型,不管是哪个品牌,二年后基本没人要了。这已经不是价格的问题了,是没人记得住这个型号,也不愿意用这两年多前的机。
三:反感国产手机的漂亮参数
这一类的多数是年轻人。这两年随着国产机的升级,手机的参数也做得非常完美,漂亮,眼花缭乱。但实际使用就不是一回事了。
同个品牌手机,价格4千跟价格1千8,价格相差这么多。也不见得千元机参数就不好。 这也就是国产商的尿性吧。
两个价格同样是4千毫安的电池,同样的3摄像头,同样是蓝光护眼,同样是4800万等等。。。 同样的像素同样的3摄像头,拍出来的就不是一样了。
可以说,系统,价位,及花里胡哨的完美参数,是让大部分选择苹果的原因。 使用苹果手机的朋友,在没有5G,没有快充,没有大容量电池的情况下还在用苹果机,你是什么原因呢? 下方留言讨论下呗!
Ⅲ 神经网络是由一层一层构建的,那么每层究竟在做什么
某层的神经元个数与节点数是一个意思。
虽是3层神经网络,但是去叫做两层BP网络,因为输入层一般不算做一层。
n就该取2,s1就是隐含层节点数,选取的公式是Hornik 提出的公式,
可以算的s1取值范围,到时自己选取合适值,s2就是你输出层节点数,也就是输出维数。
Ⅳ 人工神经网络的定义,详细说明
人工神经网络(Artificial Neural Networks, ANN),一种模范动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。(引自《环球科学》2007年第一期《神经语言:老鼠胡须下的秘密》)
概念
由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。
人工神经网络具有四个基本特征:
(1)非线性 非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。
(2)非局限性 一个神经网络通常由多个神经元广泛连接而成。一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。通过单元之间的大量连接模拟大脑的非局限性。联想记忆是非局限性的典型例子。
(3)非常定性 人工神经网络具有自适应、自组织、自学习能力。神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化。经常采用迭代过程描写动力系统的演化过程。
(4)非凸性 一个系统的演化方向,在一定条件下将取决于某个特定的状态函数。例如能量函数,它的极值相应于系统比较稳定的状态。非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。
人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。人工神经网络是一种非程序化、适应性、大脑风格的信息处理,其本质是通过网络的变换和动力学行为得到一种并行分布式的信息处理功能,并在不同程度和层次上模仿人脑神经系统的信息处理功能。它是涉及神经科学、思维科学、人工智能、计算机科学等多个领域的交叉学科。
人工神经网络是并行分布式系统,采用了与传统人工智能和信息处理技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。
历史沿革
1943年,心理学家W.S.McCulloch和数理逻辑学家W.Pitts建立了神经网络和数学模型,称为MP模型。他们通过MP模型提出了神经元的形式化数学描述和网络结构方法,证明了单个神经元能执行逻辑功能,从而开创了人工神经网络研究的时代。1949年,心理学家提出了突触联系强度可变的设想。60年代,人工神经网络的到了进一步发展,更完善的神经网络模型被提出,其中包括感知器和自适应线性元件等。M.Minsky等仔细分析了以感知器为代表的神经网络系统的功能及局限后,于1969年出版了《Perceptron》一书,指出感知器不能解决高阶谓词问题。他们的论点极大地影响了神经网络的研究,加之当时串行计算机和人工智能所取得的成就,掩盖了发展新型计算机和人工智能新途径的必要性和迫切性,使人工神经网络的研究处于低潮。在此期间,一些人工神经网络的研究者仍然致力于这一研究,提出了适应谐振理论(ART网)、自组织映射、认知机网络,同时进行了神经网络数学理论的研究。以上研究为神经网络的研究和发展奠定了基础。1982年,美国加州工学院物理学家J.J.Hopfield提出了Hopfield神经网格模型,引入了“计算能量”概念,给出了网络稳定性判断。 1984年,他又提出了连续时间Hopfield神经网络模型,为神经计算机的研究做了开拓性的工作,开创了神经网络用于联想记忆和优化计算的新途径,有力地推动了神经网络的研究,1985年,又有学者提出了波耳兹曼模型,在学习中采用统计热力学模拟退火技术,保证整个系统趋于全局稳定点。1986年进行认知微观结构地研究,提出了并行分布处理的理论。人工神经网络的研究受到了各个发达国家的重视,美国国会通过决议将1990年1月5日开始的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”变为全球行为。在日本的“真实世界计算(RWC)”项目中,人工智能的研究成了一个重要的组成部分。
基本内容
人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等。根据连接的拓扑结构,神经网络模型可以分为:
(1)前向网络 网络中各个神经元接受前一级的输入,并输出到下一级,网络中没有反馈,可以用一个有向无环路图表示。这种网络实现信号从输入空间到输出空间的变换,它的信息处理能力来自于简单非线性函数的多次复合。网络结构简单,易于实现。反传网络是一种典型的前向网络。
(2)反馈网络 网络内神经元间有反馈,可以用一个无向的完备图表示。这种神经网络的信息处理是状态的变换,可以用动力学系统理论处理。系统的稳定性与联想记忆功能有密切关系。Hopfield网络、波耳兹曼机均属于这种类型。
学习是神经网络研究的一个重要内容,它的适应性是通过学习实现的。根据环境的变化,对权值进行调整,改善系统的行为。由Hebb提出的Hebb学习规则为神经网络的学习算法奠定了基础。Hebb规则认为学习过程最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神经元的活动而变化。在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法,使得神经网络能够通过连接权值的调整,构造客观世界的内在表示,形成具有特色的信息处理方法,信息存储和处理体现在网络的连接中。
根据学习环境不同,神经网络的学习方式可分为监督学习和非监督学习。在监督学习中,将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较,得到误差信号,以此控制权值连接强度的调整,经多次训练后收敛到一个确定的权值。当样本情况发生变化时,经学习可以修改权值以适应新的环境。使用监督学习的神经网络模型有反传网络、感知器等。非监督学习时,事先不给定标准样本,直接将网络置于环境之中,学习阶段与工作阶段成为一体。此时,学习规律的变化服从连接权值的演变方程。非监督学习最简单的例子是Hebb学习规则。竞争学习规则是一个更复杂的非监督学习的例子,它是根据已建立的聚类进行权值调整。自组织映射、适应谐振理论网络等都是与竞争学习有关的典型模型。
研究神经网络的非线性动力学性质,主要采用动力学系统理论、非线性规划理论和统计理论,来分析神经网络的演化过程和吸引子的性质,探索神经网络的协同行为和集体计算功能,了解神经信息处理机制。为了探讨神经网络在整体性和模糊性方面处理信息的可能,混沌理论的概念和方法将会发挥作用。混沌是一个相当难以精确定义的数学概念。一般而言,“混沌”是指由确定性方程描述的动力学系统中表现出的非确定性行为,或称之为确定的随机性。“确定性”是因为它由内在的原因而不是外来的噪声或干扰所产生,而“随机性”是指其不规则的、不能预测的行为,只可能用统计的方法描述。混沌动力学系统的主要特征是其状态对初始条件的灵敏依赖性,混沌反映其内在的随机性。混沌理论是指描述具有混沌行为的非线性动力学系统的基本理论、概念、方法,它把动力学系统的复杂行为理解为其自身与其在同外界进行物质、能量和信息交换过程中内在的有结构的行为,而不是外来的和偶然的行为,混沌状态是一种定态。混沌动力学系统的定态包括:静止、平稳量、周期性、准同期性和混沌解。混沌轨线是整体上稳定与局部不稳定相结合的结果,称之为奇异吸引子。一个奇异吸引子有如下一些特征:(1)奇异吸引子是一个吸引子,但它既不是不动点,也不是周期解;(2)奇异吸引子是不可分割的,即不能分为两个以及两个以上的吸引子;(3)它对初始值十分敏感,不同的初始值会导致极不相同的行为。
发展趋势
人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理方面的缺陷,使之在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。人工神经网络与其它传统方法相结合,将推动人工智能和信息处理技术不断发展。近年来,人工神经网络正向模拟人类认知的道路上更加深入发展,与模糊系统、遗传算法、进化机制等结合,形成计算智能,成为人工智能的一个重要方向,将在实际应用中得到发展。将信息几何应用于人工神经网络的研究,为人工神经网络的理论研究开辟了新的途径。神经计算机的研究发展很快,已有产品进入市场。光电结合的神经计算机为人工神经网络的发展提供了良好条件。
Ⅳ 手机ai是什么软件手机ai有什么实际用途
所谓AI,其实指的是人工智能,试图通过计算机模拟人类意识和思维的全过程。说白了就是模拟人类神经结构和功能的数学模型或计算模型,通过大量的人工神经元进行计算。目前手机真正能用到AI(也就是神经网络)的功能也集中在图像识别领域。各大厂商新加入的各种拍照算法的优化也是因为手机图像识别能力的提升。AI手机是芯片、智能系统、AI应用的结合体,缺一不可。AI算法还能正确区分不同的声音,让对方清晰地接听你的电话;语音功能方面,手机AI语音助手可以成为新的人机交互入口;在图像识别方面,可以实现AI人脸识别、AI扫描、一键购物。
AI指的是人工智能,把范围缩小到硬件层面。是指模拟人脑结构的人工神经网络。它是模拟人类神经结构和功能的数学模型或计算模型,由大量人工神经元计算得出。与传统的逻辑推理不同,基于大量数据统计的人工神经网络具有一定的判断力,在语音识别和图像识别方面尤其具有优势。AI是“人工智能”的英文缩写,中文翻译是人工智能。人工智能是计算机科学的一个分支,它试图理解智能的本质,并产生一种新的智能机器,能够以类似于人类智能的方式做出反应。
Ⅵ 苹果手机指纹识别采用神经网络的技术了么
是生物识别技术,和神经网络无关的。
Ⅶ 手机上运行的深度神经网络模型-MobileNet
文章引用自《 从MobileNet看轻量级神经网络的发展 》,详情请点击原文观看
前 言
随着深度学习的火热,计算机视觉领域内的卷积神经网络模型也层出不穷。从1998年的LeNet,到2012年引爆深度学习热潮的AlexNet,再到后来2014年的VGG,2015年的ResNet,深度学习网络模型在图像处理中应用的效果越来越好。神经网络体积越来越大,结构越来越复杂,预测和训练需要的硬件资源也逐步增多,往往只能在高算力的服务器中运行深度学习神经网络模型。移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型。
深度学习领域内也在努力促使神经网络向小型化发展。在保证模型准确率的同时体积更小,速度更快。到了2016年直至现在,业内提出了SqueezeNet、ShuffleNet、NasNet、MnasNet以及MobileNet等轻量级网络模型。这些模型使移动终端、嵌入式设备运行神经网络模型成为可能。而MobileNet在轻量级神经网络中较具代表性。
谷歌在2019年5月份推出了最新的MobileNetV3。新版MobileNet使用了更多新特性,使得MobileNet非常具有研究和分析意义,本文将对MobileNet进行详细解析。
MobileNet的优势
MobileNet网络拥有更小的体积,更少的计算量,更高的精度。在轻量级神经网络中拥有极大的优势。
1
更小的体积
MobileNet相比经典的大型网络,参数量明显更少,参数量越少模型体积越小。
2
更少的计算量
MobileNet优化网络结构使模型计算量成倍下降。
3
更高的准确率
MobileNet凭借网络结构优化,在更少的参数及更少的计算量情况下,网络精度反而超过了部分大型神经网络。在最新的MobileNetV3-Large中,实现ImageNet数据集Top1准确率达到75.2%。
4
更快的速度
使用Google Pixel-1手机测试,MobileNet各版本都能保持运行时间在120ms以下,最新版MobileNetV3-Large运行时间达到66ms,参数量和计算量更低的MobileNetV3-Small更是能达到22ms;GoogleNet运行速度约为250ms,而VGG-16由于一次性需要加载至内存的空间已超过500MB,手机系统会报内存溢出错误导致无法运行。
5
多种应用场景
MobileNet可以在移动终端实现众多的应用,包括目标检测,目标分类,人脸属性识别和人脸识别等。
MobileNet各版本介绍
1
MobileNetV1网络结构
整个网络不算平均池化层与softmax层,共28层;
在整个网络结构中步长为2的卷积较有特点,卷积的同时充当下采样的功能;
第一层之后的26层都为深度可分离卷积的重复卷积操作;
每一个卷积层(含常规卷积、深度卷积、逐点卷积)之后都紧跟着批规范化和ReLU激活函数;
最后一层全连接层不使用激活函数。
2
MobileNetV2网络结构
MobileNetV2中主要引入线性瓶颈结构和反向残差结构。
MobileNetV2网络模型中有共有17个Bottleneck层(每个Bottleneck包含两个逐点卷积层和一个深度卷积层),一个标准卷积层(conv),两个逐点卷积层(pw conv),共计有54层可训练参数层。MobileNetV2中使用线性瓶颈(Linear Bottleneck)和反向残差(Inverted Resials)结构优化了网络,使得网络层次更深了,但是模型体积更小,速度更快了。
3
MobileNetV3网络结构
MobileNetV3分为Large和Small两个版本,Large版本适用于计算和存储性能较高的平台,Small版本适用于硬件性能较低的平台。
Large版本共有15个bottleneck层,一个标准卷积层,三个逐点卷积层。
Small版本共有12个bottleneck层,一个标准卷积层,两个逐点卷积层。
MobileNetV3中引入了5×5大小的深度卷积代替部分3×3的深度卷积。引入Squeeze-and-excitation(SE)模块和h-swish(HS)激活函数以提高模型精度。结尾两层逐点卷积不使用批规范化(Batch Norm),MobileNetV3结构图中使用NBN标识。
(图片来源https://arxiv.org/pdf/1905.02244.pdf)
网络结构上相对于MobileNetV2的结尾部分做了优化,去除三个高阶层,如上图所示。去除后减少了计算量和参数量,但是模型的精度并没有损失。
值得一提的是,不论是Large还是Small版本,都是使用神经架构搜索(NAS)技术生成的网络结构。
4
MobileNet各版本特性
MobileNet实现计算量减小、参数量减少的同时保证了较高的准确率,这和其拥有的特性息息相关:
MobileNetV1提出的特性
MobileNetV2提出的特性
MobileNetV3提出的特性
MobileNet各个版本拥有的特性汇总
下文将对上表中的各个特性详细阐述。
MobileNet的特性详解
1
深度可分离卷积
从MobileNetV1开始,到V2、V3的线性瓶颈结构都大量使用了深度可分离卷积。
深度可分离卷积(Depthwise Separable Convolution)是一种卷积结构。它是由一层深度卷积(Depthwise convolution)与一层逐点卷积(Pointwise Convolution)组合而成的,每一层卷积之后都紧跟着批规范化和ReLU激活函数。跟标准卷积的区别就是精度基本不变的情况下,参数与计算量都明显减少。
深度卷积
深度卷积(Depthwise convolution, DW)不同于常规卷积操作,深度卷积中一个卷积核只有一维,负责一个通道,一个通道只被一个卷积核卷积;常规卷积每个卷积核的维度与输入维度相同,每个通道单独做卷积运算后相加。
以一张5x5x3(长和宽为5,RGB3通道)的彩色图片举例。每层深度卷积卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。设padding=1,stride=1,一个三通道的图像经过运算后生成了3个特征图,如下图所示:
深度卷积完成后的输出特征图通道数与输入层的通道数相同,无法扩展通道数。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的特征信息。因此需要逐点卷积来将生成的特征图进行组合生成新的特征图。
逐点卷积
逐点卷积(Pointwise Convolution, PW)的运算与标准卷积运算非常相似。
逐点卷积卷积核大小为1×1xM(M为输入数据的维度),每次卷积一个像素的区域。逐点卷积运算会将上一层的特征图在深度方向上进行加权组合,生成新的特征图,新的特征图的大小与输入数据大小一致;然后组合各通道的特征图,以较少的计算量进行降维或升维操作(改变输出数据的维度)。
以一张5x5x3(长和宽为5,RGB3通道)的彩色图片举例,使用4个1x1x3的逐点卷积核进行卷积,逐点卷积运算后生成了4个特征图。这个例子是使用逐点卷积进行升维的操作,特征图从5x5x3 升维到5x5x4。如下图所示:
深度可分离卷积结构解析
将深度卷积和逐点卷积组成深度可分离卷积后的示意图,如下图所示:
首先进行深度卷积操作,得出的特征图各通道之间是不关联的。接着进行逐点卷积把深度卷积输出的特征图各通道关联起来。
深度可分离卷积使用了更小的空间代价(参数减少)和更少的时间代价(计算量更少)实现了标准卷积层一样的效果(提取特征)。
一般的设Df为输入特征图边长,Dk为卷积核边长,特征图和卷积核均为长宽一致,输入通道数为M,输出通道数为N,则:
标准卷积计算量为:Df×Df×Dk×Dk×M×N
深度卷积的计算量为:Df×Df×Dk×Dk×M
逐点卷积的计算量为:Df×Df×M×N
上图所示实现输入特征图大小为5×5×3,输出特成图大小为5×5×4,设padding=1,stride=1,深度卷积卷积核大小为3×3,标准卷积也使用3×3尺寸卷积核。实现相同的卷积效果,参数量(不包含偏置)与计算量对比如下表所示:
深度可分离卷积的演变
事实上深度可分离卷积不是在MobileNetV1中第一次提出的,而是在2016年由谷歌的Xception网络结构中提出的。MobileNetV1在Xception的基础上,对深度可分离卷积进行了改进,做到了计算量与参数量的下降:
假定M为输入层的通道数,N为输出层的通道数。
Xcenption的深度可分离卷积是由输入参数开始,使用1x1xMxN卷积将输入层的通道数转换为目标通道数,再通过3x3x1卷积核对每个通道进行卷积,每次卷积过后使用ReLU进行激活。
MobileNetV1的深度可分离卷积则是先使用3x3x1xM对输入层的每个通道分别卷积,之后通过1x1xMxN将输入层通道数转换为输出层通道数,每次卷积过后做一次批规范化操作,再使用ReLU进行激活。
这里我们使用MobileNetV1网络结构的第一个深度可分离卷积层来举例,输入层维度为112x112x32,输出层维度为112x112x64,Xception与MobileNet的深度可分离卷积的计算量与参数个数对比如下表:
由此可知将PW卷积与DW卷积的顺序调整后,优化了网络的空间复杂度和时间复杂度。
2
宽度因子
MobileNet本身的网络结构已经比较小并且执行延迟较低,但为了适配更定制化的场景,MobileNet提供了称为宽度因子(Width Multiplier)的超参数给我们调整。宽度因子在MobileNetV1、V2、V3都可以运用。
通过宽度因子,可以调整神经网络中间产生的特征的大小,调整的是特征数据通道数大小,从而调整了运算量的大小。
宽度因子简单来说就是新网络中每一个模块要使用的卷积核数量相较于标准的MobileNet比例。对于深度卷积结合1x1方式的卷积核,计算量为:
算式中α即为宽度因子,α常用的配置为1,0.75,0.5,0.25;当α等于1时就是标准的MobileNet。通过参数α可以非常有效的将计算量和参数数量约减到α的平方倍。
下图为MobileNetV1使用不同α系数进行网络参数的调整时,在ImageNet上的准确率、计算量、参数数量之间的关系(每一个项中最前面的数字表示α的取值)。
(数据来源https://arxiv.org/pdf/1704.04861.pdf)
可以看到当输入分辨率固定为224x224时,随着宽度因子的减少,模型的计算量和参数越来越小。从上表可以看到, 0.25 MobileNet的正确率比标准版1.0MobileNet低20%,但计算量和参数量几乎只有标准版1.0MobileNet计算量、参数量的10%!对于计算资源和存储资源都十分紧张的移动端平台,可以通过α宽度因子调节网络的餐数量是非常实用的,在真正使用时我们可以按需调整α宽度因子达到准确率与性能的平衡。
3
分辨率因子
MobileNet还提供了另一个超参数分辨率因子(Resolution Multiplier)供我们自定义网络结构,分辨率因子同样在MobileNetV1、V2、V3都可以运用。
分辨率因子一般用β来指代,β的取值范围在(0,1]之间,是作用于每一个模块输入尺寸的约减因子,简单来说就是将输入数据以及由此在每一个模块产生的特征图都变小了,结合宽度因子α,深度卷积结合1x1方式的卷积核计算量为:
下图为MobileNetV1使用不同的β系数作用于标准MobileNet时,在ImageNet上对精度和计算量的影响(α固定1.0)
(数据来源https://arxiv.org/pdf/1704.04861.pdf)
上图中的 224、192、160、128 对应的分辨率因子分别为 1、 6/7、5/7、4/7。
β=1时,输入图片的分辨率为224x224,卷积后的图像大小变化为: 224x224 、112x112、56x56、28x28、14x14、7x7。
β= 6/7时,输入图片的分辨率为192x192,卷积后各层特征图像大小变化为:192x192、96x96、48x48、24x24、12x12、6x6。
卷积特征图像的大小变化不会引起参数量的变化,只改变模型M-Adds计算量。上图中 224分辨率模型测试ImageNet数据集准确率为70.6%,192分辨率的模型准确率为69.1%,但是M-Adds计算量减少了151M,对移动平台计算资源紧张的情况下,同样可以通过β分辨率因子调节网络输入特征图的分辨率,做模型精度与计算量的取舍。
4
规范化
深度学习中的规范化操作(Normalization),有助于加快基于梯度下降法或随机梯度下降法模型的收敛速度,提升模型的精度,规范化的参数能够提升模型泛化能力,提高模型的可压缩性。
按照规范化操作涉及对象的不同可以分为两大类,一类是对输入值进行规范化操作,比如批规范化(Batch Normalization)、层规范化(Layer Normalization)、实例规范化(Instance Normalization)、组规范化(Group Normalization)方法都属于这一类。另外一类是对神经网络中参数进行规范化操作,比如使用L0,L1范数。
批规范化
批规范化(Batch Normalization)几乎存在于MobileNetV1、V2、V3的每个卷积层的后面,目的是加快训练收敛速度,提升准确率。
批规范化是一种对数值的特殊函数变换方法,也就是说假设原始的某个数值是 x,套上一个起到规范化作用的函数,对规范化之前的数值 x 进行转换,形成一个规范化后的数值,即:
所谓规范化,是希望转换后的数值满足一定的特性,至于对数值具体如何变换,跟规范化目标有关,不同的规范化目标导致具体方法中函数所采用的形式不同。通过自适应的重新参数化的方法,克服神经网络层数加深导致模型难以训练的问题。
参数规范化
参数规范化(Weight Normalization, WN)是规范化的一种, 通过人为的设定稀疏算法,去除模型中多余的参数(置为0)使得模型参数稀疏化,可以通过L1范式实现。
参数规范化是防止模型过分拟合训练数据。当训练一批样本的时候,随着训练的推移模型会越来越趋向于拟合样本数据。因为参数太多,会导致模型复杂度上升,容易过拟合。
需要保证模型"简单"的基础上最小化训练误差,这样得到的参数才具有好的泛化性能(也就是测试误差也小),而模型"简单"就是通过规则函数来实现的。
如上图所示,左侧分类明显的是欠拟合,模型并没有能够拟合数据。中间图示为合适的拟合,右边图示是过拟合,模型在训练样本中拟合度是很好的,但是却违背了特征分类规律,在新的测试样本中表现糟糕,影响模型的泛化能力。显然右侧模型在训练是受到额外参数干扰。参数规则化能够使参数稀疏,减少额外参数的干扰,提高泛化能力。
模型拥有稀疏的参数(模型中有大量参数为0),也有利于通过压缩算法压缩模型的大小。
5
线性瓶颈
线性瓶颈英文为Linear Bottleneck,是从Bottleneck结构演变而来的,被用于MobileNetV2与V3。
Bottleneck结构首次被提出是在ResNet网络中。该结构第一层使用逐点卷积,第二层使用3×3大小卷积核进行深度卷积,第三层再使用逐点卷积。MobileNet中的瓶颈结构最后一层逐点卷积使用的激活函数是Linear,所以称其为线性瓶颈结构(Linear Bottleneck)。线性瓶颈结构有两种,第一种是步长为1时使用残差结构,第二种是步长为2时不使用残差结构。
其中输入通道数为M,扩大倍数系数为T。T的值为大于0 的正数,当 0<T<1时,第一层逐点卷积起到的作用是降维。当 1<T时,第一层逐点卷积起到的作用是升维。
第二层为深度卷积,输入通道数 = 输出通道数 = M×T。
第三层为逐点卷积,作用是关联深度卷积后的特征图并输出指定通道数N。
线性瓶颈结构相对标准卷积能够减少参数数量,减少卷积计算量。从空间和时间上优化了网络。
6
反向残差
MobileNetV2中以ResNet的残差(Resials)结构为基础进行优化,提出了反向残差(Inverted Resials)的概念,之后也同样运用与MobileNetV3中。
ResNet中提出的残差结构解决训练中随着网络深度增加而出现的梯度消失问题,使反向传播过程中深度网络的浅层网络也能得到梯度,使浅层网络的参数也可训练,从而增加特征表达能力。
ResNet的残差结构实际是在线性瓶颈结构的基础上增加残差传播。如下图所示:
ResNet中的残差结构使用第一层逐点卷积降维,后使用深度卷积,再使用逐点卷积升维。
MobileNetV2版本中的残差结构使用第一层逐点卷积升维并使用Relu6激活函数代替Relu,之后使用深度卷积,同样使用Relu6激活函数,再使用逐点卷积降维,降维后使用Linear激活函数。这样的卷积操作方式更有利于移动端使用(有利于减少参数与M-Adds计算量),因维度升降方式与ResNet中的残差结构刚好相反,MobileNetV2将其称之为反向残差(Inverted Resials)。
7
5x5 的深度卷积
MobileNetV3中,深度卷积大量使用5x5大小的卷积核。这是因为使用神经结构搜索(NAS)技术计算出的MobileNetV3网络结构的过程中,发现了在深度卷积中使用5x5大小的卷积核比使用3x3大小的卷积核效果更好,准确率更高。关于NAS技术将会在下文的单独章节中做介绍。
8
Squeeze-and-excitation 模块
Squeeze-and-Excitation模块(简称SE模块)的首次提出是在2017年的Squeeze-and-Excitation Networks(SENet)网络结构中,在MNasNet中进行了改进,之后在MobileNetV3中大量使用。研究人员期望通过精确的建模卷积特征各个通道之间的作用关系来改善网络模型的表达能力。为了达到这个期望,提出了一种能够让网络模型对特征进行校准的机制,使得有效的权重大,无效或效果小的权重小的效果,这就是SE模块。
(图片来源https://arxiv.org/pdf/1905.02244.pdf)
如上图,MobileNetV3的SE模块被运用在线性瓶颈结构最后一层上,代替V2中最后的逐点卷积,改为先进行SE操作再逐点卷积。这样保持了网络结构每层的输入和输出,仅在中间做处理,类似于软件开发中的钩子。
SE模块结构详解
下图表示一个SE 模块。主要包含Squeeze和Excitation两部分。W,H表示特征图宽,高。C表示通道数,输入特征图大小为W×H×C。
压缩(Squeeze)
第一步是压缩(Squeeze)操作,如下图所示
这个操作就是一个全局平均池化(global average pooling)。经过压缩操作后特征图被压缩为1×1×C向量。
激励(Excitation)
接下来就是激励(Excitation)操作,如下图所示
由两个全连接层组成,其中SERatio是一个缩放参数,这个参数的目的是为了减少通道个数从而降低计算量。
第一个全连接层有C*SERatio个神经元,输入为1×1×C,输出1×1×C×SERadio。
第二个全连接层有C个神经元,输入为1×1×C×SERadio,输出为1×1×C。
scale操作
最后是scale操作,在得到1×1×C向量之后,就可以对原来的特征图进行scale操作了。很简单,就是通道权重相乘,原有特征向量为W×H×C,将SE模块计算出来的各通道权重值分别和原特征图对应通道的二维矩阵相乘,得出的结果输出。
这里我们可以得出SE模块的属性:
参数量 = 2×C×C×SERatio
计算量 = 2×C×C×SERatio
总体来讲SE模块会增加网络的总参数量,总计算量,因为使用的是全连接层计算量相比卷积层并不大,但是参数量会有明显上升,所以MobileNetV3-Large中的总参数量比MobileNetV2多了2M。
MobileNetV3中的SE模块
SE模块的使用是很灵活的,可以在已有网络上添加而不打乱网络原有的主体结构。
ResNet中添加SE模块形成SE-ResNet网络,SE模块是在bottleneck结构之后加入的,如下图左边所示。
MobileNetV3版本中SE模块加在了bottleneck结构的内部,在深度卷积后增加SE块,scale操作后再做逐点卷积,如上图右边所示。MobileNetV3版本的SERadio系数为0.25。使用SE模块后的MobileNetV3的参数量相比MobileNetV2多了约2M,达到5.4M,但是MobileNetV3的精度得到了很大的提升,在图像分类和目标检测中准确率都有明显提升。
9
h-swish激活函数
MobileNetV3中发现swish激活函数能够有效提高网络的精度,但是swish的计算量太大了,并不适合轻量级神经网络。MobileNetV3找到了类似swish激活函数但是计算量却少很多的替代激活函数h-swish(hard version of swish)如下所示:
sigmoid、h-sigmoid、swish、h-swish激活函数的比较:
(图片来源https://arxiv.org/pdf/1905.02244.pdf)
这种非线性在保持精度的情况下带来了很多优势,首先ReLU6在众多软硬件框架中都可以实现,其次量化时避免了数值精度的损失,运行快。这一非线性改变将模型的延时增加了15%。但它带来的网络效应对于精度和延时具有正向促进,剩下的开销可以通过融合非线性与先前层来消除。
Ⅷ 什么才是真正的人工智能手机
什么才是真正的人工智能手机?
麒麟970
除了此前推出的华为Mate 10系列,目前有消息指出荣耀新一代的旗舰产品荣耀V10也将搭载麒麟970这款芯片。荣耀手机官方微博前段时间发布了一条视频,写着:“Hi, I am AI”,致更懂你的未来。短短10秒的视频中未来科技感十足,星空、手机、宇宙、AI、机器人元素齐聚。
再联系之前荣耀总裁赵明微博中,关于“爱”、“AI”的暗示,不难看出,这些都是在为即将推出的人工智能手机荣耀V10预热。进一步的曝光消息指出,这还是一款全面屏产品。
事实上,也正是因为有了此前的荣耀Magic的智能引擎打头阵,这一次加入麒麟970人工智能芯片的荣耀V10才更加值得期待。有AI芯片的手机才是真AI手机,AI芯片及算法代表了厂商的真正技术,拥有真正的自学习能力,将给用户带来更多更好体验。
为什么这么说呢?NPU的加入到底对智能手机到底有什么意义呢?《新潮电子》在其日前刊登的一篇文章做了很浅显易懂的解释:
“CPU就好比是数学系的老教授,能够解决各类复杂数学问题,但单纯去做求解数值的函数运算显然费时费力;这时候,NPU就好比是一个科学计算器,你不能用它来直接解题,但由它来专门应付题目中需要求解函数数值的部分,显然要得心应手。”
也就是说,NPU的加入并不会明显提升CPU、GPU的性能,但它的出现,却能明显改变端侧的运算环境——而非简单的提升运算能力。
正如在前文提到端智能对比云智能可以让大量识别性的学习操作不需要再过分依赖于云端,而是直接在本地即时高效的处理。硬件级AI能力在手机中的加入,如果开放给第三方应用开发者,还能够带来极大的想象和扩展空间。
结语
国际数据公司(IDC)最新发布的手机季度跟踪报告显示,2017年第三季度,中国智能手机市场出货量略高于第二季度,但低于去年同期,同比下降约为1%。
相比显得有些枯燥的数据,聚焦在市场发展趋势上,IDC中国研究经理金迪表示:"中国手机厂商在全球的市场竞争力持续增强,但在产业链上游的核心技术发展,以及智能化移动生态的部署仍有很大欠缺。”
他认为,今年智能手机在人工智能应用领域有所建树,但实际应用与服务提升并不显着。中国手机厂商需要投入更多资源与精力,着力解决用户在移动生态中的痛点问题,结合生态伙伴的技术优势,开发应用服务,并且考虑AI手机的核心应用布局,以及结合AR行业应用,探索在2018年后逐渐落地发展的路径。
毫无疑问,人工智能在移动终端市场已经是不可逆的大势所趋,已经布局端侧智能的厂商无疑抢得了先手优势。这两年的智能手机市场已经开始洗牌,在智能手机转AI或者说智慧手机的这次变革中,势必又将洗掉一批掉队者。
Ⅸ 手机的CPU GPU NPU各是什么
你好,很高兴为你解答:
1.中央处理器(central processing unit,简称CPU)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。CPU自产生以来,在逻辑结构、运行效率以及功能外延上取得了巨大发展。
2.图形处理器(英语:graphics processing unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产商主要有NVIDIA和ATI。
3.嵌入式神经网络处理器(NPU)采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。
Ⅹ 2021手机怎么选,先了解手机这些关键零部件,知识基础却很实用
购买手机,侧重点不同则选择不同,重视的硬件也会有所差异。所以在购买之前,最好对手机的关键零部件有初步的认识,才能找到最适合自己的手机。本文章中,知识较为基础,适合对手机硬件基础知识没有了解的朋友。高手们可略过,只选贵不选对的朋友也可以略过!接下来,直接进入主题。
一、处理器,是手机的心脏,手机的核心零件,通常也称之为SOC。
手机处理器的重要性,不是单一的处理器运行频率这么简单。它往往集成了CPU(中央处理器)、GPU(图形处理器)、SP(信息服务)、ISP(互联网信息)、Wi-Fi控制器、基带芯片以及音频芯片等芯片。关系到手机的方方面面,而近年来,5G基带、NPU(嵌入式神经网络处理器/AI智能芯片),同样是手机SOC的重要组成部分。除此之外,SOC还会关系到影像方面的功能,这主要体现在芯片对成像的算法的调教上,想要拍出好效果,不能只看摄像头传感器素质。看到这里,相信大家对手机处理器的重要性,已经有了初步的认知。
目前,手机SOC芯片并不多,市场上主流的SOC芯片包括:高通、苹果、华为、联发科、三星、紫光展锐(国产芯片特别照顾)。预计在2022年或2023年,会有较多国产芯片选择。
如果是选择苹果手机,基本不用考虑芯片问题,由于价格较高,几乎每一代新品都会配置最强的处理器。买苹果手机,更需要的是考虑ROM存储问题。
1、高通处理器方面,目前骁龙888最强,骁龙870次之,上一代旗舰骁龙865依然还值得入手。如预算有限,中端SOC芯片骁龙780G/768G/765G/750G均可考虑。不过,根据极科君经验,现在手机贵不仅是处理器(高端处理器也有便宜机子),影像模块及屏幕才是拉高手机价格的最大因素。
2、华为麒麟处理器,目前麒麟9000/麒麟9000E,麒麟990/麒麟990 5G都处于旗舰水准,可以优先选择。麒麟970/985/820/810在中端SOC芯片中,市场认可度比较高。
3、联发科处理器方面,直接考虑天玑1200/天玑1100/天玑1000系列,次之天玑820/天玑800/天玑800U,其它基本不用考虑,毕竟旗舰的联发科处理器手机价格都贵不到哪里去。
由于三星在中国市场份额越来越小,低端机基本无人问津,高端机型还是有一定的追随者,选择的话就选择旗舰处理器,Exynos 2100及Exynos 1080处理器。
二、RAM运行闪存,决定着我们在使用手机的过程中、同一时间能够打开的应用上限,同时会影响手机的流畅度。
目前,主流的安卓手机RAM都在4G运存以上,购买时建议最好6G以上,如预算充足,直接12G或更高。特别是喜欢玩 游戏 的朋友,考虑到手游对RAM的要求越来越高,选择顶配RAM是必须的。
RAM除了运存大小之外,现在主流的频率类型有LRDDR5+/LRDDR5/LRDDR4x/LRDDR4……等,越高级运行频率越高,性能与流畅性更佳。
三、ROM,即我们常说的存储,存储决定了手机的容量,决定了能装多少APP、视频、图片、文件等等,想存储更多的内容,就得靠ROM存储了。
现在的手机系统越来越占内容,各种聊天软件、资讯软件、视频软件缓存吓人,动辄几百MB,几个GB,甚至10个GB以上。
这里建议,购买手机选择存储应该128G起步,如果经常拍照、视频拍摄,下载电视剧、电影等,则需要选择256G、512G存储或更高。现在能装扩展卡的手机越来越少,一次性买个高储存的手机,可以避免以后空间不足的焦虑。
ROM存储与RAM运行闪存一样,拥有不同的版本。版本越高,技术越先进,读写速度越快。平时使用可能感觉不出来,如果运行大型 游戏 就可以明显地感受到。举个夸张点的例子,就像PC机械硬盘与固态盘硬盘,读写速度简直是天壤之别,是PC运行速度影响的决定性因素之一。
目前,ROM存储最常见的是UFS闪存,又分为UFS2.1、UFS2.2、UFS3.0、UFS3.1、增强版UFS3.1等,华为部分机型采用了自研SFS1.0技术。虽然手机ROM存储规格不像PC机械硬盘与固态盘硬盘区别那么明显,但选择高规格的存储依然重要。
四,关于屏幕,评价一块屏幕的性能,可以有很多角度。
其中对比度、色域、色准、色阶、屏幕亮度、屏幕排列这些,作为普通消费者,都不需要深入了解。我们只需要了解这块屏幕,用起来是否舒服,是否符合自己的使用习惯即可。
首先要了解两种主流的手机屏幕,LCD和OLED,对比下两者的区别:
手机屏幕另一个需要关注的关键参数是刷新率,通常以60Hz/90Hz/120Hz/144Hz等形式来表示,刷新率越高,整体视觉效果就会更加流畅,当然也越耗电,需要根据自己的需求与侧重点选择。屏幕分辨率同样需要关注,目前手机主流的分辨率有720P、1080P、2K+、4K这几种,其中又以1080P分辨率最为常见,分辨率越高显示越细腻也越耗电。如何选择手机屏幕,通过以上几点基础知识解析,对于屏幕的选择,相信可以有更好的认识。
如果重视 游戏 及屏幕流畅体验、细腻程度,则选择高刷新率、高分辨率屏幕手机,如果重视续航,就60Hz/90Hz刷新率,1080P主流分辨率就够了。
至于选择LCD屏手机、还是OLED屏手机:通过以上表格就可以清晰识别自己的需求,需要强调的是如果选择OLED屏手机,最好选择有DC调光的屏幕,这样在暗光环境下,不至于眼睛太不舒服。
五、电池及充电技术,电池与充电速度是手机续航的保障,没有续航的手机其它性能再强大,购买时也要三思而行。
5G时代,除苹果机外,电池容量几乎都超过4000mAh,这是手机续航最强有力的保障。建议在手机重量和厚度可以接受的情况下,尽量选择容量大的。
再说快充技术,30分钟内可充满,不少保守用户都觉得快充会伤电池。其实,现在的快充技术已经十分成熟,基本不会让电池寿命降低。最伤电池的做法第一是边充电边玩,第二是发热太严重。而手机充电发不发热与快充还真没有直接关系,需要看厂商优化。
有了快充,基本可以告别用电焦虑。在慢充时代,手机用到40%电时,可能就需要担心接下来外出,马上就要充电补给,因为充几个钟才能满。这个使用普通充电,充电次数会明显增加。而使用快充,用到20%都无需焦虑,出门前30分钟,就能快速补给。
所以,这里极力建议选择有快充功能的手机,并且快充最好在30W以上。18W-65W快充,目前较多手机应用,技术成熟度高。
六、摄像头方面,涉及的东西太多,这里就不详述,感兴趣可以看这两篇文章了解。
2021手机相机传感器排行榜(附搭载手机)
2021手机拍照续航综合排行,没续航的手机再强有何用
七、散热模块
本来这并不是关键的硬件,但由于 游戏 玩家众多,再加上高通骁龙888火龙现身,这散热变成了手机及其重要的硬件。不过,散热模块并没有太多标准化的东西,散热性能都是厂家宣传页吹出来的,实质上只能通过亲身体验或专业评测了解其散热与发热情况。
八、手机传感器
我们感知用得最多的是NFC(近场通信),功能实用;另一个红外遥控器也比较实用。感知不强的传感器包括超声波距离传感器、屏下环境光感应器、加速度传感器、激光对焦传感器、陀螺仪、气压计、电子罗盘等。传感器越丰富,手机玩法就越多。
以上八大手机硬件小常识,均为购买手机需要关注的,希望对大家购机有所帮助。接下来,依然会有手机的相关文章,欢迎关注。