Ⅰ 手機上的CPU GPU NPU單元,都是什麼意思
CPU是手機的控制中樞系統,GPU是手機的圖形處理器,NPU是嵌入式神經網路處理器。
1、手機CPU是性能優異的智能手機最重要的部分,即CPU。它是整個手機的控制中心系統,也是邏輯部分的控制中心。微處理器通過在存儲器中運行軟體,調用存儲器中的資料庫,達到控制的目的。
2、GPU的英文全稱為graphicprocessingunit,中文翻譯為graphicprocessor。GPU是顯示卡的「大腦」,它決定了顯示卡的水平和大部分性能。在手機主板上,GPU晶元一般都接近CPU晶元。
3、嵌入式神經網路處理器(NPU)採用「數據驅動並行計算」架構,特別擅長處理視頻、圖像等海量多媒體數據。
(1)手機神經網路體現在哪裡擴展閱讀:
一、cpu廠商:
高通、華為、德州儀器、英特爾、三星、蘋果、新勢力。
二、GPU設備
GPU是顯示卡的「大腦」,它決定了該顯卡的檔次和大部分性能,對於傳統PC上來說,GPU同時也是2D顯示卡和3D顯示卡的區別依據。2D顯示晶元在處理3D圖像和特效時主要依賴CPU的處理能力,稱為「軟加速」。
參考資源來源:
網路-手機CPU
網路-手機GPU
網路-NPU
Ⅱ 蘋果手機到底優秀在哪裡為什麼那麼多人想買
說到手機,這幾年的國產安卓手機進步突飛猛進,從系統的優化跟硬體的配套,已經不弱蘋果手機了。
可以這樣說,一部手機,論信號,WIFI速度,充電速度,電池續航,拍照清晰度等等,國產手機已超越了蘋果手機。可為何蘋果手機一旦降價活動,還那麼多人拚命購買呢,小編總結了下,無非就是下面這幾點:
一:系統。
平時提起手機系統,很多人總認為不就是流暢性嗎,現在安卓系統也非常不錯,像華為小米的系統非常快,各應用切換速度不輸蘋果 。一說到系統就是流暢其實這是一個誤區。
廣告,應用等方面都是系統問題。 安卓最常見的就是看瀏覽器中,不知道什麼時候手機給你下載了N款APP應用。也不知道手機里幾時莫名其妙的多了些圖片出來。
看視頻的時候,無意點到某個鏈接,也都會給你裝上APP應用。 對,這就是安卓的特點。蘋果手機沒有這個問題存在。蘋果的應用都會在應用商城中下載。這是一個系統區別。也可以理解為安全性的問題。
二:價格
從去年蘋果11,今天今年的SE2,定價都算是中端價格。反觀現在的安卓手機,無論是華為小米還是VO兩家人,甚至是性價比的子品牌,如華為的榮耀,小米的紅米,VI的IQOO,這些子品牌的價格都在三千多四千多。 主品牌更是5千的價位了。
有人會說蘋果可以設5千價格,為什麼國產機就不能。
玩過數碼的人都知道原因,那就是降價。
比如都是花了6千元買的旗艦機:蘋果11跟華為M30,在下一款旗艦機就是蘋果12跟華為M40時,上一款手機價格一目瞭然。
很多國產現在的價格都定得很虛高。然後降價非常快。反觀蘋果手機,也是會適量的降價,但只是適量。
甚至一款蘋果手機在用了一年,用了兩年,兩年半都能輕易的轉手賣掉。
而安卓機型,不管是哪個品牌,二年後基本沒人要了。這已經不是價格的問題了,是沒人記得住這個型號,也不願意用這兩年多前的機。
三:反感國產手機的漂亮參數
這一類的多數是年輕人。這兩年隨著國產機的升級,手機的參數也做得非常完美,漂亮,眼花繚亂。但實際使用就不是一回事了。
同個品牌手機,價格4千跟價格1千8,價格相差這么多。也不見得千元機參數就不好。 這也就是國產商的尿性吧。
兩個價格同樣是4千毫安的電池,同樣的3攝像頭,同樣是藍光護眼,同樣是4800萬等等。。。 同樣的像素同樣的3攝像頭,拍出來的就不是一樣了。
可以說,系統,價位,及花里胡哨的完美參數,是讓大部分選擇蘋果的原因。 使用蘋果手機的朋友,在沒有5G,沒有快充,沒有大容量電池的情況下還在用蘋果機,你是什麼原因呢? 下方留言討論下唄!
Ⅲ 神經網路是由一層一層構建的,那麼每層究竟在做什麼
某層的神經元個數與節點數是一個意思。
雖是3層神經網路,但是去叫做兩層BP網路,因為輸入層一般不算做一層。
n就該取2,s1就是隱含層節點數,選取的公式是Hornik 提出的公式,
可以算的s1取值范圍,到時自己選取合適值,s2就是你輸出層節點數,也就是輸出維數。
Ⅳ 人工神經網路的定義,詳細說明
人工神經網路(Artificial Neural Networks, ANN),一種模範動物神經網路行為特徵,進行分布式並行信息處理的演算法數學模型。這種網路依靠系統的復雜程度,通過調整內部大量節點之間相互連接的關系,從而達到處理信息的目的。人工神經網路具有自學習和自適應的能力,可以通過預先提供的一批相互對應的輸入-輸出數據,分析掌握兩者之間潛在的規律,最終根據這些規律,用新的輸入數據來推算輸出結果,這種學習分析的過程被稱為「訓練」。(引自《環球科學》2007年第一期《神經語言:老鼠胡須下的秘密》)
概念
由大量處理單元互聯組成的非線性、自適應信息處理系統。它是在現代神經科學研究成果的基礎上提出的,試圖通過模擬大腦神經網路處理、記憶信息的方式進行信息處理。
人工神經網路具有四個基本特徵:
(1)非線性 非線性關系是自然界的普遍特性。大腦的智慧就是一種非線性現象。人工神經元處於激活或抑制二種不同的狀態,這種行為在數學上表現為一種非線性關系。具有閾值的神經元構成的網路具有更好的性能,可以提高容錯性和存儲容量。
(2)非局限性 一個神經網路通常由多個神經元廣泛連接而成。一個系統的整體行為不僅取決於單個神經元的特徵,而且可能主要由單元之間的相互作用、相互連接所決定。通過單元之間的大量連接模擬大腦的非局限性。聯想記憶是非局限性的典型例子。
(3)非常定性 人工神經網路具有自適應、自組織、自學習能力。神經網路不但處理的信息可以有各種變化,而且在處理信息的同時,非線性動力系統本身也在不斷變化。經常採用迭代過程描寫動力系統的演化過程。
(4)非凸性 一個系統的演化方向,在一定條件下將取決於某個特定的狀態函數。例如能量函數,它的極值相應於系統比較穩定的狀態。非凸性是指這種函數有多個極值,故系統具有多個較穩定的平衡態,這將導致系統演化的多樣性。
人工神經網路中,神經元處理單元可表示不同的對象,例如特徵、字母、概念,或者一些有意義的抽象模式。網路中處理單元的類型分為三類:輸入單元、輸出單元和隱單元。輸入單元接受外部世界的信號與數據;輸出單元實現系統處理結果的輸出;隱單元是處在輸入和輸出單元之間,不能由系統外部觀察的單元。神經元間的連接權值反映了單元間的連接強度,信息的表示和處理體現在網路處理單元的連接關系中。人工神經網路是一種非程序化、適應性、大腦風格的信息處理,其本質是通過網路的變換和動力學行為得到一種並行分布式的信息處理功能,並在不同程度和層次上模仿人腦神經系統的信息處理功能。它是涉及神經科學、思維科學、人工智慧、計算機科學等多個領域的交叉學科。
人工神經網路是並行分布式系統,採用了與傳統人工智慧和信息處理技術完全不同的機理,克服了傳統的基於邏輯符號的人工智慧在處理直覺、非結構化信息方面的缺陷,具有自適應、自組織和實時學習的特點。
歷史沿革
1943年,心理學家W.S.McCulloch和數理邏輯學家W.Pitts建立了神經網路和數學模型,稱為MP模型。他們通過MP模型提出了神經元的形式化數學描述和網路結構方法,證明了單個神經元能執行邏輯功能,從而開創了人工神經網路研究的時代。1949年,心理學家提出了突觸聯系強度可變的設想。60年代,人工神經網路的到了進一步發展,更完善的神經網路模型被提出,其中包括感知器和自適應線性元件等。M.Minsky等仔細分析了以感知器為代表的神經網路系統的功能及局限後,於1969年出版了《Perceptron》一書,指出感知器不能解決高階謂詞問題。他們的論點極大地影響了神經網路的研究,加之當時串列計算機和人工智慧所取得的成就,掩蓋了發展新型計算機和人工智慧新途徑的必要性和迫切性,使人工神經網路的研究處於低潮。在此期間,一些人工神經網路的研究者仍然致力於這一研究,提出了適應諧振理論(ART網)、自組織映射、認知機網路,同時進行了神經網路數學理論的研究。以上研究為神經網路的研究和發展奠定了基礎。1982年,美國加州工學院物理學家J.J.Hopfield提出了Hopfield神經網格模型,引入了「計算能量」概念,給出了網路穩定性判斷。 1984年,他又提出了連續時間Hopfield神經網路模型,為神經計算機的研究做了開拓性的工作,開創了神經網路用於聯想記憶和優化計算的新途徑,有力地推動了神經網路的研究,1985年,又有學者提出了波耳茲曼模型,在學習中採用統計熱力學模擬退火技術,保證整個系統趨於全局穩定點。1986年進行認知微觀結構地研究,提出了並行分布處理的理論。人工神經網路的研究受到了各個發達國家的重視,美國國會通過決議將1990年1月5日開始的十年定為「腦的十年」,國際研究組織號召它的成員國將「腦的十年」變為全球行為。在日本的「真實世界計算(RWC)」項目中,人工智慧的研究成了一個重要的組成部分。
基本內容
人工神經網路模型主要考慮網路連接的拓撲結構、神經元的特徵、學習規則等。目前,已有近40種神經網路模型,其中有反傳網路、感知器、自組織映射、Hopfield網路、波耳茲曼機、適應諧振理論等。根據連接的拓撲結構,神經網路模型可以分為:
(1)前向網路 網路中各個神經元接受前一級的輸入,並輸出到下一級,網路中沒有反饋,可以用一個有向無環路圖表示。這種網路實現信號從輸入空間到輸出空間的變換,它的信息處理能力來自於簡單非線性函數的多次復合。網路結構簡單,易於實現。反傳網路是一種典型的前向網路。
(2)反饋網路 網路內神經元間有反饋,可以用一個無向的完備圖表示。這種神經網路的信息處理是狀態的變換,可以用動力學系統理論處理。系統的穩定性與聯想記憶功能有密切關系。Hopfield網路、波耳茲曼機均屬於這種類型。
學習是神經網路研究的一個重要內容,它的適應性是通過學習實現的。根據環境的變化,對權值進行調整,改善系統的行為。由Hebb提出的Hebb學習規則為神經網路的學習演算法奠定了基礎。Hebb規則認為學習過程最終發生在神經元之間的突觸部位,突觸的聯系強度隨著突觸前後神經元的活動而變化。在此基礎上,人們提出了各種學習規則和演算法,以適應不同網路模型的需要。有效的學習演算法,使得神經網路能夠通過連接權值的調整,構造客觀世界的內在表示,形成具有特色的信息處理方法,信息存儲和處理體現在網路的連接中。
根據學習環境不同,神經網路的學習方式可分為監督學習和非監督學習。在監督學習中,將訓練樣本的數據加到網路輸入端,同時將相應的期望輸出與網路輸出相比較,得到誤差信號,以此控制權值連接強度的調整,經多次訓練後收斂到一個確定的權值。當樣本情況發生變化時,經學習可以修改權值以適應新的環境。使用監督學習的神經網路模型有反傳網路、感知器等。非監督學習時,事先不給定標准樣本,直接將網路置於環境之中,學習階段與工作階段成為一體。此時,學習規律的變化服從連接權值的演變方程。非監督學習最簡單的例子是Hebb學習規則。競爭學習規則是一個更復雜的非監督學習的例子,它是根據已建立的聚類進行權值調整。自組織映射、適應諧振理論網路等都是與競爭學習有關的典型模型。
研究神經網路的非線性動力學性質,主要採用動力學系統理論、非線性規劃理論和統計理論,來分析神經網路的演化過程和吸引子的性質,探索神經網路的協同行為和集體計算功能,了解神經信息處理機制。為了探討神經網路在整體性和模糊性方面處理信息的可能,混沌理論的概念和方法將會發揮作用。混沌是一個相當難以精確定義的數學概念。一般而言,「混沌」是指由確定性方程描述的動力學系統中表現出的非確定性行為,或稱之為確定的隨機性。「確定性」是因為它由內在的原因而不是外來的雜訊或干擾所產生,而「隨機性」是指其不規則的、不能預測的行為,只可能用統計的方法描述。混沌動力學系統的主要特徵是其狀態對初始條件的靈敏依賴性,混沌反映其內在的隨機性。混沌理論是指描述具有混沌行為的非線性動力學系統的基本理論、概念、方法,它把動力學系統的復雜行為理解為其自身與其在同外界進行物質、能量和信息交換過程中內在的有結構的行為,而不是外來的和偶然的行為,混沌狀態是一種定態。混沌動力學系統的定態包括:靜止、平穩量、周期性、准同期性和混沌解。混沌軌線是整體上穩定與局部不穩定相結合的結果,稱之為奇異吸引子。一個奇異吸引子有如下一些特徵:(1)奇異吸引子是一個吸引子,但它既不是不動點,也不是周期解;(2)奇異吸引子是不可分割的,即不能分為兩個以及兩個以上的吸引子;(3)它對初始值十分敏感,不同的初始值會導致極不相同的行為。
發展趨勢
人工神經網路特有的非線性適應性信息處理能力,克服了傳統人工智慧方法對於直覺,如模式、語音識別、非結構化信息處理方面的缺陷,使之在神經專家系統、模式識別、智能控制、組合優化、預測等領域得到成功應用。人工神經網路與其它傳統方法相結合,將推動人工智慧和信息處理技術不斷發展。近年來,人工神經網路正向模擬人類認知的道路上更加深入發展,與模糊系統、遺傳演算法、進化機制等結合,形成計算智能,成為人工智慧的一個重要方向,將在實際應用中得到發展。將信息幾何應用於人工神經網路的研究,為人工神經網路的理論研究開辟了新的途徑。神經計算機的研究發展很快,已有產品進入市場。光電結合的神經計算機為人工神經網路的發展提供了良好條件。
Ⅳ 手機ai是什麼軟體手機ai有什麼實際用途
所謂AI,其實指的是人工智慧,試圖通過計算機模擬人類意識和思維的全過程。說白了就是模擬人類神經結構和功能的數學模型或計算模型,通過大量的人工神經元進行計算。目前手機真正能用到AI(也就是神經網路)的功能也集中在圖像識別領域。各大廠商新加入的各種拍照演算法的優化也是因為手機圖像識別能力的提升。AI手機是晶元、智能系統、AI應用的結合體,缺一不可。AI演算法還能正確區分不同的聲音,讓對方清晰地接聽你的電話;語音功能方面,手機AI語音助手可以成為新的人機交互入口;在圖像識別方面,可以實現AI人臉識別、AI掃描、一鍵購物。
AI指的是人工智慧,把范圍縮小到硬體層面。是指模擬人腦結構的人工神經網路。它是模擬人類神經結構和功能的數學模型或計算模型,由大量人工神經元計算得出。與傳統的邏輯推理不同,基於大量數據統計的人工神經網路具有一定的判斷力,在語音識別和圖像識別方面尤其具有優勢。AI是「人工智慧」的英文縮寫,中文翻譯是人工智慧。人工智慧是計算機科學的一個分支,它試圖理解智能的本質,並產生一種新的智能機器,能夠以類似於人類智能的方式做出反應。
Ⅵ 蘋果手機指紋識別採用神經網路的技術了么
是生物識別技術,和神經網路無關的。
Ⅶ 手機上運行的深度神經網路模型-MobileNet
文章引用自《 從MobileNet看輕量級神經網路的發展 》,詳情請點擊原文觀看
前 言
隨著深度學習的火熱,計算機視覺領域內的卷積神經網路模型也層出不窮。從1998年的LeNet,到2012年引爆深度學習熱潮的AlexNet,再到後來2014年的VGG,2015年的ResNet,深度學習網路模型在圖像處理中應用的效果越來越好。神經網路體積越來越大,結構越來越復雜,預測和訓練需要的硬體資源也逐步增多,往往只能在高算力的伺服器中運行深度學習神經網路模型。移動設備因硬體資源和算力的限制,很難運行復雜的深度學習網路模型。
深度學習領域內也在努力促使神經網路向小型化發展。在保證模型准確率的同時體積更小,速度更快。到了2016年直至現在,業內提出了SqueezeNet、ShuffleNet、NasNet、MnasNet以及MobileNet等輕量級網路模型。這些模型使移動終端、嵌入式設備運行神經網路模型成為可能。而MobileNet在輕量級神經網路中較具代表性。
谷歌在2019年5月份推出了最新的MobileNetV3。新版MobileNet使用了更多新特性,使得MobileNet非常具有研究和分析意義,本文將對MobileNet進行詳細解析。
MobileNet的優勢
MobileNet網路擁有更小的體積,更少的計算量,更高的精度。在輕量級神經網路中擁有極大的優勢。
1
更小的體積
MobileNet相比經典的大型網路,參數量明顯更少,參數量越少模型體積越小。
2
更少的計算量
MobileNet優化網路結構使模型計算量成倍下降。
3
更高的准確率
MobileNet憑借網路結構優化,在更少的參數及更少的計算量情況下,網路精度反而超過了部分大型神經網路。在最新的MobileNetV3-Large中,實現ImageNet數據集Top1准確率達到75.2%。
4
更快的速度
使用Google Pixel-1手機測試,MobileNet各版本都能保持運行時間在120ms以下,最新版MobileNetV3-Large運行時間達到66ms,參數量和計算量更低的MobileNetV3-Small更是能達到22ms;GoogleNet運行速度約為250ms,而VGG-16由於一次性需要載入至內存的空間已超過500MB,手機系統會報內存溢出錯誤導致無法運行。
5
多種應用場景
MobileNet可以在移動終端實現眾多的應用,包括目標檢測,目標分類,人臉屬性識別和人臉識別等。
MobileNet各版本介紹
1
MobileNetV1網路結構
整個網路不算平均池化層與softmax層,共28層;
在整個網路結構中步長為2的卷積較有特點,卷積的同時充當下采樣的功能;
第一層之後的26層都為深度可分離卷積的重復卷積操作;
每一個卷積層(含常規卷積、深度卷積、逐點卷積)之後都緊跟著批規范化和ReLU激活函數;
最後一層全連接層不使用激活函數。
2
MobileNetV2網路結構
MobileNetV2中主要引入線性瓶頸結構和反向殘差結構。
MobileNetV2網路模型中有共有17個Bottleneck層(每個Bottleneck包含兩個逐點卷積層和一個深度卷積層),一個標准卷積層(conv),兩個逐點卷積層(pw conv),共計有54層可訓練參數層。MobileNetV2中使用線性瓶頸(Linear Bottleneck)和反向殘差(Inverted Resials)結構優化了網路,使得網路層次更深了,但是模型體積更小,速度更快了。
3
MobileNetV3網路結構
MobileNetV3分為Large和Small兩個版本,Large版本適用於計算和存儲性能較高的平台,Small版本適用於硬體性能較低的平台。
Large版本共有15個bottleneck層,一個標准卷積層,三個逐點卷積層。
Small版本共有12個bottleneck層,一個標准卷積層,兩個逐點卷積層。
MobileNetV3中引入了5×5大小的深度卷積代替部分3×3的深度卷積。引入Squeeze-and-excitation(SE)模塊和h-swish(HS)激活函數以提高模型精度。結尾兩層逐點卷積不使用批規范化(Batch Norm),MobileNetV3結構圖中使用NBN標識。
(圖片來源https://arxiv.org/pdf/1905.02244.pdf)
網路結構上相對於MobileNetV2的結尾部分做了優化,去除三個高階層,如上圖所示。去除後減少了計算量和參數量,但是模型的精度並沒有損失。
值得一提的是,不論是Large還是Small版本,都是使用神經架構搜索(NAS)技術生成的網路結構。
4
MobileNet各版本特性
MobileNet實現計算量減小、參數量減少的同時保證了較高的准確率,這和其擁有的特性息息相關:
MobileNetV1提出的特性
MobileNetV2提出的特性
MobileNetV3提出的特性
MobileNet各個版本擁有的特性匯總
下文將對上表中的各個特性詳細闡述。
MobileNet的特性詳解
1
深度可分離卷積
從MobileNetV1開始,到V2、V3的線性瓶頸結構都大量使用了深度可分離卷積。
深度可分離卷積(Depthwise Separable Convolution)是一種卷積結構。它是由一層深度卷積(Depthwise convolution)與一層逐點卷積(Pointwise Convolution)組合而成的,每一層卷積之後都緊跟著批規范化和ReLU激活函數。跟標准卷積的區別就是精度基本不變的情況下,參數與計算量都明顯減少。
深度卷積
深度卷積(Depthwise convolution, DW)不同於常規卷積操作,深度卷積中一個卷積核只有一維,負責一個通道,一個通道只被一個卷積核卷積;常規卷積每個卷積核的維度與輸入維度相同,每個通道單獨做卷積運算後相加。
以一張5x5x3(長和寬為5,RGB3通道)的彩色圖片舉例。每層深度卷積卷積核的數量與上一層的通道數相同(通道和卷積核一一對應)。設padding=1,stride=1,一個三通道的圖像經過運算後生成了3個特徵圖,如下圖所示:
深度卷積完成後的輸出特徵圖通道數與輸入層的通道數相同,無法擴展通道數。而且這種運算對輸入層的每個通道獨立進行卷積運算,沒有有效的利用不同通道在相同空間位置上的特徵信息。因此需要逐點卷積來將生成的特徵圖進行組合生成新的特徵圖。
逐點卷積
逐點卷積(Pointwise Convolution, PW)的運算與標准卷積運算非常相似。
逐點卷積卷積核大小為1×1xM(M為輸入數據的維度),每次卷積一個像素的區域。逐點卷積運算會將上一層的特徵圖在深度方向上進行加權組合,生成新的特徵圖,新的特徵圖的大小與輸入數據大小一致;然後組合各通道的特徵圖,以較少的計算量進行降維或升維操作(改變輸出數據的維度)。
以一張5x5x3(長和寬為5,RGB3通道)的彩色圖片舉例,使用4個1x1x3的逐點卷積核進行卷積,逐點卷積運算後生成了4個特徵圖。這個例子是使用逐點卷積進行升維的操作,特徵圖從5x5x3 升維到5x5x4。如下圖所示:
深度可分離卷積結構解析
將深度卷積和逐點卷積組成深度可分離卷積後的示意圖,如下圖所示:
首先進行深度卷積操作,得出的特徵圖各通道之間是不關聯的。接著進行逐點卷積把深度卷積輸出的特徵圖各通道關聯起來。
深度可分離卷積使用了更小的空間代價(參數減少)和更少的時間代價(計算量更少)實現了標准卷積層一樣的效果(提取特徵)。
一般的設Df為輸入特徵圖邊長,Dk為卷積核邊長,特徵圖和卷積核均為長寬一致,輸入通道數為M,輸出通道數為N,則:
標准卷積計算量為:Df×Df×Dk×Dk×M×N
深度卷積的計算量為:Df×Df×Dk×Dk×M
逐點卷積的計算量為:Df×Df×M×N
上圖所示實現輸入特徵圖大小為5×5×3,輸出特成圖大小為5×5×4,設padding=1,stride=1,深度卷積卷積核大小為3×3,標准卷積也使用3×3尺寸卷積核。實現相同的卷積效果,參數量(不包含偏置)與計算量對比如下表所示:
深度可分離卷積的演變
事實上深度可分離卷積不是在MobileNetV1中第一次提出的,而是在2016年由谷歌的Xception網路結構中提出的。MobileNetV1在Xception的基礎上,對深度可分離卷積進行了改進,做到了計算量與參數量的下降:
假定M為輸入層的通道數,N為輸出層的通道數。
Xcenption的深度可分離卷積是由輸入參數開始,使用1x1xMxN卷積將輸入層的通道數轉換為目標通道數,再通過3x3x1卷積核對每個通道進行卷積,每次卷積過後使用ReLU進行激活。
MobileNetV1的深度可分離卷積則是先使用3x3x1xM對輸入層的每個通道分別卷積,之後通過1x1xMxN將輸入層通道數轉換為輸出層通道數,每次卷積過後做一次批規范化操作,再使用ReLU進行激活。
這里我們使用MobileNetV1網路結構的第一個深度可分離卷積層來舉例,輸入層維度為112x112x32,輸出層維度為112x112x64,Xception與MobileNet的深度可分離卷積的計算量與參數個數對比如下表:
由此可知將PW卷積與DW卷積的順序調整後,優化了網路的空間復雜度和時間復雜度。
2
寬度因子
MobileNet本身的網路結構已經比較小並且執行延遲較低,但為了適配更定製化的場景,MobileNet提供了稱為寬度因子(Width Multiplier)的超參數給我們調整。寬度因子在MobileNetV1、V2、V3都可以運用。
通過寬度因子,可以調整神經網路中間產生的特徵的大小,調整的是特徵數據通道數大小,從而調整了運算量的大小。
寬度因子簡單來說就是新網路中每一個模塊要使用的卷積核數量相較於標準的MobileNet比例。對於深度卷積結合1x1方式的卷積核,計算量為:
算式中α即為寬度因子,α常用的配置為1,0.75,0.5,0.25;當α等於1時就是標準的MobileNet。通過參數α可以非常有效的將計算量和參數數量約減到α的平方倍。
下圖為MobileNetV1使用不同α系數進行網路參數的調整時,在ImageNet上的准確率、計算量、參數數量之間的關系(每一個項中最前面的數字表示α的取值)。
(數據來源https://arxiv.org/pdf/1704.04861.pdf)
可以看到當輸入解析度固定為224x224時,隨著寬度因子的減少,模型的計算量和參數越來越小。從上表可以看到, 0.25 MobileNet的正確率比標准版1.0MobileNet低20%,但計算量和參數量幾乎只有標准版1.0MobileNet計算量、參數量的10%!對於計算資源和存儲資源都十分緊張的移動端平台,可以通過α寬度因子調節網路的餐數量是非常實用的,在真正使用時我們可以按需調整α寬度因子達到准確率與性能的平衡。
3
解析度因子
MobileNet還提供了另一個超參數解析度因子(Resolution Multiplier)供我們自定義網路結構,解析度因子同樣在MobileNetV1、V2、V3都可以運用。
解析度因子一般用β來指代,β的取值范圍在(0,1]之間,是作用於每一個模塊輸入尺寸的約減因子,簡單來說就是將輸入數據以及由此在每一個模塊產生的特徵圖都變小了,結合寬度因子α,深度卷積結合1x1方式的卷積核計算量為:
下圖為MobileNetV1使用不同的β系數作用於標准MobileNet時,在ImageNet上對精度和計算量的影響(α固定1.0)
(數據來源https://arxiv.org/pdf/1704.04861.pdf)
上圖中的 224、192、160、128 對應的解析度因子分別為 1、 6/7、5/7、4/7。
β=1時,輸入圖片的解析度為224x224,卷積後的圖像大小變化為: 224x224 、112x112、56x56、28x28、14x14、7x7。
β= 6/7時,輸入圖片的解析度為192x192,卷積後各層特徵圖像大小變化為:192x192、96x96、48x48、24x24、12x12、6x6。
卷積特徵圖像的大小變化不會引起參數量的變化,只改變模型M-Adds計算量。上圖中 224解析度模型測試ImageNet數據集准確率為70.6%,192解析度的模型准確率為69.1%,但是M-Adds計算量減少了151M,對移動平台計算資源緊張的情況下,同樣可以通過β解析度因子調節網路輸入特徵圖的解析度,做模型精度與計算量的取捨。
4
規范化
深度學習中的規范化操作(Normalization),有助於加快基於梯度下降法或隨機梯度下降法模型的收斂速度,提升模型的精度,規范化的參數能夠提升模型泛化能力,提高模型的可壓縮性。
按照規范化操作涉及對象的不同可以分為兩大類,一類是對輸入值進行規范化操作,比如批規范化(Batch Normalization)、層規范化(Layer Normalization)、實例規范化(Instance Normalization)、組規范化(Group Normalization)方法都屬於這一類。另外一類是對神經網路中參數進行規范化操作,比如使用L0,L1范數。
批規范化
批規范化(Batch Normalization)幾乎存在於MobileNetV1、V2、V3的每個卷積層的後面,目的是加快訓練收斂速度,提升准確率。
批規范化是一種對數值的特殊函數變換方法,也就是說假設原始的某個數值是 x,套上一個起到規范化作用的函數,對規范化之前的數值 x 進行轉換,形成一個規范化後的數值,即:
所謂規范化,是希望轉換後的數值滿足一定的特性,至於對數值具體如何變換,跟規范化目標有關,不同的規范化目標導致具體方法中函數所採用的形式不同。通過自適應的重新參數化的方法,克服神經網路層數加深導致模型難以訓練的問題。
參數規范化
參數規范化(Weight Normalization, WN)是規范化的一種, 通過人為的設定稀疏演算法,去除模型中多餘的參數(置為0)使得模型參數稀疏化,可以通過L1範式實現。
參數規范化是防止模型過分擬合訓練數據。當訓練一批樣本的時候,隨著訓練的推移模型會越來越趨向於擬合樣本數據。因為參數太多,會導致模型復雜度上升,容易過擬合。
需要保證模型"簡單"的基礎上最小化訓練誤差,這樣得到的參數才具有好的泛化性能(也就是測試誤差也小),而模型"簡單"就是通過規則函數來實現的。
如上圖所示,左側分類明顯的是欠擬合,模型並沒有能夠擬合數據。中間圖示為合適的擬合,右邊圖示是過擬合,模型在訓練樣本中擬合度是很好的,但是卻違背了特徵分類規律,在新的測試樣本中表現糟糕,影響模型的泛化能力。顯然右側模型在訓練是受到額外參數干擾。參數規則化能夠使參數稀疏,減少額外參數的干擾,提高泛化能力。
模型擁有稀疏的參數(模型中有大量參數為0),也有利於通過壓縮演算法壓縮模型的大小。
5
線性瓶頸
線性瓶頸英文為Linear Bottleneck,是從Bottleneck結構演變而來的,被用於MobileNetV2與V3。
Bottleneck結構首次被提出是在ResNet網路中。該結構第一層使用逐點卷積,第二層使用3×3大小卷積核進行深度卷積,第三層再使用逐點卷積。MobileNet中的瓶頸結構最後一層逐點卷積使用的激活函數是Linear,所以稱其為線性瓶頸結構(Linear Bottleneck)。線性瓶頸結構有兩種,第一種是步長為1時使用殘差結構,第二種是步長為2時不使用殘差結構。
其中輸入通道數為M,擴大倍數系數為T。T的值為大於0 的正數,當 0<T<1時,第一層逐點卷積起到的作用是降維。當 1<T時,第一層逐點卷積起到的作用是升維。
第二層為深度卷積,輸入通道數 = 輸出通道數 = M×T。
第三層為逐點卷積,作用是關聯深度卷積後的特徵圖並輸出指定通道數N。
線性瓶頸結構相對標准卷積能夠減少參數數量,減少卷積計算量。從空間和時間上優化了網路。
6
反向殘差
MobileNetV2中以ResNet的殘差(Resials)結構為基礎進行優化,提出了反向殘差(Inverted Resials)的概念,之後也同樣運用與MobileNetV3中。
ResNet中提出的殘差結構解決訓練中隨著網路深度增加而出現的梯度消失問題,使反向傳播過程中深度網路的淺層網路也能得到梯度,使淺層網路的參數也可訓練,從而增加特徵表達能力。
ResNet的殘差結構實際是在線性瓶頸結構的基礎上增加殘差傳播。如下圖所示:
ResNet中的殘差結構使用第一層逐點卷積降維,後使用深度卷積,再使用逐點卷積升維。
MobileNetV2版本中的殘差結構使用第一層逐點卷積升維並使用Relu6激活函數代替Relu,之後使用深度卷積,同樣使用Relu6激活函數,再使用逐點卷積降維,降維後使用Linear激活函數。這樣的卷積操作方式更有利於移動端使用(有利於減少參數與M-Adds計算量),因維度升降方式與ResNet中的殘差結構剛好相反,MobileNetV2將其稱之為反向殘差(Inverted Resials)。
7
5x5 的深度卷積
MobileNetV3中,深度卷積大量使用5x5大小的卷積核。這是因為使用神經結構搜索(NAS)技術計算出的MobileNetV3網路結構的過程中,發現了在深度卷積中使用5x5大小的卷積核比使用3x3大小的卷積核效果更好,准確率更高。關於NAS技術將會在下文的單獨章節中做介紹。
8
Squeeze-and-excitation 模塊
Squeeze-and-Excitation模塊(簡稱SE模塊)的首次提出是在2017年的Squeeze-and-Excitation Networks(SENet)網路結構中,在MNasNet中進行了改進,之後在MobileNetV3中大量使用。研究人員期望通過精確的建模卷積特徵各個通道之間的作用關系來改善網路模型的表達能力。為了達到這個期望,提出了一種能夠讓網路模型對特徵進行校準的機制,使得有效的權重大,無效或效果小的權重小的效果,這就是SE模塊。
(圖片來源https://arxiv.org/pdf/1905.02244.pdf)
如上圖,MobileNetV3的SE模塊被運用在線性瓶頸結構最後一層上,代替V2中最後的逐點卷積,改為先進行SE操作再逐點卷積。這樣保持了網路結構每層的輸入和輸出,僅在中間做處理,類似於軟體開發中的鉤子。
SE模塊結構詳解
下圖表示一個SE 模塊。主要包含Squeeze和Excitation兩部分。W,H表示特徵圖寬,高。C表示通道數,輸入特徵圖大小為W×H×C。
壓縮(Squeeze)
第一步是壓縮(Squeeze)操作,如下圖所示
這個操作就是一個全局平均池化(global average pooling)。經過壓縮操作後特徵圖被壓縮為1×1×C向量。
激勵(Excitation)
接下來就是激勵(Excitation)操作,如下圖所示
由兩個全連接層組成,其中SERatio是一個縮放參數,這個參數的目的是為了減少通道個數從而降低計算量。
第一個全連接層有C*SERatio個神經元,輸入為1×1×C,輸出1×1×C×SERadio。
第二個全連接層有C個神經元,輸入為1×1×C×SERadio,輸出為1×1×C。
scale操作
最後是scale操作,在得到1×1×C向量之後,就可以對原來的特徵圖進行scale操作了。很簡單,就是通道權重相乘,原有特徵向量為W×H×C,將SE模塊計算出來的各通道權重值分別和原特徵圖對應通道的二維矩陣相乘,得出的結果輸出。
這里我們可以得出SE模塊的屬性:
參數量 = 2×C×C×SERatio
計算量 = 2×C×C×SERatio
總體來講SE模塊會增加網路的總參數量,總計算量,因為使用的是全連接層計算量相比卷積層並不大,但是參數量會有明顯上升,所以MobileNetV3-Large中的總參數量比MobileNetV2多了2M。
MobileNetV3中的SE模塊
SE模塊的使用是很靈活的,可以在已有網路上添加而不打亂網路原有的主體結構。
ResNet中添加SE模塊形成SE-ResNet網路,SE模塊是在bottleneck結構之後加入的,如下圖左邊所示。
MobileNetV3版本中SE模塊加在了bottleneck結構的內部,在深度卷積後增加SE塊,scale操作後再做逐點卷積,如上圖右邊所示。MobileNetV3版本的SERadio系數為0.25。使用SE模塊後的MobileNetV3的參數量相比MobileNetV2多了約2M,達到5.4M,但是MobileNetV3的精度得到了很大的提升,在圖像分類和目標檢測中准確率都有明顯提升。
9
h-swish激活函數
MobileNetV3中發現swish激活函數能夠有效提高網路的精度,但是swish的計算量太大了,並不適合輕量級神經網路。MobileNetV3找到了類似swish激活函數但是計算量卻少很多的替代激活函數h-swish(hard version of swish)如下所示:
sigmoid、h-sigmoid、swish、h-swish激活函數的比較:
(圖片來源https://arxiv.org/pdf/1905.02244.pdf)
這種非線性在保持精度的情況下帶來了很多優勢,首先ReLU6在眾多軟硬體框架中都可以實現,其次量化時避免了數值精度的損失,運行快。這一非線性改變將模型的延時增加了15%。但它帶來的網路效應對於精度和延時具有正向促進,剩下的開銷可以通過融合非線性與先前層來消除。
Ⅷ 什麼才是真正的人工智慧手機
什麼才是真正的人工智慧手機?
麒麟970
除了此前推出的華為Mate 10系列,目前有消息指出榮耀新一代的旗艦產品榮耀V10也將搭載麒麟970這款晶元。榮耀手機官方微博前段時間發布了一條視頻,寫著:「Hi, I am AI」,致更懂你的未來。短短10秒的視頻中未來科技感十足,星空、手機、宇宙、AI、機器人元素齊聚。
再聯系之前榮耀總裁趙明微博中,關於「愛」、「AI」的暗示,不難看出,這些都是在為即將推出的人工智慧手機榮耀V10預熱。進一步的曝光消息指出,這還是一款全面屏產品。
事實上,也正是因為有了此前的榮耀Magic的智能引擎打頭陣,這一次加入麒麟970人工智慧晶元的榮耀V10才更加值得期待。有AI晶元的手機才是真AI手機,AI晶元及演算法代表了廠商的真正技術,擁有真正的自學習能力,將給用戶帶來更多更好體驗。
為什麼這么說呢?NPU的加入到底對智能手機到底有什麼意義呢?《新潮電子》在其日前刊登的一篇文章做了很淺顯易懂的解釋:
「CPU就好比是數學系的老教授,能夠解決各類復雜數學問題,但單純去做求解數值的函數運算顯然費時費力;這時候,NPU就好比是一個科學計算器,你不能用它來直接解題,但由它來專門應付題目中需要求解函數數值的部分,顯然要得心應手。」
也就是說,NPU的加入並不會明顯提升CPU、GPU的性能,但它的出現,卻能明顯改變端側的運算環境——而非簡單的提升運算能力。
正如在前文提到端智能對比雲智能可以讓大量識別性的學習操作不需要再過分依賴於雲端,而是直接在本地即時高效的處理。硬體級AI能力在手機中的加入,如果開放給第三方應用開發者,還能夠帶來極大的想像和擴展空間。
結語
國際數據公司(IDC)最新發布的手機季度跟蹤報告顯示,2017年第三季度,中國智能手機市場出貨量略高於第二季度,但低於去年同期,同比下降約為1%。
相比顯得有些枯燥的數據,聚焦在市場發展趨勢上,IDC中國研究經理金迪表示:"中國手機廠商在全球的市場競爭力持續增強,但在產業鏈上游的核心技術發展,以及智能化移動生態的部署仍有很大欠缺。」
他認為,今年智能手機在人工智慧應用領域有所建樹,但實際應用與服務提升並不顯著。中國手機廠商需要投入更多資源與精力,著力解決用戶在移動生態中的痛點問題,結合生態夥伴的技術優勢,開發應用服務,並且考慮AI手機的核心應用布局,以及結合AR行業應用,探索在2018年後逐漸落地發展的路徑。
毫無疑問,人工智慧在移動終端市場已經是不可逆的大勢所趨,已經布局端側智能的廠商無疑搶得了先手優勢。這兩年的智能手機市場已經開始洗牌,在智能手機轉AI或者說智慧手機的這次變革中,勢必又將洗掉一批掉隊者。
Ⅸ 手機的CPU GPU NPU各是什麼
你好,很高興為你解答:
1.中央處理器(central processing unit,簡稱CPU)作為計算機系統的運算和控制核心,是信息處理、程序運行的最終執行單元。CPU自產生以來,在邏輯結構、運行效率以及功能外延上取得了巨大發展。
2.圖形處理器(英語:graphics processing unit,縮寫:GPU),又稱顯示核心、視覺處理器、顯示晶元,是一種專門在個人電腦、工作站、游戲機和一些移動設備(如平板電腦、智能手機等)上做圖像和圖形相關運算工作的微處理器。GPU使顯卡減少了對CPU的依賴,並進行部分原本CPU的工作,尤其是在3D圖形處理時GPU所採用的核心技術有硬體T&L(幾何轉換和光照處理)、立方環境材質貼圖和頂點混合、紋理壓縮和凹凸映射貼圖、雙重紋理四像素256位渲染引擎等,而硬體T&L技術可以說是GPU的標志。GPU的生產商主要有NVIDIA和ATI。
3.嵌入式神經網路處理器(NPU)採用「數據驅動並行計算」的架構,特別擅長處理視頻、圖像類的海量多媒體數據。
Ⅹ 2021手機怎麼選,先了解手機這些關鍵零部件,知識基礎卻很實用
購買手機,側重點不同則選擇不同,重視的硬體也會有所差異。所以在購買之前,最好對手機的關鍵零部件有初步的認識,才能找到最適合自己的手機。本文章中,知識較為基礎,適合對手機硬體基礎知識沒有了解的朋友。高手們可略過,只選貴不選對的朋友也可以略過!接下來,直接進入主題。
一、處理器,是手機的心臟,手機的核心零件,通常也稱之為SOC。
手機處理器的重要性,不是單一的處理器運行頻率這么簡單。它往往集成了CPU(中央處理器)、GPU(圖形處理器)、SP(信息服務)、ISP(互聯網信息)、Wi-Fi控制器、基帶晶元以及音頻晶元等晶元。關繫到手機的方方面面,而近年來,5G基帶、NPU(嵌入式神經網路處理器/AI智能晶元),同樣是手機SOC的重要組成部分。除此之外,SOC還會關繫到影像方面的功能,這主要體現在晶元對成像的演算法的調教上,想要拍出好效果,不能只看攝像頭感測器素質。看到這里,相信大家對手機處理器的重要性,已經有了初步的認知。
目前,手機SOC晶元並不多,市場上主流的SOC晶元包括:高通、蘋果、華為、聯發科、三星、紫光展銳(國產晶元特別照顧)。預計在2022年或2023年,會有較多國產晶元選擇。
如果是選擇蘋果手機,基本不用考慮晶元問題,由於價格較高,幾乎每一代新品都會配置最強的處理器。買蘋果手機,更需要的是考慮ROM存儲問題。
1、高通處理器方面,目前驍龍888最強,驍龍870次之,上一代旗艦驍龍865依然還值得入手。如預算有限,中端SOC晶元驍龍780G/768G/765G/750G均可考慮。不過,根據極科君經驗,現在手機貴不僅是處理器(高端處理器也有便宜機子),影像模塊及屏幕才是拉高手機價格的最大因素。
2、華為麒麟處理器,目前麒麟9000/麒麟9000E,麒麟990/麒麟990 5G都處於旗艦水準,可以優先選擇。麒麟970/985/820/810在中端SOC晶元中,市場認可度比較高。
3、聯發科處理器方面,直接考慮天璣1200/天璣1100/天璣1000系列,次之天璣820/天璣800/天璣800U,其它基本不用考慮,畢竟旗艦的聯發科處理器手機價格都貴不到哪裡去。
由於三星在中國市場份額越來越小,低端機基本無人問津,高端機型還是有一定的追隨者,選擇的話就選擇旗艦處理器,Exynos 2100及Exynos 1080處理器。
二、RAM運行快閃記憶體,決定著我們在使用手機的過程中、同一時間能夠打開的應用上限,同時會影響手機的流暢度。
目前,主流的安卓手機RAM都在4G運存以上,購買時建議最好6G以上,如預算充足,直接12G或更高。特別是喜歡玩 游戲 的朋友,考慮到手游對RAM的要求越來越高,選擇頂配RAM是必須的。
RAM除了運存大小之外,現在主流的頻率類型有LRDDR5+/LRDDR5/LRDDR4x/LRDDR4……等,越高級運行頻率越高,性能與流暢性更佳。
三、ROM,即我們常說的存儲,存儲決定了手機的容量,決定了能裝多少APP、視頻、圖片、文件等等,想存儲更多的內容,就得靠ROM存儲了。
現在的手機系統越來越占內容,各種聊天軟體、資訊軟體、視頻軟體緩存嚇人,動輒幾百MB,幾個GB,甚至10個GB以上。
這里建議,購買手機選擇存儲應該128G起步,如果經常拍照、視頻拍攝,下載電視劇、電影等,則需要選擇256G、512G存儲或更高。現在能裝擴展卡的手機越來越少,一次性買個高儲存的手機,可以避免以後空間不足的焦慮。
ROM存儲與RAM運行快閃記憶體一樣,擁有不同的版本。版本越高,技術越先進,讀寫速度越快。平時使用可能感覺不出來,如果運行大型 游戲 就可以明顯地感受到。舉個誇張點的例子,就像PC機械硬碟與固態盤硬碟,讀寫速度簡直是天壤之別,是PC運行速度影響的決定性因素之一。
目前,ROM存儲最常見的是UFS快閃記憶體,又分為UFS2.1、UFS2.2、UFS3.0、UFS3.1、增強版UFS3.1等,華為部分機型採用了自研SFS1.0技術。雖然手機ROM存儲規格不像PC機械硬碟與固態盤硬碟區別那麼明顯,但選擇高規格的存儲依然重要。
四,關於屏幕,評價一塊屏幕的性能,可以有很多角度。
其中對比度、色域、色准、色階、屏幕亮度、屏幕排列這些,作為普通消費者,都不需要深入了解。我們只需要了解這塊屏幕,用起來是否舒服,是否符合自己的使用習慣即可。
首先要了解兩種主流的手機屏幕,LCD和OLED,對比下兩者的區別:
手機屏幕另一個需要關注的關鍵參數是刷新率,通常以60Hz/90Hz/120Hz/144Hz等形式來表示,刷新率越高,整體視覺效果就會更加流暢,當然也越耗電,需要根據自己的需求與側重點選擇。屏幕解析度同樣需要關注,目前手機主流的解析度有720P、1080P、2K+、4K這幾種,其中又以1080P解析度最為常見,解析度越高顯示越細膩也越耗電。如何選擇手機屏幕,通過以上幾點基礎知識解析,對於屏幕的選擇,相信可以有更好的認識。
如果重視 游戲 及屏幕流暢體驗、細膩程度,則選擇高刷新率、高解析度屏幕手機,如果重視續航,就60Hz/90Hz刷新率,1080P主流解析度就夠了。
至於選擇LCD屏手機、還是OLED屏手機:通過以上表格就可以清晰識別自己的需求,需要強調的是如果選擇OLED屏手機,最好選擇有DC調光的屏幕,這樣在暗光環境下,不至於眼睛太不舒服。
五、電池及充電技術,電池與充電速度是手機續航的保障,沒有續航的手機其它性能再強大,購買時也要三思而行。
5G時代,除蘋果機外,電池容量幾乎都超過4000mAh,這是手機續航最強有力的保障。建議在手機重量和厚度可以接受的情況下,盡量選擇容量大的。
再說快充技術,30分鍾內可充滿,不少保守用戶都覺得快充會傷電池。其實,現在的快充技術已經十分成熟,基本不會讓電池壽命降低。最傷電池的做法第一是邊充電邊玩,第二是發熱太嚴重。而手機充電發不發熱與快充還真沒有直接關系,需要看廠商優化。
有了快充,基本可以告別用電焦慮。在慢充時代,手機用到40%電時,可能就需要擔心接下來外出,馬上就要充電補給,因為充幾個鍾才能滿。這個使用普通充電,充電次數會明顯增加。而使用快充,用到20%都無需焦慮,出門前30分鍾,就能快速補給。
所以,這里極力建議選擇有快充功能的手機,並且快充最好在30W以上。18W-65W快充,目前較多手機應用,技術成熟度高。
六、攝像頭方面,涉及的東西太多,這里就不詳述,感興趣可以看這兩篇文章了解。
2021手機相機感測器排行榜(附搭載手機)
2021手機拍照續航綜合排行,沒續航的手機再強有何用
七、散熱模塊
本來這並不是關鍵的硬體,但由於 游戲 玩家眾多,再加上高通驍龍888火龍現身,這散熱變成了手機及其重要的硬體。不過,散熱模塊並沒有太多標准化的東西,散熱性能都是廠家宣傳頁吹出來的,實質上只能通過親身體驗或專業評測了解其散熱與發熱情況。
八、手機感測器
我們感知用得最多的是NFC(近場通信),功能實用;另一個紅外遙控器也比較實用。感知不強的感測器包括超聲波距離感測器、屏下環境光感應器、加速度感測器、激光對焦感測器、陀螺儀、氣壓計、電子羅盤等。感測器越豐富,手機玩法就越多。
以上八大手機硬體小常識,均為購買手機需要關注的,希望對大家購機有所幫助。接下來,依然會有手機的相關文章,歡迎關注。