導航:首頁 > 網路共享 > vgg網路是哪個大學提出來的

vgg網路是哪個大學提出來的

發布時間:2022-07-01 13:24:15

㈠ 為什麼 VGG,resnet 等都是用 max

Average pooling在歷史上用的更多, 但是由於max-pooling通常效果更好, 所以現在max-pooling更常使用. Max-pooling和average pooling都對數據進行下采樣, 除此之外, max-pooling還提供了非線性, 這是max-pooling效果更好的一個重要原因.
Average pooling並非一無是處, 現在average pooling更多的是用在global average pooling中. 這最早由Network in network提出, 目前在ResNet, GoogLeNet等主流網路中都有使用.

㈡ caffe和vgg-16和googlenet的區別

三者都屬於深度學習領域的術語。
caffe是目前在圖像領域應用最為廣泛的深度學習平台,許多國內外的大牛都使用caffe做為實驗平台,主要原因個人認為有兩個,一是caffe發展較早,隨著時間的積累積聚了大量的深度學習研究成果,例如能夠直接運行的代碼和使用預先訓練好的模型,可以很方便的進行實驗;二是後人如果想與之前的方法進行比較,就需要保持除方法外的其它因素一致,如所使用的數據以及實驗使用的平台。
vgg-16是一種深度卷積神經網路模型,16表示其深度,是alexnet後比較有代表性的深度模型之一,在圖像分類等任務中取得了不錯的效果
googlenet是google設計的一種深度卷積神經網路模型,第一版深度可至22層,這一網路採納了稀疏學習的思想,通過稀疏網路的參數來加大網路規模。
類似caffe的平台還有tensorflow, theano, torch, paddle等等
類似vgg-16和googlenet這樣的網路結構更是多種多樣,比較有代表性的就是alexnet, resnet

㈢ vgg是什麼意思

VGG電纜用於各大工業照明,電力供應。

超柔型耐高溫耐低溫耐磨抗拉丁硅膠料電纜
丁硅是一種新型料,它具有的優點是:耐高溫160,耐低溫-30,阻燃性強,抗拉,耐磨,不開裂,耐油耐腐蝕,超柔軟等優點,用於各大工業照明,電力供應,機械設備供電等通用電纜。電壓有300V-500V,450V-750V,0.6-1KV,1500V,2000V,3000V,6000V等。

㈣ 圖計算引擎Neo4j和Graphscope有什麼區別

Neo4j是單機系統,主要做圖資料庫。GraphScope是由阿里巴巴達摩院智能計算實驗室研發的圖計算平台,是全球首個一站式超大規模分布式圖計算平台,並且還入選了中 國科學技術協會「科創中 國」平台。Graphscope的代碼在github.com/alibaba/graphscope上開源。SSSP演算法上,GraphScope單機模式下平均要比Neo4j快176.38倍,最快在datagen-9.2_zf數據集上快了292.2倍。

㈤ NetworkX和Graphscope哪個運算速度更快

近年來,全球大數據進入加速發展時期,數據量呈現指數級爆發式增長,而這些大量數據中不同個體間交互產生的數據以圖的形式表現,如何高效地處理這些圖數據成為了業界及其關心的問題。很過用普通關系數據無法跑出來的結果,用圖數據進行關聯分析會顯得異常高效。

提到處理圖數據,我們首先想到NetworkX,這是網路計算上常用的Python包,可提供靈活的圖構建、分析功能。但是我們使用NetworkX跑大規模圖數據時,不僅經常碰到內存不足的問題,而且分析速度很慢,究其原因,是NetworkX只支持單機運行。通過網上搜索,新發現了一個名為GraphScope的系統不僅號稱兼容NetworkX的API,而且支持分布式部署運行,性能更優。針對GraphScope和NetworkX的處理能力,我們參考圖計算中常用的測試框架LDBC,通過一組實驗來對比下二者的性能。

一、實驗介紹

為了比較兩者的計算效率,先用阿里雲拉起了配置為8核CPU,32GB內存的四台ECS,設計了三組比較實驗,分別是NetworkX單機下的計算性能,GraphScope單機多worker的計算性能以及GraphScope分布式多機多worer的計算性能。

數據上,我們選取了SNAP開源的圖數據集twitter,來自 LDBC數據集的datagen-7_5-fb,datagen-7_7-zf和datagen-8_0-fb作為實驗數據,以下是數據集的基本信息:

· Twitter: 81,307個頂點,1,768,135條邊

· Datagen-7_5-fb: 633,432個頂點,34,185,747條邊,稠密圖

· Datagen-7_7-zf: 13,180,508個頂點,32,791,267條邊,稀疏圖

· Datagen-8_0-fb: 1,706,561個頂點,107,507,376條邊,這個數據集主要測試兩個系統可處理的圖規模能力

實驗設計上我選擇常用的SSSP、BFS、PageRank、WCC演算法,以及較高復雜度的All Pair shortest Path length演算法,以載圖時間,內存佔用和計算時間這三個指標為依據,對兩個系統進行計算性能的比較。

NetworkX是一個單機系統,在實驗中只考慮NetworkX在單機環境下的運行時間;GraphScope支持分布式運行,故進行兩個配置,一個是單機4worker,另外一個配置是4台機器,每台機器4個worker。

二、實驗結果

首先,GraphScope的載圖速度比NetworkX顯著提升。

在前三個圖數據集中,無論是GraphScope的單機多worker模式,還是GraphScope的分布式模式,載圖速度都比NetworkX快:

GraphScope單機模式載圖速度平均比NetworkX快5倍,最高紀錄——在datagen-7_5-fb上比NetworkX快了6倍。

分布式模式下GraphScope的載圖時間比NetworkX平均快了27倍,最高紀錄——在datagen-7_7-zf數據集上比NetworkX快了63倍。

在datagen-8_0-fb數據集上,NetworkX因內存溢出無法載圖,GraphScope單機多worker和GraphScope分布式載圖時間分別為142秒和13.6秒。

表一:載圖時間對比

載圖時間

NetworkX

GraphScope單機

GraphScope分布式

twitter

11.2

3.1

1.8

datagen-7_5-fb

256

45.6

36.6

datagen-7_7-zf

316

71.3

50

datagen-8_0-fb

OOM

142

13.6

其次,GraphScope的內存使用效率比NetworkX顯著提升。

在datagen-8_0-fb數據集上,NetworkX在32G的內存上無法載完圖,而GraphScope僅需要24G的內存即可載入在datagen-8_0-fb數據集。

表二:內存佔用對比

內存佔用

NetworkX

GraphScope

datagen-7_5-fb

14G

6G

datagen-7_7-zf

28G

18G

datagen-8_0-fb

OOM

24G

再次,GraphScope的計算速度比NetworkX顯著提升。

SSSP演算法上,GraphScope單機多worker模式平均要比NetworkX快22倍,最快在datagen-7_7-zf數據集上快了32倍。GraphScope分布式模式下平均要比NetworkX快103倍,最快datagen-7_5-fb數據集上快了182倍。

表三: SSSP計算時間對比(單位:秒)

SSSP

NetworkX

GraphScope單機

GraphScope分布式

twitter

2.45

1.32

0.28

datagen-7_5-fb

37.9

1.21

0.31

datagen-7_7-zf

5.84

0.18

0.03

datagen-8_0-fb

OOM

2.76

0.82

BFS演算法上,GraphScope單機多worker模式平均要比NetworkX快13倍,最快datagen-7_5-fb數據集上快了22倍。GraphScope分布式模式下平均要比NetworkX快16倍,最快在datagen-7_5-fb數據集上快了28倍。

表四: BFS計算時間對比(單位:秒)

BFS

NetworkX

GraphScope單機

GraphScope分布式

twitter

1.53

0.16

0.17

datagen-7_5-fb

44.68

2.52

1.56

datagen-7_7-zf

7.98

0.75

0.72

datagen-8_0-fb

OOM

11.02

5.73

PageRank演算法上,GraphScope單機多worker模式平均要比NetworkX快62倍,最快twitter數據集上快了80倍。GraphScope分布式模式下平均要比NetworkX快65倍,最快在twitter數據集上快了71倍。

另外,PageRank計算過程中,NetworkX在datagen-7_7-zf上內存溢出,沒有完成計算,GraphScope單機多worker模式和分布式模式計算時間分別為25秒和22秒;

表五:PageRank計算時間對比(單位:秒)

PageRank

NetworkX

GraphScope單機

GraphScope分布式

twitter

24.01

0.37

0.33

datagen-7_5-fb

300

6.73

5.17

datagen-7_7-zf

OOM

19.31

7.79

datagen-8_0-fb

OOM

24.96

21.88

WCC演算法上,GraphScope單機多worker模式平均要比NetworkX快44倍,最快在datagen-7_7-zf數據集上快了104倍。GraphScope分布式模式下平均要比NetworkX快76倍,最快datagen-7_5-fb數據集上快了194倍。

表六: WCC計算時間對比(單位:秒)

WCC

NetworkX

GraphScope單機

GraphScope分布式

twitter

0.6392

0.0296

0.0233

datagen-7_5-fb

26.03

0.25

0.13

datagen-7_7-zf

83.19

14.57

12.98

datagen-8_0-fb

OOM

0.34

0.4991

在復雜度極高的All pair shortest path length演算法上,NetworkX在twitter圖上即內存溢出,無法計算。GraphScope在分布式模式下完成了twitter圖的All pair shortest path length計算,耗時76分鍾。

表七: All Pair Shortest Path Length(單位:秒)

APSP

NetworkX

GraphScope單機

GraphScope分布式

twitter

OOM

OOM

4575.87

三、總結

從實驗結果可以看到,在同等條件下,無論在載圖時間、內存佔用和計算時間上,GraphScope都要大大優於NetworkX,性能優化可以達到幾十倍甚至上百倍。

6979阿強
關注

0

0

0

@網路演算法工具 networkX igraph 的性能問題
alston_ethannical的博客
24
@網路演算法工具 networkX igraph 的性能問題 問題的提出 當我用 50萬數據去跑 networkX 開發出來的演算法時,遇到了一個計算性能的問題,這個問題時很慢。 尋找答案 發現 networkX再性能方面比較差。當節點上萬,邊上十萬的時候,新能慢的問題就會顯現出來 為了解決圖演算法問題,該怎麼辦呢 遇到問題,首先定義問題的邊界。也就是 先找到限制問題的條件。然後縮小問題范圍。我要解決的問題是:在解決圖演算法相關的問題時,如何能夠快速計算出結果。但是目前的演算法時用networks實現的。問題的根源是
開源!一文了解阿里一站式圖計算平台GraphScope
阿里雲開發者
2767
簡介:隨著大數據的爆發,圖數據的應用規模不斷增長,現有的圖計算系統仍然存在一定的局限。阿里巴巴擁有全球最大的商品知識圖譜,在豐富的圖場景和真實應用的驅動下,阿里巴巴達摩院智能計算實驗室研發並開源了全球首個一站式超大規模分布式圖計算平台GraphScope,並入選中國科學技術協會「科創中國」平台。本文詳解圖計算的原理和應用及GraphScope的架構設計。一 什麼是圖計算圖數據對一組對象(頂點)及其關系(邊)進行建模,可以直觀、自然地表示現實世界中各種實體對象以及它們之間的關系。在大數據場景下,社交網路、交

一文了解阿里一站式圖計算平台GraphScope_阿里雲雲棲號
10-2
GraphScope 提供了各類常用的分析演算法,包括連通性計算類、社區發現類和 PageRank、中心度等數值計算類的演算法,後續會不斷擴展演算法包,在超大規模圖上提供與 NetworkX 演算法庫兼容的分析能力。此外也提供了豐富的圖學習演算法包,內置支持 Graph...
5大典型模型測試單機訓練速度超對標框架,飛槳如何做到...
10-28
導讀:飛槳(PaddlePaddle)致力於讓深度學習技術的創新與應用更簡單。在單機訓練速度方面,通過高並行、低開銷的非同步執行策略和高效率的核心運算元,優化靜態圖訓練性能,在Paddle Fluid v1.5.0的基準測試中,在7個典型模型上進行了測試(圖像領域...
強化學習經典演算法筆記(六):深度Q值網路 Deep Q Network
hhy_csdn的博客
9093
前期回顧 強化學習經典演算法筆記(零):貝爾曼方程的推導 強化學習經典演算法筆記(一):價值迭代演算法Value Iteration 強化學習經典演算法筆記(二):策略迭代演算法Policy Iteration 強化學習經典演算法筆記(三):蒙特卡羅方法Monte Calo Method 強化學習經典演算法筆記(四):時間差分演算法Temporal Difference(Q-Learning演算法) 強化學習經典算...
GraphX和GraphFrame connectedComponent計算性能對比
高臭臭的博客
3046
測試文件:用Graph rmatGraph 1000000 2000000 去重後 494587個點,1997743個邊 運行環境:三台伺服器,246 GB,core 71. 測試三個運行例子1:Graph connectedComponents 2:GraphFrame connectedComponents 3:GraphFrame connectedComponents setAlgor
...network、偽代碼、演算法理解、代碼實現、tensorboard...
11-3
定義一個q_network函數來構建Q network,輸入游戲狀態Q network並得到對所有動作的Q值。 網路構成給為三個帶有池化的卷積層和一個全連接層。 tf.reset_default_graph()defq_network(X,name_scope):# Initialize layersinitializer=tf....
【讀書筆記】【機器學習實戰】第十一章:訓練深度神經網路
MJ_Lee的博客
612
閱讀書籍為《Hands-On Machine Learning with Scikit-Learn & TensorFlow》王靜源等翻譯的中文譯版《機器學習實戰,基於 Scikit-Learn 和 TensorFlow》,本文中所有圖片均來自於書籍相關部分截圖。 本章介紹了DNN訓練過程中三個常見問題,並依次給出解決方案。 章節的最後還給出當不知道如何DNN訓練時一些屬性可以選的比較好的...
Networkx 計算網路效率
tengqingyong的博客
5860
本人在計算網路效率的時候遇到了一個問題 networkx 提供了最短路徑函數shortest_path及shorest_path_length 我在計算網路效率構造了一個無向圖,但是我在計算點與點之間的最短路徑長度時總是提示我說點不存在圖中, 我在上面使用nx.average_shortest_path_length(UG)的時候可以得到網路平均最短路徑長度;這個說明我的點都...
Pandas/networkx圖分析簡單入門
weixin_34306676的博客
516
對於圖論而言,大家或多或少有些了解,數學專業或計算機相關專業的讀者可能對其更加清楚。圖論中的圖像是由若干給定的點及連接兩點的線所構成的圖形,這樣的圖像通常用來描述某些事物之間的某種特定關系,用點代表事物,用兩點之間的連接線表示二者具有的某種關系,在互聯網與通信行業中應用廣泛。圖論分析(Graph analysis)並不是數據科學領域中的新分...
networkx--四種網路模型
weixin_30764883的博客
380
NetworkX提供了4種常見網路的建模方法,分別是:規則圖,ER隨機圖,WS小世界網路和BA無標度網路。 一. 規則圖 規則圖差不多是最沒有復雜性的一類圖,random_graphs.random_regular_graph(d, n)方法可以生成一個含有n個節點,每個節點有d個鄰居節點的規則圖。 下面一段示例代碼,生成了包含20個節點、每個節點有3個鄰居的規則...
igraph/networkx學習筆記之…
nuoline的專欄
1萬+
原文地址:—— 數據結構">igraph/networkx學習筆記之一 —— 數據結構作者:zhengw789 首先,基本上所有的graph library都有其局限性,不同的數據結構有優點的同時必然有缺點,圖演算法對數據結構的依賴性構成另一個原因。所以如果是想用一個工具包解決所有的問題顯然是一種奢望,很多時候甚至必須要從頭寫自己的代碼。但是閱讀igraph和networkx這樣成型了的函數庫對熟悉
python下的復雜網路編程包networkx的使用(摘抄)
weixin_30631587的博客
2335
原文:http://blog.sciencenet.cn/home.php?mod=space&uid=404069&do=blog&classid=141080&view=me&from=space 復雜網路分析庫NetworkX學習筆記(1):入門 NetworkX是一個用Python語言開發的圖論與復雜網路建模工具,內置了常用的圖與復雜網...
更快更簡單|飛槳PaddlePaddle單機訓練速度優化最佳實踐
PaddlePaddle
1672
導讀:飛槳(PaddlePaddle)致力於讓深度學習技術的創新與應用更簡單。在單機訓練速度方面,通過高並行、低開銷的非同步執行策略和高效率的核心運算元,優化靜態圖訓練性能,...
GraphX與GraphLab、Pregel的對比
yang灬仔
588
分布式批同步BSP Pregel、GraphLab、GraphX都是基於BSP(Bulk Synchronous Parallel)模式,即整體同步並行。一次計算過程由一系列全局超步組成,每一個超步由並發計算、通信和同步三個步驟組成。從垂直上看,一個程序由一系列串列的超步組成。從水平上看,在一個超步中,所有的進程並行執行局部計算。BSP最大的好處是編程簡單,但在某些情況下BSP運算的性能非常差,...
TensorFlow學習記錄:VGGNet卷積神經網路模型
weixin_41137655的博客
308
1.VGGNet模型結構簡介 VGGNet是由牛津大學計算機視覺幾何組(Visual Geomety Group,VGG)和Google Deepmind公司的研究員合作研發的深度卷積神經網路,VGG的成員Karen Simonyan和Andrew Zisserman在2014年撰寫的論文《Very Deep Convolutional Networks for Large-Scale Image...
11月編程語言排行冠軍揭曉,穩
熱門推薦
IT教育任姐姐的博客
4萬+
大家好 今天任姐姐要跟小夥伴們分享 2021年11月最新TIOBE指數 11月編程排行榜 Python繼續榜首 本月的幸運兒只有一個,那就是Python! 繼上個月我們見證了Python奪冠這一歷史性的畫面之後,這個月Python仍舊穩坐榜首,看來Python這股大風還在繼續刮。 隨後分別是 C、Java、C++、C#,這些也都是我們的老朋友了。 PHP即將跌出前十 自20多年前TIOBE 指數開始發布以來,PHP 一直常駐在榜單前十,然而最近,該語言已經開始在前十
python能做什麼軟體?Python到底能幹嘛,一文看懂
小分享
6573
Python培訓有哪些內容?很多零基礎學員不知道Python軟體是干什麼用的?Python軟體是Python工程師編寫代碼時所需要的編輯工具,現在比較常用的Python軟體有Visu... 那麼在選擇Python培訓機構時學生尤為關注的就是培訓內容,從現在幾家大的機構可以看出,Python培訓主要學習第一階段Python核心編程(Pyth... 一文讀懂Python內置變數,函數,模塊在這里解釋下什麼是解釋性語言什麼是編譯性語言: 編譯性語言:如c++,c等,寫好的代碼要通過編譯器編譯成操作系統直接可
Django中超級用戶的創建和刪除操作
最新發布
Protinx的博客
91
創建超級用戶 這就很easy了,畢竟這是所有初學者都會的,操作如下: 打開Terminal,輸入: python manage.py createsuperuser 然後按照提示輸入相應的用戶名、郵箱和密碼就可以啦,如下: 創建超級用戶 可以看到上面我的密碼輸入了三次,還有不成功的提示,Django本身對於超級用戶的密碼要求還是很多的,大家定義密碼要注意啊,或者如果只是自己學習的話,也可在『Bypass password validation and create user an.
上海python培訓中心
weixin_63757190的博客
166
前幾天,有個讀者在後台留言,說: 「最近被論文折磨得快崩潰了,我現在是恨不得克隆十個自己,一個呆在科室值班,一個去寫月底要送審的稿子,一個去上百個網站翻數據..... 還有另外七個「我」,這邊六七篇論文還沒搞定。那邊又有新論文要開題了,加上最後一個「本我」,剛剛夠用,我可真是個數學天才! 可現實是只有一個我,只能天天熬夜。 好傢伙,整得我都開始反問自己,是不是只有我的科研生活這么兵荒馬亂?」 其實他不是個例,成千上萬的科研人都要面對無盡的實驗分析、反復修改的論文。 難道就只有被虐的份嗎?
python裝飾器
Live&Learn的博客
1208
學習目標:一口氣把裝飾器描述清楚 弄清楚裝飾器前要理解三個東西: 函數對象、函數嵌套、函數構成閉包。 學習內容: 函數對象好說,python編程語言屬於動態語言,python中一切皆對象,所以函數也是對象。 函數對象用函數名稱表示(僅名稱,沒有括弧,也沒有參數)。 例如,定義了一個求和函數add,那麼此處的add就是個函數對象。 def add(username, a, b): print(f"{a}+{b}={a + b}") return a + b 函數嵌套或者嵌套函數,就是定
©️2021 CSDN 皮膚主題: 游動-白 設計師:白松林 返回首頁
關於我們
招賢納士
廣告服務
開發助手

400-660-0108

[email protected]

在線客服
工作時間 8:30-22:00
公安備案號11010502030143
京ICP備19004658號
京網文〔2020〕1039-165號
經營性網站備案信息
北京互聯網違法和不良信息舉報中心
網路110報警服務
中國互聯網舉報中心
家長監護
Chrome商店下載
©1999-2021北京創新樂知網路技術有限公司
版權與免責聲明
版權申訴
出版物許可證
營業執照

6979阿強
碼齡0年
暫無認證
11
原創
13萬+
周排名
12萬+
總排名
579
訪問

等級
132
積分
1
粉絲
1
獲贊
0
評論
1
收藏

私信
關注

熱門文章
GraphScope、Neo4j與TigerGraph單機環境下性能對比 146
NetworkX與GraphScope的性能對比 88
GraphScope、Gemini與GraphX的性能對比 60
分布式圖計算引擎 46
國足歷屆世界盃對戰圖關系 45
最新評論
圖分析入門
大家一起學編程(python): 感謝博主的分享!

您願意向朋友推薦「博客詳情頁」嗎?

強烈不推薦

不推薦

一般般

推薦

強烈推薦
最新文章
2021-10-11
圖資料庫在社交方向上的應用
國足歷屆世界盃對戰圖關系
2021年11篇

你的瀏覽器目前處於縮放狀態,頁面可能會出現錯位現象,建議100%大小顯示。

舉報

————————————————
版權聲明:本文為CSDN博主「6979阿強」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/tanekf6979/article/details/120067176

㈥ 為什麼現在的CNN模型都是在GoogleNet,VGGNet或者AlexNet上調整的

哈哈遇到一個好適合回答的問題。你問為什麼看到現在很多的模型都是在這幾個上面修改的,基礎模型的演進方案Bolei講的非常清楚,我從我在工業界一年多的角度補充幾點,有下面幾個原因
1. 那是因為你看到的大部分是公開的論文,公開的論文需要一個標準的baseline及在baseline上改進的比較,因此大家會基於一個公認的baseline開始做實驗大家才比較信服。常見的比如各種檢測分割的問題都會基於VGG或者Resnet101這樣的基礎網路。而這類型paper很多,就會有種業內只有這幾個模型的錯覺
2. 發表論文的同學多數是在校的phd同學,首先大家有強大的科研壓力和ddl的壓力,時間和精力只允許大家在有限的范圍探索。因此基於vision問題的特性進行各種模型和演算法方案的改進肯定是更有novelty(也是更符合發paper的思路),所以有限的精力就放在了另外的方面而繼續沿用目前VGG/GoogleNet/AlexNet/Resnet這樣的baseline
3. 進行基本模型的改進需要大量的實驗和嘗試,很有可能投入產出比比較小。能做到Kaiming ResNet這樣的工作真是需要大量的實驗積累加強大的靈感,真是偶像。我們大部分人自己的實驗過程,很多之前預想的可能會work的idea經過嘗試可能提升有限(失望臉,沒法畢業怎麼辦)。基於我們今年參與ImageNet的經歷來講,對於深度學習,很大部分可以提升性能的點在於一些對於細節的精確把握。因此你可以看到許多排名靠前的隊伍最後講的關鍵技術點似乎都是tricks。而這樣精確細節的把握是需要大量的時間和計算資源的,往往在學校不可行。因此有大量計算資源的比如香港中文大學,我司商湯科技,公安三所,海康等成績靠前。PS,我們之後會公布我們今年參加ImageNet Scene Parsing比賽拿到第一的技術方案(paper+code+model),實際構成是一些insights(可以寫paper的技術點)加大量的tricks(好像不太容易寫paper)。敬請期待

㈦ 如何分析一個圖像分割演算法

論文閱讀筆記:圖像分割方法deeplab以及Hole演算法解析
deeplab發表在ICLR
2015上。論文下載地址:Semantic
Image
Segmentation
with
Deep
Convolutional
Nets
and
Fully
Connected
CRFS.
deeplab方法概述
deeplab方法分為兩步走,第一步仍然採用了FCN得到
coarse
score
map並插值到原圖像大小,然後第二步借用fully
connected
CRF對從FCN得到的分割結果進行細節上的refine。
下面這張圖很清楚地展示了整個結構:
然後這張圖展示了CRF處理前後的效果對比,可以看出用了CRF以後,細節確實改善了很多:
deeplab對FCN更加優雅的處理方式
在第一步中,deeplab仍然採用了FCN來得到score
map,並且也是在VGG網路上進行fine-tuning。但是在得到score
map的處理方式上,要比原FCN處理的優雅很多。
還記得CVPR
2015的FCN中是怎麼得到一個更加dense的score
map的嗎?
是一張500x500的輸入圖像,直接在第一個卷積層上conv1_1來了一個100的大padding。最終在fc7層勉強得到一個16x16的score
map。雖然處理上稍顯粗糙,但是畢竟人家是第一次將圖像分割在CNN上搞成end-to-end,並且在當時performance是state-of-the-art,也很理解。
deeplab摒棄了這種做法,取而代之的是對VGG的網路結構上做了小改動:將VGG網路的pool4和pool5層的stride由原來的2改為了1。就是這樣一個改動,使得vgg網路總的stride由原來的32變成8,進而使得在輸入圖像為514x514,正常的padding時,fc7能得到67x67的score
map,
要比FCN確實要dense很多很多。
但是這種改變網路結果的做法也帶來了一個問題:
stride改變以後,如果想繼續利用vgg
model進行fine
tuning,會導致後面filter作用的區域發生改變,換句話說就是感受野發生變化。這個問題在下圖(a)
(b)中通過花括弧體現出來了:
Hole演算法
於是乎,作者想出了一招,來解決兩個看似有點矛盾的問題:
既想利用已經訓練好的模型進行fine-tuning,又想改變網路結構得到更加dense的score
map.
這個解決辦法就是採用Hole演算法。如下圖(a)
(b)所示,在以往的卷積或者pooling中,一個filter中相鄰的權重作用在feature
map上的位置都是物理上連續的。如下圖(c)所示,為了保證感受野不發生變化,某一層的stride由2變為1以後,後面的層需要採用hole演算法,具體來講就是將連續的連接關系是根據hole
size大小變成skip連接的(圖(c)為了顯示方便直接畫在本層上了)。不要被(c)中的padding為2嚇著了,其實2個padding不會同時和一個filter相連。
pool4的stride由2變為1,則緊接著的conv5_1,
conv5_2和conv5_3中hole
size為2。接著pool5由2變為1,
則後面的fc6中hole
size為4。
代碼
主要是im2col(前傳)和col2im(反傳)中做了改動
(增加了hole_w,
hole_h),這里只貼cpu的用於理解:

㈧ unet模型屬於哪種神經網路

unet模型屬於卷積神經網路。是德國弗萊堡大學計算機科學系為生物醫學圖像分割而開發的,該網路基於全卷積網路其架構經過修改和擴展,可以使用更少的訓練圖像並產生更精確的分割,Unet是2015年誕生的模型。

unet模型的特點

Unet是比較早的基於深度學習的分割演算法了,優點是速度真的快P100上基於VGG的backbone能跑到50幀,同時不是太開放的場景下可以做到令人滿意的分割效果,在對實時性要求較高的場合下是比較適用的不是所有的場合都能上MaskRCNN的Backbone大一點。

如果顯卡差點就容易爆顯存了,同時相比大分割網路的模型動輒幾百Mb,Unet用小backbone模型就可以做到10Mb內,Conv層通道減少一點再把網路模型參數分開,模型大小可以做到很小,用CPU跑速度都挺快的,關鍵是分割精度在較為簡單場景下還可以。

閱讀全文

與vgg網路是哪個大學提出來的相關的資料

熱點內容
5g網路運營商選哪個 瀏覽:569
網路激活賬號密碼錯誤怎麼解決 瀏覽:970
光纖多少損耗影響網路 瀏覽:193
網路上有哪些新事物 瀏覽:960
扛精網路用語什麼意思 瀏覽:411
別人連接家裡的網路密碼怎麼改 瀏覽:826
計算機網路中端到端時間延遲 瀏覽:926
k12教育網路直播平台有哪些 瀏覽:104
中央網路安全和信息化小組成立 瀏覽:976
網路安全重於泰山的國旗下演講 瀏覽:866
iphone手機信號網路不好 瀏覽:124
共享網路怎麼連接oppo 瀏覽:503
網路安全的學校都有啥 瀏覽:638
贛縣移動網路 瀏覽:724
掃網路二維碼出密碼 瀏覽:213
移動網路物理沖突是什麼意思 瀏覽:325
網路互聯中常用哪些硬體設備 瀏覽:607
三院無線網路密碼 瀏覽:683
網路攝像機電路板恢復出廠設置 瀏覽:683
空間背景怎麼設置網路圖片 瀏覽:314

友情鏈接