① 生成式對抗網路GAN(一)
上面這張圖很好的很好的闡述了生成式對抗網路的結構~~ 博弈論
此圖給出了生成性對抗網路的概述。目前最重要的是要理解GAN是使兩個網路協同工作的一種方式 - 而Generator和Discriminator都有自己的架構。為了更好地理解這個想法的來源,我們需要回憶一些基本的代數並問自己 - 我們怎麼能欺騙一個比大多數人更好地分類圖像的神經網路?
在我們詳細描述GAN之前,讓我們看一下類似的主題。給定一個訓練有素的分類器,我們可以生成一個欺騙網路的樣本嗎?如果我們這樣做,它會是什麼樣子?
事實證明,我們可以。
甚至更多 - 對於幾乎任何給定的圖像分類器,可以將圖像變換為另一個圖像,這將被高度置信地錯誤分類,同時在視覺上與原始圖像無法區分!這種過程稱為對抗性攻擊,生成方法的簡單性解釋了很多關於GAN的內容。
精心計算的示例中的對抗性示例,其目的是錯誤分類。以下是此過程的說明。左邊的熊貓與右邊的熊貓無法區分 - 但它被歸類為長臂猿。
圖像分類器本質上是高維空間中的復雜決策邊界。當然,在對圖像進行分類時,我們無法繪制這個邊界。但我們可以安全地假設,當訓練結束時,網路並不是針對所有圖像進行推廣的 - 僅針對我們在訓練集中的那些圖像。這種概括可能不是現實生活的良好近似。換句話說,它適用於我們的數據 - 我們將利用它。
讓我們開始為圖像添加隨機雜訊並使其非常接近零。我們可以通過控制雜訊的L2范數來實現這一點。數學符號不應該讓您擔心 - 出於所有實際目的,您可以將L2范數視為向量的長度。這里的訣竅是你在圖像中擁有的像素越多 - 它的平均L2范數就越大。因此,如果雜訊的范數足夠低,您可以預期它在視覺上難以察覺,而損壞的圖像將遠離矢量空間中的原始圖像。
為什麼?
好吧,如果HxW圖像是矢量,那麼我們添加到它的HxW雜訊也是矢量。原始圖像具有相當密集的各種顏色 - 這增加了L2規范。另一方面,雜訊是一組視覺上混亂的相當蒼白的像素 - 一個小范數的矢量。最後,我們將它們添加到一起,為損壞的圖像獲取新的矢量,這與原始圖像相對接近 - 但卻錯誤分類!
現在,如果原始類 Dog 的決策邊界不是那麼遠(就L2范數而言),這種加性雜訊將新圖像置於決策邊界之外。
您不需要成為世界級拓撲學家來理解某些類別的流形或決策邊界。由於每個圖像只是高維空間中的矢量,因此在其上訓練的分類器將「所有猴子」定義為「由隱藏參數描述的該高維斑點中的所有圖像矢量」。我們將該blob稱為該類的決策邊界。
好的,所以,你說我們可以通過添加隨機雜訊輕松欺騙網路。它與生成新圖像有什麼關系?
現在我們假設有兩個結構模型,相當於兩個神經網路:
這是關於判別網路D和生成網路G的價值函數(Value Function),訓練網路D使得最大概率地分對訓練樣本的標簽(最大化log D(x)),訓練網路G最小化log(1 – D(G(z))),即最大化D的損失。訓練過程中固定一方,更新另一個網路的參數,交替迭代,使得對方的錯誤最大化,最終,G 能估測出樣本數據的分布。生成模型G隱式地定義了一個概率分布Pg,我們希望Pg 收斂到數據真實分布Pdata。論文證明了這個極小化極大博弈當且僅當Pg = Pdata時存在最優解,即達到納什均衡,此時生成模型G恢復了訓練數據的分布,判別模型D的准確率等於50%。
接著上面最後一個問題:怎麼才能生成我指定的圖像呢?
指定標簽去訓練
顧名思義就是把標簽也帶進公式,得到有條件的公式:
具體怎麼讓CGAN更好的優化,這里不解釋,就是平常的優化網路了。
參考文章:
本文大部分翻譯此外文
通俗易懂
小博客的總結
唐宇迪大神
② GAN生成對抗網路(一)
GAN(Generative Adversarial Networks)是兩個網路的的組合, 一個網路生成模擬數據, 另一個網路判斷生成的數據是真實的還是模擬的。生成模擬數據的網路要不斷優化自己讓判別的網路判斷不出來, 判別的網路也要優化自己讓自己判斷得更准確。 二者關系形成對抗博弈,因此叫 對抗神經網路 (生成對抗網路)。實驗證明, 利用這種網路間的對抗關系所形成的網路, 在無監督及半監督領域取得了很好的效果, 可以算是用網路來監督網路的一個自學習過程。在GAN發明之前,變分自編碼器被認為是理論完美、實現簡單,使用神經網路訓練起來很穩定, 生成的圖片逼近度也較高, 但是人類還是可以很輕易地分辨出真實圖片與機器生成的圖片。
生成對抗網路包含了 2 個子網路: 生成網路(Generator, G)和判別網路(Discriminator,D), 其中生成網路負責學習樣本的真實分布,判別網路負責將生成網路采樣的樣本與真實樣本區分開來。
生成網路 G(𝐳) 生成網路 G 和自編碼器的 Decoder 功能類似, 從先驗分布 中采樣隱藏變數 ,通過生成網路 G 參數化的 分布, 獲得生成樣本 ,如下圖所示。 其中隱藏變數𝒛的先驗分布 可以假設屬於某中已知的分布,比如多元均勻分布 。
可以用深度神經網路來參數化, 如下圖所示, 從均勻分布 中采樣出隱藏變數𝒛, 經過多層轉置卷積層網路參數化的 分布中采樣出樣本 。
判別網路 D(𝒙) 判別網路和普通的二分類網路功能類似,它接受輸入樣本𝒙,包含了采樣自真實數據分布 的樣本 ,也包含了采樣自生成網路的假樣本 , 和 共同組成了判別網路的訓練數據集。判別網路輸出為𝒙屬於真實樣本的概率 ,我們把所有真實樣本 的標簽標注為1,所有生成網路產生的樣本 標注為0, 通過最小化判別網路預測值與標簽之間的誤差來優化判別網路參數。
我們的目標很明確, 既要不斷提升判斷器辨別真假圖像樣本的能力, 又要不斷提升生成器生成更加逼真的圖像,使判別器越來越難判別。
對於判別網路 D ,它的目標是能夠很好地分辨出真樣本 與假樣本 。即最小化圖片的預測值和真實值之間的交叉熵損失函數:
其中 代表真實樣本 在判別網路 的輸出, 為判別網路的參數集, 為生成樣本 在判別網路的輸出, 為 的標簽,由於真實樣本標注為真,故 , 為生成樣本的 的標簽,由於生成樣本標注為假,故 。 根據二分類問題的交叉熵損失函數定義:
因此判別網路的優化目標是:
去掉 中的負號,把 問題轉換為 問題,並寫為期望形式:
對於生成網路G(𝒛) ,我們希望 能夠很好地騙過判別網路 , 假樣本 在判別網路的輸出越接近真實的標簽越好。也就是說,在訓練生成網路時, 希望判別網路的輸出 越逼近 1 越好,此時的交叉熵損失函數:
把 問題轉換為 問題,並寫為期望形式:
再等價轉化為:
GAN的優化過程不像通常的求損失函數的最小值, 而是保持生成與判別兩股力量的動態平衡。 因此, 其訓練過程要比一般神經網路難很多。
把判別網路的目標和生成網路的目標合並,寫成min-max形式:
原GAN論文中:
這里為了好理解,把各個符號梳理的更清晰了,注意符號和網路參數的對應。
理想情況下 , 會有更精確的鑒別真偽數據的能力,經過大量次數的迭代訓練會使 盡可能模擬出以假亂真的樣本, 最終整個GAN會達到所謂的納什均衡, 即 對於生成樣本和真實樣本鑒別結果為正確率和錯誤率各佔50%。下面具體從理論層面來推導。
現在從理論層面進行分析, 通過博弈學習的訓練方式,生成器 G 和判別器 D 分別會達到什麼狀態。 具體地,來看以下 2 個問題:
首先我們通過 一維正態分布的例子給出一個直觀的解釋,如下圖所示,黑色虛線曲線代表了真實數據的分布 , 為某正態分布 , 綠色實線代表了生成網路學習到的分布 , 藍色虛線代表了判別器的決策邊界曲線, 圖中(a)(b)(c)(d)分別代表了生成網路的學習軌跡。在初始狀態,如圖 (a)所示, 分布與 差異較大,判別器可以很輕松地學習到決策邊界,即圖(a)中的藍色虛線,將來自 的采樣點判定為 0, 中的采樣點判定為 1。 隨著生成網路的分布 越來越逼近真實分布 ,判別器越來越困難將真假樣本區分開,如圖 (b)(c)所示。 最後,生成網路性能達到最佳,學習到的分布 ,此時從生成網路中采樣的樣本非常逼真, 判別器無法區分,即判定為真假樣本的概率均等,如圖(d)所示。
固定生成器G的參數 ,判別器D最佳能達到的狀態:
證明: 對於給定的生成器G,要讓判別器D達到最優,我們的目標是最大化損失函數,其積分形式為:
對於給定的 ,真實分布始終是固定的,所以 和 都是定值,於是對於判別器D,要找出
的最大值,其中 是判別器網路參數,對於函數 ,不難得到 在 處取得極大值且是最大值。因此可得 的極值點也為
故判別器 能達到的最佳狀態為定理中給出的式子。
現在考慮第二個問題。
JS 散度(Jensen–Shannon divergence)
對於KL散度, ,是不對稱的。但JS散度是對稱的。
當 達到 時,考慮此時 和 的 散度:
考慮到判別網路到達 時,此時的損失函數為:
於是我們可以得到:
對於生成網路 而言,目標是最小化損失函數,由於 ,因此 取得最小值僅在 時(此時 ), 取得最小值:
此時生成網路達到 狀態是:
即 的學到的分布 與真實分布 一致,網路達到納什均衡點,此時:
即對於生成器生成的圖像有0.5的概率被判定為真,也有0.5的概率被判定為假。
③ 鐢熸垚瀵規姉緗戠粶鈥斺擥AN鍘熺悊涓庝唬鐮
鎻紺虹敓鎴愬規姉緗戠粶鐨勫ゥ縐橈細GAN鍘熺悊涓庡疄鎴樹唬鐮佽В鏋
鍦2014騫寸殑縐戠爺鐣岋紝Ian Goodfellow鐨勬澃浣溾斺旂敓鎴愬規姉緗戠粶錛圙AN錛夋í絀哄嚭涓栵紝闈╂柊浜嗗浘鍍忕敓鎴愮瓑棰嗗煙鐨勬妧鏈杈圭晫銆侴AN鐨勬牳蹇冨湪浜庢瀯寤轟竴涓鍙岄泟瀵瑰紙鐨勬嗘灦錛岀敱鏃犵洃鐫g殑鐢熸垚鍣℅鍜岀洃鐫g殑鍒ゅ埆鍣―鑱旀墜錛岀洰鏍囨槸閫氳繃瀵規姉鎬х殑瀛︿範鎻愬崌鐢熸垚鏁版嵁鐨勯肩湡搴︺傚叾宸у欑殑鎹熷け鍑芥暟璁捐℃棬鍦ㄨ╁垽鍒鍣―綺懼噯鍖哄垎鐪熶吉錛岃岀敓鎴愬櫒G鍒欏姫鍔涗嬌鑷韜鐢熸垚鐨勬暟鎹鍒嗗竷閫艱繎鐪熷疄涓栫晫銆
娣卞害鍓栨瀽GAN鐨勫唴蹇冧笘鐣岋細
GAN鐨勮緇冭繃紼嬬姽濡備竴鍦虹瓥鐣ユ父鎴忥紝閫氳繃涓ゆヨ蛋絳栫暐浼樺寲銆傞栧厛錛屼繚鎸佺敓鎴愬櫒G涓嶅彉錛屾渶澶у寲鍒ゅ埆鍣―鐨勬ц兘錛岄氳繃璁$畻鐪熷疄鏍鋒湰涓庣敓鎴愭牱鏈鐨勪氦鍙夌喌宸鍊兼潵琛¢噺D鐨勫尯鍒嗗姏銆傛帴鐫錛屽滻瀹氬垽鍒鍣―錛岃╃敓鎴愬櫒G璋冩暣鍙傛暟錛屼互鏈熺敓鎴愮殑鏁版嵁鑳介獥榪嘍錛屽嵆璁〥瀵笹鐢熸垚鐨勬牱鏈鍒ゆ柇涓虹湡銆傝繖涓榪囩▼涓鐨勭敓鎴愬櫒鎹熷けV錛屽疄璐ㄤ笂鏄閽堝笵璇鍒や負鍋囩殑鐢熸垚鏍鋒湰鐨勪氦鍙夌喌銆
鍦≒yTorch鐨勭ず渚嬩腑錛孧NIST鏁版嵁闆嗕負璁緇冩彁渚涗簡鑸炲彴錛孏enerator鍜孌iscriminator妯″瀷閲囩敤LeakyReLU銆丩inear鍜孴anh絳夋妧鏈錛屽閥濡欏湴澶勭悊256緇磋緭鍏ワ紝浠ヤ究浜庡湪GPU絳夐珮鎬ц兘璁懼囦笂榪愯屻
浼樺寲絳栫暐涓庢妧鏈緇嗚妭錛
鍏抽敭鍦ㄤ簬閫夋嫨Adam浼樺寲鍣ㄥ拰BCELoss浣滀負鎹熷け鍑芥暟錛岃緇冭繃紼嬪垎涓轟袱涓姝ラわ細鍏堝滻瀹欴錛屾洿鏂癎錛岀劧鍚庡弽榪囨潵銆傛瘡杞榪浠d腑錛屽厛璇勪及D瀵圭湡瀹炴暟鎹鍜岀敓鎴愭暟鎹鐨勫垽鏂錛屽啀渚濇′紭鍖朌鍜孏錛岀『淇濅俊鎮鐨勬祦鐣呬紶閫掋
鐒惰岋紝GAN騫墮潪涓甯嗛庨『銆侸S鏁e害鐨勮$畻闂棰橈紝鐗瑰埆鏄鍦ㄨ緇冨垵鏈燂紝鐢變簬闅忔満鎬у彲鑳藉艱嚧鏁版嵁宸璺濊繃澶э紝JS鏁e害鍊兼亽涓簂og2錛岃繖鍦ㄥ弽鍚戜紶鎾涓浼氬艱嚧姊搴︽秷澶憋紝闃葷嶇敓鎴愬櫒鍙傛暟鐨勬湁鏁堟洿鏂般
闈㈠規寫鎴樹笌鍒涙柊瑙e喅鏂規堬細
涓鴻В鍐寵繖涓闂棰橈紝GAN鐨勫彉縐嶅侺SGAN鍜學GAN搴旇繍鑰岀敓銆侺SGAN閫氳繃璋冩暣鎹熷け鍑芥暟鐨勫艦寮忥紝鍑忓皯瀵歸噸鍙犲垎甯冪殑渚濊禆錛屽噺杞諱簡姊搴︽秷澶辯殑褰卞搷銆傝學GAN鍒欏紩鍏ヤ簡涓嶅悓鐨勮窛紱誨害閲忥紝濡俉asserstein璺濈伙紝浠ュ疄鐜版洿紼沖畾涓旈珮鏁堢殑璁緇冭繃紼嬨
鎬葷殑鏉ヨ達紝GAN鐨勪笘鐣屽厖婊′簡鎸戞垬涓庡壋鏂幫紝姣忎竴涓緇嗚妭閮藉叧涔庣敓鎴愭暟鎹鐨勭湡瀹炴у拰妯″瀷鐨勭ǔ瀹氭с傛繁鍏ョ悊瑙e苟鎺屾彙榪欎簺鍘熺悊鍜屾妧宸э紝鏃犵枒灝嗘帹鍔ㄦ垜浠鍦ㄨ繖鍦虹敓鎴愯壓鏈鐨勭珵璧涗腑涓嶆柇鍓嶈屻
④ LSGAN:最小二乘生成對抗網路
解決問題: 解決傳統 GAN 生成圖片質量不高,訓練不穩定的問題。
做法: 將傳統 GAN 的 交叉熵損失函數 換成 最小二乘損失函數
本篇主要通過GAN對比來學習LSGAN
通過例子介紹:
使用 位於決策邊界正確側 但仍然 遠離真實數據的假樣本 更新生成器時,交叉熵損失函數將導致梯度消失的問題。
如圖 (b)所示,當我們使用 假樣本 (品紅色)通過使鑒別器相信它們來自真實數據來更新生成器時,它 幾乎不會引起錯誤 ,因為它們在正確的一側,既決策邊界的真實數據面。
然而,這些樣本 仍然離真實數據很遠 ,我們想把它們拉得接近真實數據。
問題總結:在交叉熵損失函數情況下,判別器判定真實面的假數據距離真實數據較遠,效果不足。
基於這一觀察,我們提出了最小二乘生成對抗網路,它採用 最小二乘損失函數作為鑒別器 。
最小二乘損失函數能夠 將偽樣本移向決策邊界 ,
因為最小二乘損失函數會 懲罰位於決策邊界正確一側很遠的樣本 。
如圖 (c)所示,最小二乘損失函數將懲罰假樣本(品紅色),並 將它們拉向決策邊界 ,使它們被正確分類。
基於這一特性,最小二乘能夠生成更接近真實數據的樣本
總結概括
最小二乘: 最小二乘損失與交叉熵損失相比,優勢在於生成樣本在欺騙判別器的前提下同時讓生成器把 距離決策邊界比較遠 的生成圖片拉向 決策邊界 ,這樣保證了生成高質量的樣本。
交叉熵: 以交叉熵作為損失,會使得生成器 不會再優化那些被判別器識別為真實圖片的生成圖片 ,即使這些生成圖片距離判別器的決策邊界仍然很遠,也就是距離真實數據比較遠,因為此時的交叉熵損失已經很小,生成器完成了為它設計的目標。
LSGAN的缺陷: 在於它並 沒有解決當判別器足夠優秀時生成器發生梯度彌散的問題
梯度彌散: 使用反向傳播演算法傳播梯度的時候,隨著傳播深度的增加, 梯度的幅度會急劇減小,會導致淺層神經元的權重更新非常緩慢 ,不能有效學習。
這樣一來,深層模型也就變成了前幾層相對固定,只能改變最後幾層的淺層模型。
GANs 的損失函數:
LSGANs的損失函數:
最小二乘
公式注釋:
鑒別器 D
生成器 G
G 的目標是學習數據 x 上的分布 pg。
G 服從均勻或高斯分布 pz(z)對輸入變數 z 進行采樣開始,然後將輸入變數 z 映射到數據空間 G(z; θg)。
D 是分類器 D(x; θd),其目的是識別圖像是來自訓練數據還是來自g。
z 為噪音,它可以服從歸一化或者高斯分布,為真實數據 x 服從的概率分布,為 z 服從的概率分布。為期望值,同為期望值。
假設我們對鑒別器使用 a-b 編碼方案 ,其中a 和b 分別是假數據和真實數據的標簽。
c 表示 G 預測的D 相信的假數據的值。
最小二乘法的具體優點:
1.決策邊界固定(鑒別器參數固定),生成樣本靠近決策邊界,更接近真實數據。
2.懲罰遠離決策邊界的樣本時,可以在更新生成器時生成更多的梯度,這反過來緩解了梯度消失的問題(梯度消失:前面隱藏層的學習速率低於後面隱藏層的學習速率,即隨著隱藏層數目的增加,分類准確率反而下降)
GAN中:最小化等式 1 產生最小化詹森-香農散度:
LSGAN:探討LSGAN與f散度的關系
公式解釋:(下文關於a-b編碼證明a,b,c條件)
將
加入到
並不會改變最佳值,因為並沒有引入含有G的參數
從而我們可以推出G固定情況下的最佳鑒別器:
使用 pd 來表示 pdata,來重新表示4式
此處不詳細證明
化簡為:
如果: b-c = 1, b-a = 2,則
是皮爾遜散度,總之可證,當 a,b,c滿足b-c = 1 和 b-a = 2的條件,則最小化等式 4 會使 pd + pg 和 2pg 之間的皮爾遜 χ2 散度最小化。
採用 a-b編碼方案:
由上述證明可設a = 1, b = 1, c = 0
採用 0-1二進制編碼方案 :
兩式接近,但此處,論文作者採用a-b編碼方式,來實現實驗:
帶上其中一個實驗:
參考論文:Mao X D, Li Q, Xie H R, et al. Least squares generative
adversarial networks[C]//Proceedings of the 2017 IEEE
International Conference on Computer Vision, Venice, Oct
22- 29, 2017. Washington: IEEE Computer Society, 2017:
2813-2821.