导航:首页 > 网络设置 > 对抗网络帮助模型怎么设置

对抗网络帮助模型怎么设置

发布时间:2024-05-23 22:01:37

㈠ BEGAN边界平衡生成对抗网络

解决问题: GAN训练模型较为困难

做法: BEGAN并没有直接去估计生成分布 pg 和真实分布 px 的距离,而是估计两者分布误差的距离。

分布之间的误差分布相近的话,也可以认为 pg 和 px 是相近的。

BEGAN 将判别器 G 设计成自编码器用来重构分布误差,并优化分
布误差之间的距离,如下式:

BEGAN 提出一种均衡概念,用以平衡 G 和 D 的训练,使 GAN 即使使用很简单的网络,不加如 BN、minibath 等训练技巧也能得到很好的训练效果。
同时还提出了一种能够在样本多样性和样本质量上均衡的超参数以及衡量模型收敛性的方法。
实验中发现 BEGAN 收敛很快,并且 G 和 D 训练平衡,但超参数的选取比较考验经验。

1.使得GAN具有快速而稳定的收敛的标准训练过程。
2.引入均衡概念,均衡鉴别器和发生器的功率。
3.提供控制图像多样性和视觉质量之间权衡的新方法
4.收敛的近似度量

使用自动编码器作为鉴别器,使用从瓦瑟斯坦距离(类似于我先前提到的KL散度,具有正定性,对称性,三角不等式特性)导出的损失来匹配自动编码器损失分布。

L:R^Nx->R+训练像素式自动编码器的 1.损失函数:
BEGAN中提出了一种思路,它使用了自动编码器做为判别器 D,它所做的是尽可能地匹配误差的分布而不是直接匹配样本的分布,如果误差的分布之间足够的接近,那么真实的样本之间的分布也会足够的接近。

D:自动编码器功能
n:是目标标准
v:是Nx维度的样例

u1,2是自动编码器损失函数的两个分布
Γ(u1,u2)是1和2的所有组合的集合
m1,2∈R是他们各自的平均值
瓦瑟斯坦距离为:

其中x1和x2是从

利用詹森不等式,可以导出W1(u1,u2)的下界:

目标是优化自动编码器损失分布之间的瓦瑟斯坦距离的下限,而不是样本分布之间的下限。

设计鉴频器,使自动编码器损耗之间的等式1最大化。
设u1为损失L(x)的分布,其中x为实样本。
设u2为损失L(G(z))的分布
其中G : RNz →RNx为生成函数
z∈[-1,1]Nz为维数Nz的均匀随机样本

由于m1,m2 ∈R+到达最大化| m1-m2 |只有两种可能的解决方案:

选择解决方案(b)作为我们的目标,因为最小化m1自然会导致对真实图像的自动编码。
给定鉴别器和发生器参数θD和θG
每个参数都通过最小化损耗LD和LG来更新
将问题表示为GAN目标,其中zD和zG是z的样本:

在BEGAN中G和D对应的损失函数:

2.引入平衡:

当产生器和鉴别器损失之间保持平衡,满足情况:

生成的样本不能被鉴别器从真实样本中区分出来,那么它们的 误差分布包括预期误差应该是相同的 ,使得其均衡。

γ引入来平衡D既可以对真实图像自动编码,又可以正确的判别输入的样本。γ很小时,说明分母部分值很大,那么此时模型专注于识别的正确率,则出现G只生成可以骗过D的图像

鉴别器有两个相互竞争的目标:
1.自动编码真实图像和从生成的图像中鉴别真实图像。
2.γ项让我们平衡这两个目标。
较低的γ值导致较低的图像多样性 ,因为鉴别器更侧重于自动编码真实图像。
将γ称为分集比。有一个自然的边界,图像清晰,有细节。

对于θD和θG和每一训练步t,来说的目标
γ∈[0,1]是一个超参数,值越小代表生成的样本多样性越低
λk是 kt + 1 的更新步长,kt表示对D判别能力的重视度

采用比例控制理论来维持平衡

这是使用一个变量kt ∈[0,1]来实现的,以控制在梯度下降过程中对L(G(zD))的重视程度。
我们初始化k0 = 0.λk是k的比例增益;
在机器学习术语中,它是k的学习率。
我们在实验中使用了0.001。
本质上,这可以被认为是闭环反馈控制的一种形式,其中kt在每一步被调整以保持等式4。
在早期训练阶段,G倾向于为自动编码器生成易于重建的数据,因为生成的数据接近于0,并且还没有准确地了解真实的数据分布。
这时L(X)>L(G(z))
与需要交替训练 D 和 G 或预训练 D 的传统训练相比,BEGAN提出的方法开始不需要稳定训练。
Adam在训练中使用默认的超参数
θD 和 θG 基于各自的损失通过独立的Adam优化器独立更新。
我们通常使用 n = 16 的批量。
3.全局收敛度量:

确定 GANs 的收敛性通常是一项困难的任务,因为最初的公式被定义为零和博弈。
结果,一个亏损上升,另一个亏损下降。

我们通过使用 平衡概念 导出了 收敛的全局度量 :我们可以将收敛过程框架为找到比例控制算法(控制装置输出信号与输人信号间呈线性关系的控制作用数学表示法)|γL(x)-L(G(Zg))|的 瞬时过程误差绝对值最小的最近重构L(x) 。这一衡量标准由两项和:

该度量可用于确定网络何时达到其 最终状态 模型是否已崩溃 也即是模型是否收敛。

4.模型架构
鉴别器: R Nx->R Nx是一个卷积深度神经网络,其架构为自动编码器。
Nx = H × W × C 是x 尺寸的简写
其中 H、 W、 C 是高度、宽度和颜色。

我们使用自动编码器和深度编码器和解码器。目的是尽可能简单,以避免典型的GAN诡计。
结构如图 1 所示。我们使用了 3 × 3 的卷积,在它们的输出端应用了指数线性单位。
每层重复多次(通常为 2 次)。我们观察到,重复次数越多,视觉效果越好。
卷积滤波器随着每次下采样线性增加。
下采样作为步长为 2 的子采样实现,上采样由最近邻完成。
在编码器和解码器之间的边界处,经过处理的数据的张量通过完全连接的层被映射到嵌入状态 h ∈RNh 和从嵌入状态 h∈ RNh 来,其中 Nh 是自动编码器的隐藏状态的维度,而没有任何非线性。

生成器 G : RNz → RNx 使用与鉴别器解码器相同的架构(虽然权重不同)。
但为了简化。输入状态为均匀采样的 z∈ [-1, 1]Nz。
这个简单的架构实现了高质量的结果,并展示了技术的健壮性。
此外,可选的细化有助于梯度传播,并产生更清晰的图像。受深度残差网络[8]的启发,使用消失残差初始化网络:对于连续的相同大小的层,层的输入与其输出相结合:inx+1 =carry×inx+(1 carry)×outx。
在实验中,我们从进位= 1 开始,经过 16000 步
逐渐减少到 0。
我们还引入了跳跃连接[8, 17, 9]来帮助梯度传播。第一解码器张量 h0 是通过将 h 投影到 8 × 8 × n 张量而获得的。在每个上采样步骤之后,输出与上采样到相同维数的 h0 连接。
这在隐藏状态和解码器的每个连续上采样层之间创建了跳跃连接。
我们没有探索 GANs 中通常使用的其他技术,如批量归一化、缺失、转置卷积或卷积滤波器的指数增长,尽管它们可能会进一步改进这些结果

5.通过实验来理解

变 γ 的值时,模型生成结果的多样性和质量对比效果如下所示,从中可以看出
γ值越小,生成的图像越清晰,也更接近;
γ值越大,多样性提高了,但是图像的质量同样也下降了

BEGAN的空间连续性与其他GAN相比表现更优异:

伴随着模型收敛,图像质量也在不断提升

总之:BEGAN针对 GAN 训练难易度难、控制生成样本多样性难、平衡鉴别器和生成器收敛难等问题,做出了很大的改善。

参考论文:Berthelot D, Schumm T, Metz L. BEGAN: boundary equilibrium generative adversarial networks[J]. arXiv:1703.10717,
2017

㈡ 生成式对抗网络GAN(一)

上面这张图很好的很好的阐述了生成式对抗网络的结构~~ 博弈论

此图给出了生成性对抗网络的概述。目前最重要的是要理解GAN是使两个网络协同工作的一种方式 - 而Generator和Discriminator都有自己的架构。为了更好地理解这个想法的来源,我们需要回忆一些基本的代数并问自己 - 我们怎么能欺骗一个比大多数人更好地分类图像的神经网络?

在我们详细描述GAN之前,让我们看一下类似的主题。给定一个训练有素的分类器,我们可以生成一个欺骗网络的样本吗?如果我们这样做,它会是什么样子?

事实证明,我们可以。

甚至更多 - 对于几乎任何给定的图像分类器,可以将图像变换为另一个图像,这将被高度置信地错误分类,同时在视觉上与原始图像无法区分!这种过程称为对抗性攻击,生成方法的简单性解释了很多关于GAN的内容。
精心计算的示例中的对抗性示例,其目的是错误分类。以下是此过程的说明。左边的熊猫与右边的熊猫无法区分 - 但它被归类为长臂猿。

图像分类器本质上是高维空间中的复杂决策边界。当然,在对图像进行分类时,我们无法绘制这个边界。但我们可以安全地假设,当训练结束时,网络并不是针对所有图像进行推广的 - 仅针对我们在训练集中的那些图像。这种概括可能不是现实生活的良好近似。换句话说,它适用于我们的数据 - 我们将利用它。

让我们开始为图像添加随机噪声并使其非常接近零。我们可以通过控制噪声的L2范数来实现这一点。数学符号不应该让您担心 - 出于所有实际目的,您可以将L2范数视为向量的长度。这里的诀窍是你在图像中拥有的像素越多 - 它的平均L2范数就越大。因此,如果噪声的范数足够低,您可以预期它在视觉上难以察觉,而损坏的图像将远离矢量空间中的原始图像。

为什么?

好吧,如果HxW图像是矢量,那么我们添加到它的HxW噪声也是矢量。原始图像具有相当密集的各种颜色 - 这增加了L2规范。另一方面,噪声是一组视觉上混乱的相当苍白的像素 - 一个小范数的矢量。最后,我们将它们添加到一起,为损坏的图像获取新的矢量,这与原始图像相对接近 - 但却错误分类!

现在,如果原始类 Dog 的决策边界不是那么远(就L2范数而言),这种加性噪声将新图像置于决策边界之外。

您不需要成为世界级拓扑学家来理解某些类别的流形或决策边界。由于每个图像只是高维空间中的矢量,因此在其上训练的分类器将“所有猴子”定义为“由隐藏参数描述的该高维斑点中的所有图像矢量”。我们将该blob称为该类的决策边界。

好的,所以,你说我们可以通过添加随机噪声轻松欺骗网络。它与生成新图像有什么关系?

现在我们假设有两个结构模型,相当于两个神经网络:

这是关于判别网络D和生成网络G的价值函数(Value Function),训练网络D使得最大概率地分对训练样本的标签(最大化log D(x)),训练网络G最小化log(1 – D(G(z))),即最大化D的损失。训练过程中固定一方,更新另一个网络的参数,交替迭代,使得对方的错误最大化,最终,G 能估测出样本数据的分布。生成模型G隐式地定义了一个概率分布Pg,我们希望Pg 收敛到数据真实分布Pdata。论文证明了这个极小化极大博弈当且仅当Pg = Pdata时存在最优解,即达到纳什均衡,此时生成模型G恢复了训练数据的分布,判别模型D的准确率等于50%。

接着上面最后一个问题:怎么才能生成我指定的图像呢?

指定标签去训练

顾名思义就是把标签也带进公式,得到有条件的公式:

具体怎么让CGAN更好的优化,这里不解释,就是平常的优化网络了。

参考文章:

本文大部分翻译此外文

通俗易懂

小博客的总结

唐宇迪大神

㈢ 鐢熸垚瀵规姉缃戠粶钬斺擥AN铡熺悊涓庝唬镰

鎻绀虹敓鎴愬规姉缃戠粶镄勫ゥ绉桡细GAN铡熺悊涓庡疄鎴树唬镰佽В鏋


鍦2014骞寸殑绉戠爷鐣岋纴Ian Goodfellow镄勬澃浣溾斺旂敓鎴愬规姉缃戠粶锛圙AN锛夋í绌哄嚭涓栵纴闱╂柊浜嗗浘镀忕敓鎴愮瓑棰嗗烟镄勬妧链杈圭晫銆侴AN镄勬牳蹇冨湪浜庢瀯寤轰竴涓鍙岄泟瀵瑰纸镄勬嗘灦锛岀敱镞犵洃镌g殑鐢熸垚鍣℅鍜岀洃镌g殑鍒ゅ埆鍣―镵旀坠锛岀洰镙囨槸阃氲繃瀵规姉镐х殑瀛︿範鎻愬崌鐢熸垚鏁版嵁镄勯肩湡搴︺傚叾宸у欑殑鎹熷け鍑芥暟璁捐℃棬鍦ㄨ╁垽鍒鍣―绮惧嗳鍖哄垎鐪熶吉锛岃岀敓鎴愬櫒G鍒椤姫锷涗娇镊韬鐢熸垚镄勬暟鎹鍒嗗竷阃艰繎鐪熷疄涓栫晫銆


娣卞害鍓栨瀽GAN镄勫唴蹇冧笘鐣岋细


GAN镄勮缁冭繃绋嬬姽濡备竴鍦虹瓥鐣ユ父鎴忥纴阃氲繃涓ゆヨ蛋绛栫暐浼桦寲銆傞栧厛锛屼缭鎸佺敓鎴愬櫒G涓嶅彉锛屾渶澶у寲鍒ゅ埆鍣―镄勬ц兘锛岄氲繃璁$畻鐪熷疄镙锋湰涓庣敓鎴愭牱链镄勪氦鍙夌喌宸鍊兼潵琛¢噺D镄勫尯鍒嗗姏銆傛帴镌锛屽浐瀹氩垽鍒鍣―锛岃╃敓鎴愬櫒G璋冩暣鍙傛暟锛屼互链熺敓鎴愮殑鏁版嵁鑳介獥杩喽锛屽嵆璁〥瀵笹鐢熸垚镄勬牱链鍒ゆ柇涓虹湡銆傝繖涓杩囩▼涓镄勭敓鎴愬櫒鎹熷けV锛屽疄璐ㄤ笂鏄阍埚笵璇鍒や负锅囩殑鐢熸垚镙锋湰镄勪氦鍙夌喌銆


鍦≒yTorch镄勭ず渚嬩腑锛孧NIST鏁版嵁闆嗕负璁缁冩彁渚涗简鑸炲彴锛孏enerator鍜娈iscriminator妯″瀷閲囩敤LeakyReLU銆丩inear鍜孴anh绛夋妧链锛屽阀濡椤湴澶勭悊256缁磋緭鍏ワ纴浠ヤ究浜庡湪GPU绛夐珮镐ц兘璁惧囦笂杩愯屻


浼桦寲绛栫暐涓庢妧链缁呜妭锛


鍏抽敭鍦ㄤ簬阃夋嫨Adam浼桦寲鍣ㄥ拰BCELoss浣滀负鎹熷け鍑芥暟锛岃缁冭繃绋嫔垎涓轰袱涓姝ラわ细鍏埚浐瀹欴锛屾洿鏂癎锛岀劧钖庡弽杩囨潵銆傛疮杞杩浠d腑锛屽厛璇勪及D瀵圭湡瀹炴暟鎹鍜岀敓鎴愭暟鎹镄勫垽鏂锛屽啀渚濇′紭鍖朌鍜孏锛岀‘淇濅俊鎭镄勬祦鐣呬紶阃掋


铹惰岋纴GAN骞堕潪涓甯嗛庨‘銆侸S鏁e害镄勮$畻闂棰桡纴鐗瑰埆鏄鍦ㄨ缁冨埯链燂纴鐢变簬闅忔満镐у彲鑳藉艰嚧鏁版嵁宸璺濊繃澶э纴JS鏁e害鍊兼亽涓簂og2锛岃繖鍦ㄥ弽钖戜紶鎾涓浼氩艰嚧姊搴︽秷澶憋纴阒荤岖敓鎴愬櫒鍙傛暟镄勬湁鏁堟洿鏂般


闱㈠规写鎴树笌鍒涙柊瑙e喅鏂规堬细


涓鸿В鍐宠繖涓闂棰桡纴GAN镄勫彉绉嶅侺SGAN鍜学GAN搴旇繍钥岀敓銆侺SGAN阃氲繃璋冩暣鎹熷け鍑芥暟镄勫舰寮忥纴鍑忓皯瀵归吨鍙犲垎甯幂殑渚濊禆锛屽噺杞讳简姊搴︽秷澶辩殑褰卞搷銆傝学GAN鍒椤紩鍏ヤ简涓嶅悓镄勮窛绂诲害閲忥纴濡俉asserstein璺濈伙纴浠ュ疄鐜版洿绋冲畾涓旈珮鏁堢殑璁缁冭繃绋嬨


镐荤殑𨱒ヨ达纴GAN镄勪笘鐣屽厖婊′简鎸戞垬涓庡垱鏂帮纴姣忎竴涓缁呜妭閮藉叧涔庣敓鎴愭暟鎹镄勭湡瀹炴у拰妯″瀷镄勭ǔ瀹氭с傛繁鍏ョ悊瑙e苟鎺屾彙杩欎簺铡熺悊鍜屾妧宸э纴镞犵枒灏嗘帹锷ㄦ垜浠鍦ㄨ繖鍦虹敓鎴愯压链镄勭珵璧涗腑涓嶆柇鍓嶈屻

㈣ LSGAN:最小二乘生成对抗网络

解决问题: 解决传统 GAN 生成图片质量不高,训练不稳定的问题。

做法: 将传统 GAN 的 交叉熵损失函数 换成 最小二乘损失函数

本篇主要通过GAN对比来学习LSGAN

通过例子介绍:

使用 位于决策边界正确侧 但仍然 远离真实数据的假样本 更新生成器时,交叉熵损失函数将导致梯度消失的问题。
如图 (b)所示,当我们使用 假样本 (品红色)通过使鉴别器相信它们来自真实数据来更新生成器时,它 几乎不会引起错误 ,因为它们在正确的一侧,既决策边界的真实数据面。
然而,这些样本 仍然离真实数据很远 ,我们想把它们拉得接近真实数据。

问题总结:在交叉熵损失函数情况下,判别器判定真实面的假数据距离真实数据较远,效果不足。

基于这一观察,我们提出了最小二乘生成对抗网络,它采用 最小二乘损失函数作为鉴别器
最小二乘损失函数能够 将伪样本移向决策边界
因为最小二乘损失函数会 惩罚位于决策边界正确一侧很远的样本
如图 (c)所示,最小二乘损失函数将惩罚假样本(品红色),并 将它们拉向决策边界 ,使它们被正确分类。

基于这一特性,最小二乘能够生成更接近真实数据的样本

总结概括
最小二乘: 最小二乘损失与交叉熵损失相比,优势在于生成样本在欺骗判别器的前提下同时让生成器把 距离决策边界比较远 的生成图片拉向 决策边界 ,这样保证了生成高质量的样本。

交叉熵: 以交叉熵作为损失,会使得生成器 不会再优化那些被判别器识别为真实图片的生成图片 ,即使这些生成图片距离判别器的决策边界仍然很远,也就是距离真实数据比较远,因为此时的交叉熵损失已经很小,生成器完成了为它设计的目标。

LSGAN的缺陷: 在于它并 没有解决当判别器足够优秀时生成器发生梯度弥散的问题

梯度弥散: 使用反向传播算法传播梯度的时候,随着传播深度的增加, 梯度的幅度会急剧减小,会导致浅层神经元的权重更新非常缓慢 ,不能有效学习。
这样一来,深层模型也就变成了前几层相对固定,只能改变最后几层的浅层模型。

GANs 的损失函数:

LSGANs的损失函数:
最小二乘

公式注释:
鉴别器 D
生成器 G
G 的目标是学习数据 x 上的分布 pg。
G 服从均匀或高斯分布 pz(z)对输入变量 z 进行采样开始,然后将输入变量 z 映射到数据空间 G(z; θg)。
D 是分类器 D(x; θd),其目的是识别图像是来自训练数据还是来自g。
z 为噪音,它可以服从归一化或者高斯分布,为真实数据 x 服从的概率分布,为 z 服从的概率分布。为期望值,同为期望值。

假设我们对鉴别器使用 a-b 编码方案 ,其中a 和b 分别是假数据和真实数据的标签。

c 表示 G 预测的D 相信的假数据的值。

最小二乘法的具体优点:
1.决策边界固定(鉴别器参数固定),生成样本靠近决策边界,更接近真实数据。
2.惩罚远离决策边界的样本时,可以在更新生成器时生成更多的梯度,这反过来缓解了梯度消失的问题(梯度消失:前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类准确率反而下降)

GAN中:最小化等式 1 产生最小化詹森-香农散度:

LSGAN:探讨LSGAN与f散度的关系

公式解释:(下文关于a-b编码证明a,b,c条件)

加入到

并不会改变最佳值,因为并没有引入含有G的参数

从而我们可以推出G固定情况下的最佳鉴别器:

使用 pd 来表示 pdata,来重新表示4式

此处不详细证明
化简为:

如果: b-c = 1, b-a = 2,则

是皮尔逊散度,总之可证,当 a,b,c满足b-c = 1 和 b-a = 2的条件,则最小化等式 4 会使 pd + pg 和 2pg 之间的皮尔逊 χ2 散度最小化。

采用 a-b编码方案:

由上述证明可设a = 1, b = 1, c = 0

采用 0-1二进制编码方案

两式接近,但此处,论文作者采用a-b编码方式,来实现实验:

带上其中一个实验:

参考论文:Mao X D, Li Q, Xie H R, et al. Least squares generative
adversarial networks[C]//Proceedings of the 2017 IEEE
International Conference on Computer Vision, Venice, Oct
22- 29, 2017. Washington: IEEE Computer Society, 2017:
2813-2821.

阅读全文

与对抗网络帮助模型怎么设置相关的资料

热点内容
福建广电网络刚安装怎么没信号 浏览:211
怎么知道电脑上网络密码 浏览:218
卷积神经网络字节和什么做运算 浏览:172
路由器建立网络家庭 浏览:832
金融和汽车哪个行业网络营销好做 浏览:595
荣耀手机上的网络不好怎么办 浏览:597
寻找网络下载软件 浏览:927
路由器配置代理网络 浏览:537
作家助理软件可以传送网络平台吗 浏览:225
共享本地连接网络 浏览:916
四层房屋无线网络 浏览:365
县教育局网络安全宣传周方案 浏览:113
网络认证wifi收费吗 浏览:315
电脑连接双重网络 浏览:436
蓝牙共享网络耗电量测试 浏览:729
如何关闭某个应用的网络 浏览:79
网络机顶盒能看电影的软件 浏览:916
网络教育中专哪个学校可以做 浏览:273
普陀区网络软件制品价格 浏览:576
三星s8网络信号弱 浏览:563

友情链接