VAE

https://blog.csdn.net/matrix_space/article/details/83683811

Variational Autoencoder

有更加完备的数学理论(引入了隐变量),理论推导更加显性,训练相对来说更加容易

VAE 全名叫 变分自编码器,是从之前的 auto-encoder 演变过来的,auto-encoder 也就是自编码器,自编码器,顾名思义,就是可以自己对自己进行编码,重构。所以 AE 模型一般都由两部分的网络构成,一部分称为 encoder, 从一个高维的输入映射到一个低维的隐变量上,另外一部分称为 decoder, 从低维的隐变量再映射回高维的输入:

VAE模型

说明

————————————————
版权声明:本文为CSDN博主「Matrix_11」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/matrix_space/article/details/83683811

======

这篇文章里的很形象:https://blog.csdn.net/weixin_40955254/article/details/82315224

通过一个网络,将一个高维空间的人脸映射为低维空间的一个向量。

想象一下,在一个末日大片中,我们需要去搞出一个许多机器人占领世界的场面,但是我们的特效师一张张去画,这无疑会是一个令人头疼的工作,利用VAE,只需要使用有限的数据输入,我们就可以通过隐形参数的调节,获得几乎无限的数量。

VAE中的编码器,对于每个隐性参数他不会去只生成固定的一个数,而是会产生一个置信值得分布区间,这是一种连续的表达方式,通过采样,我们就可以获得许多从来没有见过的数据了。

https://blog.csdn.net/weixin_40955254/article/details/82315909

我们所假设的这些分布都是正态分布,那么我们就需要求得相应的方差和均值,所以在编码实现的过程中,不难看到encoder部分真实做的事情就是,对相应的输入数据,通过两个网络产生了均值和方差。

第三部分在:https://blog.csdn.net/weixin_40955254/article/details/101037614