成都装修建材网站建设,网站建设学习 服务器,asp网站会员管理模板,做医美设计的网站文章目录参考文献1. 什么是潜在编码#xff1f;2.什么是潜在空间#xff1f;3.同类潜在编码的相似性4.潜在编码的应用4.1 Antoencoders4.2 Generative models5.结论个人学习总结#xff0c;持续更新中……参考文献
[1] 快速理解深度学习中的latent code潜在编码
1. 什么是…
文章目录参考文献1. 什么是潜在编码2.什么是潜在空间3.同类潜在编码的相似性4.潜在编码的应用4.1 Antoencoders4.2 Generative models5.结论个人学习总结持续更新中……参考文献
[1] 快速理解深度学习中的latent code潜在编码
1. 什么是潜在编码
潜在编码就是一种降维或者说是压缩旨在用更少的信息去表达数据的本质[1]。 上图是一个简单的encoder-decoder架构最细的地方称为瓶颈。压缩一般都是有损的但如果损失的是噪声或者是无用信息而保留下来的是最本质的特征那么这正是我们想要实现的目标。通过encoder压缩之后更重要的是恢复即Decoder如果Decoder成功那么我们就可以认为这个latent space representation提取input image中最关键的信息本质特征。
2.什么是潜在空间
潜在空间和潜在编码是一个意思编码 空间 是符合直觉的例如3x1的编码就可以画成三维空间的一个点。
3.同类潜在编码的相似性
首先定义什么是同类椅子和椅子是同类狗和狗是同类。如图所示如果使用完整的3D表征去表示A椅子和B椅子那么他们之间是不会接近的一眼就可以看出来一个黄色一个黑色朝向也不同。但如果把一些个性化的特征去掉仅保留一类的特征那么它们在潜在空间中的点是非常非常接近的例如把颜色去掉。在空间中想象A椅子和B椅子此时会很接近我们就认为很相似。
4.潜在编码的应用
那么我们如果完美的得到一个东西的潜在表征即latent code(也可以叫latent space or latent space representation)我们可以利用它做什么
4.1 Antoencoders 自编码器顾名思义自己给自己编码可以发现本网络输出和输入都是一个东西latent coder 通过Decoder恢复成了自己。具体的实施就更简单了只需要把输出与输入做相似度损失然后反向传播慢慢地就像了。
4.2 Generative models
同类在空间中是相近的例如两把椅子的向量为[0.1,0.1]和[0.12,0.12]把这两个喂入网络中生成的当然是椅子那如果输入[0.11,0.11]呢当然也是椅子这就是插值。下图展示了插值的效果可以看到同类周围插值就相似但有微小区别的。最简单的应用就是把它当成一种数据增强去扩大数据集。 下图为两把椅子之间进行线性插值的效果图。
5.结论
潜在空间可以用少量的数据表示某一个类信息在3D表示等领域中也有更为具体的应用。