目录概整体框架细节代码 Liang D., Krishnan R. G., Hoffman M. D. and Jebara T. Variational autoencoders for collaborative filtering. In International Conference on World Wide Web (WWW), 2018. 概 一种基于 VAE 的协同过滤方法. 整体框架 \(\bm{x}_u \in \mathbb
一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度。因为空间的维数越小,计算速度越快,但生成的图像质量越差。 2.autoencoder=encoder+decod
研究背景 我们之前介绍了 ViT(传送门),在 ViT 模型中我们也知道了他想要有超过 CNN 的效果的话就需要在超大数据集上进行预训练,在 ImageNet 1K 的效果其实并没有 ResNet 好。这样的话,如果我们需要重新对 ViT 进行训练的话,他的效率是不高的。于是这篇 MAE 在 ViT 的方法上进行了
论文地址:http://arxiv.org/abs/2111.06377 项目地址:(非官方)https://github.com/pengzhiliang/MAE-pytorch 本文的主要观点是:掩码自编码器 (MAE) 是适用于计算机视觉的可扩展自监督学习器。 如果说ViT对应于NLP中的Tranformer,MAE实际上是对应于BERT。 MAE的核心思想是随机屏
NLPCVTransformerViTBERTMAE 文章目录 1. 标题2. 摘要3. 模型架构4. 结论 1. 标题 Masked Autoencoders Are Scalable Vision Learners指的是带掩码的自编码器是可扩展的视觉学习器。其中这里的Autoencoders指的是模型的输入和输出都是相同的,简单来说Autoencoder=en
文章目录 自动编码器 (Autoencoders)堆叠自编码器 (Stacked Autoencoder)欠完备/过完备自编码器 (Undercomplete/ Overcomplete autoencoders)自动编码器和主成分分析稀疏自动编码器 (Sparse Autoencoders)除噪自编码器 (Denosing Autoencoders)更多编码器 - 成本函数