ICode9

精准搜索请尝试: 精确搜索
  • Variational Autoencoders for Collaborative Filtering2022-07-09 13:06:53

    目录概整体框架细节代码 Liang D., Krishnan R. G., Hoffman M. D. and Jebara T. Variational autoencoders for collaborative filtering. In International Conference on World Wide Web (WWW), 2018. 概 一种基于 VAE 的协同过滤方法. 整体框架 \(\bm{x}_u \in \mathbb

  • autoencoders and variational autoencoders (变分自动编码器)2022-01-29 15:02:06

    一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度。因为空间的维数越小,计算速度越快,但生成的图像质量越差。 2.autoencoder=encoder+decod

  • Masked Autoencoders2021-12-28 09:02:53

    研究背景 我们之前介绍了 ViT(传送门),在 ViT 模型中我们也知道了他想要有超过 CNN 的效果的话就需要在超大数据集上进行预训练,在 ImageNet 1K 的效果其实并没有 ResNet 好。这样的话,如果我们需要重新对 ViT 进行训练的话,他的效率是不高的。于是这篇 MAE 在 ViT 的方法上进行了

  • 【论文笔记】MAE: Masked Autoencoders Are Scalable Vision Learners2021-12-21 18:59:20

    论文地址:http://arxiv.org/abs/2111.06377 项目地址:(非官方)https://github.com/pengzhiliang/MAE-pytorch 本文的主要观点是:掩码自编码器 (MAE) 是适用于计算机视觉的可扩展自监督学习器。 如果说ViT对应于NLP中的Tranformer,MAE实际上是对应于BERT。 MAE的核心思想是随机屏

  • Masked Autoencoders Are Scalable Vision Learners 论文研读2021-12-11 17:35:15

    NLPCVTransformerViTBERTMAE 文章目录 1. 标题2. 摘要3. 模型架构4. 结论 1. 标题   Masked Autoencoders Are Scalable Vision Learners指的是带掩码的自编码器是可扩展的视觉学习器。其中这里的Autoencoders指的是模型的输入和输出都是相同的,简单来说Autoencoder=en

  • 机器学习基础整理 (第八章) - 神经网络其他应用2021-06-12 23:00:28

    文章目录 自动编码器 (Autoencoders)堆叠自编码器 (Stacked Autoencoder)欠完备/过完备自编码器 (Undercomplete/ Overcomplete autoencoders)自动编码器和主成分分析稀疏自动编码器 (Sparse Autoencoders)除噪自编码器 (Denosing Autoencoders)更多编码器 - 成本函数

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有