ICode9

精准搜索请尝试: 精确搜索
  • 序列模型的一些小总结2022-01-15 11:07:00

    transformer 在长序列领域的应用: AAAI 2021最佳论文 InformerLogTrans 也是一个很好的 baseline

  • 马赛克,一生之敌,是时候说再见了【兄弟,借一部说话】2022-01-14 23:01:51

    马赛克,小伙伴们的一生之敌,终于可以说再见了! 何恺明大神的新作,Kaiming 讲故事能力和实验能力,一如既往的强! MAE 的论文,21 年的 11 月份就发出来了。 但是一直没有开源,我也就一直没有写文,最近代码发出来了,可以一睹为快了! 我们先说下 MAE 的任务: 简单讲:将图片 随机遮挡 , 然后复

  • BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的自我理解2022-01-14 20:59:22

    1.Abstract 论文地址:https://arxiv.org/pdf/1810.04805.pdf         Bert最近很火,主要用于表示转换器的双向解码器表示。是一个预训练的语言表征模型。以往的方法都是采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练。bert采用的是masked la

  • Attention Is All You Need2022-01-12 22:35:37

    本文告诉我们attention机制可以不仅用于联系编码器和解码器,也可以用于模型的全部部分的构筑。 arXiv:1706.03762v5 贡献小引: Equal contribution. (先驱)Jakob proposed replacing RNNs with self-attention and started the effort to evaluate this idea. (模型实现)Ashish, wi

  • Transformer 在时间序列预测中的应用2022-01-12 09:58:59

    2017年,Google的一篇 Attention Is All You Need 为我们带来了Transformer,其在NLP领域的重大成功展示了它对时序数据的强大建模能力,自然有人想要把Transformer应用到时序数据预测上。在Transformer的基础上构建时序预测能力可以突破以往的诸多限制,最明显的一个增益点是,Transfo

  • Attention Is All You Need--Transformer论文解读2022-01-11 13:02:49

    The Transformer,based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. 本文提出的Transformer网络完全基于注意力机制 未使用在序列转换模型中常用的循环卷积网络或卷积网络(序列转换模型就是类似于机器翻译 将一种语言的序列转换

  • Pytorch_net_深度学习的网络结构2022-01-11 10:04:41

    关键词 目标检测用bbox,实例分割用mask,姿态估计用keypoint bbox 用一个anchor点和指向极值点的四根向量就能确定目标框 mask 一个anchor点和指向轮廓点的n个向量确定mask keypoint 用一个anchor点和指向17个关键点点的17个向量确定pose。heatmap预测关键点的方式

  • Advancing Transformer Transducer for Speech Recognition on Large-Scale Dataset》2022-01-10 18:34:05

    本文是观看上海交通大学陈谐老师在《人机语音通信》课程的讲座的笔记,原视频链接,本文参考[3] [4]。 1 Model Overview: Transformer Transducer 语音识别发展背景: 首先是GMM-HMM:混合高斯模型作声学模型,n-gram作为语言模型,hmm做时序建模模型; 12年深度学习发展,声学模型和语言学

  • Transformer 架构逐层功能介绍和详细解释2022-01-09 12:03:03

    多年来,深度学习一直在不断发展。深度学习实践高度强调使用大量参数来提取有关我们正在处理的数据集的有用信息。通过拥有大量参数,我们可以更容易地分类/检测某些东西,因为我们有更多的可以清楚地识别的数据。 目前为止深度学习中,特别是在自然语言处理领域的一个显着里程碑是语言模

  • Transformer翻译2022-01-08 19:02:01

    仅为自己学习所用,如有错误,敬请指正。()中为看李沐老师视频所写。链接:https://www.bilibili.com/video/BV1pu411o7BE 原文链接:https://arxiv.org/abs/1706.03762 摘要: 主流的序列转录模型是基于复杂的递归或卷积神经网络,其中包括编码器和解码器。性能最好的模型还通过注意机制

  • LDCT图像重建论文——Eformer: Edge Enhancement based Transformer for Medical Image Denoising2022-01-07 12:59:07

    Eformer是进行低剂量CT图像重建的工作,它第一次将Transformer用在医学图像去噪上,ICCV2021的paper,值得一读。 知乎同名账号同步发布。 目录 一、架构和贡献二、主要细节2.1,Sobel Convolution2.2, 下采样和上采样2.3,损失函数 三、实验 一、架构和贡献 和Uformer一样,将LeWin

  • Pytorch Transformer Tokenizer常见输入输出实战详解2022-01-04 19:03:39

    Tokenizer简介和工作流程 Transformers,以及基于BERT家族的预训练模型+微调模式已经成为NLP领域的标配。而作为文本数据预处理的主要方法-Tokenizer(分词器)则成为了必不可少的工具。本篇文章以Transformers中使用的AutoTokenizer为例说明其用法。但如果实际场景中使用BERT、ALBERT

  • Swin Transformer实战目标检测:训练自己的数据集2022-01-04 19:00:19

    课程链接:Swin Transformer实战目标检测:训练自己的数据集--计算机视觉视频教程-人工智能-CSDN程序员研修院 Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。 Swin Transformer是基于Transformer的计算机视觉骨干网,在图像分类、目标检测、实例分割、语义分割等

  • Transformer代码讲解简记2022-01-04 11:32:14

      参考代码见:https://github.com/graykode/nlp-tutorial/tree/master/5-1.Transformer具体讲解视频见:https://www.bilibili.com/video/BV1dR4y1E7aL上述思维导图自创,转载需告知!

  • 超越CNN的ViT模型及其应用前景2022-01-04 10:02:02

    ©作者 | 苏菲 Transformer 模型在 NLP 领域获得了巨大的成功,以此为内核的超大规模预训练模型BERT、GPT-3 在 NLP 各个任务中都大放异彩,令人瞩目。 计算机视觉分析任务也借鉴了Transformer 模型的思想和方法,Meta公司的DETR模型中就使用 Transformer 和端到端方法实现了 CV 领域

  • CvT: 如何将卷积的优势融入Transformer2022-01-01 16:35:31

    【GiantPandaCV导语】与之前BoTNet不同,CvT虽然题目中有卷积的字样,但是实际总体来说依然是以Transformer Block为主的,在Token的处理方面引入了卷积,从而为模型带来的局部性。最终CvT最高拿下了87.7%的Top1准确率。 引言 CvT架构的Motivation也是将局部性引入Vision Transformer架构

  • GPT笔记2021-12-31 20:07:31

    GPT笔记 GPT与Transformer中解码器的结构类似。GPT由多个Transformer中的解码器块组成,与Transformer中解码器不同在于没有编码器-解码器注意力层。因此,GPT中解码器块由遮蔽自注意力层和基于位置的前馈神经网络。 模型通过语言模型方法进行学习。将原始文本与译文用特殊符号隔

  • 【自然语言处理五】Transformer模型2021-12-31 15:03:13

    1.transformer模型 Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。 2.encoder部分实现(pytorc

  • NLP-预训练模型-2019:T5【Text-to-Text 预训练模型超大规模探索】2021-12-30 23:03:31

    《原始论文:Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》 2019年10月,Google 在《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》这篇论文中提出了一个最新的预训练模型 T5(Text-To-Text Tran

  • AttributeError: ‘Vision Transformer‘ object has no attribute “‘pre_logits‘“ -- timm中类似的问题如何解决2021-12-28 12:33:40

    今天跑一份代码,出现这样的报错信息: AttributeError: 'VisionTransformer' object has no attribute "'pre_logits'" VisionTransformer这个类是timm库里面直接导入的,查看github上源代码发现VisionTransformer里确实有pre_logits这个属性。那么解决方案就是把timm更新到最新

  • 【论文阅读】TransReID: Transformer-based Object Re-Identification2021-12-28 11:03:25

    论文代码链接 论文代码链接 摘要 目标重识别的关键就是提取鲁棒的特征! 之前方法的弊端:卷积神经网络(CNN)的方法一次只处理一个局部邻域,并且由于卷积和下采样算子(如池化和跨卷积)导致细节信息丢失。 提出:纯基于transformer的目标ReID框架。  具体来说:我们首先将图像编码为一系

  • Gavin老师Transformer直播课感悟 - 基于Transformer的Rasa Internals解密之全新一代可伸缩DAG图架构(四)2021-12-27 20:32:43

            本文继续围绕工业级业务对话平台和框架Rasa来解析如何实现全新一代可伸缩DAG图架构(Directed Acyclic Graph),基于新的架构,Rasa提出了一个全新的对话机器人计算引擎。从下面这个图中,我们可以看到把NLU部分和Dialogue Policy部分的各个组件都融入到一个图里,图中每

  • 【CV Transformer 论文笔记】Intriguing Properties of Vision Transformers2021-12-27 13:31:39

    论文地址:https://arxiv.org/abs/2105.10497 项目地址:https://git.io/Js15X 这篇论文主要介绍并验证了ViT的一些有趣的特性,而且文章的组织结构是通过不断根据实验结果和猜测提出新的问题并去验证的形式,非常推荐细读。 文章主要介绍了ViT在遮挡、形状纹理偏好、对抗与自然干

  • Vision Transformer Pruning简记2021-12-26 16:34:16

    Vision Transformer Pruning简记 文章目录 Vision Transformer Pruning简记参考剪枝流程剪什么?怎么剪?回顾Transformer那么剪哪里?那么怎么剪? 实验部分作者的总结思考 参考 VIT 剪枝流程 稀疏正则训练剪枝,减去不重要的部分finetune微调 剪什么? 有关于稀疏训练虽然重要,但

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有