ICode9

精准搜索请尝试: 精确搜索
  • Transformer2021-12-24 16:05:19

    https://zhuanlan.zhihu.com/p/338817680 前言 Transformer由论文《Attention is All You Need》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。 在本

  • ViT (Vision Transformer) ---- Seq2Seq2021-12-23 22:05:06

    对于seq2seq模型,网上很多文章直接就把抽象模型拿出来,这样对初学者很不友好,这里采用例子进行阐述,最后在通过抽象模型理解 英语翻译成德语 这个网站有很多的数据集 Tokenization 和创建字典 Tokenization 因为是翻译任务,因此需要构建两个input_texts和两个target_texts,即如下:

  • ViT (Vision Transformer) ---- Text Generation(文本生成器)2021-12-23 21:03:40

    使用RNN对文本预测 假如输入的文本是:the cat sat on the ma     那么下一个字符什么呢?   这里采用的是many to many模型,如下: 此时模型的输出字符概率为: 如何训练RNN模型? 如上一段英语文字,我们采用分割的方法,这里采用输入的长度为40,滑动距离为3,即从开始到第40个字符用作

  • ViT (Vision Transformer) ---- RNN2021-12-22 23:02:23

    1.one to one 模型 如何对时序数据建模? 人类大脑在阅读时,并不是把一段文字看完在思考,而是边思考变阅读,随着看完后就积累了整段文字的大意,因此处理时序数据就不能使用one to one 模型 什么是one to one模型?   一个输入对应一个输出,例如输入一张图片,输出类别概率值,one to one 适

  • BERT预训练模型(Bidirectional Encoder Representations from Transformers)-原理详解2021-12-21 15:31:02

    Bert: BERT(Bidirectional Encoder Representations from Transformers)近期提出之后,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点: 使用了Transformer [2]作为算法的主要框架,Transform

  • 你认为CNN的归纳偏差,Transformer它没有吗?2021-12-21 14:58:36

    ©作者 |小欣 01 简介 最近,为了解决卷积神经网络的一些普遍存在的缺点,如对于上下文信息的建模差、全局信息理解差等缺点,有研究者开发了Vision Transformer和MLP-based模型。 虽然在视觉领域中使用了Transformer和Self-Attention解决了一些CNN模型存在的缺陷,同时也具有一定的创新

  • 专访 Swin Transformer 作者胡瀚:面向计算机视觉中的「开放问题」 原创2021-12-21 11:01:35

    文 | 刘冰一、Echo 编辑 | 极市平台 本文原创首发于极市平台,转载请获得授权并标明出处。 胡瀚,湖北潜江人,本博均毕业于清华大学自动化系,曾就职于百度研究院深度学习实验室,目前任职于微软亚洲研究院视觉计算组。近期他和团队的“ Swin Transformer:Hierarchical Vision Transfo

  • Transformer+Embedding+Self-Attention原理详解2021-12-21 09:02:20

    Transformer: 编码器:多头的self-Attention + 残差 + 前馈神经网络 + 残差 解码器:多头遮蔽的self-Attention + 残差 + 前馈 + 残差 + encoder-decoder Attention + 残差 encoder-decoder Attention就是一个普通的Attention是判断编码的输出C和当前翻译的一个Attention关系的。因此

  • swin transformer 核心代码记录2021-12-20 16:03:19

    目前更新部分包括swin的基本setting,基本模块,相对位置坐标理解和部分代码展示。 swin 包含了四种setting,依次是tiny,small, base 和 large。可以类比resnet。 Swin-b 主体部分网络结构 BasicLayer 结构展示 BasicLayer( (blocks): ModuleList( (0): SwinTransforme

  • Transformer学习笔记2021-12-14 00:00:18

            Transformer 这一概念是在论文Attention is All You Need 中提出,感兴趣的可以通过链接阅读原文。这篇文章主要讲讲我对Transformer这个模型学习的理解。 什么是Transformer?         Transformer可以理解为一个黑盒,我们将一段序列输入模型,经过Transform

  • Gavin老师Transformer直播课感悟 - 基于Retrieval的具有Fine-grained架构的对话系统(二)2021-12-10 20:30:20

    一、Related work介绍         最近的研究多集中于在基于retrieval的多轮对话系统中,当一个包含多轮对话的上下文被提供时,系统应该如何选择最合适的响应,如使用BERT对上下文序列进行编码,产生一个dense vector,然后把这个vector同一组可选响应的矩阵进行相乘,比较它们的相关

  • AI 2021 年度报告2021-12-10 06:02:00

    建议大伙有空还是自己亲自读一下,虽然有点长,188页ppt。 https://docs.google.com/presentation/d/1bwJDRC777rAf00Drthi9yT2c9b0MabWO5ZlksfvFzx8/edit#slide=id.gef9b05119a_0_288   很多诸如deepmind在生物医学方面的突破什么的,大家自己也能总结出来,但总体上信息量还是比较大的

  • 【论文笔记】Vedio Transformer Network2021-12-09 15:02:28

    论文地址:https://arxiv.org/abs/2102.00719 1 VTN的作用 1.1 提出问题 视频识别任务过度依赖卷积网络 处理时间维度的基本方法是使用3D卷积网络 存在计算量过大的问题 基于transformer的模型在处理长视频序列时受到限制,因为自我注意操作每层复杂度为

  • ViT论文解读2021-12-07 16:33:14

    ViT论文解读 本文主要记录Yi Zhu大佬对于ICLR 2021的一篇论文精读 AN IMAGE IS WORTH 16x16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE 论文地址:https://arxiv.org/pdf/2010.11929.pdf 源码地址:https://github.com/google-research/vision_transformer 标题部分

  • 课程九学习笔记: 自监督ViT算法:BeiT和MAE2021-12-07 10:58:35

    课程九学习笔记: 自监督ViT算法:BeiT和MAE 1. SSL在NLP中的应用: 2. Bert 3. BeiT 4. MAE:Masked Autoencoders Are Scalable Vision Learners 5. 实践:Config配置和实验分开进行 自监督+ Transformer 1. SSL在NLP中的应用: Self-Supervised Learning (SSL):通过自己“监

  • Swin Transformer实战:使用 Swin Transformer实现图像分类。2021-12-06 13:00:41

    Swin Transformer简介 目标检测刷到58.7 AP! 实例分割刷到51.1 Mask AP! 语义分割在ADE20K上刷到53.5 mIoU! 今年,微软亚洲研究院的Swin Transformer又开启了吊打CNN的模式,在速度和精度上都有很大的提高。这篇文章带你实现Swin Transformer图像分类。 资料汇总 论文: https://arx

  • Swin Transformer: Hierarchical Vision Transformer using Shifted Windows2021-12-04 19:04:51

    论文:https://arxiv.org/abs/2103.14030 代码:https://github.com/microsoft/Swin-Transformer 论文中提出了一种新型的Transformer架构(Swin Transformer),其利用滑动窗口和分层结构使得Swin Transformer成为了机器视觉领域新的Backbone,在图像分类、目标检测、语义分割等多种机器

  • 读论文——ViT(Transformer跨界CV)2021-12-03 19:02:01

    第一遍 标题 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale 作者 Alexey Dosovitskiy 谷歌研究院 大脑团队 摘要 目前位置,注意力机制在计算机视觉中使用得不够充分在图片分类任务上,用于图片块序列的纯transformer框架可以表现更好通过在大

  • [Transformer]Is it Time to Replace CNNs with Transformers for Medical Images?2021-12-03 11:59:36

    医学图像中Transformer可以取代CNN了吗? AbstractSection II Related WorkSection III MethodsSection IV ExperimentsAre random initialized transformers useful?Does pretraining transformers on ImageNet work in the medical domain?Do transformers benefit from se

  • TENER: Adapting Transformer Encoder for Named Entity Recognition2021-12-02 21:03:17

    论文地址:​​​​​​https://arxiv.org/pdf/1911.04474.pdf         代码地址:GitHub - fastnlp/TENER: Codes for "TENER: Adapting Transformer Encoder for Named Entity Recognition"         Transformer编码器用于命名实体识别。来自复旦大学邱锡鹏团队。  

  • The Right to Talk:An Audio-Visual Transformer Approach论文翻译以及个人理解2021-11-30 17:01:40

    抱歉,鉴于本人太懒,不想调格式换成md文件,要使用什么转换的好方法可以留言告诉我哦,要原文的话私聊我

  • 【Transformer养猪】Livestock Monitoring with Transformer2021-11-28 23:34:22

    对牲畜行为的跟踪有助于在现代动物饲养场及早发现并预防传染病。除了经济收益,这将减少畜牧业中使用的抗生素数量,否则这些抗生素将进入人类的饮食,加剧抗生素耐药性的流行,这是导致死亡的主要原因。我们可以使用大多数现代农场都有的标准摄像机来监控牲畜。然而,大多数计算机视觉算

  • ICCV2021 | Swin Transformer: 使用移位窗口的分层视觉Transformer2021-11-28 15:31:22

    ​  前言  本文解读的论文是ICCV2021中的最佳论文,在短短几个月内,google scholar上有388引用次数,github上有6.1k star。   本文来自公众号CV技术指南的论文分享系列 关注公众号CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。 ​ 论文: Swin Transforme

  • transformer面试题总结101道题2021-11-28 11:00:53

    1 ,请阐述 Transformer 能够进行训练来表达和生成信息背后的数学假设,什么数学模型 或者公式支持了 Transformer 模型的训练目标?请展示至少一个相关数学公式的具体推 导过程。 2 , Transformer 中的可训练 Queries 、 Keys 和 Values 矩阵从哪儿来? Transformer

  • 模型集成和级联2021-11-28 11:00:03

    刚才看到一个链接,讲的是两个小模型就能吊打大模型!北大校友、谷歌华人一作「模型集合」,CNN、Transformer都适用!。里面写了怎么既要用集成模型,又要减低计算量的事情,主要分 级联 和 集成。所以记录下来,以后再研究。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有