ICode9

精准搜索请尝试: 精确搜索
  • Transformer课程第33章:过滤掉sequential redundancy对Transformer模型Funnel-Transformer架构及完整源码实现2021-11-27 16:31:35

    1,Transformer网络中的redundancy 产生的本质原因剖析 2,不同类型pooling operation数学原理解析 3,对sentence进行single-vector presentation不同类型实现技术解析 4,对Transformer的hidden states的处理方式分析 5,对reduced hidden sequence的进行原始状态恢复实现技术及数学原理

  • Transformer课程 第36章Transformer模型Luke架构2021-11-27 10:07:10

    第36章:基于entity-aware self-attention的Transformer模型Luke架构内幕及完整源码实现 1,实现contextualized entity representations的技术分析 2,实现contextualized entity representations数学原理分析 3,entity-aware self-attention mechanism数学原理分析 4,在计算的时候

  • Transformer课程 第37章Transformer模型MobileBERT架构2021-11-27 10:06:37

    第37章:可运行在终端设备的Transformer模型MobileBERT架构内幕及完整源码实现 1,Compact BERT on resource-limited设备上 2,teacher model数学原理解析 3,MobileBertTokenizer源码完整实现分析 4,load_tf_weights_in_mobilebert源码完整实现分析 5,NoNorm源码完整实现分析 6,Mobile

  • Transformer课程 第38章Transformer模型MPNet架构2021-11-27 10:05:58

    第38章:融合MLM和PLM的Transformer模型MPNet架构内幕及完整源码实现 1,masked language modeling(MLM)数学原理和实现分析 2,permuted language modeling (PLM)数学原理和实现分析 3,为何MPNet为何能够缓解position discrepancy (vs. PLM in XLNet)? 4,BasicTokenizer源码完整实现

  • Transformer课程 第30章Transformer模型DeBERTa架构2021-11-27 09:59:51

    第30章:使用disentangled attention机制Transformer模型DeBERTa架构内幕及完整源码实现 1,使用两个vector来编码每个word的content和position 2,在pretraining阶段使用output enhanced mask decoder取代softmax layer对masked words预测的数学原理剖析 3,DebertaEmbeddings完整源

  • Transformer课程 第31章 QA问答Transformer模型Dense Passage Retrieval (DPR)2021-11-27 09:58:59

    第31章:基于dual-encoder机制的开发QA问答Transformer模型Dense Passage Retrieval (DPR)架构内幕及完整源码实现 1,基于open-domain Q&A常见实现及问题分析 2,sparse vector space问题及解决方案 3,Dense vector及dual-encoder架构设计 4,小规模数据训练任务有效性数学原理剖析 5

  • Transformer课程 第32章Transformer模型FNet架构2021-11-27 09:58:15

    第32章:基于Fourier Transform的Transformer模型FNet架构内幕及完整源码实现 1,BERT中Attention本质和功能再思考 2,fourier transform数学原理剖析 3,使用fourier transform取代self-attention layer 4,为什么采用fourier transform会fewer parameters及more memory efficient? 5,f

  • Optimizing Deeper Transformers on Small Datasets翻译2021-11-23 13:59:06

    摘要 从头开始训练深层 transformers需要大型数据集是一个普遍观点。因此,对于小型数据集,人们通常在微调期间,在预训练模型上使用较浅和简单的额外层。本项工作表明,这种情况并不是常见的:只需通过正确的初始化和优化,非常深的transformers的优势就可以转移到具有小型数据集的小型

  • 自然语言处理NLP星空智能对话机器人系列:理解语言的 Transformer 模型-子词分词器2021-11-23 13:02:53

    自然语言处理NLP星空智能对话机器人系列:理解语言的 Transformer 模型 本文是将葡萄牙语翻译成英语的一个高级示例。 目录 安装部署 Tensorflow设置输入pipeline从训练数据集创建自定义子词分词器subwords tokenizer如果单词不在词典中,则分词器(tokenizer)通过将单词分解为子

  • Transformer2021-11-21 23:04:59

    胡乱写的!!!!!! 目录 一、初探Encoder-Decoder 1.Encoder 2.回到transformer的图 二、Decoder – Autoregressive (AT) 1、Decoder内部结构 1)带Masked的MHA 三、Decoder – Non-autoregressive (NAT) 四、Encoder-Decoder 五、Training 六、训练的Tips 一、初探Encoder-Decoder 一

  • ICCV2021 | Vision Transformer中相对位置编码的反思与改进2021-11-20 17:33:08

    ​前言   在计算机视觉中,相对位置编码的有效性还没有得到很好的研究,甚至仍然存在争议,本文分析了相对位置编码中的几个关键因素,提出了一种新的针对2D图像的相对位置编码方法,称为图像RPE(IRPE)。 本文来自公众号CV技术指南的论文分享系列 关注公众号CV技术指南 ,专注于计算机视觉的

  • Swin Transformer2021-11-18 23:33:54

    论文链接:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows Introduction 目前Transformer应用到图像领域主要有两大挑战: 视觉实体变化大,在不同场景下视觉Transformer性能未必很好 图像分辨率高,像素点多,Transformer基于全局自注意力的计算导致计算量较大

  • ICCV2021 | TransFER:使用Transformer学习关系感知的面部表情表征2021-11-18 20:32:42

    ​  前言  人脸表情识别(FER)在计算机视觉领域受到越来越多的关注。本文介绍了一篇在人脸表情识别方向上使用Transformer来学习关系感知的ICCV2021论文,论文提出了一个TransFER模型,在几个FER基准数据集上取得了SOTA性能。   本文来自公众号CV技术指南的论文分享系列 关注公众号C

  • Swing Transform学习2021-11-18 13:34:32

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、Swing-Transform1.1 网络架构1.2 论文思路1.3 亮点和总结 前言 提示:这里可以添加本文要记录的大概内容: 例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器

  • 中文NER的那些事儿5. Transformer相对位置编码&TENER代码实现2021-11-18 08:31:18

    这一章我们主要关注transformer在序列标注任务上的应用,作为2017年后最热的模型结构之一,在序列标注任务上原生transformer的表现并不尽如人意,效果比bilstm还要差不少,这背后有哪些原因? 解决这些问题后在NER任务上transformer的效果如何?完整代码详见ChineseNER Transformer水土不服

  • NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)One Architecture, One Course,One Universe2021-11-14 22:01:40

    本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等方面融汇贯通NLP领域NLU、NLI、NLG等所有核心环节,同时会具备独自开发业界领先智能业务对话机器人的

  • 星空智能对话机器人的Gavin认为Transformer是拥抱数据不确定性的艺术2021-11-14 18:31:51

    Transformer的架构、训练及推理等都是在Bayesian神经网络不确定性数学思维下来完成的。Encoder-Decoder架构、Multi-head注意力机制、Dropout和残差网络等都是Bayesian神经网络的具体实现;基于Transformer各种模型变种及实践也都是基于Bayesian思想指导下来应对数据的不确定性;混

  • Transformer XL源码实现2021-11-14 17:33:17

    1,人工智能中最重要的公式之一MLE数学本质剖析及代码实战 2,Language Model的数学原理、Chain Rule剖析及Sparsity问题 3,Markov Assumption:first order、second order、third order剖析 4,Language Model:unigram及其问题剖析、bigram及依赖顺序、n-gram 5,使用Unigram训练一个Langua

  • 自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101 GavinNLP星空对话机器人Transformer课程片段1:Transformer架构内部的等级化结构及其2021-11-14 11:01:55

    自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101 GavinNLP星空对话机器人Transformer课程片段1:Transformer架构内部的等级化结构及其在NLP中的应用内幕 GavinNLP星空对话机器人Transformer课程片段1 Transformer架构内部的等级化结构及其在NLP中的应用内幕:该

  • attention, transformer2021-11-11 16:05:08

    这啥呀,慢慢啃 最初来源于 NLP 机器翻译的 Sequence to Sequence 模型,早先的encoder-decoder结构随着句子长度增加翻译性能会下降,因为模型记不住太长的句子。人类翻译的直观的感觉是看一部分翻译一部分,只关心要翻译的那一小部分,这个就是attention的原理。而transformer是基于attent

  • Transformer-Based Attention Networks for Continuous Pixel-Wise Prediction 基于Transformer注意力网络连续像素级与估计2021-11-10 15:00:59

    仅作学习交流~包含重点翻译,要点归纳,部分扩展 论文地址 GitHub - ygjwd12345/TransDepth: Code for Transformers Solve Limited Receptive Field for Monocular Depth Prediction 目录 1 摘要 2 介绍  3 相关工作 4 核心 TransDepth AGD 5 实验结果-数据集  6.实验结果评估

  • AMiner推荐论文:HRViT: Multi-Scale High-Resolution Vision Transformer2021-11-09 16:05:53

    论文链接: https://www.aminer.cn/pub/6181fdcc5244ab9dcb7a6711?f=cs 密集预测视觉任务,如语义分割、目标检测,是现代智能计算平台(如AR/VR设备)的关键技术。卷积神经网络的发展非常迅速,在密集预测任务方面有了显著的改进。除了传统的CNN外,近期的ViTs也已经吸引了研究者广泛的

  • 自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101第二章2021-11-09 12:31:28

    自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101 第二章 NLP on Transformers 101 (基于Transformer的NLP智能对话机器人实战课程) One Architecture, One Course,One Universe 本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工

  • Spatial Transformer Network实现2021-11-08 16:59:20

    import torch import torch.nn as nn import torch.nn.functional as F class SpatialTransformer(nn.Module): def __init__(self): super().__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5) self.conv2 = nn.Conv2d(10, 20, kerne

  • [Transformer]Segtran:Medical Image Segmentation Using Squeeze-and-Expansion Transformers2021-11-07 20:00:08

    SegTran:基于Squeeze-Expansion的Transformer用于医学图像分割 AbstractSection I IntroductionSection II Related WorkSection III Squeeze-and-Expansion TransformerPart 1 Squeezed Attention Block
IPart 2 Expanded Attention Block Section IV Segtran Architectur

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有