ICode9

精准搜索请尝试: 精确搜索
  • 论文阅读笔记(四十三)【AAAI2020】:Rethinking Temporal Fusion for Video-based Person Re-identificationon Semantic2020-06-21 17:51:56

    Introduction 作者认为之前提出的网络忽视了不同阶段的特征差异,新提出了一个同时考虑时间、语义信息的网络框架。在时间维度采用了注意力机制,之前的方法都是将每一帧看成独立的个体提取注意力得分,但作者考虑了帧与帧之间的关系信息;在语义维度采用了CNN多层特征融合的策略   Meth

  • 人工智能AI:TensorFlow Keras PyTorch MXNet PaddlePaddle 深度学习实战 part12020-06-14 11:04:38

    日萌社 人工智能AI:TensorFlow Keras PyTorch MXNet PaddlePaddle 深度学习实战 part1 人工智能AI:TensorFlow Keras PyTorch MXNet PaddlePaddle 深度学习实战 part2 C/C++ 笔记、Python 笔记、JavaWeb + 大数据 笔记 tensorflow 2.0 函数详解 Numpy 相关函数详解 pandas 相关

  • 交通事故风险预测——《TA-STAN: A Deep Spatial-Temporal Attention Learning Framework...》2020-04-26 11:04:47

    一、文章信息 《TA-STAN: A Deep Spatial-Temporal Attention Learning Framework for Regional Traffic Accident Risk Prediction 》 西南交通大学2019年发表在“International Joint Conference on Neural Networks ”上的一篇文章。 二、摘要 交通事故风险的准确高效预

  • 详解深度学习中“注意力机制”2020-04-21 20:07:54

    前言 本文翻译自《Attention?Attention!》 最近几年,注意力——在深度学习社区中,已然成为最广为流行的概念和实用工具。在这篇博客里,我们将一起回顾它是如何被“发明”出来的,以及引申出来的各种变种和模型,如 transformer和SNAIL。 目录 Seq2Seq问题所在 为”翻译“而生 定义 注

  • 自注意力学习笔记2020-03-15 12:04:15

    一个多月以前看了看,现在有些记不清了,大体回忆一下,先写一部分。   http://jalammar.github.io/illustrated-transformer/   要想搞明白,最快速的方法,不是看网上乱七八糟的介绍,直接看上面的链接。用心点,很快读完,基本就掌握自注意力了。 先说我看的时候一个疑惑, 就说这张图吧,Wq和

  • 技术干货分享,万字长文深度解读机器翻译2020-03-09 16:00:14

    编者按 在“机器翻译是如何炼成的(上)”的文章中,我们回顾了机器翻译的发展史。在本篇文章中,我们将分享机器翻译系统的理论算法和技术实践,讲解神经机器翻译具体是如何炼成的。读完本文,您将了解: 神经机器翻译模型如何进化并发展成令NLP研究者万众瞩目的Transformer模型; 基于Tr

  • 注意力机制+软阈值化=深度残差收缩网络2020-03-09 10:53:16

    顾名思义,深度残差收缩网络是由“残差网络”和“收缩”两个部分所组成的,是“残差网络”的一种改进算法。 其中,残差网络在2016年获得了ImageNet图像识别竞赛的冠军,目前已成为深度学习领域的基础网络;“收缩”就是“软阈值化”,是许多信号降噪方法的核心步骤。 深度残差收缩网络也是一

  • 计算机视觉中的注意力机制2020-03-03 09:10:22

    计算机视觉中的注意力机制 历史背景 Attention机制在近几年来在图像,自然语言处理等领域中都取得了重要的突破,被证明有益于提高模型的性能。Attention机制本身也是符合人脑和人眼的感知机制。 简介 Attention机制,便是聚焦于局部信息的机制,比如图像中的某一个图像区域。随着任务

  • 百分点认知智能实验室出品:机器翻译是如何炼成的(下)2020-02-28 17:03:34

    编者按 在“机器翻译是如何炼成的(上)”的文章中,我们回顾了机器翻译的发展史。在本篇文章中,我们将分享机器翻译系统的理论算法和技术实践,讲解神经机器翻译具体是如何炼成的。读完本文,您将了解: 神经机器翻译模型如何进化并发展成令NLP研究者万众瞩目的Transformer模型; 基于Tr

  • SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning2020-02-28 12:53:08

    题目:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning 作者: Long Chen等(浙大、新国立、山大) 期刊:CVPR 2017 1       背景   注意力机制已经在自然语言处理和计算机视觉领域取得了很大成功,但是大多数现有的基于注意力的模型只考

  • 注意力机制-《动手学深度学习pytorch》2020-02-25 18:02:27

    引入注意力机制原因 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。 然而RNN机制实际中存在长程梯度消失的问题,对于较长的句子,我们很难寄希望于将输入的序列转化为定长的向量而保存所有的有效信息,所以随着所需翻译

  • End-to-End Multi-Task Learning with Attention(CVPR2019)2020-02-21 11:50:59

    Multi-Task Attention Network(MTAN)--包含全局特征池的共享网络、每个任务的软注意模块 优点:可以端到端训练、可以建立在任意前馈神经网络上、实现简单、参数效率高 背景: 与标准的单任务学习相比,在成功学习到共享表示的同时训练多任务有两个主要的挑战: 1)网络结构(如何共享): 多任务

  • 动手学深度学习 Task4 笔记2020-02-19 21:42:35

    机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 2.15-2.19 一、机器翻译及相关技术 定义: 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序

  • TRs2020-02-19 21:40:47

    Transformer 回顾一下主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(RNNs): CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。 为了整合CNN和RNN的优势,[Vaswani et al., 2017] 创新性地使用注意力

  • 动手学深度学习task42020-02-19 19:04:54

    机器翻译 与seq2seq 由于机器翻译任务中输入输出都是不定长序列,我们可以使用编码器—解码器(encoder-decoder)或者seq2seq模型 。 注意力机制 attention模仿人类注意力,能让模型更关注数据的局部。 点赞 收藏 分享 文章举报 我是飞行模式 发

  • 机器翻译及相关技术&&注意力机制和Seq2seq模型&&Transformer2020-02-19 16:03:11

    一.机器翻译及相关技术 1.1 机器翻译(MT): 将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.2 Encoder-Decoder encoder:输入到隐藏状态 decoder:

  • 注意力机制和Seq2seq模型2020-02-19 15:07:38

    注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种

  • 注意力机制与Seq2seq模型2020-02-19 15:01:26

    注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种

  • 解释与注意:用于视觉问答的一场获得注意的两人游戏模型《Explanation vs Attention: A Two-Player Game to Obtain Attention for VQA》2020-01-30 12:40:02

    目录 一、文献摘要介绍 二、网络框架介绍 三、实验分析 四、结论 这是视觉问答论文阅读的系列笔记之一,本文有点长,请耐心阅读,定会有收货。如有不足,随时欢迎交流和探讨。 一、文献摘要介绍 In this paper, we aim to obtain improved attention for a visual question answering

  • 逃离人群2020-01-26 13:36:43

    写在前面:我不喜欢被人关注 所以有时你就当没看见吧。 害!这估计以后会发展成为一个抑郁症写的博客吧。这里全是喃喃细语。不过也许也不会得抑郁,毕竟生命珍贵,生活还很美好,前方还有很多事要做 今年过年不太平啊,从大年三十开始就天天和我爸吵架。 然后我妈有时候会在一旁哭 然后我

  • Transformer、多头自注意力机制论文笔记:Attention is all you need2020-01-22 10:04:19

    论文原文 论文中心思想:提出了一种只使用注意力机制的模型,模型中没有结合任何RNN或CNN,通过encoder--decoder的模型实现出了一种强力有效的模型。   引言与背景 在注意力机制诞生后,诞生了多种改进的模型,但是这些模型一般都是把注意力机制与循环神经网络结合(包括一些改良的,如LSTM

  • attention2020-01-21 21:04:46

    由上式可以看到,对于Attention机制的整个计算过程,可以总结为以下三个过程: 根据 Query 与 Key 计算两者之间的相似性或相关性, 即 socre 的计算。 通过一个 softmax 来对值进行归一化处理获得注意力权重值, 即 [公式] 的计算。 通过注意力权重值对value进行加权求和, 即 [公式]

  • ReID DAY42020-01-09 22:00:30

    来到了第四天了,今天看的部分实在有太多问题了...一些词找了好久也没有相关的解释,以及还有一些有意思的词也跟前面的文章串联在了一起,只不过换了一些比较新的词,但往后挖会发现在18年时有很多很好的模型出现了,创新和学习果然无止境呐。 扎扎实实地夯实基础。奥力给puq! 今日更博:论

  • 你会思考吗2019-12-09 22:02:01

    《Beyond Feelings:A Guide to Critical Thinking》的应用练习之我的答案。第一章-Who are you?的应用练习1、做一个简单的像本章所描述的注意力转移研究。录下一个为时半个小时的节目。然后倒带播放两次,第一次数一下节目中商业广告以外的切换次数,第二次只数一下商业广告的切换次数

  • Paper | Attention Is All You Need2019-11-30 23:01:56

    目录 1. 动机详述 2. 相关工作 3. 转换器结构 3.1 注意力机制详解 3.1.1 放缩的点积注意力机制 3.1.2 多头注意力机制 3.2 全连接网络 3.3 编码位置信息 【这是一篇4000+引用的文章。博主虽然不做NLP,但还是很感兴趣。当然,博主对本文的理解和翻译非常生涩】 动机:注意力机制

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有