ICode9

精准搜索请尝试: 精确搜索
  • 使用Keras实现 基于注意力机制(Attention)的 LSTM 时间序列预测2022-10-30 13:39:48

    对于时间步的注意力机制首先我们把它git clone 到本地,然后配置好所需环境 笔者的 tensorflow版本为1.6.0 Keras 版本为 2.0.2 打开文件夹,我们主要需要的是attention_lstm.py 以及 attention_utils.py 脚本项目中生成数据的函数为def get_data_recurrent(n, time_steps, input_dim,

  • Transformer——Attention Is All You Need经典论文翻译2022-08-30 12:03:17

    转载自:Transformer——Attention Is All You Need经典论文翻译(邓范鑫——致力于变革未来的智能技术)   本文为Transformer经典论文《Attention Is All You Need》的中文翻译https://arxiv.org/pdf/1706.03762.pdf   注意力满足一切 Ashish Vaswani Google Brain avaswani@googl

  • 注意力机制的一些变体2022-08-26 10:01:08

    1. 硬性注意力机制 在经典注意力机制章节我们使用了一种软性注意力的方式进行Attention机制,它通过注意力分布来加权求和融合各个输入向量。而硬性注意力(Hard Attention)机制则不是采用这种方式,它是根据注意力分布选择输入向量中的一个作为输出。这里有两种选择方式: 选择注意力分

  • Attentional Factorization Machines: Learning the Weight of Feature Interactions via Attention Networ2022-08-22 17:31:15

    动机 本文是2017年IJCAI上的一篇论文。FM方法通过结合二阶特征交互来增强线性回归模型,它将这些特征交互一视同仁,给予它们一个相同的权重,但是并不是所有特征的交互都是有意义的,更具体的,不同的特征交互之间有不同的重要性。而FM模型忽略了这一点,这可能会带来一些噪声,本文作者提出了A

  • Transformer模块初探2022-08-18 14:33:31

    Transformer笔记 前言背景 Transformer 依赖于 Self Attention 的知识。Attention 是一种在深度学习中广泛使用的方法,Attention的思想提升了机器翻译的效果。 ​ 2017 年,Google 提出了 Transformer 模型,用 Self Attention 的结构,取代了以往 NLP 任务中的 RNN 网络结构,在 WMT 20

  • Thesis-Dual Attention Network for Scene Segmentation2022-08-13 15:30:17

    Thesis-Dual Attention Network for Scene Segmentation Dual Attention Network for Scene Segmentation DaNet.py """Dual Attention Network""" import torch import torch.nn as nn import torch.nn.functional as F from backbone

  • Word Vectors/Attention - hands on after lecture2022-07-17 14:32:05

    1. Write the co-occurrence matrix {\rm X}X for this sentence, using a 4-word context window (i.e. two context words on either side of the central word).   2. Use torch.svd() to compute the singular value decompositon of this matrix {\rm X} = {\rm USV}^

  • 10 Self-Attention(自注意力机制)2022-07-12 17:04:09

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 注意力机制 看一个物体的时候,

  • 12 Masked Self-Attention(掩码自注意力机制)2022-07-12 17:02:43

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 上节课回顾 《Attention is al

  • 11 Self-Attention相比较 RNN和LSTM的优缺点2022-07-12 17:02:03

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html RNN 无法做长序列,当一段话达

  • 13 Multi-Head Self-Attention(从空间角度解释为什么做多头)2022-07-12 17:01:03

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 上节课回顾 0:40 Attention Se

  • 深度学习模型概览2022-06-27 22:07:00

    Attention模型 Encoder-Decoder结构 ViT模型 ViT向量维度解析 Informer模型 更好的长时间序列预测 Encoder-Decoder整体结构 Encoder结构

  • Self-Attention 实例 pytorch2022-06-22 23:00:06

    BERT模型入门系列(三):Self-Attention详解 - 知乎 (zhihu.com) 读了不少书,看了不少视频,感觉这片文章最适合入门。 简洁清晰,例子好懂。 为什么需要self-attention模型?1、训练速度受限 2、处理长文本能力弱    The Illustrated Transformer – Jay Alammar – Visualizing machin

  • External-Attention-tensorflow(更新中...)(整理各种注意力机制)2022-06-21 16:02:29

    External-Attention-tensorflow(点击查看代码)

  • 【ARXIV2204】Neighborhood attention transformer2022-06-18 11:33:36

    感谢B站“秋刀鱼的炼丹工坊” 的讲解,这里的解析结合了很多多的讲解。 论文:https://arxiv.org/abs/2204.07143 代码:https://github.com/SHI-Labs/Neighborhood-Attention-Transformer 这个论文非常简单,思想其实在之前的论文里也出现过。首先看下面这个图,标准VIT的 attention 计

  • 【CVPR2022】On the Integration of Self-Attention and Convolution2022-06-18 01:32:52

    【CVPR2022】On the Integration of Self-Attention and Convolution 论文地址:https://arxiv.org/pdf/2111.14556.pdf 代码地址:https://github.com/LeapLabTHU/ACmix 卷积和自注意力是表征学习的两种强大技术,它们通常被认为是两种截然不同的对等方法。在这个论文中,作者表明它们

  • External-Attention-tensorflow(更新中)2022-06-17 16:03:30

    External-Attention-tensorflow 1. Residual Attention Usage 1.1. Paper Residual Attention: A Simple but Effective Method for Multi-Label Recognition---ICCV2021 1.2 Overview 1.3. UsageCode from attention.ResidualAttention import ResidualAttention import ten

  • 笔记:Distant supervision relation extraction with intra-bag and inter-bag attentions2022-06-12 12:36:37

    Distant supervision relation extraction with intra-bag and inter-bag attentions 来源:Ye et al.,NAACL 2019 任务:DSRE 动机:之前DSRE大多关注intra-bag即sentence-level的降噪处理,但inter-bag即bag-level之间亦可能由噪声,比如整个bag内的所有句子都标注错误了那么bag也就

  • Deep Learning Week13 Notes2022-06-08 00:34:16

    1. Attention for Memory and Sequence Translation Attention mechanisms aggregate features with an importance score that: depends on the feature themselves, not on their positions in the tensor relax locality constraints. \(\Large\text{Note:}\) The a

  • Matters Needing Attention as A SAP Freelancer2022-06-04 09:01:12

    Matters Needing Attention as A SAP Freelancer     I have been engaged in SAP consulting for more than 15 years and worked as SAP freelancer for nearly 7 years. Someone asked me what should be paid attention to when doing SAP Freelancer. In my spare time,

  • 笔记:Attention as Relation: Learning Supervised Multi-head Self-Attention for Relation Extraction2022-06-03 21:34:56

    Attention as Relation: Learning Supervised Multi-head Self-Attention for Relation Extraction 作者:Liu et al.,IJCAI 2020. 目录 简介 方法 实验 总结 1 简介 本文主要针对联合抽取中的关系重叠问题,提出一个基于attention的联合抽取模型,主要创新点还是其中核心的supervise

  • Attentional Factorization Machines: Learning the Weight of Feature Interactions via Attention Networ2022-05-26 12:33:06

    目录概主要内容Attention network细节代码 Xiao J., Ye H., He X., Zhang H., Wu F. and Chua T. Attentional factorization machines: learning the weight of feature interactions via attention networks. In International Joint Conference on Artificial Intelligence (I

  • NLP中的RNN、Seq2Seq与attention注意力机制2022-05-20 11:04:02

      RNN循环神经网络 RNN循环神经网络被广泛应用于自然语言处理中,对于处理序列数据有很好的效果,常见的序列数据有文本、语音等,至于为什么要用到循环神经网络而不是传统的神经网络,我们在这里举一个例子。 假如有一个智能订票系统,我只需要输入一句话,该系统能识别出我将在什么时间

  • MASTER: Multi-aspect non-local network for scene text recognition2022-05-16 00:32:39

    总体介绍 基于Seq2Seq的OCR改进文章,提出两个问题,encoder特征间相似度太高导致注意力不准 & RNN-based的结构需要逐个step跑效率太低: 1、 such methods suffer from attention-drift problem because high similarity among encoded features leads to attention confusion under

  • Transformer 中的 attention2022-05-08 12:03:33

    Transformer 中的 attention 转自Transformer中的attention,看完不懂扇我脸 大火的transformer 本质就是: *使用attention机制的seq2seq。* 所以它的核心就是attention机制,今天就讲attention。直奔代码VIT-pytorch: https://github.com/lucidrains/vit-pytorch/blob/main/vit_pytor

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有