ICode9

精准搜索请尝试: 精确搜索
  • Transformer在CV领域的应用与部署2021-11-07 18:32:20

    可能存在格式问题,可访问个人博客: Transformer在CV领域的应用与部署 前言Transformer介绍Transformer for CVTransformer类网络部署参考资料 前言 浅谈 Transformer 原理以及基本应用以及模型优化的一些思考。 Transformer介绍 Transformer 最早出自Google 2017年发布的论文:At

  • Transformer 中的 Positional Encoding2021-11-07 15:02:44

    最近我在学习 Transformer 结构的时候,发现其中的 positional encoding 很不好理解,尤其是其中的公式,为什么要这样设计,后来上网收集各种资料,方才理解,遂于此写一篇文章进行记录 首先你需要知道,Transformer 是以字作为输入,将字进行字嵌入之后,再与位置嵌入进行相加(不是拼接,就是单纯的对

  • 全景分割MaX-DeepLab2021-11-06 13:00:30

    摘要 MaX-DeepLab优势: 加了遮罩:基于包围框的方法是预测包围框,不用包围框的是预测遮罩 端到端,无代理子任务:直接通过transformer预测类别标签,用二匹配方法,以PQ-style loss指标训练。 最重要的transformer:引入全局memory路径,再加上原来的像素CNN路径,合成双路径结构,使得各CNN层可以直

  • 循环GCN相关2021-11-05 19:30:17

    粗读几篇循环GCN有关论文,简单进行总结 1.Understanding Human Gaze Communication by Spatio-Temporal Graph Reasoning 提出了一个时空图神经网络来明确表示社交场景中不同的注视互动,并通过信息传递来推断原子水平的注视通信。我们进一步提出了一种具有编码解码器结构的事件网

  • CVPR2021 | SETR: 使用 Transformer 从序列到序列的角度重新思考语义分割2021-11-04 16:02:02

    ​   前言  本文介绍了一篇CVPR2021的语义分割论文,论文将语义分割视为序列到序列的预测任务,基于transformer作为编码器,介绍了三种解码器方式,选择其中效果最好的解码器方式与transformer编码器组成了一个新的SOTA模型--SETR。 论文:Rethinking Semantic Segmentation from a Seque

  • CVPR2021 | SETR: 使用 Transformer 从序列到序列的角度重新思考语义分割2021-11-04 15:58:18

    前言  本文介绍了一篇CVPR2021的语义分割论文,论文将语义分割视为序列到序列的预测任务,基于transformer作为编码器,介绍了三种解码器方式,选择其中效果最好的解码器方式与transformer编码器组成了一个新的SOTA模型--SETR。 论文:Rethinking Semantic Segmentation from a Sequence-

  • Java审计——Commons Collections 迭代调用链2021-11-04 14:00:32

    0x00 前言 单独的写迭代连的调用,主要原因是因为很多Commons Collections链都是以迭代链为基础而进行进一步利用的。所以先把迭代连找出来。 顺便把Commons Collection的概述基础这些也做一个介绍。 0x01 迭代链 网上大多的文章都是先介绍Transformer等一系列使用到的类,这里我

  • 2021-11-012021-11-01 15:30:15

    transformer怎么处理语音和文本embeding维度失衡问题 Author: Xin Pan Date: 2021.10.28 想起之前的一个问题,在语音识别中其实一个很明显的问题就是输入音频提了特征(Feat)以后维度会比较高,但是文本因为就那么些字,维度会比较少。那么它们之前在decoder上是如何产生关联关系的

  • Vision Transformers for Dense Prediction 论文阅读2021-10-31 20:59:51

    研一小菜鸡一枚,刚刚入门CV领域,最近对大火的Transformer 比较感兴趣,把刚刚阅读过的一篇论文和大家分享一下,第一次写文章,如有错误,还请指正。 先放一下论文链接:https://arxiv.org/pdf/2103.13413v1.pdf Background 在阅读论文之前我们要先知道Dense prediction的定义 Dense Pred

  • sklearn——转换器(Transformer)与预估器(estimator)2021-10-29 09:34:13

    sklearn——转换器(Transformer)与预估器(estimator) 文章目录 sklearn——转换器(Transformer)与预估器(estimator)转换器 Transformerfit 与 fit_transform 与 transform值得注意的是 扒拉了下源码(可以不看这部分,看上面结论就够了) 预估器 Estimator 在我之前接触的sklearn中,有

  • DETR-端到端的目标检测框架2021-10-25 20:06:45

    论文:https://arxiv.org/abs/2005.12872 代码:https://github.com/facebookresearch/detr DETR 第一个将 Transformer 成功整合为检测 pipeline 中心构建块的目标检测框架。基于Transformers的端到端目标检测,没有NMS后处理步骤、真正的没有anchor,且对标超越Faster RCNN。 DETR

  • Transformer详解2021-10-24 00:03:06

    本文是根据台大李宏毅教授网课整理,主要是记笔记以供自己复习。 这里写目录标题 Transformer是什么应用 Seq2Seq架构详解EncoderDecoderAutoregressive(AT)Non-autoregressive(NAT) 训练exposure bias训练Seq2Seq Model的Tips1、Copy Mechanism复制机制2、Beam Search

  • 【3D 目标检测】Voxel Transformer for 3D Object Detection2021-10-23 22:30:32

    一 核心思想 本文主要是在3D backbone上用到了改进的transformer方法,以便更好的提取特征。也就是在sparse voxel module和submanifold voxel module的基础上使用transformer进行特征的提取。 提出两种attention的机制,分别为Local Attention 和 Dilated Attention。之后

  • swin transformer 总结2021-10-20 23:02:57

    1. 背景介绍 原名:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 获奖:2021 ICCV Best Paper 2.文章介绍 2.1概括 Swin Transformer 是一种新型的transformer,可以用作视觉和语言处理的统一模型 特性 - 引出了一种具有层级的特征表达方式(基于self-a

  • transformer代码笔记----decoder.py2021-10-19 20:04:49

    import torch import torch.nn as nn import torch.nn.functional as F from config import IGNORE_ID from .attention import MultiHeadAttention from .module import PositionalEncoding, PositionwiseFeedForward from .utils import get_attn_key_pad_mask, get_attn_p

  • transformer代码笔记----transformer.py2021-10-19 20:04:25

    import torch.nn as nn from .decoder import Decoder from .encoder import Encoder class Transformer(nn.Module): #定义类,继承父类nn.Module """An encoder-decoder framework only includes attention. """ def __init__(self,

  • transformer代码笔记----pre_process.py2021-10-19 20:02:56

    import os import pickle from tqdm import tqdm from config import wav_folder, transcript_file, pickle_file from utils import ensure_folder def get_data(split): print('getting {} data...'.format(split)) #对获取的数据名打印 global VOCAB #定义全局

  • Transformer学习2021-10-19 14:03:57

    Attention Is All You Need 模型结构 Encoder Encoder是有N=6层的一个整体。是这6层按顺序走下来的一个整体。 每层有两个子层。分别是多头自注意力和全连接前馈网络。 对于每个子层,先采用残差连接,后采用layer normalization \[LayerNorm(x+Sublayer(x)) \]为保证能够进行残差连

  • Hello Transformer2021-10-17 23:57:58

    文章目录 前言背景Self-Attention简述模型特点模型结构概览模型输入Embedding位置编码(`Positional Encodding`):Encoder和Decoder都包含输入模块 Encoder1. 编码器2. 编码器层注意力模块4. 多头注意力机制5. 前馈全连接层6. 规范化层7. 掩码及其作用 Decoder1. 解码器整体

  • 《Do You Even Need Attention? A Stack of Feed-Forward Layers DoesSurprisingly Well on ImageNet》论文解读2021-10-16 20:58:43

    摘要         Transformers在图像分类和其他视觉任务上的强大性能往往归功于multi-head attention layers层的设计。然而,这种强劲表现在多大程度上是由注意力引起的,目前还不清楚。在这篇简短的报告中,我们要问:注意力层有必要吗?具体来说,我们用patch dimension的前馈层替

  • 自然语言处理NLP星空智能对话机器人系列:业界动态信息分享 知识图谱学术联赛 未来杯2021-10-16 11:34:16

    自然语言处理NLP星空智能对话机器人系列:业界动态信息分享 知识图谱学术联赛 未来杯 目录 智能医疗对话系统明星图谱可视化基因表达的知识图谱展示医疗知识图谱脑血管疾病护理知识图谱星空智能对话机器人系列博客 智能医疗对话系统 明星图谱可视化

  • MS-CLIP:模式共享的对比语言-图像预训练框架2021-10-15 19:59:15

    MS-CLIP: modality-shared contrastive language-image pre-training 论文地址: 主要工作: 主要问题: 基本发现: 实验结果: 论文地址: ICLR 2022: https://openreview.net/forum?id=ROteIE-4A6W 主要工作: 现在的大规模多模态模型大都为每种模态使用单独的编码器,但是最近的研

  • 自然语言处理NLP星空智能对话机器人系列:深入理解Transformer自然语言处理 Summarizing documents with T5-large2021-10-14 20:31:21

    自然语言处理NLP星空智能对话机器人系列:深入理解Transformer自然语言处理 Summarizing documents with T5-large 目录 Summarizing documents with T5-largeCreating a summarization functionA general topic sampleThe Bill of Rights sampleA corporate law sample星空

  • Transformer2021-10-12 23:57:57

    seq2seq的模型很多,输入一排向量,输出一排向量,可以使用self-attention,rnn,cnn,而transformer使用的就是self-attention transformer结构 residualnorm (Layer Norm)

  • 自然语言处理NLP星空智能对话机器人系列:深入理解Transformer自然语言处理 Training a GPT-2 language model2021-10-09 22:02:17

    自然语言处理NLP星空智能对话机器人系列:深入理解Transformer自然语言处理 Training a GPT-2 language model 目录 GPT模型简介Training a GPT-2 language modelStep 1: Prerequisites星空智能对话机器人系列博客 GPT模型简介 生成式预训练转换器(GPT)是由OpenAI团队构建的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有