ICode9

精准搜索请尝试: 精确搜索
  • 以小25倍参数量媲美GPT-3的检索增强自回归语言模型:RETRO2022-03-03 17:00:22

    ©NLP论文解读 原创•作者 | 吴雪梦Shinemon 研究方向 | 计算机视觉 导读说明: 一个具有良好性能的语言模型,一定量的数据样本必不可少。现有的各种语言模型中,例如GPT3具有1750亿的参数量,前不久发布的源1.0单体模型参数量达2457亿,DeepMind团队一起新发布的语言模型Gopher[1]也具有

  • NLP(第二章)— 机器翻译2022-03-03 15:30:24

    前言 从这一部分开始我们将进入到NLP的具体任务环节,首先我们来讲解下机器翻译任务。 一、 机器翻译简介 1. 任务定义 机器翻译任务旨在将文本从一种源语言 (Source Language) 翻译到另一种目标语言 (Target Language)。 2. 发展历史 机器翻译的发展历史包括以下四个阶段:基于

  • DENSELY CONNECTED MULTI-STAGE MODEL WITH CHANNEL WISE SUBBANDFEATURE FOR REAL-TIME SPEECH ENHANCEME2022-02-25 19:01:49

    [ICASSP 2021] Motivation 单通道语音增强有两个实际问题尚未得到解决。首先,很难在增强质量和计算效率之间取得平衡,而低延迟总是会带来质量的损失。其次,在特定场景下的增强,如唱歌和情感言语,也是传统方法中的一个复杂问题。本文提出了一种计算效率高的具有密集连接的多级结构的

  • 对比学习论文(持续更新)2022-02-05 18:35:16

    最近老板让我去读对比学习的论文,我断断续续读了一些。在这里对读到的文章做一下整理,因为考试和假期这些论文也是比较久之前读的了,难免有所不足,请见谅。 目录EMNLP 2021-SimCSE: Simple Contrastive Learning of Sentence EmbeddingsACL-2021-ConSERT: A Contrastive Framework fo

  • netty解码器分析和记录2022-02-02 20:03:29

    目录netty半包处理器分析netty验证demo如下验证粘包和拆包验证客户端一个字节一个字节写netty解码总结netty Channel累积缓冲区cumulation为什么netty不适合传输文件为什么dubbo不适合传输问题件为什么http适合传输文件 工作中使用netty,主要是扩展ChannelHandler,其中避免不了要对

  • autoencoders and variational autoencoders (变分自动编码器)2022-01-29 15:02:06

    一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度。因为空间的维数越小,计算速度越快,但生成的图像质量越差。 2.autoencoder=encoder+decod

  • Transformer论文翻译2022-01-27 18:00:21

    Attention Is All You Need word版本 需要word版本的点赞,收藏,评论邮箱哦,整理不易,谢谢大家! 摘要 主流的序列转换模型基于复杂的卷积神经网络或循环神经网络、包括编码器和解码器。且性能好的模型往往需要注意力层连接编码器和解码器。我们提出了一个新型神经网络架构——Tra

  • 语音识别-初识2022-01-26 11:00:10

    ASRT https://blog.ailemon.net/2018/08/29/asrt-a-chinese-speech-recognition-system/ASR-Automatic Speech Recognition &&&&&&&&&& Paddle Speech 涉及数据集:Aishell, wenetspeech, librispeech… 涉及方法: ① DeepSpeech2: End-to-End Sp

  • 2021/9/28 学习汇报总结(UNet;UNet++;CT影像)2022-01-21 12:33:13

    2021/9/28 学习汇报总结 U-Net github地址 解决什么问题? 医学图像的分割对小数据集十分友好 U-Net使用的方法? 整体结构就是先编码(下采样), 再解码(上采样),回归到跟原始图像一样大小的像素点的分类。 继承FCN的思想,继续进行改进。但是相对于FCN,有几个改变的地方,U-Net是完全对

  • 关于Transformer的理解2022-01-17 22:31:47

    结合李宏毅老师机器学习2021——Transformer课程和网上查阅的资料,总结一下对Transformer的理解 Transformer是什么? 从宏观角度来看,Transformer是一种基于Self-Attention机制的Seq2seq模型(序列模型),由编码器和解码器组成(自己总结的)。所以在学习Transformer前,需要先弄明白Seq2se

  • Transformer翻译2022-01-08 19:02:01

    仅为自己学习所用,如有错误,敬请指正。()中为看李沐老师视频所写。链接:https://www.bilibili.com/video/BV1pu411o7BE 原文链接:https://arxiv.org/abs/1706.03762 摘要: 主流的序列转录模型是基于复杂的递归或卷积神经网络,其中包括编码器和解码器。性能最好的模型还通过注意机制

  • GPT笔记2021-12-31 20:07:31

    GPT笔记 GPT与Transformer中解码器的结构类似。GPT由多个Transformer中的解码器块组成,与Transformer中解码器不同在于没有编码器-解码器注意力层。因此,GPT中解码器块由遮蔽自注意力层和基于位置的前馈神经网络。 模型通过语言模型方法进行学习。将原始文本与译文用特殊符号隔

  • windows10视频缩略图不显示怎么办?2021-12-29 21:05:30

    依次尝试下述方法即可: 1.取消“始终显示图标,从不显示缩略图”选项 打开 查看 中的 选项 进入“文件夹选项”对话框,将“始终显示图标,从不显示缩略图”的勾去掉 2.下一个解码器 若本就没有勾选,但还看不见缩略图,说明解码器出问题了,下一个解码器,比如Advanced Codecs、K-Lite_Codec

  • 注意力机制2021-12-29 20:02:18

    注意力机制 这是Dzmitry Bahdanai等人在2014年的突破性论文中的核心思想。他们介绍了一种技术,该技术允许编码器在每个时间步长中专注于适当的单词(由编码器编码)。例如,在编码器需要输出单词'lait'的时间步长上,它会把注意力集中在单词'milk'上。这意味着从输入单词到其翻译的路径变短

  • Potplayer+Lav Filters+madVR配置教程2021-12-29 02:05:32

    Potplayer是个人比较喜欢用的播放器,主要原因是在基础功能、性能相同的情况下,相较于MPC-BE有着更加美观的界面,更加人性化。 Lav Filters包含分离器Lav Splitter、视频解码器Lav Video decoder 以及音频解码器Lav Audio decoder,拥有比较全面高效的分离解码功能,设置界面清晰、一目了

  • Masked Autoencoders2021-12-28 09:02:53

    研究背景 我们之前介绍了 ViT(传送门),在 ViT 模型中我们也知道了他想要有超过 CNN 的效果的话就需要在超大数据集上进行预训练,在 ImageNet 1K 的效果其实并没有 ResNet 好。这样的话,如果我们需要重新对 ViT 进行训练的话,他的效率是不高的。于是这篇 MAE 在 ViT 的方法上进行了

  • ICLR 2020 |《Multi-Scale Representation Learning For Spatial Feature Distributions Using Grid Cells》2021-12-24 10:33:16

    ICLR 2020 | 《Multi-Scale Representation Learning For Spatial Feature Distributions Using Grid Cells》 链接:https://arxiv.org/abs/2003.00824 1.摘要 无监督文本编码模型(Unsupervised text encoding models)推动了自然语言处理(NLP)领域的重大进展。其核心思想在于利

  • 【论文笔记】MAE: Masked Autoencoders Are Scalable Vision Learners2021-12-21 18:59:20

    论文地址:http://arxiv.org/abs/2111.06377 项目地址:(非官方)https://github.com/pengzhiliang/MAE-pytorch 本文的主要观点是:掩码自编码器 (MAE) 是适用于计算机视觉的可扩展自监督学习器。 如果说ViT对应于NLP中的Tranformer,MAE实际上是对应于BERT。 MAE的核心思想是随机屏

  • Ubuntu20.0.4下使用VLC播放h.265(HEVC)视频缺少hevc解码器2021-12-14 21:33:29

    网上大部分都是这样的回答 sudo add-apt-repository ppa:strukturag/libde265 sudo aptitude update sudo apt-get install vlc-plugin-libde265 发现如下问题 E: Unable to locate package vlc-plugin-libde265 执行如下命令即可解决 sudo apt install gstreamer1.0-libav

  • 使用注意力机制的seq2seq2021-11-30 13:00:33

    (1)动机:机器翻译中,每个生成词可能相关于源句子中不同的词。  编码器最后隐藏层包含了前边的信息,但是进行某一步时不一定需要前边全部信息,可以用注意力关注在源句子中对应的部分。 (2)加入注意力 解码器:当前的还未预测,所以根据上一次预测的提取到跟上一步预测附近相关的。 (3)总结

  • 还有这种好事!netty自带http2的编码解码器framecodec2021-11-25 07:31:58

    目录简介Http2FrameCodecHttp2Frame、Http2FrameStream和Http2StreamFrameHttp2FrameCodec的构造Stream的生命周期流控制接收消息自定义handler总结 简介 netty为我们提供了很多http2的封装,让我们可以轻松的搭建出一个支持http2的服务器。其中唯一需要我们自定义的就是http2 handl

  • 自编码器AE2021-11-23 09:59:24

    目录 自编码器 组成 应用 分类 自编码器 autoencoder,是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器内部有一个隐藏层 h,可以产生编码(code)表示输入。该网络可以看作由两部分组成:一个由函数 h = f ( x ) h = f(x)h=f(x) 表示的编码器和一个生成重构的解码器 r = g

  • NER中的一些编码器与解码器2021-11-19 23:02:01

    文章目录 参考编码LR-CNNFLAT 解码GlobalPointer 本篇文章是命名实体识别(NER)算法的进一步介绍,主要内容是介绍一些编码器与解码器,作为上一篇内容的补充。 参考 中文NER的正确打开方式: 词汇增强方法总结 (从Lattice LSTM到FLAT) GlobalPointer:用统一的方式处理嵌套和非嵌

  • 视频编解码器常见问题介绍2021-11-19 14:02:01

    视频编解码器,是指一个能够对数字视频进行压缩或者解压缩的程序或者设备。通常这种压缩属于有损数据压缩。历史上,视频信号是以模拟形式存储在磁带上的。那么,我们在使用视频编解码器的过程中遇到的一些常见问题有哪些呢?接下来我们就跟随飞畅科技的小编一起来详细了解下吧! 1、设备

  • python入门之编码错误处理方案2021-11-15 22:06:22

            近期比较空闲,也想更好的使用python,所以决定整理一下基础知识,代码来自源码,解析来自官方文档。 codecs.Codec = class Codec(builtins.object) 定义无状态编码器/解码器的接口。 .encode()/.decode()方法可以通过提供errors参数(字符串值)来使用不同的错

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有