ICode9

精准搜索请尝试: 精确搜索
  • 自编码器(autoencoder)2022-02-28 10:31:54

    autoencoder 简单来说 autoencoder 就是将输入复制到输出的神经网络。但是为了autoencoder能学习到数据中的有效特征而不是简单的拷贝, 我们会在其中加入各种各样的约束,使得autoencoder 学习到有用的特征。 一般来讲AE有两部分组成, 假设输入为\(x\), encoder \(h = f(x)\); decode

  • DENSELY CONNECTED MULTI-STAGE MODEL WITH CHANNEL WISE SUBBANDFEATURE FOR REAL-TIME SPEECH ENHANCEME2022-02-25 19:01:49

    [ICASSP 2021] Motivation 单通道语音增强有两个实际问题尚未得到解决。首先,很难在增强质量和计算效率之间取得平衡,而低延迟总是会带来质量的损失。其次,在特定场景下的增强,如唱歌和情感言语,也是传统方法中的一个复杂问题。本文提出了一种计算效率高的具有密集连接的多级结构的

  • 对比学习论文综述2022-02-23 11:58:29

    目录 对比学习论文综述【论文精读】_哔哩哔哩_bilibili 1. 百花齐放 2.CV双雄 3. 不用负样本 4. Transformer 对比学习论文综述【论文精读】_哔哩哔哩_bilibili 1. 百花齐放  18-19年中 方法、模型、目标函数、代理任务都还没有统一。 (1)InstDisc:https://arxiv.org/abs/1805.

  • 基于变分自编码器的静息态fMRI数据的表征学习2022-02-22 10:00:30

    《本文同步发布于“脑之说”微信公众号,欢迎搜索关注~~》 静息状态功能性磁共振成像(rsfMRI)数据显示出复杂但结构化的模式。然而,在rsfMRI数据中,潜在的起源是不清楚的和纠缠的。在这里,我们建立了一个变分自编码器(VAE),作为一个生成模型可用无监督学习训练,以解开rsfMRI活动的未知

  • AS5600 磁编码器的调试经验2022-02-21 18:31:21

    AS5600 磁编码器的调试经验 1. 硬件2. GPIO功能清单3.软件寄存器4.软件代码 1. 硬件 购买了淘宝上的磁编码器如图所示 原理图大概如图 2. GPIO功能清单 只对使用到的GPIO做说明 电源GND和VCC 接3.3或者5V的电压,板子上将两个连在了一起。可以同时兼容两个电压SCL和SDA

  • 分享 | 引导语言图像预训练,实现统一的视觉语言理解和生成2022-02-10 19:02:51

    视觉语言预训练(VLP)已经提高了许多视觉语言任务的性能。然而,大多数现有的预训练模型只在基于理解的任务或基于生成的任务中表现出色。此外,性能的提高在很大程度上是通过扩大从网络上收集的有噪声的图像-文本对的数据集实现的,而这是一个次优的监督来源。   在本文中,我们提出了BLI

  • 论文解读:《SG-Net: Syntax Guided T ransformer forLanguage Representation》2022-02-08 10:33:13

    期刊名: IEEE Transactions on Pattern Analysis and Machine Intelligence 影像因子/分区:16.225/Q1 一、摘要       抽象理解人类语言是人工智能的关键主题之一。将所提出的SG-Net应用于典型的变压器编码器。在机器阅读理解、自然语言推理和神经机器翻译等常用基准测试任务上

  • 腾讯V265编码器2022-02-07 06:31:15

    腾讯V265编码器 V265编码器的业务体验优化,包括码率控制优化以及业务适配相关的优化。主要内容可以分为三个部分。 Ÿ   V265的最新情况 Ÿ   V265在码率控制方面所做的一些优化 Ÿ   V265编码器在业务落地过程中遇到的一些问题与解决方案 1. V265最新情况介绍    目前,V2

  • 绝对值编码器:从调研到开发2022-02-03 15:02:01

    前言概述 最近因为工作需要,接触到了一个全新的领域就是编码器采样模块的开发,在接触以前或多或少接触了一些运动控制的知识,但是对于编码器本身的内容还是,一窍不通的。所以在这段开发过程中我将一些自己遇到的困难,有关于技术层面的,但是更多的还是,如何将一个我们用户使用的应用

  • 卷积自编码器中注意机制和使用线性模型进行超参数分析2022-01-31 11:04:12

    新神经网络架构设计的最新进展之一是注意力模块的引入。首次出现在在NLP 上的注意力背后的主要思想是为数据的重要部分添加权重。在卷积神经网络的情况下,第一个注意机制是在卷积块注意模型中提出的。其中注意机制分为两个部分:通道注意模块和空间注意模块。 空间注意模块通过将图

  • Feign源码分析(四) - 自定义扩展点2022-01-30 23:03:08

    @Author:zxw @Email:502513206@qq.com 目录 Feign源码分析(一) - 初探FeignFeign源码分析(二) - builder构建Feign源码分析(三) - Client调用​ 1.模块 对于Feign的整体流程已经分析完了,接下来就看看有哪些我们可以自定义的扩展点。首先回顾下Feign中有哪些配置模块。像之前Fe

  • autoencoders and variational autoencoders (变分自动编码器)2022-01-29 15:02:06

    一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度。因为空间的维数越小,计算速度越快,但生成的图像质量越差。 2.autoencoder=encoder+decod

  • Unsupervised Learning | 对比学习——MoCo2022-01-28 11:04:20

    文章目录 1. Introduction2. Related Work2.1 Loss functions2.2 Pretext tasks2.3 Contrastive learning & pretext task2.4 Unsupervised or Supervised 3. MoCo Method3.1 Contrastive Learning as Dictionary Look-up3.2 Momentum Contrast3.3 Shuffling BN 4. Experim

  • 论文解读-TransForensics: Image Forgery Localization with Dense Self-Attention2022-01-28 02:01:28

    论文解读-TransForensics: Image Forgery Localization with Dense Self-Attention 论文链接:TransForensics: Image Forgery Localization with Dense Self-Attention 翻译水平有限,建议看原文。 摘要 目前,先进的图像编辑工具和技术技能可以更真实地产生被篡改的图像,这可以很容易

  • Transformer论文翻译2022-01-27 18:00:21

    Attention Is All You Need word版本 需要word版本的点赞,收藏,评论邮箱哦,整理不易,谢谢大家! 摘要 主流的序列转换模型基于复杂的卷积神经网络或循环神经网络、包括编码器和解码器。且性能好的模型往往需要注意力层连接编码器和解码器。我们提出了一个新型神经网络架构——Tra

  • 百度paddle和aistudio系列分析(人工智能产业生态发展前景全聚焦)国产人工智能产业的升级,并且与Google对比下未来的展望2022-01-25 20:58:24

    ###最近在研究深度学习,发现神经网络涉及的领域几乎涵盖了所有能用的到计算机的场景。而百度的部署更是多点发力,导致所有的领域几乎都在开发百度的应用化场景,相比于google和微软,百度的研究性相对弱了一些,但是工业应用做的还是不错的,特别是对英语不太好,又上不了Github的DP爱好

  • 变分自编码器(VAE)的理解与实现2022-01-23 01:32:37

    导读 变分自编码器(VAE)是一种生成式模型,虽然名字上叫做自编码器,但却和普通的自编码器有着本质上的区别。图a所示为一个普通自编码器的示意图,其功能是将输入数据压缩到一个低维的空间中,这个低维的向量代表了输入数据的“精华”,如何保证低维的向量能够表示输入向量呢?自编码器在将低维

  • 直流编码电机双闭环(速度+角度)控制2022-01-21 23:02:01

    目录 1、因此PID大概框图  2、pid控制器的公式为 3、传感器数据获取 4、采用硬件如下(已经在立创开源)  5、工程配置  6、软件部分程序配置 7、调参过程记录        串级控制系统是改善控制质量的有效方法之一,在过程控制中得到了广泛的应用。所谓串级控制,就是采用两个控制

  • VAE变分自编码器2022-01-20 17:31:22

    我在学习VAE的时候遇到了很多问题,很多博客写的不太好理解,因此将很多内容重新进行了整合。 我自己的学习路线是先学EM算法再看的变分推断,最后学VAE,自我感觉这个线路比较好理解。 一.首先我们来宏观了解一下VAE的作用:数据压缩和数据生成。 1.1数据压缩: 数据压缩也可以成为数据降维,

  • 【论文阅读】图神经网络(针对图数据的深度学习方法)综述 day1、2、32022-01-18 18:31:06

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 题目:《A Comprehensive Survey on Graph Neural Networks》2019年 前言一、图神经网络的由来?二、四种网络1.定义2.输入输出3.训练模式 三、循环神经网络四、卷积图神经网络1.定义2.分类3.比较 五、图池化操作

  • 关于Transformer的理解2022-01-17 22:31:47

    结合李宏毅老师机器学习2021——Transformer课程和网上查阅的资料,总结一下对Transformer的理解 Transformer是什么? 从宏观角度来看,Transformer是一种基于Self-Attention机制的Seq2seq模型(序列模型),由编码器和解码器组成(自己总结的)。所以在学习Transformer前,需要先弄明白Seq2se

  • 变分自编码器(Variational Auto-Encoder,VAE)2022-01-17 14:35:14

    VAE网络结构较AE只有部分改变 import torch import numpy as np from torch import nn class VAE(nn.Module): def __init__(self): super(VAE, self).__init__() # [b,784] => [b,20] # u: [b,10] # sigma: [b,10] self.enc

  • 自编码器(AutoEncoder) 对数据的降维和去噪 及与PCA之间的联系2022-01-15 16:31:35

    PCA(主成分分析)原理简介 PCA将复杂事情简单化,通过降维映射和线性变换来寻找一个“方差最大”、“误差最小”变量来表征数据特征。 PCA利用降维的思想,把多指标转化为少数几个综合指标。PCA是一种简化数据集的技术,它是一个线性变换,这个变换把数据变换到一个新的坐标系统中。主

  • 编码器/译码器(Verilog HDL)|计算机组成2022-01-15 12:02:35

    目录 前言1. 8-3编码器2. 3-8译码器 前言 编码与译码是一对相反的操作,其中编码是将2n个电路状态转换为n个二进制结果;译码是将n个二进制结果转换为2n个电路状态。下面主要介绍最经典的8-3编码器与3-8译码器。 1. 8-3编码器 8-3编码器即把8个1位的二进制数转换位3个1位

  • Transformer翻译2022-01-08 19:02:01

    仅为自己学习所用,如有错误,敬请指正。()中为看李沐老师视频所写。链接:https://www.bilibili.com/video/BV1pu411o7BE 原文链接:https://arxiv.org/abs/1706.03762 摘要: 主流的序列转录模型是基于复杂的递归或卷积神经网络,其中包括编码器和解码器。性能最好的模型还通过注意机制

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有