ICode9

精准搜索请尝试: 精确搜索
  • ValueError: tensorflow.__spec__ is None2021-09-25 22:31:04

    ValueError: tensorflow.spec is None from transformers import BertForTokenClassification, BertTokenizer import torch python 导入transformers包,运行报错“ValueError: tensorflow.spec is None”,截图如下: 网上各种百度,但是也只看到一种解决办法,说是将transformers

  • AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE2021-08-30 20:34:19

    https://arxiv.org/pdf/2010.11929.pdf --------------------------------------------------------- 2021-08-30                          transformer缺少cnn的平移不变性,局部性:大规模数据集预训练可解决 class PatchEmbeddin(nn.Module): def __init__(self

  • ICCV2021 | 重新思考视觉transformers的空间维度2021-08-07 17:04:06

    ​ 论文:Rethinking Spatial Dimensions of Vision Transformers 代码:https://github.com/naver-ai/pit 获取:在CV技术指南后台回复“0006” 点个关注,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。 前言: 由于基于transformers的架构在计算机视觉建模方面具有创新性,因此

  • 【论文笔记2】Long-Short Transformer: Efficient Transformers for Language and Vision2021-07-29 22:03:06

    论文原文:https://arxiv.org/abs/2107.02192 论文笔记:百度网盘提取码:nzsi 1. Summary Contributions: (1)提出了一种长短时Transformer模型:Long-Short Transformer (Transformer-LS): Short:利用滑动窗口获取短序列(局部)attentionLong:基于动态投影获取长序列(全局)attention (2)在Lon

  • NLP(三十一):用transformers库的BertForSequenceClassification实现文本分类2021-07-28 14:03:54

    一、类别编码必须是0开始 import argparse import torch import tqdm from root_path import root import os import pandas as pd import json from sklearn.model_selection import train_test_split from transformers import BertTokenizer from torch.utils.data import Dat

  • End-to-End Object Detection with Transformers2021-07-22 22:02:07

    摘要 我们提出了一种将目标检测视为直接集合预测问题的新方法。我们的方法简化了检测流程,有效地消除了对许多手工设计组件的需求,如非最大抑制程序或锚生成,它们明确编码了我们关于任务的先验知识。新框架的主要组成部分被称为“检测transformer”(DEtection TRansformer)或“DETR

  • DETR:End-to-End Object Detection with Transformers2021-07-13 15:04:11

    论文标题:End-to-End Object Detection with Transformers 论文官方地址:https://ai.facebook.com/research/publications/end-to-end-object-detection-with-transformers 论文中提到的方法主旨结构如下所示,整个论文也是围绕这个这个结构就行展开的。

  • Focal Self-attention for Local-Global Interactions in Vision Transformers论文阅读2021-07-10 13:59:01

    Focal Self-attention for Local-Global Interactions in Vision Transformers论文阅读 介绍方法Focal self-attentionWindow-wise attentionSub-window pooling.Attention computation.Complexity analysisModel configuration 实验图像分类目标检测和实例分割语义分割与

  • Transformers for Graph Representation2021-06-20 21:32:40

    Do Transformers Really Perform Badfor Graph Representation? microsoft/Graphormer: This is the official implementation for "Do Transformers Really Perform Bad for Graph Representation?". (github.com) 1 Introduction 作者们发现关键问题在于如何补回Transformer模型

  • CVPR2021 之基于with Transformers目标检测无监督预训练 | 环境搭建 | 基础测试2021-06-04 15:02:10

    UP-DETR: Unsupervised Pre-training for Object Detection with Transformers https://arxiv.org/pdf/2011.09094.pdf https://github.com/dddzg/up-detr 环境搭建 Linux下cuda10.0安装Pytorch和Torchvision|简记 cat /etc/issue Ubuntu 18.04.5 LTS \n \l conda creat

  • Self-Supervised Learning with Swin Transformers2021-05-11 21:32:30

    Self-Supervised Learning with Swin Transformers 2021-05-11 20:32:02 Paper: https://arxiv.org/pdf/2105.04553.pdf  Code: https://github.com/SwinTransformer/Transformer-SSL    1. Background and Motivation:  作者提到最近 cv 领域的两个技术潮流,一个是以 MoCo

  • NLP文档挖宝(2)——通过Huggingface Transformers 分享与上传自己的预训练模型2021-05-08 21:32:25

    最近团队完成了一个面向古文语料的预训练模型(SikuBERT),基于四库全书进行的训练,效果害挺好,于是准备拥抱开源,上传至最大的预训练模型hub——huggingface。 在整个上传过程中,看了一些很早之前翻译成中文的上传手册,他们大多使用内置工具+upload方法进行上传,但是笔者按照步骤尝试之后

  • 解决AttributeError: module ‘tensorflow_core.activations‘ has no attribute ‘swish‘2021-05-08 15:01:49

    今天使用transformers遇到这个错误,查了很多都是说pytorch、tensorflow以及keras版本不对应问题。更改torch版本和transformers版本均不行,按照别人经验将tensorflow升级为最新2.3.1版也不行。 看报错发现是下面这句 点进去,将该激活方法注释掉即可。(前提是我没有使用到) 解决

  • 文献阅读(十):AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE2021-04-18 21:57:11

    文献阅读(十):AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE ABSTRACT1 INTRODUCTION2 RELATED WORK3 METHOD3.1 VISION TRANSFORMER (VIT)3.2 FINE-TUNING AND HIGHER RESOLUTION 4 EXPERIMENTS4.1 SETUP4.2 COMPARISON TO STATE OF THE ART4

  • ImportError: cannot import name ‘TFAutoModelForSequenceClassification‘ from ‘transformers‘ (unknown2021-04-14 12:57:46

    解决安装 tensorflow 2.1和使用的包不匹配的的问题 https://github.com/AdneneBoumessouer/MVTec-Anomaly-Detection 这个项目要求安装 tensorflow 2.1 但是在安装`pip install ktrain“之后 运行train.py 文件时,出现transformers 版本不匹配的问题 报错原因是使用tensorflow

  • Bert提取句子特征(pytorch_transformers)2021-04-01 19:00:39

    英文文本中文文本

  • transformers中TFBert等模型加载问题(two structures don‘t have the same nested structure)2021-03-28 19:01:21

    如果将transformers中的tfbert等模型嵌入到自己的模型中,在保存与加载的时候可能会出现以下问题: ValueError: The two structures don’t have the same nested structure. First structure: type=dict str={‘input_ids’: TensorSpec(shape=(None, 5), dtype=tf.int32, name

  • TransFuse:融合Transformers和CNN用于医学图像分割2021-03-22 16:32:22

    最近transformer网络真的非常火,尤其是在语义分割中,人们提出了各种各样的组合方法。我上一篇提到了一篇文章:TransUnet。这里另外一篇基于transformer的网络也出来了。比较出名,在这里推荐给大家。   废话不多说直接上整个网络的结构框架 这一篇文章相比于前面那篇,整个彻底的去掉

  • Training Vision Transformers for Image Retrieval 论文笔记2021-03-19 13:32:53

    Training Vision Transformers for Image Retrieval 论文笔记 文章目录 概述作者为什么写这篇文章动手去干功夫不负有心人夸夸作者结构速览 一、补补知识1.1 介绍1.2 Transformers1.3 Siamese结构 二、算法细节2.1 IRT-O:给transformer准备好的特征2.2 IRT-L:对于图像检索的

  • Masked Language Modeling for Proteins via LinearlyScalable Long-Context Transformers2021-03-07 20:59:24

    摘要 transformer模型已在各种领域中取得了最先进的结果。 但是,对训练注意力机制以学习远程输入之间的复杂依存关系的成本的担忧不断增加。利用学习的注意力矩阵的结构和稀疏性的解决方案出现了。 但是,涉及长序列的实际应用(例如生物序列分析)可能无法满足这些假设,从而无法探索

  • TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation(阅读笔记)2021-03-06 19:01:39

    Abstract TransUNet:Transformers为医学图像分割做强大编码器。医学图像分割领域U-Net架构取得突出成果但在远程依赖关系上有局限,而序列预测transformer由于low-level细节不足导致定位能力受限,本文提出transformer与U-Net结合,transformer将CNN特征图编码为上下文序列,解码器对编

  • Google的RFA:transformers的Softmax注意机制最新替代2021-03-01 09:01:01

    什么是注意力机制?为什么RFA比Softmax更好? Google最近发布了一种新方法-Random Feature Attention-用来取代transformers中的softmax注意力机制,以实现相似或更好的性能,并显着改善时间和空间复杂度。 在此文章中,我们将探讨transformers的背景,什么是注意力机制,以及为什么RFA可以

  • End-to-End Object Detection with Transformers 论文学习2021-02-10 22:00:58

    Abstract 本文提出了一个新的方法,将目标检测看作一个直接的集合预测问题。该方法让检测变得更简洁,去除了人为设计的后处理步骤如 NMS 或 anchor 生成,显式地编码了关于任务的先验知识。该框架的主要结构叫做 DEtection TRansformer 或 DETR,基于集合的全局损失,通过二分匹配和一

  • Simple Transformers文档翻译(提示和技巧)2021-01-19 09:33:45

    文章目录 1. 可视化支持 Visualization support2. 提早停止训练 Early stopping3.其他模型评估指标 Additional Evaluation Metrics4. 对模型预测结果进行可视化 Simple-Viewer5. 超参数优化5.1 设置 sweep1.method:明确搜索策略2. metric:明确要优化的指标metric3.parameter

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有