ICode9

精准搜索请尝试: 精确搜索
  • NLP学习2022-08-18 17:00:20

    文本是序列数据的一种最常见的形式之一 为了对文本进行预处理,通常将文本拆分成词元,构建词表将词元字符串映射为数字索引,并将文本数据转换为词元索引以供模型操作。

  • tokenize embeding word2wec...词表,词嵌入,分词...都是干什么的2022-07-29 18:35:46

    在NLP任务中,输入的大多是一个句子,多个句子组成一个batch。模型本身不能直接处理文本,所以需要先把文本转化成数字。流程大多数是: 分词->构建词表->词嵌入 分词 分词是将一个句子拆分成一个个单词/短语,这些单词/短语称为token,分词被叫做tokenize。 tokenize的粒度有word/char/subw

  • 利用nltk产生停用词库,并自定义停用词入库2022-06-25 09:02:33

    nltk NLTK(Nature Language Toolkit)自然语言处理工具包。其对于大量公开数据集、模型上提供了全面、易用的接口,涵盖了分词、词性标注(Part-Of-Speech tag, POS-tag)、命名实体识别(Named Entity Recognition, NER)、句法分析(Syntactic Parse)等各项 NLP 领域的功能 stopwords fro

  • (转)深入理解NLP Subword算法:BPE、WordPiece、ULM2022-02-23 19:31:57

     原地址 目录  前言 与传统空格分隔tokenization技术的对比 Byte Pair Encoding WordPiece Unigram Language Model 总结 前言 Subword算法如今已经成为了一个重要的NLP模型性能提升方法。自从2018年BERT横空出世横扫NLP界各大排行榜之后,各路预训练语言模型如同

  • 常见的停用词表2022-01-22 16:30:38

    复制到csv文件用pandas直接读即可 0 我们 】 【 "," ! 会 这一 进一步 的 日 月 """" # $ % & ' ( ) * + "," - -- . .. ... ...... ................... ./ .一 .数 .日 / // 0 1 2 3 4 5 6 7 8 9 : :// :: ; < = > >> ? @ A Lex [ \ ] ^

  • Tokenizer总结2021-08-02 22:30:30

    Introduciton         transformer类型的预训练模型层出不穷,其中的tokenizer方法作为一个非常重要的模块也出现了一些方法。本文对tokenizer方法做一些总结。参考来自hunggingface。         tokenizer在中文中叫做分词器,就是将句子分成一个个小的词块(token),生成一个

  • 百度内容风控是怎样在秒级之内完成词表匹配2021-07-21 02:00:44

    导读:我们在实现检测一个字符串是否包含另一个字符串时,简单的用一个字符串匹配算法就可以实现,如果要实现检测一个字符串是否包含 N 个字符串时,这个 N 有可能上千万,再利用简单的字符串匹配算法就没法满足我们的需求了,上千万的词需要可以灵活的维护,业务方匹配时能够拿到自己的词进行

  • 最全中文停用词表(可直接复制)2021-06-13 21:29:25

    最全的停用此表整理 词表名词表文件中文停用词表cn_stopwords.txt哈工大停用词表hit_stopwords.txt百度停用词表baidu_stopwords.txt机器智能实验室停用词库scu_stopwords.txt 以上停用词表链接:https://github.com/goto456/stopwords 以下是我常用的1893个停用词,可直接复制 !

  • 基于Python的特定形状透明背景词云图绘制2021-02-15 14:29:41

    基于Python的特定形状透明背景词云图绘制 1.需求分析2.前期准备2.1文本文件准备2.2特定形状图片准备 3.代码解析与实现3.1模块库的导入3.2停用词表3.3基于TF-IDF提取关键词3.4利用wordcloud绘制词云图 4.附录4.1完整代码4.2提取的关键词4.3生成的词云图4.4停用词库 5.致谢

  • python中文分词教程之前向最大正向匹配算法介绍2020-03-18 10:56:00

      前言  中文分词是中文文本处理的一个基础性工作,然而长久以来,在Python编程领域,一直缺少高准确率、高效率的分词组件。  大家都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配

  • 百分点认知智能实验室出品:深度迁移学习十八问2020-01-22 22:57:10

    编者按 深度迁移学习是基于深度神经网络的迁移学习方法,BERT通过预训练模型达到深度迁移学习的效果,自从2018年底BERT横空出世以来,就以势不可挡的姿态横扫了众多榜单,甚至在阅读理解任务SQuAD 中超越人类水平。BERT在公检法、媒体出版、军工、快消零售等工业界也迅速落地,如百分点智能

  • Hanlp-地名识别调试方法详解2019-07-29 10:00:35

    HanLP收词特别是实体比较多,因此特别容易造成误识别。下边举几个地名误识别的例子,需要指出的是,后边的机构名识别也以地名识别为基础,因此,如果地名识别不准确,也会导致机构名识别不准确。类型1 数字+地名[1] 暗访哈尔滨网约车:下10单来7辆“黑车” 1辆套牌 [2] 房天下每日成交5月12日海

  • HanLP-地名识别调试方法2019-07-19 10:01:21

    HanLP收词特别是实体比较多,因此特别容易造成误识别。下边举几个地名误识别的例子,需要指出的是,后边的机构名识别也以地名识别为基础,因此,如果地名识别不准确,也会导致机构名识别不准确。 类型1 数字+地名[1] 暗访哈尔滨网约车:下10单来7辆“黑车” 1辆套牌[2] 房天下每日成交5月12日海

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有