ICode9

精准搜索请尝试: 精确搜索
  • 网上nlp面试题记录2021-09-04 20:34:45

    搬运来源(侵删): https://zhuanlan.zhihu.com/p/86529347 1.深度学习中batch size的大小对训练过程的影响是什么样的? 不考虑bn的情况下,batch size的大小决定了深度学习训练过程中的完成每个epoch所需的时间和每次迭代(iteration)之间梯度的平滑程度。batch size只能说影响完成每个epo

  • NLP与深度学习(三)Seq2Seq模型与Attention机制2021-09-02 01:00:58

    1.   Attention与Transformer模型 Attention机制与Transformer模型,以及基于Transformer模型的预训练模型BERT的出现,对NLP领域产生了变革性提升。现在在大型NLP任务、比赛中,基本很少能见到RNN的影子了。大部分是BERT(或是其各种变体,或者还加上TextCNN)做特征提取(feature extraction

  • NLP与深度学习(二)循环神经网络2021-08-28 17:31:06

    1. 循环神经网络 在介绍循环神经网络之前,我们先考虑一个大家阅读文章的场景。一般在阅读一个句子时,我们是一个字或是一个词的阅读,而在阅读的同时,我们能够记住前几个词或是前几句的内容。这样我们便能理解整个句子或是段落所表达的内容。循环神经网络便是采用的与此同样的原理。 循

  • 自然语言处理-做一个简单的客服机器人(一)我想解决的问题2021-08-22 11:33:22

    自然语言处理-做一个简单的客服机器人(一)我想解决的问题 2019年做了一个自动分词的小工具,用于理解文章的结构和主要内容,提取关键字。 今天做了一个租房的小论坛,结果没啥人气,最近想起来了NLP,准备研究一下完成一个爬取网上现有租房信息并转换为论坛帖子的小工具,使用NLP功能做成一个小

  • 【刘知远NLP课 整理】Word Representation2021-08-15 17:34:07

    【刘知远NLP课 整理】Word Representation Word representation is a process that transform the symbols to the machine understandable meanings. The goals of Word Representation are Compute word similarity WR(Star) ≃ WR(Sun) WR(Motel) ≃ WR(Hotel) Infer word

  • 【刘知远NLP课 整理】Phrase & Sentence & Document Representation2021-08-15 17:33:14

    【刘知远NLP课 整理】Phrase & Sentence & Document Representation There are multi-grained semantic units in natural languages such as word, phrase, sentence, document. We have seen how to learn a word representation in link. In this post, we will focus on p

  • NLP—2.语言模型及文本表示2021-08-04 23:31:20

    文章目录 一、语言模型1. 如何评价语言模型的好坏?2. 语言模型的平滑概念3.语言模型在拼写纠错中的应用3.1 如何解决错别字错误? 二、文本表示1. 词集模型—onthot编码2.词袋模型—Bag of Words3.Word2Vec—词嵌入模型 一、语言模型   语言模型可以说是自然语言处理

  • NLP(三十一):用transformers库的BertForSequenceClassification实现文本分类2021-07-28 14:03:54

    一、类别编码必须是0开始 import argparse import torch import tqdm from root_path import root import os import pandas as pd import json from sklearn.model_selection import train_test_split from transformers import BertTokenizer from torch.utils.data import Dat

  • 基于Bert和通用句子编码的Spark-NLP文本分类2021-07-24 17:00:51

    自然语言处理(NLP)是许多数据科学系统中必须理解或推理文本的关键组成部分。常见的用例包括文本分类、问答、释义或总结、情感分析、自然语言BI、语言建模和消歧。 NLP在越来越多的人工智能应用中是越来越重要。如果你正在构建聊天机器人、搜索专利数据库、将患者与临床试验

  • 2021年6月,CVTE NLP算法岗4道面试题分享2021-07-21 18:01:18

    文末彩蛋:七月在线干货组最新升级的《2021大厂最新AI面试题 [含答案和解析, 更新到前121题]》免费送! 1、讲一下改进的tf-idf TF-IDF中的IDF是一种试图抑制噪声的加权,单纯的以为文本频率小的单词就越重要,文本频率越大的单词就越无用,这一方式会在同类语料库中存在巨大弊端,一些同

  • 深度学习-NLP-自动摘要、图像描述2021-07-19 15:33:34

    https://blog.csdn.net/caihuanqia/article/details/106688936?utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~aggregatepage~first_rank_v2~rank_aggregation-1-106688936.pc_agg_rank_aggregation&utm_term=nlp%E8%87%AA%E5%8A%A8%E6%91%98%E8%A6%8

  • 神经语言程序学(Neruo Linguistic Programming)理解层次2021-07-17 22:32:12

    本文旨在帮助大家认识世界,认识自我。 本文参考的文章厉害的人遇到问题时的思维模式与普通人之间差别在哪? - 谢春霖的回答 - 知乎 。 本文是对这篇文章的一个简单的自我总结和理解,属于转载的内容,只是其中加入了自己的一些理解。 1.神经语言程序学(Neruo Linguistic Programming

  • 「超全」麻省理工NLP 预训练模型全集2021-07-13 10:04:33

    NLP 预训练模型 自然语言处理标志 什么是预训练模型? 预训练模型是由其他人创建的用于解决类似问题的模型。我们可以使用在其他问题上训练的模型作为起点,而不是从头开始构建模型来解决类似的问题。预训练模型在您的应用程序中可能不是 100% 准确。 Tensorflow Keras Pytorch

  • 什么是 NLP (自然语言处理)2021-07-09 17:58:00

    NLP(自然语言处理)到底是做什么? NLP 的全称是 Natural Language Processing,翻译成中文称作:自然语言处理。它是计算机和人工智能的一个重要领域。顾名思义,该领域研究如何处理自然语言。 自然语言就是我们人类市场交流所使用的语音和字符系统。就目前而言,NLP所研究的对象,以字符系统

  • 【AI视野·今日NLP 自然语言处理论文速览 第十九期】Mon, 5 Jul 20212021-07-08 12:31:19

    AI视野·今日CS.NLP 自然语言处理论文速览 Mon, 5 Jul 2021 Totally 20 papers

  • 刷新50多个NLP任务基准,并登顶SuperGLUE全球榜首,百度ERNIE 3.0知识增强大模型显威力2021-07-06 16:29:30

    近日,百度ERNIE升级到3.0,重磅发布知识增强的百亿参数大模型。该模型除了从海量文本数据中学习词汇、结构、语义等知识外,还从大规模知识图谱中学习。 ERNIE 3.0一举刷新54个中文NLP任务基准,其英文模型在国际权威的复杂语言理解任务评测SuperGLUE上, 以超越人类水平0.8个百分点

  • NLP 笔记:Skip-gram2021-07-05 20:00:00

    1 skip-gram举例 假设在我们的文本序列中有5个词,[“the”,“man”,“loves”,“his”,“son”]。 假设我们的窗口大小skip-window=2,中心词为“loves”,那么上下文的词即为:“the”、“man”、“his”、“son”。这里的上下文词又被称作“背景词”,对应的窗口称作“背景窗口”。 跳字模

  • 【论文泛读150】面试官 - 候选人角色扮演:走向开发真实世界的 NLP 系统2021-07-03 19:30:51

    贴一下汇总贴:论文阅读记录 论文链接:《Interviewer-Candidate Role Play: Towards Developing Real-World NLP Systems》 一、摘要 标准的 NLP 任务不包含几个常见的现实世界场景,例如寻求问题的澄清、利用线索、为了避免错误答案而弃权等。 任务制定的这种差异阻碍了 NLP 系统

  • 山东大学人工智能专业NLP考试回忆版2021-07-02 10:58:10

    2021年7月2号考试回忆 一共七道题,分值就不记得了反正前四道就20,15分这样,最后三道一道10分 第一题: n-gram知识点: 1,n-gram的概念 2,写出“I am in Shandong University”的1-gram,2-gram,3-gram 3,给出其他四句话,计算第二问中的2-gram句子概率。 第二题: 语言模型: 1,汉语的分词方法有

  • GitHub上AI岗位面试笔记(机器学习算法/深度学习/ NLP/计算机视觉)2021-06-29 11:05:20

    目录 机器学习 深度学习 自然语言处理与数学  算法题和笔试题 推荐阅读 工具 最近在GitHub上淘到一个很棒的AI算法面试笔记,特地分享给小伙伴们~ GitHub地址:https://github.com/imhuay/Algorithm_Interview_Notes-Chinese 如上所示为整个项目的结构,其中从机器学习到数学主要提供的

  • 什么是自然语言处理?2021-06-28 19:29:46

    自然语言处理(Natural Language Processing,NLP)是AI的一个领域,旨在让计算机理解和使用人类语言,从而执行有用的任务。自然语言处理又划分为两个部分:自然语言理解(Natural Language Understanding,NLU)和自然语言生成(Natural Language Generation,NLG)。 近年来,AI改变了机器与人类的互动

  • 斯坦福Introduction to NLP:第十讲关系抽取2021-06-28 14:33:02

    最近需要调研NLP中的关系抽取任务 找了一篇RE的综述,关于早期研究的介绍较为笼统,因此找到斯坦福的自然语言处理入门课程学习。 课程是2012年的,比较早,正好学习一下早期的RE模型。 看视频的过程中参考了这篇博客:斯坦福大学-自然语言处理入门 笔记 第十课 关系抽取(relation extra

  • NLP(二十四):注意力机制和自注意力机制2021-06-22 13:35:02

    一、基本概念 1、为什么要因为注意力机制 在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下: (1)计算能力的限制:当要记住很多“信息“,模型就要变得更复杂,然而目前计算能力依然是限制神经网络发展的瓶颈。 (2)优化算法的限制:LSTM

  • 人工智能讲师ai讲师NLP讲师叶梓:人工智能之最新NLP自然语言处理技术与实战-142021-06-22 10:00:35

    接上一页 P30-P31 从情感词分析,如倾向性分类(褒,贬,中),情绪分类(喜,怒,悲,恐,惊)等。让机器人具有情感表达。在不同的领域都存在迁移的问题。如医患关系在医院与社会的评价是不同调的。如用事实陈述、比喻、反问、隐喻等表达情感。可以深入理解情感,知其然,亦知其所以然。进而可预测情感倾

  • NLP、ML/DL等基础概念2021-06-21 10:34:06

    机器学习(MachineLearning)简称ML。机器学习属于人工智能的一个分支,也是人工智能的和核心。机器学习理论主要是设计和分析一些让计算机可以自动”学习“的算法,利用计算机从数据中找出规律,从而应用于对不确定场景的决策,最终让数据变现。 深度学习(DeepLearning)简称DL。最初的深度学习

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有