标签:WikiText2 wikitext 词汇 https WikiText iter 词库 数据
WikiText用于长时间依赖的语言建模
WikiText 英语词库数据(The WikiText Long Term Dependency Language Modeling Dataset)是一个包含1亿个词汇的英文词库数据,这些词汇是从Wikipedia的优质文章和标杆文章中提取得到,包括WikiText-2和WikiText-103两个版本,相比于著名的 Penn Treebank (PTB) 词库中的词汇数量,前者是其2倍,后者是其110倍。每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖(longterm dependency)自然语言建模的场景。
WikiText2可从URL = 'https://s3.amazonaws.com/research.metamind.io/wikitext/wikitext-2-v1.zip'下载
from torchtext.datasets import WikiText2
train_iter = WikiText2(split='train')
或者
train_iter, val_iter, test_iter = WikiText2()
参考:
https://www.sohu.com/a/305178444_100118081
关于WikiText2的进一步使用,参考https://pytorch.org/tutorials/beginner/transformer_tutorial.html
标签:WikiText2,wikitext,词汇,https,WikiText,iter,词库,数据 来源: https://www.cnblogs.com/xuehuiping/p/15343201.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。