标签:bert 模型 HuggingFace hugging mirror 镜像 tuna pretrained
Hugging Face Transformers 是自然语言处理领域的重要开源项目,提供了基于通用架构(如 BERT,GPT-2,RoBERTa)的数千个预训练模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。
我们镜像了 Hugging Face Model Hub,为国内用户下载预训练模型数据提供便利。
使用方法
注意:transformers > 3.1.0
的版本支持下面的 mirror
选项。
只需在 from_pretrained
函数调用中添加 mirror
选项,如:
AutoModel.from_pretrained('bert-base-uncased', mirror='tuna')
目前内置的两个来源为 tuna
与 bfsu
。此外,也可以显式提供镜像地址,如:
AutoModel.from_pretrained('bert-base-uncased', mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
或者直接去清华镜像上下载:
https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/
标签:bert,模型,HuggingFace,hugging,mirror,镜像,tuna,pretrained 来源: https://blog.csdn.net/A_zhangpengjie/article/details/110003580
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。