(B AR出口 T )是论文中使用的
文本填充
40 GB 语言模型。由此导出的
- 由[可选]共享: 全熙元(哈文)
- 许可证:
-
该模型不应被用来故意为人们创造敌对或疏远的环境。
大量研究探讨了语言模型的偏见和公平问题(例如,见Sheng等人(2021)和Bender等人(2021年))。该模型产生的预测可能包括受保护阶层中令人不安和有害的刻板印象;身份特征;以及敏感、社会和职业群体。
0.27亿 |
,
,
,
(-:
字符BPE标记器
ffn_dim | 隐藏(_D) | |||||
---|---|---|---|---|---|---|
|
6 | 16 | 3072 | 768 | ||
6 | 16 | 3072 | 768 |
测试数据
KorSTS(长矛手) | |||
---|---|---|---|
90.24 | 81.66 | 94.34 |
- 使用小时数:
- 云提供商:
如何开始使用模型
from Transformers import PreTrainedFast, bart
tokenizer = PreTrainedFast.from_pretrained('gogamza/kobart-base-v2')
model = Bart.from_pretrained('gogamza/kobart-base-v2')
数据统计
数据评估
关于gogamza/kobart-base-v2特别声明
本站Ai导航提供的gogamza/kobart-base-v2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由Ai导航实际控制,在2022年5月9日 下午12:10收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,Ai导航不承担任何责任。
相关导航
暂无评论...