Loading...

 

 

 

 

 

 

(B AR出口 T )是论文中使用的 文本填充 40 GB 语言模型。由此导出的

  • 由[可选]共享: 全熙元(哈文)
  • 许可证:

 

 

 

 

 

 

 

 

该模型不应被用来故意为人们创造敌对或疏远的环境。

 

 

大量研究探讨了语言模型的偏见和公平问题(例如,见Sheng等人(2021)和Bender等人(2021年))。该模型产生的预测可能包括受保护阶层中令人不安和有害的刻板印象;身份特征;以及敏感、社会和职业群体。

 

 

 

 

 

 

0.27亿

, , , (-:

 

 

 

 

字符BPE标记器

 

 

ffn_dim 隐藏(_D)
6 16 3072 768
6 16 3072 768

 

 

 

 

测试数据

 

 

 

 

 

 

KorSTS(长矛手)
90.24 81.66 94.34

 

 

 

 

  • 使用小时数:
  • 云提供商:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

如何开始使用模型

 from Transformers import PreTrainedFast, bart
tokenizer = PreTrainedFast.from_pretrained('gogamza/kobart-base-v2')
model = Bart.from_pretrained('gogamza/kobart-base-v2')

数据统计

数据评估

gogamza/kobart-base-v2浏览人数已经达到766,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:gogamza/kobart-base-v2的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找gogamza/kobart-base-v2的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于gogamza/kobart-base-v2特别声明

本站Ai导航提供的gogamza/kobart-base-v2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由Ai导航实际控制,在2022年5月9日 下午12:10收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,Ai导航不承担任何责任。

相关导航

暂无评论

暂无评论...