标签:大模型
文生图开源模型比较库
可根据输入文字同时用stable-diffusion 1.5、stable-diffusion 2.1、DALL-E、kandinsky-2等模型生成图像。用于测试生成比较:Github地址:https?//zoo.replica...
OpenBMB × A.I HUB |大模型开发者沙龙,咖啡馆等你!
开源精神以自由和合作为信条,通过开放透明的方式促进技术和知识的创新共享。OpenBMB作为AI大模型领域的开源社区,积极倡导大模型领域成果的开源分享与交流,...
PaLM 2技术报告
文章通过在英语和多语言以及推理任务上的广泛评估,证明了PaLM 2在不同模型大小的下游任务中具有显著的改进质量,PaLM 2的关键思路在于提高多语言和推理能力...
用世界模型增强语言模型: 用具身体验增强语言模型
用世界模型增强语言模型:大型语言模型在许多任务上显示出卓越的能力。但在物理环境中进行简单的推理和规划(如理解物体的持久性或规划居家活动)方面常常存在...
MIT|用程序代码训练的语言模型中意义的证据
用程序代码训练的语言模型中意义的证据,尽管语言模型只被训练用于在文本中进行下一个Token预测,以评估语言模型中是否存在语义的存在或缺失,首先在编程语料...
CCKS2023-PromptCBLUE中文医疗大模型评测比赛开放报名啦!
将16种不同的医疗场景NLP任务全部转化为基于提示的语言生成任务。形成首个中文医疗场景的LLM评测基准,type是原任务类型(不作为模型输入)。只有分类、术语标...
通过自弈和从AI反馈中学习的上下文学习提高语言模型谈判能力
Improving Language Model Negotiation with Self-Play and In-Context Learning from AI Feedback Yao Fu, Hao Peng, Tushar Khot, Mirella Lapata[Universi...
关于大型语言模型的争论和局限
以色列巴伊兰大学教授Yoav Goldberg分享了他对大型语言模型的能力和局限性的看法,围绕完美语言建模可以达到人类智能程度这一主题:玩这个游戏意味着要解决AI...
谷歌|SLiC-HF方法反馈矫正有效信息
基于人工反馈的序列似然校准:通过利用人工反馈数据进行序列似然校准:SLiC-HF方法提供了一种简单高效的方式来提升语言模型性能,通过学习人工反馈来对齐语言...
谷歌&斯坦福|DoReMi方法优化预训练数据领域的混合比例,加速大模型语言训练
这篇论文旨在解决语言模型预训练中数据混合比例对性能的影响问题,利用分组分布式鲁棒优化(Group DRO)训练小型代理模型来生成领域权重(混合比例)。该方法...