智源社区
实用指南|ChatGPT及其他大语言模型实用综述,Yann LeCun转发
旨在帮助他们在下游自然语言处理(NLP)任务中使用大语言模型(LLM),本文从模型、数据和下游任务的角度提供了关于LLM使用的讨论和见解,从而使这些模型在各种NL...
Stability AI发布Vicuna,第一个开源RLHF聊天机器人
为聊天调整语言模型所创造的用户体验一直是一个热门话题:这些聊天模型的成功得益于两种训练范式,虽然在建立帮助训练这类模型的开源框架方面做出了巨大的努...
斯坦福:别太迷信大模型涌现能力,那是度量选择结果
大模型的涌现与任务的评价指标强相关,它们不能通过简单地推断小规模模型的性能改进来预测。因为涌现的能力预示着更大的模型可能有一天会在没有警告的情况下...
大型语言模型能否成为人类评估的替代品?
本文探讨使用大型语言模型(LLMs)是否可以作为评估自然语言处理模型的替代方法,作者探索了使用LLMs评估文本质量的潜力,本文的新意在于提出了使用LLMs进行...
Unlimiformer:具有无限长度输入的长距离Transformer模型
这篇论文的目标是解决Transformer模型输入长度受限的问题。因为Transformer需要关注输入中的每个标记,Unlimiformer的关键思路是使用k最近邻索引来代替传统的...
北大|全面评估ChatGPT的信息抽取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,ChatGPT...
高效训练多模态大模型(BLIP-2)|OpenBMB论文速读第 6 期
【论文速读】是OpenBMB发起的大模型论文学习栏目,我们邀请来自清华大学自然语言处理实验室以及各大高校、科研机构的学术达人 作为主讲人分享大模型领域的论...
使用自然语言学习编程
提出了一种使用自然语言作为编程语言的方法。让人类和大型语言模型都能轻松理解任务过程,提出了编程学习的方法来教导语言模型生成自然语言程序,论文的关键...
使用自控记忆系统为大规模语言模型释放无限长度输入容量
论文旨在解决大型语言模型无法处理长文本输入的问题,提出了一种名为自控记忆系统(SCM)的解决方案。论文的关键思路是通过SCM系统解决大型语言模型无法处理...
评估ChatGPT的信息提取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,给出非...