标签:自然语言处理
在大型语言模型中基于迭代bootstrapping增强思维链提示
本篇论文旨在解决大型语言模型在推理任务中可能出现的错误推理问题,通过迭代自我纠正来选择合适的示例和生成推理链。Iter-CoT在11个数据集上的三个不同推理...
ACL 2022 | 序列标注的小样本NER:融合标签语义的双塔BERT模型
论文标题:论文链接:https; ,总体思想就是在 meta-learning 的基础上。采用双塔 BERT 模型分别来对文本字符和对应的label进行编码,并且将二者进行 Dot ...
香港中文大学 | 自然语言推理的最新综述
【推荐理由】本文提出了关于自然语言处理(NLP)领域中自然语言推理的概念和实践上更清晰的视角。【摘要】这篇调查论文提出了关于自然语言处理(NLP)领域中...
超越PaLM!北大硕士提出DiVeRSe,全面刷新NLP推理排行榜
来自北大和微软的研究人员基于自洽的新方法DiVeRSe,进一步提升了模型的推理能力。https;即从语言模型中采样不同的推理路径,使用多个prompt生成答案;能够生...
FlagAI飞智:AI基础模型开源项目,支持一键调用OPT等模型
GPT-3、OPT系列、悟道等预训练模型在NLP领域取得了非常瞩目的效果,为了快速加载、训练、推理不同大模型,使用最新最快的模型并行技术以及提高用户训练和使用...
大型语言模型能否成为人类评估的替代品?
本文探讨使用大型语言模型(LLMs)是否可以作为评估自然语言处理模型的替代方法,作者探索了使用LLMs评估文本质量的潜力,本文的新意在于提出了使用LLMs进行...
Unlimiformer:具有无限长度输入的长距离Transformer模型
这篇论文的目标是解决Transformer模型输入长度受限的问题。因为Transformer需要关注输入中的每个标记,Unlimiformer的关键思路是使用k最近邻索引来代替传统的...
北大|全面评估ChatGPT的信息抽取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,ChatGPT...
高效训练多模态大模型(BLIP-2)|OpenBMB论文速读第 6 期
【论文速读】是OpenBMB发起的大模型论文学习栏目,我们邀请来自清华大学自然语言处理实验室以及各大高校、科研机构的学术达人 作为主讲人分享大模型领域的论...
华盛顿大学&谷歌|用更少数据和更小模型超越更大的语言模型
这篇论文旨在解决使用大型语言模型(LLMs)进行实际应用所面临的内存效率和计算效率问题,旨在通过利用更少的训练数据来训练比LLMs更小的模型。它在多任务训...