标签:论文
北大|全面评估ChatGPT的信息抽取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,ChatGPT...
高效训练多模态大模型(BLIP-2)|OpenBMB论文速读第 6 期
【论文速读】是OpenBMB发起的大模型论文学习栏目,我们邀请来自清华大学自然语言处理实验室以及各大高校、科研机构的学术达人 作为主讲人分享大模型领域的论...
使用自然语言学习编程
提出了一种使用自然语言作为编程语言的方法。让人类和大型语言模型都能轻松理解任务过程,提出了编程学习的方法来教导语言模型生成自然语言程序,论文的关键...
使用自控记忆系统为大规模语言模型释放无限长度输入容量
论文旨在解决大型语言模型无法处理长文本输入的问题,提出了一种名为自控记忆系统(SCM)的解决方案。论文的关键思路是通过SCM系统解决大型语言模型无法处理...
评估ChatGPT的信息提取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,给出非...
谷歌,手机上在12秒内呈现稳定的扩散图像
Stable Diffusion 在图像生成领域的知名度不亚于对话大模型中的 ChatGPT。并且由于设备上的计算和内存资源有限,在设备上运行这些模型可能会导致延迟增加,这...
基于大型语言模型的语义压缩
本论文旨在探索利用大型语言模型(LLMs)进行近似压缩的可行性。并提出了两个新的度量标准来量化文本压缩和解压缩的语义准确性:论文还试图解决LLMs在处理大...
华盛顿大学&谷歌|用更少数据和更小模型超越更大的语言模型
这篇论文旨在解决使用大型语言模型(LLMs)进行实际应用所面临的内存效率和计算效率问题,旨在通过利用更少的训练数据来训练比LLMs更小的模型。它在多任务训...
MiniGPT-4解读
实际上,MiniGPT-4 应该是一个名字耽误了的开源项目。尽管现在它的 Star 数快要突破 1 万(睡醒可能就过了),但它值得更高的关注度。它的真正意义在于破解了...
GPT Daily | 04.18(千行百业)
快钱行业:我有个周入百万的项目:教人用ChatGPT 课程热销:一门关于ChatGPT的课程在17天内吸引了1万名学员,售价279元,共赚取270万元。 课程内容:...