大模型
参数数量非常庞大的深度神经网络或其他机器学习模型。
使用自然语言学习编程
提出了一种使用自然语言作为编程语言的方法。让人类和大型语言模型都能轻松理解任务过程,提出了编程学习的方法来教导语言模型生成自然语言程序,论文的关键...
使用自控记忆系统为大规模语言模型释放无限长度输入容量
论文旨在解决大型语言模型无法处理长文本输入的问题,提出了一种名为自控记忆系统(SCM)的解决方案。论文的关键思路是通过SCM系统解决大型语言模型无法处理...
评估ChatGPT的信息提取能力:性能、可解释性、校准和忠实度的评估
本文聚焦于ChatGPT在各种信息抽取任务上的系统性评测,针对于7个细粒度信息抽取任务和14个数据集,从模型性能、可解释性、校准度和忠实度这四个角度,给出非...
谷歌,手机上在12秒内呈现稳定的扩散图像
Stable Diffusion 在图像生成领域的知名度不亚于对话大模型中的 ChatGPT。并且由于设备上的计算和内存资源有限,在设备上运行这些模型可能会导致延迟增加,这...
基于大型语言模型的语义压缩
本论文旨在探索利用大型语言模型(LLMs)进行近似压缩的可行性。并提出了两个新的度量标准来量化文本压缩和解压缩的语义准确性:论文还试图解决LLMs在处理大...
符尧:我想为 MOSS 正名
是先前《拆解追溯 GPT-3.5 各项能力的起源》这篇文章的作者,是把模型训练得符合人类的期望:大部分已有的英文社区的开源模型并没有做中文 continue training...
华盛顿大学&谷歌|用更少数据和更小模型超越更大的语言模型
这篇论文旨在解决使用大型语言模型(LLMs)进行实际应用所面临的内存效率和计算效率问题,旨在通过利用更少的训练数据来训练比LLMs更小的模型。它在多任务训...