标签:大模型
Google DeepMind|更大、更好、更快:具有人类水平效率的人类水平Atari游戏
实现在Atari 100K基准测试中超越人类水平的性能,同时提高计算效率和样本利用率,介绍了一种基于价值估计的强化学习智能体(BBF),通过扩展用于价值估计的神经...
陈丹琦等|微调语言模型内存高效的零阶优化器MeZO,内存减少多达12倍
本文旨在介绍一种用于fine-tuning语言模型(LM)的低内存优化器——MeZO。本文提出了一个用于微调语言模型(LM)的内存高效的零阶优化器(MeZO)。MeZO采用经典...
艾伦研究院|SwiftSage:面向复杂交互式任务基于快思考和慢思考的生成式智能体
面向复杂交互式任务基于快思考和慢思考的生成式智能体,旨在优化复杂互动推理任务的行动规划。SWIFTSAGE结合了行为克隆和大型语言模型(LLM)提示的优势,SWIFT...
免费书|LangChain和LlamaIndex项目实践:将大型语言模型应用于现实世界
一本介绍如何利用LangChain和LlamaIndex项目以及OpenAI GPT-3和ChatGPT API解决一系列有趣问题的书,像GPT-3这样的大型语言模型(LLM)和像LangChain这样的基...
北大|思维链如何释放语言模型的隐藏能力
思维链提示(CoT)是大模型涌现中最神秘的现象之一,尤其在解决数学推理和决策问题中取得了惊艳效果。北大的几位研究者证明了CoT在实现大语言模型(LLM)推理...
符尧等|思想链中心:持续努力衡量大型语言模型的推理性能
随着大型语言模型(LLM)的不断发展,这是一个关于大型语言模型多步推理能力的开源评估套件,我们观察到复杂的推理可能是较弱和更强的LLM之间的关键区别,(2...
LLM 系列 | 05:ChatGPT Prompt的迭代优化
本文会以将一份产品说明书转为产品营销文案为例展开说明如何根据自己的需求优化Prompt:讨论了构造、尺寸、椅子选项、材料等等。现在想要使用这份说明书帮助营...
LLM 系列 | 04:ChatGPT Prompt编写指南
后续会持续整理模型加速、模型部署、模型压缩、LLM、AI艺术等系列专题。系统环境变量中配置变量:#将自己的API-KEY导入系统环境变量exportOPENAI_API_KEY='sk-...
分享|刘知远:大模型值得探索的十个研究方向
分享我们认为大模型值得探索的十个问题,希望更多研究者能够在大模型时代找到自己的研究方向,在像大模型这样的技术变革出现时,如何改善大模型中的安全伦理...
代码大模型综述:中科院和MSRA调研27个LLMs,并给出5个有趣挑战
它主要目的就是将自然语言转换成可执行代码来提高开发人员的工作效率。他们调研了 NL2Code 领域中的「27 个大型语言模型以及相关评价指标」。分析了「LLMs 的...