标签:大模型

Google & Google DeepMind|面向不确定性量化的莫尔斯神经网络

面向不确定性量化的莫尔斯神经网络。如何量化神经网络预测的不确定性成为了一个关键问题。特别是当神经网络面对离群数据(Out-Of-Distribution,开发能够量化...

Google Research|数据集均衡化可能会影响模型性能

数据集均衡化可能会影响模型性能,可能会导致模型偏向于常见类别的性能。许多研究者使用数据集平衡技术来改善模型的性能,虽然平衡可以提高公开的 AudioSet ...

编程教育中的生成式人工智能:ChatGPT、GPT-4和人类导师的基准测试

编程教育中的生成式人工智能:ChatGPT、GPT-4和人类导师的基准测试,人工智能和大型语言模型在提升计算教育方面具有巨大的潜力。可以为初级编程提供下一代教...

The Shaped Transformer:无限深度和宽度限制下的注意力模型

无限深度和宽度限制下的注意力模型。随着Transformer模型的成功:本文研究了一个修改过的基于Softmax的注意力模型在无限深度和宽度比例限制下的协方差矩阵,...

ChatGPT机器人应用:设计原则和模型能力

对OpenAI的ChatGPT在机器人应用中的使用进行实验研究。概述了一种结合提示工程设计原则和创建高级函数库的策略:使ChatGPT能够适应不同的机器人任务、模拟器...

Statler: 面向具身推理的状态维持语言模型

面向具身推理的状态维持语言模型,大型语言模型(LLM)为机器人执行复杂的推理任务提供了有希望的工具,现代LLM的有限上下文窗口使得在长时间范围内进行推理变...

谷歌|大语言模型是有效的成对排序提示文本排序器

大语言模型是有效的成对排序提示文本排序器,尽管大型语言模型(LLM)在许多自然语言任务中表现出了令人印象深刻的性能。但是在重要的文本排名问题上,以改善LL...

语言大模型的进化轨迹

ChatGPT的发布是语言大模型(LLM)发展史的转折点,该企业创建由LLM提供支持的自定义NLP模型,并领导了自动学习工具、用户友好的深度学习框架以及各种机器学...

苹果AI领导者Ali Farhadi加入艾伦人工智能研究所,任首席执行官

他将重新加入总部位于西雅图的艾伦人工智能研究所(AI2)。后者在近十年前被已故微软联合创始人Paul Allen选中推出了AI2。并表示他将继续担任AI2孵化器的董事...

GPT-Engineer|提需求即可生成整个代码库,已20K星

创建一个软件项目就像和好友聊天一样简单,生成的技术非常规范;用户可以添加推理步骤,用户可以使用高级提示,GPT-Engineer 会询问一些用户输入的比较模糊的...
1 7 8 9 10 11 23