自然语言处理
针对开放条件下基于深度学习的自然语言处理健壮性不高、推理能力弱以及可解释性差等核心挑战,探索从数据驱动到知识驱动的范式跃迁
数学能力超ChatGPT!上海交大团队登开源榜首
上海交大GAIR实验室发布了一款名为Abel的国产数学大模型,准确率高达83.6%,在开源模型中排名第一。该模型以挪威数学家尼尔斯·阿贝尔的名字命名,向他在代数...
GPT-4被曝重大缺陷,35年前预言成真!所有LLM正确率都≈0,惹Karpathy马库斯惊呼
一项研究发现,大型语言模型存在一种“逆转诅咒”,即使学习了“A是B”,它们也无法推理出“B是A”。这意味着,这些模型在处理自然语言时可能存在一些限制和缺陷。...
完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光
Meta的Code Llama算法在开源后,迎来了大量的二次创作,其中WizardCoder以73.2%的胜率击败了GPT-4。OpenAI员工称Llama 3能够战胜GPT-4,并将继续开源。Code L...
ICCV 2023:探索基于生成模型的 Backbone 预训练
该文章介绍了一个名为DreamTeacher的自监督学习方法,可以将预训练的生成网络的知识蒸馏到目标图像的Backbone中,无需标签。该方法主要研究了特征蒸馏。该研...
免费下载:隐私计算在医疗健康大数据上的应用与技术实现
电子书《医疗AI技术》收录了多家企业的AI+医疗实践,包括模型与训练、知识图谱、联邦学习及隐私计算等。该书能够帮助企业和开发者了解真实医疗场景中的AI技术...
百度推出「AI 大模型产业应用」教程!
Datawhale学习联合发布了文心大模型和飞桨官方科技爆炸,大模型通过海量数据和复杂算法,刻画出AI世界的精妙法则,让企业能够借助大模型,解决一系列问题。大...
清华:大语言模型综合性能评估报告(附下载)
本文为大语言模型综合性能评估报告,如需下载完整报告,请在水木人工智能学堂公众号回复关键词“ai584”获取下载链接。报告内容部分来自互联网,转载请注明原文...
ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响
本文介绍了ICML 2023的工作,重点介绍了一篇论文标题为“A Study on Transformer Configuration and Training Objective”的研究。该研究探讨了Transformer模型...
不要浪费你的情绪:情绪调节的过程模型
究中心的研究表明,情绪是人类对世界的理解和经验的反应。情绪调节是指人们通过采取不同的策略来管理和调节自己的情绪,以适应不同的情境和环境。情绪调节对...
字节大神,直接火了!
Datawhale分享了来自字节跳动大佬的算法/计算机进阶指南,其中包括了Github霸榜的算法模板《labuladong的算法小抄》和另一份资料。据称,很多人通过这份指南...