智源社区

神经网络训练失败的原因总结

本文分析了导致模型训练不收敛或失败的原因,从数据方面总结了四种可能的原因,模型方面总结了九种可能的问题,并提供了常规做法。在面对模型不收敛的时候,...

手把手教你使用人工智能生成游戏 3D 素材

AI在游戏开发中扮演重要角色,尤其在生成3D素材方面。但是,从文本到3D的实用性仍然落后于2D。本文介绍了如何将生成型AI集成到PS1风格的3D工作流中,以提高实...

GitHub 1.1万星,模拟软件开发流程,开源框架MetaGPT爆火

MetaGPT是一个开源框架,旨在将有效的人类工作流程作为元编程方法注入到LLM驱动的多智能体协作中。MetaGPT让多智能体的协作过程模拟软件开发公司的工作流程,...

Lecun报告《目标驱动AI:能学习、记忆、推理、规划、具备常识且可控安全的AI系统研究》

该文章提出了朝着能够学习、记忆、推理、规划、具备常识且可控制以及安全的人工智能系统迈进的目标。虽然自监督学习在文本、图像、视频等方面表现很好,但还...

斯坦福|半监督元学习时空学习

本文提出了一种半监督元学习方法,应用于视频数据的时空模式学习。方法包括使用预训练的掩码自编码器进行微调,训练MAE编码器并应用分类头,以及使用预训练的...

斯坦福|基于因果引导解缠的跨平台仇恨言论检测

本文提出了一种跨平台的仇恨言论检测模型,通过学习因果关系和解缠输入表示来实现对仇恨言论的有效检测和泛化。该方法将输入表示解缠为不变的和平台依赖的特...

AWS AI Labs|基于组合扩散模型的数据保护训练

本文提出了一种名为Compartmentalized Diffusion Models(CDM)的方法,可以在不同的数据源上独立训练,并在推理时进行组合,从而实现了对训练数据的保护。CDM...

面壁智能给大模型接入16000+真实API,效果直逼ChatGPT!

开源语言模型更好地使用各种工具,增强其复杂场景下推理能力,TsinghuaNLP、耶鲁、人大、腾讯、知乎的研究人员推出了ToolLLM工具学习框架,加入OpenBMB大模型...

Google Research|基于树的生成模型

该论文提出了一种基于树的生成模型,适用于稠密建模和表格数据生成,改进了最近提议的建模能力,并提出了一个简化了以前方法训练设置的训练算法,显示出与boo...

使用llama.cpp加速AquilaChat推理,可在苹果 M1上运行

Georgi Gerganov has developed an open-source project called llama.cpp, which enables developers to run Meta's Llama model on devices without advanc...
1 31 32 33 34 35 60