标签:数据集

DGraph: 大规模动态图数据集

旨在服务图神经网络、图挖掘、社交网络、异常检测等方向的研究人员,DGraph 一方面可以作为验证相关图模型性能的标准数据,另一方面也可用于开展用户画像、网...

AI Open2022|基于异质信息网络的推荐系统综述:概念,方法,应用与资源

推荐系统旨在为用户过滤掉不相关的信息。越来越多的工作提出在推荐系统中引入辅助信息来缓解数据稀疏和冷启动问题,基于异质信息网络(HIN)的推荐系统提供了一...

Nat. Mach. Intel. | 一种用于分子相互作用和分子性质预测自动图学习方法

作者还提出一种新的分子鲁棒性实验方法,尤其是图学习方法有可能显著提高药物发现效率,它们能从现有药物相关数据集中进行学习。这也是机器学习能够从广阔的...

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

基于孪生Transformer编码器的表示模型已成为高效文本匹配的主流技术,通过注意力图提取将交互知识从基于交互的模型转移到孪生编码器,对话代理需要通过预测用...

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

基于孪生Transformer编码器的表示模型已成为高效文本匹配的主流技术,通过注意力图提取将交互知识从基于交互的模型转移到孪生编码器,对话代理需要通过预测用...

微软|MLCopilot:释放大型语言模型在解决机器学习任务中的能力

利用最先进的语言模型(即LLMs为新型机器学习任务开发机器学习解决方案,该研究展示了LLM扩展到理解结构化输入和执行彻底推理的可能性,本篇论文旨在解决机器...

NAACL-22 | 在基于Prompt的文本生成任务上引入迁移学习的设置

预训练语言模型通过微调的方式在文本生成任务中取得了显著的进展,通常无法直接进行微调。本文提出基于prompt的迁移学习的设定。作者先为源领域上的不同任务...

NetGPT:用于网络流量的生成预训练Transformer模型

本文旨在解决网络流量预训练模型的问题。以提高下游任务(如流量分类、攻击检测、资源调度、协议分析和流量生成)的训练效率和有效性,进一步优化了预训练模...

在大型语言模型中基于迭代bootstrapping增强思维链提示

本篇论文旨在解决大型语言模型在推理任务中可能出现的错误推理问题,通过迭代自我纠正来选择合适的示例和生成推理链。Iter-CoT在11个数据集上的三个不同推理...

复旦大学 MOSS 大模型今日开源:超 100 万条对话训练数据

成为国内首个插件增强的开源对话语言模型。打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径,基座模型在约110万多轮对话数据上微调得到:基...
1 2 3