标签:论文

KDD 2022 | 通过知识增强的提示学习实现统一的对话式推荐

本文基于知识增强的提示学习提出一种统一的对话推荐系统。已有的对话推荐系统通常包含对话和推荐两个模块,并采用不同的模型或技术实现,导致模块之间存在语...

微软|MLCopilot:释放大型语言模型在解决机器学习任务中的能力

利用最先进的语言模型(即LLMs为新型机器学习任务开发机器学习解决方案,该研究展示了LLM扩展到理解结构化输入和执行彻底推理的可能性,本篇论文旨在解决机器...

PMC-LLaMA: 用医学论文微调LLaMA

本文提出一种基于生物医学文献的预训练语言模型PMC-LLaMA,大型语言模型(LLMs)由于缺乏领域特定知识而表现不佳的问题,作者通过在4.8百万篇生物医学论文上...

Nature|语言模型用于疾病抗体疗法

类似于ChatGPT背后的语言模型已被用于改进针对新冠肺炎、埃博拉和其他病毒的抗体疗法。并帮助为抵制传统设计方法的目标解锁抗体药物:Hie、Kim和他们的同事使...

CMU & Meta|逼真生成式3D人脸模型研究

提出一种3D可控生成人脸模型的方法。结合了2D人脸生成模型和语义人脸处理,能编辑具有细节的3D渲染人脸,Meta],2D人脸模型难以准确分离面部属性:限制了其编辑...

NAACL-22 | 在基于Prompt的文本生成任务上引入迁移学习的设置

预训练语言模型通过微调的方式在文本生成任务中取得了显著的进展,通常无法直接进行微调。本文提出基于prompt的迁移学习的设定。作者先为源领域上的不同任务...

GPT-3当一作自己研究自己,已投稿,在线蹲一个同行评议

GPT-3写了一篇关于自己的论文,GPT-3已经撰写过新闻报道,她决定搞出一篇完整的论文:先让GPT-3对上一次生成的500字小论文来一个200字的总结,接下来是分别对...

ImpressionGPT: 利用ChatGPT对放射科报告进行总结的迭代优化框架

尽管最近的研究在自动生成印象方面取得了可喜的成果,使用大规模的医疗文本数据对预训练的语言模型进行预训练和微调。但这种模型往往需要大量的医疗文本数据...

ICLR 2022 | 基于对抗自注意力机制的预训练语言模型

使模型在被污染的模型结构中得到训练,分布的平滑)加入原始的注意力结构中。这些先验知识能够让模型从较小的语料中学习有用的知识。但是这些先验知识一般是...

NetGPT:用于网络流量的生成预训练Transformer模型

本文旨在解决网络流量预训练模型的问题。以提高下游任务(如流量分类、攻击检测、资源调度、协议分析和流量生成)的训练效率和有效性,进一步优化了预训练模...
1 9 10 11 12 13 14