Loading...

PMC-LLaMA: 用医学论文微调LLaMA

本文提出一种基于生物医学文献的预训练语言模型PMC-LLaMA,大型语言模型(LLMs)由于缺乏领域特定知识而表现不佳的问题,作者通过在4.8百万篇生物医学论文上...

Nature|语言模型用于疾病抗体疗法

类似于ChatGPT背后的语言模型已被用于改进针对新冠肺炎、埃博拉和其他病毒的抗体疗法。并帮助为抵制传统设计方法的目标解锁抗体药物:Hie、Kim和他们的同事使...

KnowledgeGPT:从各种信息源中提取知识并使用GPT-3生成答案

用于从各种信息源中提取知识并使用OpenAI的GPT-3模型生成答案的工具。支持从互联网、本地数据、YouTube字幕和音频等各种信息源中提取文本。OpenAI的GPT-3模型...

CMU & Meta|逼真生成式3D人脸模型研究

提出一种3D可控生成人脸模型的方法。结合了2D人脸生成模型和语义人脸处理,能编辑具有细节的3D渲染人脸,Meta],2D人脸模型难以准确分离面部属性:限制了其编辑...

NAACL-22 | 在基于Prompt的文本生成任务上引入迁移学习的设置

预训练语言模型通过微调的方式在文本生成任务中取得了显著的进展,通常无法直接进行微调。本文提出基于prompt的迁移学习的设定。作者先为源领域上的不同任务...

GPT-3当一作自己研究自己,已投稿,在线蹲一个同行评议

GPT-3写了一篇关于自己的论文,GPT-3已经撰写过新闻报道,她决定搞出一篇完整的论文:先让GPT-3对上一次生成的500字小论文来一个200字的总结,接下来是分别对...

Nature :生成式 AI 的前景与风险 (二)【好文译递】第 6 期

如果说之前推出的【论文速读】是领读顶会严谨的实证研究论文,没有输出控制的大语言模型很容易被用于生成仇恨性言论和垃圾邮件。以及如种族主义、性别歧视等...

ImpressionGPT: 利用ChatGPT对放射科报告进行总结的迭代优化框架

尽管最近的研究在自动生成印象方面取得了可喜的成果,使用大规模的医疗文本数据对预训练的语言模型进行预训练和微调。但这种模型往往需要大量的医疗文本数据...

ICLR 2022 | 基于对抗自注意力机制的预训练语言模型

使模型在被污染的模型结构中得到训练,分布的平滑)加入原始的注意力结构中。这些先验知识能够让模型从较小的语料中学习有用的知识。但是这些先验知识一般是...

NetGPT:用于网络流量的生成预训练Transformer模型

本文旨在解决网络流量预训练模型的问题。以提高下游任务(如流量分类、攻击检测、资源调度、协议分析和流量生成)的训练效率和有效性,进一步优化了预训练模...
1 907 908 909 910 911 915