自然语言处理

针对开放条件下基于深度学习的自然语言处理健壮性不高、推理能力弱以及可解释性差等核心挑战,探索从数据驱动到知识驱动的范式跃迁

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

基于孪生Transformer编码器的表示模型已成为高效文本匹配的主流技术,通过注意力图提取将交互知识从基于交互的模型转移到孪生编码器,对话代理需要通过预测用...

爱可可AI前沿推介(7.6)

神经网络分布漂移性能预测、语言模型的理由增强集成、具有无分布可靠性保证的推荐系统、延时摄影序列随机与循环效应的解缠、基于隐式差分的迭代细化算法训练...

KDD 2022 | 通过知识增强的提示学习实现统一的对话式推荐

本文基于知识增强的提示学习提出一种统一的对话推荐系统。已有的对话推荐系统通常包含对话和推荐两个模块,并采用不同的模型或技术实现,导致模块之间存在语...

NAACL-22 | 在基于Prompt的文本生成任务上引入迁移学习的设置

预训练语言模型通过微调的方式在文本生成任务中取得了显著的进展,通常无法直接进行微调。本文提出基于prompt的迁移学习的设定。作者先为源领域上的不同任务...

GPT-3当一作自己研究自己,已投稿,在线蹲一个同行评议

GPT-3写了一篇关于自己的论文,GPT-3已经撰写过新闻报道,她决定搞出一篇完整的论文:先让GPT-3对上一次生成的500字小论文来一个200字的总结,接下来是分别对...

Nature :生成式 AI 的前景与风险 (二)【好文译递】第 6 期

如果说之前推出的【论文速读】是领读顶会严谨的实证研究论文,没有输出控制的大语言模型很容易被用于生成仇恨性言论和垃圾邮件。以及如种族主义、性别歧视等...

ImpressionGPT: 利用ChatGPT对放射科报告进行总结的迭代优化框架

尽管最近的研究在自动生成印象方面取得了可喜的成果,使用大规模的医疗文本数据对预训练的语言模型进行预训练和微调。但这种模型往往需要大量的医疗文本数据...

ICLR 2022 | 基于对抗自注意力机制的预训练语言模型

使模型在被污染的模型结构中得到训练,分布的平滑)加入原始的注意力结构中。这些先验知识能够让模型从较小的语料中学习有用的知识。但是这些先验知识一般是...

NetGPT:用于网络流量的生成预训练Transformer模型

本文旨在解决网络流量预训练模型的问题。以提高下游任务(如流量分类、攻击检测、资源调度、协议分析和流量生成)的训练效率和有效性,进一步优化了预训练模...

NLPCC 2023丨Final Call for Papers

https,systems,standards;applications,◇ Applications/tools:◇ Theoretical:Papers currently under review in other conferences or journals are acceptable;
1 7 8 9 10