Loading...

CodeT5+:非常灵活的、面向代码理解和生成的开放大型代码语言模型

大模型2年前 (2023)发布 智源社区
796 0 0

CodeT5+: Open Code Large Language Models for Code Understanding and Generation

Yue Wang, Hung Le, Akhilesh Deepak Gotmare, Nghi D.Q. Bui, Junnan Li, Steven C.H. Hoi
[Salesforce AI Research]

CodeT5+:面向代码理解和生成的开放大型代码语言模型

要点:

  • 动机:现有的代码大型语言模型在架构和预训练任务方面存在限制,无法灵活适应不同的下游代码任务,并在某些任务上达到最佳性能。
  • 方法:提出“CodeT5+”,一种用于代码的编-解码大型语言模型族,可以灵活组合组件模块以适应各种下游代码任务,并使用多样的预训练目标来减轻预训练-微调差异。
  • 优势:CodeT5+具有灵活的架构和丰富的预训练任务,能在各种代码相关任务上实现领先的性能,包括代码生成、数学编程和文本到代码检索等。

论文地址:https://arxiv.org/abs/2305.07922 

CodeT5+:非常灵活的、面向代码理解和生成的开放大型代码语言模型

提出CodeT5+,一种灵活的编解码大型语言模型,通过多样的预训练任务和灵活的架构,实现了在各种代码任务上的领先性能。

© 版权声明

相关文章

暂无评论

暂无评论...