["英伟达和Hugging Face、ServiceNow发布了StarCoder2模型","StarCoder2可以执行代码生成、补全、调试等任务","StarCoder2系列模型包括30亿参数模型、70亿参数模型和150亿参数模型","开发人员可以利用StarCoder2提高工作效率","StarCoder2采用BigCode Open RAIL-M许可证,允许免费访问和使用"]
大规模代码生成预训练模型
Bigcode
$2
输入tokens/百万
-
输出tokens/百万
8
上下文长度
Kiy-K
Fyodor-StarCoder2-7B-MoE是基于StarCoder2-7B的增强版本,采用混合专家架构,拥有3个MoE层、6个专家网络和top-2路由机制,在代码生成、函数调用和智能体任务方面表现优异。
tensorblock
StarCoder2-3B 是一个专注于代码生成的3B参数量的开源模型,由BigCode团队开发。
bigcode
首个完全通过开放透明流程训练的自对齐代码大语言模型,专为单轮编程指令响应设计
HuggingFaceH4
StarChat2是基于StarCoder2微调的160亿参数编程助手模型,擅长对话和代码生成任务
TechxGenus
starcoder2-instruct是基于starcoder2-7b进行微调的代码生成模型,使用额外的7亿高质量代码标记进行了3轮微调,在HumanEval-Python上达到73.2 pass@1的优异成绩,专门针对代码生成任务优化
基于starcoder2-3b模型微调的大语言模型,专注于代码生成任务,在HumanEval-Python测试中达到65.9 pass@1的成绩
nold
StarCoder2-3B是一个拥有30亿参数的代码生成模型,基于17种编程语言数据训练,能够生成代码片段但可能不完全准确。
StarCoder2-7B是一个70亿参数的代码生成模型,训练于17种编程语言,支持16,384个标记的上下文窗口。
StarCoder2-15B是一个150亿参数的代码生成模型,基于600多种编程语言训练,支持16K上下文窗口和滑动窗口注意力机制。
StarCoder2-3B是一个拥有30亿参数的代码生成模型,基于17种编程语言训练而成,支持16,384标记的上下文窗口。