["英偉達和Hugging Face、ServiceNow發佈了StarCoder2模型","StarCoder2可以執行代碼生成、補全、調試等任務","StarCoder2系列模型包括30億參數模型、70億參數模型和150億參數模型","開發人員可以利用StarCoder2提高工作效率","StarCoder2採用BigCode Open RAIL-M許可證,允許免費訪問和使用"]
大規模代碼生成預訓練模型
Bigcode
$2
輸入tokens/百萬
-
輸出tokens/百萬
8
上下文長度
Kiy-K
Fyodor-StarCoder2-7B-MoE是基於StarCoder2-7B的增強版本,採用混合專家架構,擁有3個MoE層、6個專家網絡和top-2路由機制,在代碼生成、函數調用和智能體任務方面表現優異。
tensorblock
StarCoder2-3B 是一個專注於代碼生成的3B參數量的開源模型,由BigCode團隊開發。
bigcode
首個完全通過開放透明流程訓練的自對齊代碼大語言模型,專為單輪編程指令響應設計
HuggingFaceH4
StarChat2是基於StarCoder2微調的160億參數編程助手模型,擅長對話和代碼生成任務
TechxGenus
starcoder2-instruct是基於starcoder2-7b進行微調的代碼生成模型,使用額外的7億高質量代碼標記進行了3輪微調,在HumanEval-Python上達到73.2 pass@1的優異成績,專門針對代碼生成任務優化
基於starcoder2-3b模型微調的大語言模型,專注於代碼生成任務,在HumanEval-Python測試中達到65.9 pass@1的成績
nold
StarCoder2-3B是一個擁有30億參數的代碼生成模型,基於17種編程語言數據訓練,能夠生成代碼片段但可能不完全準確。
StarCoder2-7B是一個70億參數的代碼生成模型,訓練於17種編程語言,支持16,384個標記的上下文窗口。
StarCoder2-15B是一個150億參數的代碼生成模型,基於600多種編程語言訓練,支持16K上下文窗口和滑動窗口注意力機制。
StarCoder2-3B是一個擁有30億參數的代碼生成模型,基於17種編程語言訓練而成,支持16,384標記的上下文窗口。