GPT-4とCodeLlamaを活用したオープンソースのコードインタープリター
zzra1n
CodeLlama-syz-toy はカーネルファジング専用に設計された簡易版モデルで、Syz-program(Syzkallerツールの入力形式)を生成するために使用されます。
tensorblock
CodeLlama-7b-hfのGGUF形式の量子化バージョンで、コード生成と理解タスクに適しています。
QuantFactory
TableLLM-13bはCodeLlama-13b-Instruct-hfをファインチューニングした大規模言語モデルで、表データ操作タスクに特化しており、スプレッドシートやドキュメント内の表データに適しています。
apipack
CodeLlama-13b-hfアーキテクチャを基にファインチューニングした大規模言語モデルで、API呼び出し生成タスクに特化して最適化
elsagranger
340億パラメータのCodeLlamaを基に構築された大規模言語モデルで、任意のプログラミング言語を低レベルアセンブリコードにコンパイル可能
JetBrains
KStackデータセットで微調整されたCodeLlama-7Bモデル、Kotlinコード生成に最適化
Chat2DB
CodeLlamaをファインチューニングした70億パラメータモデルで、自然言語からSQLへの変換タスク専用に設計されており、複数のSQL方言と16kのコンテキスト長処理をサポート
meta-llama
Code LlamaはMetaによって開発された70億から340億パラメータ規模のコード生成と理解モデルシリーズで、このモデルは340億パラメータの命令微調整バージョンです
Code LlamaはMetaがリリースした事前学習済み生成テキストモデルシリーズで、コード生成と理解タスク専用に設計されています。このモデルは340億パラメータのPython専用バージョンです。
Code LlamaはMetaがリリースした70億から340億パラメータのコード生成と理解モデルシリーズで、このバージョンは340億パラメータのベースモデルです
Code LlamaはMetaが発表した70億から700億パラメータ規模のコード生成・理解モデルシリーズで、本モデルは700億パラメータの命令微調整バージョンです
Code LlamaはMetaが提供する70億から700億パラメータ規模のコード生成・理解モデルシリーズで、本モデルは700億パラメータのベーシック版
Code LlamaはMetaがリリースした事前学習済みテキスト生成モデルシリーズで、コード生成と理解に特化しており、70億から340億パラメータの異なるバージョンが含まれています。
Code LlamaはMetaが発表した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、このモデルは130億パラメータのPython専用バージョンです
Code LlamaはMetaが開発した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、汎用コード生成と理解に適しています
Code LlamaはMetaがリリースしたコード生成と理解モデルのシリーズで、7Bから34Bパラメータの事前学習とファインチューニングバージョンを含みます。このモデルは7Bパラメータの命令ファインチューニング版で、コードアシスタントシナリオに最適化されています。
Code LlamaはMetaが開発した70億パラメータのコード生成モデルシリーズで、このバージョンはPython言語に特化して最適化されています
Code LlamaはMetaが提供する70億から340億パラメータ規模のコード生成・理解モデルシリーズで、このバージョンは7Bベースモデルです
tugraph
これはCodeLlama-7b-Instruct-hfをベースにファインチューニングしたGQL言語モデルで、TuGraph Analyticsグラフ計算システム向けに設計されています。
defog
強力な自然言語からSQLを生成する大規模言語モデルで、CodeLlama-7Bをファインチューニングしており、自然言語の質問をSQLクエリ文に変換するのに優れています