deepcogito
Cogito v2.1は、命令微調整を行った6710億パラメータの混合専門家生成モデルで、オープンライセンスで公開され、商用利用が可能です。このモデルは、複雑な推論と命令遵守の問題を効果的に解決でき、30種類以上の言語と128kのコンテキスト長をサポートします。
bartowski
これはdeepcogitoのcogito-v2-preview-llama-109B-MoEモデルの量子化バージョンで、llama.cppを使用して量子化処理を行い、さまざまなハードウェア条件に適応するための複数の量子化タイプを提供します。このモデルは109Bパラメータの混合専家(MoE)大規模言語モデルで、最適化後は消費者向けハードウェアで実行できます。
これはdeepcogitoのcogito-v2-preview-llama-70Bモデルを量子化処理したバージョンで、Llama.cppのimatrix量子化技術を使用し、良好なパフォーマンスを維持しながら、モデルの保存と計算リソースの要件を大幅に削減し、リソース制限のある環境に適しています。
Cogito v2は命令微調整された生成型混合推論モデルで、反復蒸留と拡大訓練方法を採用し、コーディング、STEM、命令遵守などの面で優れた性能を発揮し、30種類以上の言語と128kのコンテキスト長をサポートします。
Cogito v2は命令調整された生成型大規模言語モデルで、混合専門家アーキテクチャを採用し、1090億のパラメータを持っています。このモデルは多言語処理と長文脈推論をサポートし、コーディングやSTEMなどの分野で優れた性能を発揮し、商用利用もサポートしています。
Cogito v2は命令調整に基づく生成型大規模言語モデルで、混合推論能力を備え、128kの文脈長と多言語処理をサポートしています。このモデルは反復蒸留と拡大(IDA)の訓練戦略を採用し、コーディング、STEM、命令遵守などのタスクで優れた性能を発揮します。
Cogito v2はLlama-3.1-70Bに基づく命令調整生成型モデルで、混合推論能力を備え、多言語と長いコンテキストをサポートし、コーディング、STEMなどの分野で優れた性能を発揮します。反復蒸留と拡大訓練戦略を採用し、商用目的に使用できます。
tensorblock
Llamaアーキテクチャに基づく3Bパラメータの言語モデルで、様々なハードウェア要件に対応する複数量化バージョンを提供
cortexso
DeepCogitoが提供する反復蒸留と拡大(IDA)トレーニングによる強力なハイブリッド推論モデルで、プログラミング、STEM、多言語、エージェントアプリケーションのシナリオで優れたパフォーマンスを発揮します。
mlx-community
これはLlamaアーキテクチャに基づく70Bパラメータの大規模言語モデルで、6ビット量子化処理が施され、テキスト生成タスクに適しています。