Baichuan
-
入力トークン/百万
出力トークン/百万
32
コンテキスト長
Qwen
WorldPM-72BはQwen2.5-72Bを微調整した世界選好モデリングモデルで、大規模訓練により統一的な人間の選好表現を学習
Mungert
Qwen2.5-72B-InstructのGGUF量子化バージョンで、複数の精度フォーマットをサポートし、様々なハードウェア環境での効率的な推論に適しています。
LoneStriker
Qwen2.5-72Bをベースに強化学習蒸留を行った高性能数学推論・汎用知識処理モデルで、数学推論と汎用知識タスクで優れた性能を発揮します。
YiXin-AILab
数学と汎用推論に最適化された高性能蒸留モデルで、Qwen2.5-72Bを基に強化学習で精製
GeoGPT-Research-Project
Qwen2.5-72B-GeoGPTは大規模言語モデルを基に開発された、地球科学研究を推進するためのツールです。先進的な基礎モデルの上に、一連の事後学習プロセスを通じて、地球科学の専門分野での能力を強化しています。
bartowski
Qwen2.5-72B-Instructを基にした量子化バージョン。llama.cppを使用して多様な量子化処理を行い、ローカル推論に適応
HPAI-BSC
オープンソース医療大規模言語モデル、複数の医療タスクで最先端レベルを達成、Qwen2.5-72Bを基に開発
EVA-UNIT-01
Qwen2.5-72Bをベースに微調整された大規模言語モデルで、テキスト生成と命令追従タスクに特化しています。
MaziyarPanahi
calme-3.2-instruct-78bはQwen2.5-72Bを基にした高度な進化版で、自己統合と微調整によって能力を強化した汎用領域の大規模言語モデルです。
calme-3.1-instruct-78bはQwen2.5-72Bを基にした高度な反復バージョンで、自己統合と微調整により能力を強化した汎用領域大規模言語モデルです
EVA Qwen2.5-72B v0.1は、Qwen2.5-72Bをベースに全パラメータを微調整した、専門的なロールプレイングとストーリーライティングのモデルです。このモデルは、合成データと自然データの混合データセットで訓練され、ロールプレイングとクリエイティブライティングの能力向上に重点を置いており、指令遵守、長文脈理解、全体的な一貫性に優れた性能を発揮します。
anthracite-org
これはQwen2.5-72B-Instructをベースに微調整された一連のモデルで、Claude 3モデル(特にSonnetとOpus)の散文の質を模倣することを目的としています。
Qwen/Qwen2.5-72B-Instructを基に微調整した高度な言語モデルで、自然言語理解と生成に優れた性能を発揮
ThomasBaruzier
Qwen2.5-72B-Instructはアリババの通義千問チームによって開発された大規模言語モデルで、727億のパラメータを持っています。このモデルは知識理解、コーディング能力、数学的推論、多言語対応の面で著しい向上が見られ、最大128Kトークンのコンテキスト長をサポートし、最大8Kトークンの内容を生成することができます。
CalamitousFelicitousness
Qwen2.5-72B-Instructはアリババが開発した720億パラメータの大規模言語モデルで、Qwen2のベースに大きく改良され、豊富な知識を持ち、優れたコーディングと数学能力を備え、長テキスト処理と多言語対話をサポートし、ユーザーに高品質のテキスト生成と対話サービスを提供できます。