人工知能分野に新たな輝く星が加わりました!このほど、ファーウェイ諾亞方舟研究所と香港大学自然言語処理グループ(HKU NLP Group)は、Dream7Bと呼ばれる新しい言語モデルを共同で発表しました。このモデルは、これまでで最も強力なオープンソース拡散大規模言語モデルと称賛されています。Dream7Bの登場は、既存の拡散言語モデルを性能面で凌駕するだけでなく、汎用能力、数学、コード、計画能力においても、同規模の最先端の自己回帰(AR)言語モデルに匹敵、あるいはそれを上回っています。
元象オープンソース高性能大規模言語モデル XVERSE-65B-2 ベース版は、コードと数学能力の向上に特化しています。XVERSE-65B-2 は、継続的プリトレーニング (Continual Pre-Training) により最適化され、総トークン数は3.2兆に達します。元象の大規模言語モデルは、総合的な評価においてGPT3.5やLlama2-70Bを上回り、オープンソースのベンチマークを全面的に凌駕しています。XVERSE-65BはSuperCLUE中国語汎用大規模言語モデル…
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
-
$0.7
$2.8
Anthropic
$7
$35
200
$17.5
$21
$105
Alibaba
$1
$10
256
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
Moonshot
$4
$16
$0.8
32
cpatonn
Qwen3-30B-A3B-Thinking-2507は量子化処理された大規模言語モデルで、強化された推論能力、汎用能力、長文脈理解能力を持っています。このモデルは混合エキスパートアーキテクチャを採用しており、論理推論、数学、科学、コーディングなどの複雑なタスクで優れた性能を発揮し、262,144トークンの長文脈処理をサポートしています。
zai-org
GLM-4-Z1-9B-0414は智譜AIが発表した新世代の90億パラメータのオープンソース大規模言語モデルで、強力なテキスト生成と推論能力を持っています。このモデルは数学的推論と汎用タスクで優れた性能を発揮し、リソースが制限されたシナリオで効率と効果のバランスを見事に実現し、友好的なローカルデプロイをサポートしています。
Locutusque
Qwen2.5-7Bベースモデルを基に、コード、数学、汎用命令能力を融合した多言語大規模言語モデル
MathLLMs
MathCoderシリーズのオープンソース大規模言語モデル。汎用数学問題解決のために設計され、Llama-2をファインチューニング