【AIニュース】KeLing 2.5 Turboモデルをリリースし、新たに「最初と最後のフレーム」機能を追加し、AI動画生成の制御性、安定性、一貫性を著しく向上させ、プロのクリエイティブコンテンツ制作にさらに優れた解決策を提供します。
微博のAI部門はオープンソースの大規模モデルVibeThinker-1.5Bをリリースしました。このモデルには15億のパラメータがあり、アリのQwen2.5-Math-1.5Bに基づいて最適化されており、数学とコードのタスクで優れた性能を発揮します。現在、Hugging Faceなどのプラットフォームで無料で公開されており、MITライセンスに従い、商用利用も可能です。
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
mlx-community
VibeThinker-1.5Bの4ビット量子化バージョンで、MLXフレームワークに基づいてAppleチップ向けに最適化されており、15億のパラメータを持つ密集型言語モデルで、数学的推論とアルゴリズムコーディングの問題に特化しています。
MaziyarPanahi
VibeThinker-1.5B-GGUFはWeiboAI/VibeThinker-1.5BモデルのGGUF量子化バージョンで、MaziyarPanahiによって量子化処理されました。このモデルは15億パラメータのテキスト生成モデルで、2ビットから8ビットまでの複数の量子化レベルをサポートし、さまざまなハードウェアで効率的に動作します。
DevQuasar
これはWeiboAI/VibeThinker-1.5Bの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトでは、最適化されたモデルの重みを提供し、モデルのデプロイと使用を容易にします。