Liquid AIがLFM2-8B-A1Bモデルを発表。スパースMoEアーキテクチャを採用し、総パラメータ8.3Bながら1.5Bのみ活性化。エッジデバイス向けに最適化され、高効率なリアルタイム処理を実現。....
DeepMindがGemini Roboticsを発表。思考可能なロボットを実現し、従来の固定タスクから生成AIによる動作指示へ進化。ロボット技術の革新を期待。....
シンガポールのCNAはAI技術でニュース編集室を革新し、効率と品質向上を図っている。1.5億世帯に配信する同局は2019年からAIを活用し、編集長はAIが業界を変革すると指摘。初期段階では補助ツールとして認識。....
2025年8月、豆包は6.6%増で1.57億MAUを達成し、DeepSeekを抜いて1位に返り咲いた。腾讯元宝は22.4%増でTOP10の3位(1000万~1億MAU)、kimi4位、即夢AI5位と、AIアプリ市場の競争が激化している。....
大規模言語モデルの視覚推論能力を向上させるための、テキスト迷路解決タスクを用いた革新的な手法
強化学習によって最適化された大規模言語モデルで、数学問題解決能力の向上に特化しています。
Doubao-1.5-proは、推論性能とモデル能力の究極的なバランスに重点を置いた、高性能なスパースMoE(Mixture of Experts)大規模言語モデルです。
DeepSeek-R1-Distill-Qwen-1.5Bは、様々な自然言語処理タスクに適した、高効率推論のオープンソース言語モデルです。
google
$18
入力トークン/百万
$72
出力トークン/百万
2M
コンテキスト長
$1.08
$4.32
1M
$0.58
$2.16
ai21-labs
$14.4
$57.6
256k
deepseek
-
128k
$1.44
$2.88
bytedance
$4
$16
$1.5
$4.5
$0.8
$0.2
32k
$5
$9
AbstractPhil
これは実験的なStable Diffusion 1.5蒸留モデルで、v - 予測流れマッチング方法と幾何誘導の適応的ブロック重み付け技術を採用しています。現在は研究段階にあり、訓練が進行中で、結果はまだ検証されていません。
Kwai-Keye
快手Keye-VLは快手Keyeチームによって開発された最先端のマルチモーダル大規模言語モデルで、ビデオ理解、視覚認知、および推論タスクで卓越した性能を発揮します。1.5バージョンは革新的な高速・低速ビデオコーディング戦略、LongCoTコールドスタートデータパイプライン、および強化学習トレーニング戦略を通じて、ビデオ理解、画像認知、および推論能力において新たな高みに到達し、最大128kトークンの拡張文脈長をサポートします。
mradermacher
これはVeri - Code/ReForm - SFT - 1.5Bモデルの静的量子化バージョンで、コード生成、強化学習、形式検証などのタスクに最適化されており、複数の量子化タイプを選択でき、推論効率を大幅に向上させます。
bartowski
NVIDIA OpenReasoning - Nemotron - 1.5Bの量子化バージョンで、llama.cppツールを通じて最適化され、さまざまなハードウェアでの実行効率とパフォーマンスが向上します。
nvidia
OpenReasoning-Nemotron-1.5Bは、Qwen2.5 - 1.5B - Instructに基づく大規模言語モデルで、数学、コード、科学の解決策に関する推論タスクに特化しています。
Mungert
Kanana 1.5はKananaモデルシリーズの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、最大32Kトークンの入力を処理可能で、YaRN使用時には128Kトークンまで処理可能です。
facebook
MobileLLM-ParetoQは、モバイルデバイス向けに最適化された極低ビットの大規模言語モデル量子化フレームワークで、1ビット、1.58ビット、2ビット、3ビット、4ビットの量子化設定をサポートし、高いパフォーマンスを維持しながらリソース消費を大幅に削減します。
GSAI-ML
LLaDA 1.5は、分散削減嗜好最適化(VRPO)手法で訓練された大型拡散言語モデルで、テキスト生成の品質と効率の向上に特化しています。
SynthLabsAI
ALP_DeepScaleR_1.5B_C16KはDeepScaleR - 1.5Bモデルをベースに、適応的長さペナルティ(ALP)方法を用いて訓練されたモデルで、性能を維持しながらトークン使用量を大幅に削減できます。
kakaocorp
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力において前世代と比べて大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
Kanana 1.5はKakaoが開発したバイリンガル大規模言語モデルで、プログラミング、数学、関数呼び出し能力が大幅に向上し、32Kトークンのコンテキスト長をサポート、YaRN拡張技術により128Kトークンの超長文処理が可能です。
mlx-community
Qwen2アーキテクチャに基づく1.5Bパラメータ規模の中国語・英語バイリンガル汎用テキスト埋め込みモデルで、文の類似度計算とテキスト検索タスクに特化しています。
speakleash
これはポーランド語の1.5Bパラメータ命令ファインチューニングモデルで、SpeakLeashのBielikシリーズを基に開発され、テキスト生成タスクに適しています。
ZR1-1.5Bは小型の推論モデルで、コーディングと数学問題に関して大量の強化学習訓練を受けています。このモデルは複雑なコーディングタスクでLlama-3.1-70B-Instructよりも優れた性能を発揮し、基礎モデルよりも50%以上の向上を達成しています。わずか1.5BのパラメータでGPQA-Diamondで37.91%のpass@1正解率を達成しています。
prithivMLmods
Deepthink-1.5B-Open-PRMは1.5Bパラメータのオープンソース言語モデルで、llama.cppで使用できるようGGUF形式に変換されています。
Astroboy
Stable Diffusion 1.5でトレーニングされた等距離視点の都市風景生成モデル
tdh111
マイクロソフトが開発した1.58ビット量子化大規模言語モデル、効率的な推論のために設計され、IQ2_BNとIQ2_BN_R4の2つの量子化バージョンを提供
tiiuae
Falcon-E-3B-Instructは1.58ビットアーキテクチャに基づく高効率な言語モデルで、エッジデバイス向けに最適化されており、優れた推論能力と低メモリ消費を特徴とします。
Falcon-E-1B-Instructは、1.58ビットアーキテクチャに基づく効率的な言語モデルで、エッジデバイス向けに最適化されており、低メモリ使用量と高性能を特徴としています。
Falcon-EはTIIが開発した1.58ビット量子化言語モデルで、純粋なTransformerアーキテクチャを採用し、効率的な推論のために設計されています
Google Gemini 1.5 Proモデルに基づくコンテンツのインテリジェント要約サービス
このプロジェクトは、Gemini Flash 1.5 APIに基づくMCPサーバーの実装で、中央ルーターによって複数のモジュール化されたAIサービス(チャット、検索、RAG、深層推論など)を調整し、インテリジェントなリクエストの配信と応答処理を実現します。
Gemini Flash 1.5 APIに基づくMCPサーバーの実装で、中央ルーターを通じて複数のモジュール化されたAIサービス(チャット、検索、RAG、深層推論など)を調整し、インテリジェントなリクエスト配信と応答統合を実現します。