バイチューティングのAIプラットフォーム「コウズ」は2.0バージョンにアップグレードされ、単純な質問応答モードから長期計画、深いオフィス作業およびクラウド協力能力を持つ包括的なプラットフォームへと進化した。コアとなる新機能として、エージェントスキル機能が追加され、シナリオ実践とツールを深く統合し、例えばマーケティングコピーにおいて専門的な枠組みを呼び出し、調査ツールを統合して品質検証を行うことができる。
美团LongCatチームが動画生成モデル「LongCat-Video-Avatar」をオープンソース化し、バーチャルヒューマン技術の発展を推進。長編動画生成に優れ、音声・テキストから動画生成、動画続き作成など多機能で開発者から注目を集めている。....
Googleはモバイルで「AI概要+AIモード」統合機能をテスト中。検索結果ページで直接会話を展開でき、テキスト・音声・画像入力に対応。従来の3倍の対話長を実現し、引用元とランキングを保持。ユーザーの選択コストを削減し、連続質問と即時応答を可能にします。....
GoogleがGemini3大規模言語モデルを発表。AI StudioプラットフォームでPro Preview版を公開し、開発者や研究者向けにコンテキスト長や温度などのパラメータ調整機能を提供。....
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
Baidu
128
$6
$24
256
$2
$20
$4
$16
Bytedance
$1.2
$3.6
4
IbrahimSalah
これは300時間の純粋なアラビア語音声データを基に微調整されたテキスト音声変換モデルで、完全な母音記号付きの現代標準アラビア語に特化した高品質な音声合成を提供し、音声クローンと長文処理機能をサポートしています。
QuantTrio
MiniMax-M2-AWQは、MiniMaxAI/MiniMax-M2モデルをベースとした量子化バージョンで、vLLMフレームワークを通じて効率的なテキスト生成を実現します。このモデルはAWQ量子化技術を採用し、モデルの性能を維持しながら、メモリ使用量を大幅に削減し、推論速度を向上させます。32Kのコンテキスト長とツール呼び出し機能をサポートしています。
unsloth
Granite-4.0-H-Tinyは、IBMが開発した70億パラメータの長文コンテキスト命令モデルで、Granite-4.0-H-Tiny-Baseをベースに微調整されています。このモデルは、オープンソースの命令データセットと内部合成データセットを組み合わせ、監督微調整、強化学習アライメント、モデルマージなどの技術を用いて開発され、強化された命令追従とツール呼び出し機能を備えており、特に企業向けアプリケーションに適しています。
Qwen
Qwen3-VLはQwenシリーズの中で最も強力な視覚言語モデルで、卓越したテキスト理解と生成能力、深い視覚知覚と推論能力、長いコンテキストのサポート、強力な空間とビデオ動態理解能力、そして優れたインテリジェントエージェント対話能力を備えています。このバージョンはハイブリッドエキスパートモデルアーキテクチャを採用し、強化された推論思考機能をサポートしています。
zai-org
GLM-4.6-FP8は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較していくつかの重要な点で著しい改善が見られます。このモデルはより長い文脈ウィンドウ、卓越したコーディング性能、高度な推論能力、およびより強力なエージェント機能を備えており、より複雑なタスクを処理することができます。
OpenGVLab
VideoChat-R1_5-7BはQwen2.5-VL-7B-Instructをベースに構築されたビデオテキストインタラクションモデルで、マルチモーダルタスクをサポートし、特にビデオ質問応答機能に長けています。このモデルは強化微調整により時空間知覚能力を強化し、反復知覚メカニズムを採用してマルチモーダル推論を強化しています。
ibm-granite
Granite-4.0-Micro-BaseはIBMが開発したデコーダーのみの長文脈言語モデルで、約15兆のトークンを使ってゼロから学習され、四ステージトレーニング戦略を採用しています。このモデルは様々なテキスト生成タスクに特化して設計されており、多言語と穴埋め式のコード補完機能をサポートしています。
Granite-4.0-H-Micro-BaseはIBMが開発したデコーダーのみの長文脈言語モデルで、幅広いテキスト生成タスクに設計されています。このモデルは4段階のトレーニングを経ており、合計約18兆個のトークンデータを使用しており、多言語テキスト生成とコード補完機能をサポートしています。
Granite-4.0-H-MicroはIBMが開発した30億パラメータの長文コンテキスト指令モデルで、Granite-4.0-H-Micro-Baseをベースに微調整されています。このモデルは、オープンソースの指令データセットと内部合成データセットを組み合わせて訓練され、多言語サポートと強化されたツール呼び出し機能を備え、企業アプリケーションで優れた性能を発揮します。
Infinigence
梅格レス2-3x7B-A3Bはデバイスネイティブの大規模言語モデルで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、MoEの正確性と密集モデルのコンパクト性の利点を兼ね備えています。このモデルは8Tトークンのデータで訓練され、32Kの文脈長を持ち、将来的には推論とエージェント機能の向上が計画されています。
owao
これはdriaforall/mem-agentモデルを変換したGGUF量子化バージョンで、Q4_K_M量子化レベルを採用しています。このモデルは記憶エージェント機能に特化しており、大量のコンテキスト情報を処理および想起することができ、長期記憶能力が必要な対話やタスク処理シーンに適しています。
DeepSeek-V3.1はDeepSeek-V3.1-Baseをベースに事後学習を行った大規模言語モデルで、128Kのコンテキスト長を持ち、混合思考モード、スマートツール呼び出し、コードエージェント機能をサポートしています。このモデルは複数のベンチマークテストで優れた成績を収めており、特に数学的推論、コード生成、検索エージェントタスクで顕著な向上が見られます。
scb10x
Typhoon2.1-Gemma3-12Bは、Gemma3アーキテクチャに基づいて構築されたタイ語命令型大規模言語モデルで、120億のパラメータを持ち、128Kのコンテキスト長と関数呼び出し機能をサポートし、主にタイ語と英語をサポートします。
aisingapore
Gemma-SEA-LION-v4-27B-IT-GGUFは、Gemma-SEA-LION-v4-27B-ITを量子化したモデルで、東南アジア地域のタスク向けに設計されています。128Kの大きなコンテキスト長、マルチモーダル理解能力、高度な関数呼び出し機能を備え、一般的なノートパソコンでも動作します。
Typhoon2.1-Gemma3-12Bは指令型のタイ語大規模言語モデルで、120億のパラメータ、128Kのコンテキスト長、関数呼び出し機能を持っています。
Typhoon2.1-Gemma3-4Bは命令型のタイ語大規模言語モデルで、40億のパラメータと128Kのコンテキスト長を持ち、関数呼び出し機能をサポートしています。
タイ語大規模言語モデル(指令調整版)、40億パラメータ、128Kコンテキスト長、関数呼び出し機能を備える
Typhoon2.1-Gemma3-12BはGemma3アーキテクチャを基にした120億パラメータのタイ語大規模言語モデルで、128Kのコンテキスト長と関数呼び出し機能をサポートしています。
zhiqing
Hugging Face transformersライブラリに基づく4Bパラメータの大規模言語モデルで、テキスト生成、思考モード切り替え、ツール呼び出し、長テキスト処理などの機能をサポートします。
NeuraLakeAi
ニューラルレイクiSA-03ミニ3Bはニューラルレイクテクノロジーが開発した先進的なAIモデルで、従来の大規模言語モデルの直接応答能力と自動多段階推論機能を融合し、256Kトークンの超長文コンテキスト処理をサポートします。
Cursor10xはAI駆動の開発メモリシステムで、Cursorエディタに永続的なコンテキストメモリ機能を提供し、短期/長期/情景/意味の4種類のメモリタイプを統合して、スマートなコード支援を実現します。
デスクトップコマンダーMCPは、Claudeデスクトップアプリがユーザーのコンピュータ上でターミナルコマンドを実行し、モデルコンテキストプロトコル(MCP)を通じてプロセスを管理できるサービスです。ターミナルコマンドの実行、プロセス管理、ファイルシステム操作、およびコード編集機能を提供し、長時間実行されるコマンドと差分ファイル編集をサポートしています。
Memento MCPは知識グラフベースのLLMメモリシステムで、意味検索、コンテキストの回想、時間感知機能を提供し、長期的な永続的な保存と効率的な検索をサポートします。
このプロジェクトには、モデルコンテキストプロトコル(MCP)に基づく2つのサーバーが含まれています。IoTデバイス制御サーバーとメモリ管理サーバーです。IoTサーバーは、デバイスの制御、状態の照会、およびリアルタイム更新機能を提供し、スマートホームや産業用IoTなどのシナリオに適しています。メモリ管理サーバーは、長期的なメモリ保存とセマンティック検索機能を提供し、会話履歴や知識管理などの分野に適しています。
MCP MemoryはElasticsearchに基づく永続的な記憶システムで、AI対話に長期的な記憶ストレージ機能を提供し、従来のAI対話におけるコンテキストの喪失問題を解決します。
MCP MemoryはElasticsearchに基づく永続的な記憶システムで、AI会話にセッションをまたいだ記憶の保存と検索機能を提供し、AIの忘却問題を解決し、長期的なコンテキスト関連付けを実現します。
メモリMCPサーバーは、大規模言語モデル(LLM)に長期記憶機能を提供するサーバーで、モデルコンテキストプロトコル(MCP)を実装することで、LLMの継続的な対話におけるコンテキスト認識能力を強化します。このプロジェクトはユーザーフレンドリーなAPIを提供し、コンテキスト情報の保存と検索をサポートし、拡張性があり、さまざまなLLMアーキテクチャに適用できます。
ComfyUI_StoryDiffusionはComfyUIベースのプラグインで、StoryDiffusionとMS - Diffusionモデルをサポートし、一貫した長いシーケンスの画像とビデオを生成するために使用されます。このプロジェクトは、二人のキャラクターの同時表示、ControlNet制御、Lora加速、テキストから画像への変換、画像から画像への変換など、さまざまな機能をサポートしています。