Liquid AIは2025年7月に第2世代のLiquid Foundation Models(LFM2)を発表しました。独自の「liquid」アーキテクチャを採用し、市場で最も高速な端末ベースの基本モデルを目指しています。高い訓練および推論能力により、小規模モデルがクラウド上の大規模言語モデルと競い合えるようにしました。LFM2はまず350M、700M、および1.2Bパラメータを持つ密度的なチェックポイントバージョンとして提供されます。
アリババの通義千問チームがNeurIPS 2025で最優秀論文賞を受賞。論文『Attention Gating Makes Better Foundation Models』は「スライドゲート」機構を提案し、標準アテンション後に学習可能なゲートを追加して重要ヘッドとトークンを動的に選別。1.7Bパラメータモデルが15B MoEモデルと同等性能を達成。応募2万件中4作品の受賞作で唯一の中国成果。....
AWSがAmazon Bedrock Custom Model Importを導入。20億・120億パラメータのGPT-OSSオープンソースモデルをAWSに移行可能。S3アップロード後、自動GPU設定・推論サーバー構築でAPI互換性を維持しつつ迅速なデプロイを実現。....
iOS26でFoundation Modelsを導入、AI大モデルをオフラインで無料利用可能に。アプリ「Lil Artist」が「AIストーリーメーカー」機能を追加、キャラクター選択でパーソナライズストーリー生成。....
Nano Banana APIを使用して画像の生成と編集を行い、直接NanoBanana AI Model APIにアクセスします。
Roblox Foundation Model for 3D Intelligence。
ほぼすべてのコンテンツをMarkdown形式に変換するためのModel Context Protocolサーバーです。
Model Context Protocolサーバーを使用して、言語モデルの機能を拡張します。
ModelCloud
これはMiniMax M2ベースモデルに基づく4bit W4A16量子化バージョンで、ModelCloudの@QubitumがGPT - QModelツールを使用して量子化しました。このモデルはテキスト生成タスクに特化して最適化されており、良好な性能を維持しながら、モデルサイズと推論リソースの要件を大幅に削減します。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4は、アリババのQwen2.5-VL-7B-Instructモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、マルチモーダル入力(テキストと画像)をサポートし、さまざまなAIアプリケーションシナリオに適しています。このモデルはTensorRT Model Optimizerを使用してFP4量子化され、NVIDIA GPU上で効率的な推論性能を提供します。
NVIDIA Qwen3-14B FP4モデルは、アリババクラウドのQwen3-14Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用した自己回帰型言語モデルです。このモデルはTensorRT Model Optimizerを使用して量子化され、重みと活性化をFP4データ型に量子化することで、NVIDIA GPU加速システム上で高効率な推論を実現します。
NVIDIA DeepSeek R1 FP4 v2は、DeepSeek AIのDeepSeek R1モデルに基づいてFP4量子化を行ったテキスト生成モデルで、最適化されたTransformerアーキテクチャを採用しており、商用および非商用用途に使用できます。このモデルはTensorRT Model Optimizerを通じて量子化され、FP8バージョンと比較してディスク容量とGPUメモリの要件が大幅に削減されています。
NVIDIA Qwen3-30B-A3B FP4モデルは、アリババクラウドのQwen3-30B-A3Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、自己回帰型言語モデルです。このモデルはTensorRT Model Optimizerを使用してFP4量子化を行い、各パラメータのビット数を16ビットから4ビットに減らし、ディスクサイズとGPUメモリ要件を約3.3倍削減しながら、高いパフォーマンスを維持します。
NVIDIA Qwen3-235B-A22B FP4モデルは、アリババクラウドのQwen3-235B-A22Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャに基づく自己回帰型言語モデルです。このモデルはTensorRT Model Optimizerを使用して量子化され、重みと活性化値をFP4データ型に量子化することで、ストレージと計算の要件を大幅に削減しています。
mykor
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
amd
PARD is a high-performance speculative decoding method that can convert autoregressive draft models into parallel draft models at low cost, significantly accelerating the inference of large language models.
luisgasco
ModernBERT-baseをファインチューニングしたモデルで、評価データセットでのF1スコアは0.3833
ZeroXClem
高性能で多分野にわたるAIモデルで、MergeKitのModel Stock融合技術を用いて構築され、複数の最適化されたQwen3-4Bモデルを統合しています。構造化出力や技術応用シナリオにおいて優れた推論、プログラミング、多段階問題解決能力を発揮します。
miscovery
エンコーダー-デコーダーアーキテクチャに基づく多言語トランスフォーマーモデルで、テキスト要約、翻訳、質問応答システムタスクをサポートします。
syscv-community
SAM-HQはSegment Anything Model(SAM)の強化版で、より高品質な物体マスクを生成でき、特に複雑な構造の物体処理に適しています。
SAM-HQはSegment Anything Model(SAM)の強化版で、点やボックスなどの入力プロンプトからより高品質なオブジェクトマスクを生成できます。
modelscope
Nexus-Genは大規模言語モデルの言語推論能力と拡散モデルの画像生成能力を融合させた統合モデルです
mergekit-community
これは複数の12Bパラメータ規模モデルを統合したバージョンで、model_stockメソッドを用いて7つの異なる特性を持つ事前学習済み言語モデルを融合し、総合能力を強化しています。
spacematt
Qwen2.5アーキテクチャに基づく14Bパラメータ規模のコード生成・理解モデル、Model Stock手法により複数の専門コーディングモデルを統合
DharunSN
Stable Diffusion 2.1-baseでトレーニングされた制御ネットワークの重みで、服生成タスク専用に設計されており、姿勢条件図を通じて服生成を制御可能
これはQwen2.5-14Bアーキテクチャに基づくマルチモデル融合の結果で、Model Stock融合手法を用いており、22の異なるソースからの14Bパラメータ規模のモデルを統合しています。
nadirzn
このモデルはTransformersライブラリに基づくモデルで、具体的な機能は明確に説明されていません。
Miaomiao-13579
これは拡散モデル(Diffusion Model)に基づく無条件画像生成モデルで、蝶のカテゴリの画像生成に特化しています。
AWS MCPサーバーは、Model Context Protocolに基づく専用サーバーのセットであり、ドキュメント検索、知識ベース照会、CDKのベストプラクティス、コスト分析、画像生成など、さまざまなAWS関連機能を提供します。標準化されたプロトコルを通じてAIアプリケーションとAWSサービスの統合を強化することを目的としています。
MCP Unityは、Model Context Protocolを実装したUnityエディター拡張機能で、AIアシスタントがUnityプロジェクトとやり取りできるようにし、UnityとNode.jsサーバーの間の橋渡しを提供します。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
AbletonMCPは、Model Context Protocol(MCP)を通じてAbleton LiveとClaude AIを接続する統合ツールで、双方向通信を実現し、AIがAbleton Liveを直接制御して音楽の創作と制作を行うことができます。
mcp-golangは、非公式のGo言語で実装されたModel Context Protocolライブラリで、MCPサーバーとクライアントを迅速に構築でき、型安全、低コード量、モジュール化、双方向通信などの特性を備えています。
このプロジェクトは、Sonar APIを統合したMCPサーバーの実装で、Claudeにリアルタイムのネットワーク検索機能を提供します。システムアーキテクチャ、ツールの設定、Dockerデプロイ、およびマルチプラットフォーム統合ガイドが含まれています。
MCP Unityは、Model Context Protocolを実装したUnityエディター拡張で、Node.jsサーバーを通じてAIアシスタントとUnityプロジェクトのインタラクションを橋渡しし、メニュー実行、オブジェクト選択、コンポーネント更新などの機能を提供します。
iMCPはmacOSアプリで、AIを通じてユーザーのデジタル生活をつなぎ、Claude DesktopなどのクライアントとModel Context Protocol (MCP)プロトコルでやり取りでき、カレンダー、連絡先、位置情報、地図、メッセージ、リマインダー、天気などの多様な機能を提供します。
MiniMax Model Context Protocol (MCP) は公式サーバーで、強力なテキスト読み上げ、ビデオ/画像生成APIとのやり取りをサポートし、Claude Desktop、Cursorなどの様々なクライアントツールに適しています。
Context7 MCPは、AIプログラミングアシスタントにリアルタイムのバージョン固有のドキュメントとコード例を提供するサービスで、Model Context Protocolを通じてプロンプトに直接統合され、LLMが古い情報を使用する問題を解決します。
Kubectl MCPツールは、Model Context Protocol (MCP)に基づくKubernetesインタラクションツールで、AIアシスタントが自然言語でKubernetesクラスターと対話できるようにします。
LINE Bot MCPサーバーは、Model Context Protocol (MCP)を実装したサービスで、AIエージェントをLINE公式アカウントに接続し、テキストとリッチメディアメッセージのプッシュ、メッセージのブロードキャスト、ユーザープロファイルの取得などの機能をサポートします。
302AI BrowserUse MCP Serverは、AIに基づくブラウザ自動化サーバーで、Model Context Protocol (MCP)を通じて自然言語でブラウザを制御し、ウェブ調査を行うことができます。
GitLab MCPサーバーは、Model Context Protocolに基づくプロジェクトで、GitLabアカウントとのやり取りに必要な包括的なツールセットを提供します。コードレビュー、マージリクエスト管理、CI/CD設定などの機能が含まれます。
Model Context Protocolに基づくRedisデータベース操作サービスで、さまざまなRedisコマンドツールを提供します。
Model Context Protocol (MCP)に基づくB站動画検索サーバーで、APIインターフェースを通じて動画コンテンツの検索、ページング検索、動画情報の返却をサポートし、LangChain呼び出しのサンプルとテストスクリプトを含みます。
iOSシミュレータMCPサーバは、Model Context Protocol(MCP)を通じてiOSシミュレータとやり取りするツールで、シミュレータの情報の取得、UIの操作、UI要素の確認などの機能をサポートしています。
Search1API MCPサーバーは、Model Context Protocol (MCP)に基づくサーバーで、検索とクローリング機能を提供し、複数の検索サービスとツールをサポートします。
Smithery CLIは、Model Context Protocol (MCP)サーバーを管理するコマンドラインツールで、複数のAIクライアントをサポートし、MCPサーバーのインストール、アンインストール、表示、実行機能を提供します。
Linear MCPサーバーは、Model Context Protocolを使用してLinearの問題追跡システムと統合するための非推奨のサーバーで、LLMがLinearの問題とやり取りできるようにします。