百度は2025年11月13日に北京で世界大会を開催し、大規模モデル技術、AIアプリ生態系、グローバル戦略に焦点を当てます。AI技術の進展と市場展開を紹介する重要なイベントです。....
アンソロピーはClode Sonnet 4.5モデルを発表し、世界最優秀のコードモデルと称されている。このモデルはSWE-benchコードベンチマークテストでリードを維持しており、ウェブ端末、モバイルアプリケーションおよびAPIインターフェースをサポートしている。実際の測定では30時間連続動作が可能であり、複雑なタスク処理および自律的なエージェント機能において重要な突破を遂げた。
LiquidAIは、リキッド・ナノスシリーズという軽量AIモデルを発表しました。このシリーズは、ラズベリーパイなどのエッジコンピューティングデバイス向けに設計されています。このシリーズには350Mおよび1.2Bのパラメータバージョンがあり、翻訳、情報抽出、RAG、ツール呼び出し、数学的推論の5つの応用シナリオをサポートしています。低消費電力で高性能な要件を満たし、開発者に多様なエッジAIソリューションを提供します。
メタは水曜日のConnect2025開発者カンファレンスで、最新のスマートグラス製品であるメタRay-Ban Displayを正式に発表しました。このグラスはCEOのマーク・ザッカーバーグによって発表され、右目のレンズ内に組み込まれたディスプレイがアプリケーション、リマインダー、ナビゲーション情報を直感的に表示するというコアな特徴を持っています。この製品は9月30日から販売され、価格は799ドルです。メタRay-Ban Displayは前モデルRの後継を目指しています。
AIモバイルアプリケーションビルダー。コーディングなしでアイデアを実際のモバイルアプリケーションに変えることができます。
デュアライトは安全なAIフロントエンドエンジニアで、開発者が拡張可能なWebおよびモバイルアプリケーションを迅速に構築するのを支援します。
アイデアからモバイルアプリケーションまで数秒で完了します。
AI技術を使用し、数秒で内部にデータベース、モバイル変換、チャットプラグイン、分析機能を持つデータベース駆動型のウェブサイトやアプリケーションを構築できます。WordPress/Netlifyに対応しています。無料トライアルがあります。
mistral
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
perplexity
127k
openai
$0.36
$2.88
400k
nvidia
200k
$0.5
$1.01
reka-ai
google
32k
$0.72
8.2k
openchat
32.8k
cohere
8k
anthropic
100k
NVIDIA GPT-OSS-120B Eagle3は、OpenAIのgpt-oss-120bモデルをベースに最適化されたバージョンで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、総パラメータ数が1200億、アクティブなパラメータ数が50億です。このモデルは商用および非商用の使用をサポートし、テキスト生成タスクに適しており、特にAIエージェントシステムやチャットボットなどのアプリケーション開発に適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
zenlm
Zen Nano 0.6BはZenモデルファミリーの中で最も小さいモデルで、エッジデプロイメント向けに最適化されており、エッジデバイス上で高効率に動作し、関連するアプリケーションに強力なサポートを提供します。
mradermacher
これはmookiezii/Discord-Hermes-3-8Bモデルを量子化処理したバージョンで、さまざまな量子化形式のGGUFモデルファイルを提供し、異なるハードウェア環境と性能要件のチャットAIアプリケーションシナリオに適しています。
ReasonRank-32Bはliuwenhan/reasonrank-32Bベースモデルに基づく定量化バージョンで、さまざまな定量化重みファイルを提供し、段落ソート、テキストソート、推論、情報検索などのタスクに特化しています。このモデルは静的定量化処理が施され、さまざまなアプリケーションシーンに適しています。
GPT-OSSシリーズはOpenAIが公開したオープンウェイトモデルで、強力な推論、エージェントタスク、および多様な開発者ユースケース向けに設計されています。120Bバージョンは1170億のパラメータ(うち51億はアクティブパラメータ)を持ち、本番環境や高い推論能力が必要なシーンに適しています。
QuantStack
これはblack-forest-labs/FLUX.1-Krea-devモデルのGGUF形式の量子化バージョンで、テキストから画像への生成タスクに特化しています。このモデルはGGUF形式で最適化されており、特定のツールやライブラリで使用でき、非商用の画像生成アプリケーションに適しています。
ericrisco
医療Gemma - 3Nは、GoogleのGemma - 3N - 4Bモデルをベースに、緊急医療援助とオフライン医療アプリケーションに特化して微調整されたバージョンです。このモデルは86,667個の医療質問応答ペアで訓練され、正確な急救指導と医療相談を提供することに焦点を当てており、特にネットワーク接続が限られた緊急時に適しています。
OpenMed
これは疾病実体識別に特化したTransformerモデルで、xlm - roberta - baseアーキテクチャに基づき、NCBI疾病データセットで微調整されています。このモデルは、バイオメディカルテキスト内の疾病実体を正確に識別でき、B - DiseaseとI - Diseaseの2種類の実体タイプの識別をサポートし、企業レベルの医療アプリケーションに高精度な実体抽出能力を提供します。
NVIDIA Qwen3-30B-A3B FP4は、アリババのQwen3-30B-A3Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、FP4量子化技術によりモデルサイズを約3.3倍削減しながら、良好な性能を維持しています。このモデルは商用および非商用用途をサポートし、AIエージェントシステム、チャットボット、RAGシステムなどのアプリケーションシーンに適しています。
bartowski
これはAustral-Xgen-9B-WintonモデルのLlamacpp imatrix量子化バージョンで、さまざまな量子化技術を通じて、異なるハードウェア条件下でのモデルの実行効率を最適化し、ロールプレイングやクリエイティブライティングなどのさまざまなアプリケーションシーンをサポートします。
rrrr66254
このモデルは、facebook/bart-baseをファインチューニングしたアメリカ手話(ASL)注釈から英語への翻訳モデルで、ASL手話注釈シーケンスを流暢で文法的に正しい英語の文章に変換するために特別に設計されており、手話翻訳研究やバリアフリーアプリケーションをサポートします。
Mungert
SmolVLMはコンパクトなオープンソースのマルチモーダルモデルで、画像とテキストの入力を受け取り、テキスト出力を生成することができます。効率性を重視して設計されており、デバイス端のアプリケーションに適しています。
2p8xx
Foundation-Sec-8Bは、サイバーセキュリティアプリケーション向けに設計されたオープンソースの80億パラメータ基礎言語モデルで、Llama-3.1-8Bモデルを拡張しています。
goppa-ai
ロジック・ラマはGoppa AIが開発したファインチューニング言語モデルで、LLaMAの10億パラメータ基本バージョンを基に、知識と論理推論能力を注入して強化されており、端末デバイスアプリケーションに適しています。
manelalab
ChronoBERTは、前方バイアスとトレーニングデータの漏洩を排除し、時間に敏感なアプリケーションで優れた言語理解能力を維持する高性能な時間整合性大規模言語モデルのシリーズです。
これはFalcon3-10B-Instruct-abliteratedモデルの量子化バージョンで、llama.cppツールを使用してimatrix量子化処理を行い、さまざまな量子化レベルのモデルファイルを提供し、さまざまなハードウェア環境とアプリケーションシナリオに適しています。
vonjack
MobileLLMはMetaがリソース制限のあるデバイス側アプリケーション用に最適化した自己回帰型言語モデルで、最適化されたTransformerアーキテクチャを採用し、SwiGLU活性化関数、深くて狭いアーキテクチャ、埋め込み共有、グループ化クエリ注意などの重要な技術を統合しており、ゼロショット常識推論タスクで優れた性能を発揮します。
apple
SAM 2 TinyはFAIRが開発した画像・動画汎用セグメンテーションモデルのCore MLバージョンで、モバイルアプリケーション向けに最適化されています
inceptionai
Jaisシリーズはアラビア語に最適化されたバイリンガル大規模言語モデルで、同時に強力な英語能力を備えています。この590Mパラメータバージョンはシリーズ中最も小さいモデルで、軽量アプリケーションに適しています。
Awesome MCP Serversは、包括的なモデルコンテキストプロトコル(MCP)サーバーの集合で、7158個のMCPサーバーがAI統合、アートメディア、ブラウザ自動化、クラウドサービス、データベース、開発者ツール、ファイルシステム、金融、ゲーム、ハードウェア、医療、インフラストラクチャ、知識管理、位置マップ、マーケティング、監視、マルチメディア処理、オペレーティングシステム、プロジェクト管理、科学研究、セキュリティ、ソーシャルメディア、旅行交通、ユーティリティツール、バージョン管理など33のカテゴリに分けられています。
このプロジェクトは、Quarkus/Javaベースの一連のモデルコンテキストプロトコルサーバーを提供し、MCP対応のLLMアプリケーションの機能を拡張します。JDBCデータベースの相互作用、JVMモニタリング、ファイルシステム操作などのさまざまなサービスを含みます。
MCPポータルはModel Context Protocolの公式コミュニティプラットフォームで、ドキュメント、実践ガイド、サーバーの実装、ツールの統合などのリソースを提供し、AIモデルがMCPプロトコルを通じて外部ツールにアクセスできるようにサポートします。データベース接続からマルチモーダルアプリケーションまで、豊富なシナリオをカバーしています。
Speckle MCPサーバーは、Speckle APIとクライアントアプリケーションを接続するブリッジであり、プロジェクト、モデル、オブジェクトデータのやり取りツールを提供します。
G2N MCP GoogleカレンダーSSEサーバーは、Model Context Protocolを実装したサーバーで、Server-Sent Eventsを通じてGoogleカレンダーの統合機能を提供し、AIモデルやアプリケーションがカレンダーイベントを管理できるようにします。
Electron MCP Serverは、モデルコンテキストプロトコル(MCP)に基づくサーバーで、Electronアプリケーションの全面的な自動化、デバッグ、可観測性機能を提供します。Chrome DevToolsプロトコルの統合によりAI駆動の自動化を実現し、リアルタイムのUIインタラクション、可視化デバッグ、深層検査、開発観測をサポートし、対象アプリケーションのコードを変更せずに動作します。
このプロジェクトは、AzureコンテナアプリケーションでMCPプロトコルを使用してOpenAI、Azure OpenAI、GitHubモデルとやり取りする方法を示しています。TODOリストエージェントとの対話を行うための簡単なターミナルアプリケーションのデモを提供します。プロジェクトには、MCPホスト、クライアント、サーバー、LLMプロバイダー、Postgresデータベース、およびツールセットなどの核心コンポーネントが含まれています。
MCP DeepSeekデモプロジェクトは、MCPプロトコルに基づくクライアントアプリケーションで、DeepSeek AIを統合してツール呼び出しとリアルタイム通信を実現しています。Next.jsフロントエンドとSSEサーバーを含んでいます。
MCPサーバーはFastAPIに基づくModel Context Protocolの実装で、LLMモデルとアプリケーションの間の標準化されたインターフェースを提供し、さまざまなツールとリアルタイムインタラクションをサポートします。
阿里云オブザーバビリティMCPサービスは、阿里云ログサービスSLS、アプリケーションリアルタイムモニタリングサービスARMSなどの製品にアクセスするための一連のツールを提供し、自然言語をクエリに変換、ログ分析、パフォーマンスモニタリングなどの機能をサポートします。
AIによってモバイルデバイスを制御するMCPサービスで、デバイス管理、アプリケーションのインストール、ログの取得などの機能を提供し、AndroidとiOSプラットフォームをサポートします。
File Context MCPはTypeScriptベースのアプリケーションで、APIを通じてローカルファイル内容を使って大規模言語モデル(LLMs)にクエリを投げることができます。複数のLLMプロバイダ(OllamaとTogether.ai)をサポートし、複数のファイル形式を処理してコンテキストを認識した応答を生成します。
MCP Python SDKは、モデルコンテキストプロトコル(MCP)を実装したPython開発ツールキットで、開発者が標準化されたMCPサーバーとクライアントを構築し、LLMアプリケーションにコンテキストデータ、ツール、およびやり取りテンプレートを提供できるようにします。
Neo N3モデルコンテキストプロトコル(MCP)は、AIエージェントやアプリケーションがNeo N3ブロックチェーンとやり取りするための標準化されたインターフェースプロトコルです。使いやすいサーバー実装を提供し、npxを使用して直接実行でき、手動での環境設定は必要ありません。このプロトコルには、ブロックチェーン情報の照会、ウォレット管理、資産移転、スマートコントラクトのやり取りなどの機能が含まれており、さらにHTTPサーバーを介してRESTful API形式で機能を公開します。
plugged.inアプリは、モデルコンテキストプロトコル(MCP)サーバーを管理するための総合的なWebアプリケーションです。複数のMCPサーバーにまたがるAIツールを発見、設定、使用するための統一インターフェースを提供します。複数ワークスペース、インタラクティブテストプラットフォーム、ツール管理、リソース発見などの機能をサポートし、さまざまなMCPクライアントと統合でき、自ホストデプロイもサポートしています。
Octodet Elasticsearch MCP Serverは、モデルコンテキストプロトコル(MCP)に基づくElasticsearch操作サービスであり、LLMアプリケーションに完全なElasticsearchクラスターインタラクションツールセットを提供し、ドキュメントのCRUD、バッチ操作、クエリの更新/削除、クラスター管理、高度な検索などの機能をサポートします。
Frida MCPは、Frida動的検出ツールキットに基づくMCPプロトコルの実装で、AIシステムがモバイルおよびデスクトップアプリケーションと対話する能力を提供します。
MCPパレットは、Model Context Protocolサーバーの設定を管理するためのデスクトップアプリケーションで、大規模言語モデル用のMCPサーバーを設定、管理、およびデプロイするための集中型インターフェイスを提供します。
FastAPIバックエンドとGradioフロントエンドを組み合わせたMCPの基本アプリケーションで、シンプルなインターフェースを通じてAIモデルとの対話がサポートされ、Google Gemini APIを統合して論文検索と分析機能を実現しています。
Outsource MCPは、複数のAIモデルプロバイダーをサポートする統一インターフェースサービスです。MCPプロトコルを通じて、AIアプリケーションが異なるベンダーのテキストおよび画像生成機能を簡単に呼び出せるようにします。