RedditはAI検索を新たな成長ドライブとして位置づけ、従来型とジェネラティブAIを統合し、ユーザー体験を向上させ、ビジネス価値を掘り下げることを計画しています。CEOは、プラットフォームが複雑で標準的な答えがない質問において独自の優位性を持っていると指摘しました。
百度は2026年旧正月に5億元を投じ、メイン企画を百度APPのAI機能「文心助手」に集中させ、AI戦略を「全民応用」へ転換。春節のトラフィックを活用し、従来の検索からAI対話への移行を促進、AI機能利用者は5000万人を突破。....
中国のAI企業である月の暗面が、百度検索の結果に誤解を招くものがあると公に指摘し、「Kimi」を検索した際、上位4件の結果すべてが公式サイトではなく、多くのウェブサイトがKimiの公式サイトの名称を利用しており、ユーザーを誤導していると述べた。
小红书が「音声問い合わせ」機能をテスト中。音声検索とコミュニティコンテンツを融合し、AI検索競争に対応するため「実体験+AI」のQ&Aシーンを強化。一部ユーザーの検索ボックス下のトレンド入口を置き換え、音声質問で関連ノートとAI回答を取得可能。....
AI駆動の業務オペレーティングシステムで、使用量に応じて課金され、会議、タスク管理、ドキュメント検索などが含まれます。
Lucid Engineは、電子商取引の分析と、AI検索エンジンにおける可視性の最適化を支援します。
オンラインでユーザー名の足跡を検索し、複数のプラットフォームでの検索と多言語インターフェイスをサポートします。
スマートで効率的な特許作成と検索の補助ツール。
Anthropic
$21
入力トークン/百万
$105
出力トークン/百万
200
コンテキスト長
Google
$0.7
$2.8
1k
Alibaba
$2
$20
-
$54
$163
Bytedance
$0.8
$8
256
Tencent
$1
$4
32
Baidu
Iflytek
$0.5
Huawei
128
$2.4
$9.6
Minimax
$1.6
$16
Baichuan
192
mradermacher
Diver-GroupRank-7Bは、段落の並べ替え、テキストの並べ替え、推論、および情報検索に特化した7Bパラメータのモデルです。このバージョンは、さまざまなハードウェアや性能要件に対応するため、複数の量化形式を提供します。
AQ-MedAI/Diver-GroupRank-7Bモデルに基づく静的量子化バージョンで、段落の並べ替え、テキストの並べ替え、推論、情報検索などのタスクに特化しています。さまざまなハードウェア要件に対応するため、複数の量子化レベルを提供します。
Mungert
MiroThinker v1.0はオープンソースの研究エージェントで、モデルレベルの対話型拡張により、ツール強化推論と情報検索能力を向上させます。このモデルは複数のベンチマークテストで優れた性能を発揮し、長文脈と深度のある多段階分析をサポートします。
spartan8806
これはsentence-transformers/all-mpnet-base-v2を微調整した文変換器モデルで、テキストを768次元の密ベクトル空間にマッピングでき、意味類似度計算、意味検索、テキスト分類などのさまざまな自然言語処理タスクをサポートします。
mudasir13cs
これはGoogle Gemma - 3 - 4B - ITモデルを微調整したテキスト生成モデルで、デモンストレーションテンプレートのメタデータに基づいて多様で関連性のある検索クエリを生成するために特別に設計されています。このモデルはLoRAアダプタを使用して効率的に微調整されており、構造化文書のフィールド適応型密集検索フレームワークの重要な構成要素です。
Tarka-AIR
Tarka-Embedding-350M-V1は3億5000万のパラメータを持つテキスト埋め込みモデルで、1024次元の密集したテキスト表現を生成することができます。このモデルは、意味的な類似性、検索、および検索強化生成(RAG)などの下流アプリケーションに対して最適化されており、複数の言語をサポートし、長いコンテキストを処理する能力を持っています。
Tarka-Embedding-150M-V1は1億5000万のパラメータを持つ埋め込みモデルで、768次元の密集したテキスト表現を生成できます。意味の類似性、検索、および検索強化生成(RAG)などのさまざまな下流アプリケーションに対して最適化されており、深いコンテキスト意味を捉えることに焦点を当て、さまざまな分野にまたがる汎用的なテキスト理解をサポートします。
LiquidAI
PyLateは、文の類似度計算と情報検索に特化したツールキットで、さまざまなデータセットで効率的な情報検索タスクを実行でき、関連分野の研究とアプリケーションに強力なサポートを提供します。このモデルは8つの言語をサポートし、複数のベンチマークテストで優れた性能を発揮します。
Fathom-Search-4B GGUFは、テキスト生成タスク用に特別に開発された強力なツールです。特定の基礎モデルと技術に基づいて生成され、検索集中型のベンチマークテストで卓越した性能を発揮し、長期間の情報検索と合成の問題を効果的に解決できます。
nvidia
Llama Nemotron Reranking 1BはNVIDIAが開発した、テキスト検索の再ランキングに特化したモデルです。Llama-3.2-1Bアーキテクチャをベースに微調整されており、クエリと文書のペアに対して関連性の対数スコアを提供し、多言語と長文書の処理をサポートします。
Llama Nemotron Embedding 1Bモデルは、NVIDIAが開発した、多言語およびクロス言語のテキスト質問応答検索に最適化された埋め込みモデルです。26言語をサポートし、最大8192トークンの文書を処理でき、動的な埋め込みサイズによりデータストレージの占有を大幅に削減できます。
A2Search-3B-Instructはzfj1998/A2Search-3B-Instructに基づく静的量子化バージョンで、複数の量子化タイプを選択できます。これは30億パラメータの大規模言語モデルで、検索と命令追従タスクに特化して最適化され、英語の言語処理をサポートしています。
prithivMLmods
Fathom-DeepResearchは、Fathom-Search-4BとFathom-Synthesizer-4Bから構成されるデュアルモデルのインテリジェントシステムです。長期間のネットワーク検索、証拠検証、および引用が豊富なレポートの生成に最適化されています。このシステムは、検索集中型タスクにおいてオープンソースの重みで最高の性能を達成し、複数のクローズドソースの深度研究インテリジェントエージェントを上回っています。
redis
これはsentence-transformersライブラリを微調整したBiEncoderモデルで、LangCacheの意味キャッシュタスクに特化して最適化されています。モデルは文や段落を384次元のベクトル空間にマッピングし、意味類似度計算や意味検索などのタスクをサポートします。
通義深度研究30Bは300億パラメータを持つ大規模言語モデルで、長周期、深度情報検索タスクに特化して設計されています。このモデルは複数の知能検索ベンチマークテストで優れた成績を収め、革新的な量子化手法を用いて性能を向上させ、知能事前学習、監督微調整、強化学習をサポートしています。
intexcp
ru-en-RoSBERTaは、多言語タスクで優れた性能を発揮するモデルで、RoBERTaアーキテクチャに基づき、ロシア語と英語のタスクに特化して最適化されています。このモデルは、分類、クラスタリング、再ランキング、検索などのさまざまな自然言語処理タスクで全面的にテストされ、強力な異言語理解能力を示しています。
bartowski
これはLiquidAIのLFM2-1.2B-RAGモデルのGGUF量子化バージョンで、検索強化生成(RAG)タスクに特化して最適化されています。このモデルは様々な量子化処理が施されており、bf16からQ2_Kまでの複数の量子化レベルを提供し、さまざまなハードウェア条件と性能要件に対応しています。
ドラドーネットワークサーフィンツール拡張版は、通義千問3 - 4Bをベースに微調整された関数呼び出しとインテリジェント推論モデルで、ネットワーク検索の編成、ツール強化推論、動的問題解決のために設計されています。 このモデルは、インテリジェント決定、ツール選択、構造化された実行フローにおいて優れた性能を発揮します。
FractalAIResearch
Fathom-DeepResearchは、2つの専用の4Bパラメータモデルで構成される高度な研究システムです。Fathom-Search-4Bは長時間の証拠検索に最適化され、Fathom-Synthesizer-4Bはオープン合成とレポート生成に使用されます。このシステムは、複数の検索集中型ベンチマークテストで最先端の性能を達成し、オープン合成ベンチマークで複数のクローズドソースの高度研究エージェントを上回っています。
pierre-tassel
Rapido NERは、猫のRapidoにちなんで名付けられた、強力な多言語固有表現認識器とエンティティ埋め込みモデルです。このモデルは、強力な多言語NER性能を提供し、エンティティクラスタリングと検索をサポートし、文書内のクラスタリングや長いコンテキストなどのタスクを処理します。
SupermemoryはAI駆動の記憶エンジンで、個人データを統合することでLLMにコンテキスト知識を提供し、情報のスマートな管理と検索を実現します。
sitemcpは、ウェブサイト全体の内容を取得し、それをMCPサーバーとして使用できるツールで、カスタムマッチングページ、コンテンツセレクターなどの機能をサポートし、ドキュメントやブログサイトの迅速な検索に適しています。
これは、ブラウザ制御、芸術と文化、クラウドプラットフォーム、コマンドライン、通信、顧客データプラットフォーム、データベース、開発者ツール、データサイエンスツール、ファイルシステム、金融とフィンテック、ゲーム、知識と記憶、位置サービス、マーケティング、監視、検索、ユーティリティツールなど、複数のカテゴリをカバーする、継続的に更新されるMCPサーバーの選りすぐりのリストです。各プロジェクトにはGitHubリンクとスター数が付属しており、ユーザーがすぐに理解して使用できるようになっています。
Claude/Cursor用に設計されたOpenAPI仕様探索サーバーで、3ステップのプロセスでユーザーがAPIドキュメントを検索し理解するのを支援します。
WhatsApp MCPサーバーは、WhatsAppのウェブマルチデバイスAPIを通じて個人アカウントを接続するツールです。メッセージの検索、送信、マルチメディア処理をサポートし、ClaudeなどのLLMと統合されます。
Haiku RAGは、LanceDB、Pydantic AI、Doclingを基盤とした高度な検索強化生成システムです。ハイブリッド検索、再ランキング、質問応答エージェント、多エージェント研究プロセスをサポートし、ローカルファーストのドキュメント処理とMCPサーバー統合を提供します。
このプロジェクトは、ObsidianのLocal REST APIプラグインを通じてObsidianノートアプリとやり取りするMCPサーバーです。Obsidian内のファイルを操作および管理するためのさまざまなツールを提供し、ファイルのリスト表示、内容の取得、検索、内容の変更、ファイルの削除などが可能です。
Acemcpは、コードライブラリのインデックス化と意味検索を行うMCPサーバーです。自動増分インデックス、複数エンコーディングファイルの処理、.gitignore統合、およびWeb管理インターフェイスをサポートしており、開発者がコードのコンテキストをすばやく検索し、理解するのに役立ちます。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
AWS MCPサーバーは、Model Context Protocolに基づく専用サーバーのセットであり、ドキュメント検索、知識ベース照会、CDKのベストプラクティス、コスト分析、画像生成など、さまざまなAWS関連機能を提供します。標準化されたプロトコルを通じてAIアプリケーションとAWSサービスの統合を強化することを目的としています。
Firecrawl MCPサーバーは、Firecrawlのウェブページ取得機能を統合したモデルコンテキストプロトコルサーバーで、豊富なウェブページ取得、検索、コンテンツ抽出機能を提供します。
MCPエージェントメールは、AIプログラミングエージェント向けのメール形式の調整レイヤーで、ID管理、メッセージの送受信、ファイルの予約、検索機能を提供し、複数のエージェントの非同期協力と競合の回避をサポートします。
ArXiv MCP Serverは、AIアシスタントとarXiv研究ライブラリをつなぐ橋渡しの役割を果たし、MCPプロトコルを通じて論文の検索と内容へのアクセス機能を実現します。
このプロジェクトは、Notion APIにMCPサーバーを実装し、モデルコンテキストプロトコルを通じてNotionコンテンツにアクセスし操作できるようにします。検索、コメント、ページの追加などの機能をサポートしています。
Exa MCP Serverは、AIアシスタント(Claudeなど)にウェブ検索機能を提供するサーバーで、Exa AI検索APIを通じてリアルタイムで安全にウェブ情報を取得できます。
デスクトップコマンダーMCPは、Claudeデスクトップアプリケーションがターミナルコマンドを実行し、ファイルシステムを管理できるAIアシスタントツールです。コードの検索、編集、プロセス管理、リモートファイルの読み取りなどの機能をサポートします。
このプロジェクトは、Sonar APIを統合したMCPサーバーの実装で、Claudeにリアルタイムのネットワーク検索機能を提供します。システムアーキテクチャ、ツールの設定、Dockerデプロイ、およびマルチプラットフォーム統合ガイドが含まれています。
Microsoft公式のMCPサーバーで、AIアシスタントに最新のMicrosoft技術ドキュメントの検索と取得機能を提供します。
Claude ContextはMCPプラグインで、セマンティックコード検索によりAIプログラミングアシスタントにコードベース全体の深いコンテキストを提供し、複数の埋め込みモデルとベクトルデータベースをサポートし、効率的なコード検索を実現します。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、クエリの複雑度を自動的に分析し、最適なモデルを選択してリクエストを処理するインテリジェントな研究アシスタントです。検索、推論、深掘り研究の3種類のツールをサポートしています。