マイクロソフトがAIデータプラットフォームOsmosを買収し、データ処理能力を強化。AI競争のデータ重視段階に対応し、ツールチェーン統合でエンドツーエンドのデータ循環を構築。Snowflakeなどとの競争激化。OsmosはAIによる「汚れたデータ」問題解決に特化。....
グーグルは現在、Gemini Flashシリーズの新メンバーであるナノバナナ2フラッシュを秘密裡にテストしており、このモデルはテクノロジーブロガーのMarsForTechによって暴露された。これはグーグルで現在最も速い生成AI画像モデルであり、より安価で効率的なビジュアル生成体験を提供することを目的としている。ただし、推論の深さや詳細な正確性、複雑なクリエイティブなタスクの処理においては性能の上限がある。
月の暗面は2026年第1四半期に多モーダルモデルK2.1/K2.5をリリースする予定です。このモデルは、トレンドパラメータを持つオープンソースモデルKimi K2を基にしたアップグレード版で、多モーダル処理とエージェント機能の強化を目指しています。Kimi K2は2025年7月にリリースされてから、ミックス・オブ・エキスパートアーキテクチャによりコード生成などの分野で優れた性能を発揮しています。
モーガン・スタンリーより、2030年までに人工知能がヨーロッパ金融業界で約20万の銀行職を脅かすと予測されている。主にバックオフィスとミッドオフィスの職種に影響を及ぼし、データ処理や文書作業などが該当する。フィンテックの発展により、伝統的な銀行は効率向上とコスト削減のためにスマートなソリューションを採用している。
AI駆動のスプレッドシートエディターで、生産性を向上させ、分析を高速化し、作成を最適化します。
Sum Buddy™は使いやすい電子スプレッドシートで、AIがサポートし、数式の難問を解決し、データを安全に保存します。
専門のAIオーディオ処理ツールで、ウォーターマークの検出、ノイズの除去、空間オーディオの強化などが可能です。
naoはデータチーム向けに設計されたAIデータエディタで、リポジトリに接続し、AIを使って効率的にデータを処理します。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
$4
$16
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
Shawon16
これはVideoMAE-baseアーキテクチャをベースに微調整された動画理解モデルで、手話認識タスクに特化して最適化されています。モデルはWLASLデータセットで200エポック訓練され、TimeSformerアーキテクチャを使用して動画シーケンスを処理します。
bartowski
これはsqu11z1のHypnos-i1-8Bモデルの量子化バージョンで、llama.cppツールと特定のデータセットを使用して量子化処理が行われています。このモデルはLlama-3アーキテクチャに基づいており、複数の量子化タイプを提供し、テキスト生成タスクをサポートし、推論や対話などの様々なアプリケーションシーンに適しています。
pramjana
Qwen3-VL-4B-Instructはアリババが開発した40億パラメータの視覚言語モデルで、Qwen3アーキテクチャに基づいて開発され、マルチモーダル理解と対話タスクをサポートします。このモデルは強力な画像理解とテキスト生成能力を備え、複雑な視覚言語対話シーンを処理することができます。
これはmiromind-aiによって開発されたMiroThinker-v1.0-8Bモデルの量子化バージョンで、特定のツールとデータセットを使用して量子化処理が行われ、複数の量子化タイプのファイルをユーザーが選択でき、さまざまな環境で実行でき、異なるパフォーマンスと品質の要件を満たすことができます。
これはTheDrummerのSnowpiercer-15B-v4モデルの量子化バージョンで、llama.cppとimatrix技術を使用して量子化処理されています。このバージョンはBF16からIQ2_Sまでの多くの量子化レベルを提供し、さまざまなハードウェア条件とパフォーマンス要件を持つユーザーのニーズを満たします。モデルは特定のデータセットを使用してキャリブレーションと最適化が行われ、ARMとAVXハードウェアでのパフォーマンスを向上させるためのオンライン再パッケージング機能をサポートしています。
これはai-sageのGigaChat3-10B-A1.8Bモデルを定量処理したバージョンで、llama.cppのimatrix定量技術を採用し、さまざまなハードウェア条件下でより効率的に動作します。モデルはロシア語と英語をサポートし、主にテキスト生成タスクに使用されます。
Justin331
SAM 3はMetaが発表した第3世代のプロンプト可能な分割基礎モデルで、画像とビデオの分割タスクを統一的にサポートします。前代のSAM 2と比べて、オープンボキャブラリ概念分割能力を導入し、大量のテキストプロンプトを処理でき、SA - COベンチマークテストで人間の性能の75 - 80%に達します。
mradermacher
これは vanta-research/atom-v1-preview-12b モデルの量子化バージョンで、複数の量子化タイプを選択でき、対話、協力、教育などの様々なシーンに適しています。このモデルは Gemma アーキテクチャに基づいており、英語の言語処理をサポートしています。
これはREAP方法を用いてMiniMax-M2の専門家を均一に25%裁剪した172Bパラメータの大規模言語モデルで、llama.cppに特化して最適化された量子化処理が施されており、複数の量子化レベルをサポートし、LM Studioやllama.cppベースのプロジェクトで動作します。
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
DevQuasar
このプロジェクトでは、cerebras/MiniMax-M2-REAP-172B-A10Bモデルの量子化バージョンを提供しており、知識を大衆に利用してもらうことを目指しています。これは1720億パラメータの大規模言語モデルで、最適化と量子化処理が施されており、デプロイコストの削減と推論効率の向上を目的としています。
これはkldzj/gpt-oss-120b-hereticモデルの量子化バージョンで、llamacppを使用して量子化処理を行い、BF16、Q8_0、MXFP4_MOEなどの特殊フォーマットを含む複数の量子化タイプを提供し、モデルの実行効率を大幅に向上させています。
MaziyarPanahi
VibeThinker-1.5B-GGUFはWeiboAI/VibeThinker-1.5BモデルのGGUF量子化バージョンで、MaziyarPanahiによって量子化処理されました。このモデルは15億パラメータのテキスト生成モデルで、2ビットから8ビットまでの複数の量子化レベルをサポートし、さまざまなハードウェアで効率的に動作します。
これはQwen3-4B-Instruct-2507-hereticモデルを量子化処理したバージョンで、llama.cppツールとimatrixデータセットを使用して複数の量子化タイプのモデルファイルを生成し、さまざまな環境で実行でき、ユーザーにより多くの選択肢を提供します。
これはp-e-w/gpt-oss-20b-hereticモデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理が行われています。このモデルは200億パラメータの大規模言語モデルで、高品質から低品質まで様々な量子化オプションを提供し、ファイルサイズは41.86GBから11.52GBまでで、さまざまなハードウェア条件に適しています。
noname0202
kotodama-1.5b-a0.3b-sftは、noname0202/kotodama-1.5b-a0.3b-ptをベースにした、監督付き微調整を行った大規模言語モデルです。このモデルはTRLフレームワークを使用して訓練され、テキスト生成タスクに特化して最適化されており、自然言語処理に関連する問題を効果的に解決できます。
DavidAU
Qwen 3をベースに微調整された12Bパラメータの大規模言語モデルで、256kの超長コンテキスト処理能力を備え、長文テキスト生成タスクに特化して最適化されています。このモデルはVLTO 8Bモデルの基礎、Brainstorm 20xの調整、NEO Imatrixデータセットの量子化技術を組み合わせ、高品質の長文テキストコンテンツを生成できます。
spartan8806
これはsentence-transformers/all-mpnet-base-v2を微調整した文変換器モデルで、テキストを768次元の密ベクトル空間にマッピングでき、意味類似度計算、意味検索、テキスト分類などのさまざまな自然言語処理タスクをサポートします。
allenai
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
Tarka-AIR
Tarka-Embedding-350M-V1は3億5000万のパラメータを持つテキスト埋め込みモデルで、1024次元の密集したテキスト表現を生成することができます。このモデルは、意味的な類似性、検索、および検索強化生成(RAG)などの下流アプリケーションに対して最適化されており、複数の言語をサポートし、長いコンテキストを処理する能力を持っています。
Acemcpは、コードライブラリのインデックス化と意味検索を行うMCPサーバーです。自動増分インデックス、複数エンコーディングファイルの処理、.gitignore統合、およびWeb管理インターフェイスをサポートしており、開発者がコードのコンテキストをすばやく検索し、理解するのに役立ちます。
Cogneeは、AIエージェントに記憶機能を提供するオープンソースプロジェクトです。モジュール化されたECLパイプラインを通じて動的な知識グラフを構築し、複数のデータソースと形式をサポートし、幻覚を減らし、コストを削減します。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、クエリの複雑度を自動的に分析し、最適なモデルを選択してリクエストを処理するインテリジェントな研究アシスタントです。検索、推論、深掘り研究の3種類のツールをサポートしています。
ExcelをインストールすることなくExcelファイルを操作できるMCPサービスで、ワークブックの作成、データの読み書き、書式設定、グラフ生成などの機能をサポートします。
MCP MongoDBサーバーは、モデルコンテキストプロトコルサービスで、LLMがMongoDBデータベースと相互作用できるようにします。コレクションスキーマチェック、クエリ実行、スマートID処理などの機能を提供し、読み取り専用モードとセキュリティ設定をサポートします。
MaverickMCPはFastMCP 2.0に基づく個人株式分析サーバーであり、Claude DesktopなどのMCPクライアントに専門レベルの金融データ分析、技術指標計算、ポートフォリオ最適化ツールを提供する。これは520株のスタンダード500株データを事前に設定し、複雑な認証なしでローカルに実行できるように、さまざまな技術分析戦略と並列処理をサポートしています。
Awesome MCP Serversは、包括的なモデルコンテキストプロトコル(MCP)サーバーの集合で、7158個のMCPサーバーがAI統合、アートメディア、ブラウザ自動化、クラウドサービス、データベース、開発者ツール、ファイルシステム、金融、ゲーム、ハードウェア、医療、インフラストラクチャ、知識管理、位置マップ、マーケティング、監視、マルチメディア処理、オペレーティングシステム、プロジェクト管理、科学研究、セキュリティ、ソーシャルメディア、旅行交通、ユーティリティツール、バージョン管理など33のカテゴリに分けられています。
Graphlit MCPサーバーは、MCPクライアントとGraphlitサービスを接続する統合ツールで、複数のデータソースの取り込み、処理、および検索をサポートします。
Crawl4AI RAG MCPサーバーは、ウェブクローラーとRAG機能を統合したAIエージェントサービスで、スマートURL検出、再帰的クローリング、並列処理、ベクトル検索をサポートし、AIコーディングアシスタントに強力な知識取得と検索機能を提供することを目的としています。
EasyMCPは、Model Context Protocol (MCP)サーバーの開発を簡素化するTypeScriptライブラリで、簡潔なAPIと実験的なデコレーターサポートを提供し、型推論とテンプレート設定を自動的に処理します。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
ClippyはmacOSターミナルのクリップボードツールで、ファイル参照のコピー、GUI貼り付け、最近のダウンロード管理、パイプラインデータ処理、およびMCPサーバーのAI統合をサポートし、作業効率を向上させます。
LCBroは低コストのブラウザ自動化MCPサーバーで、PlaywrightとChrome DevToolsプロトコルをサポートし、スマートデータの前処理とリモートブラウザの管理機能を提供し、LLM APIの呼び出しコストを最大80%削減できます。
k6負荷テストツールのMCPプロトコルのサーバー実装で、データの受信と処理機能を提供します。
Insights Knowledge Base (IKB) MCP Serverは、即座に使用可能な無料の知識ベースで、10,000以上の高品質な洞察レポートが組み込まれており、ローカルでの安全な保存とプライベートドキュメントの解析をサポートしています。このプロジェクトはデータ処理の効率を最適化し、毎週のレポート更新を提供し、将来的には埋め込みモデルの統合とレポートシステムの強化を計画しています。
MCPプロトコルに基づくPandasデータ処理サーバーで、CSVファイルの読み取り、Pandasコードの実行、インタラクティブなグラフの生成機能を提供します。
MCP SDKとCrawl4AIを基にした本番グレードの潜在顧客生成システムで、多ソースのデータ集約、スマートキャッシュ、高効率の並行処理をサポートし、発見から充実化までの全ライフサイクル管理を実現します。
MCPキャラクターツールは、大規模言語モデルに文字レベルのテキスト分析機能を提供するサーバーです。LLMが形態素解析により個々の文字を処理することが困難な問題を解決し、14種類以上の文字カウント、スペル分析、テキスト比較ツールを提供します。
Qwen MCPツールは、モデルコンテキストプロトコルに基づくサーバーで、Qwen CLIとAIアシスタントを統合し、大規模コンテキストウィンドウ分析、ファイル処理、サンドボックス実行、複数モデルサポートなどの機能を提供します。
Model Context Protocolに基づくIDA Proのヘッドレスバイナリ分析サーバーで、Goで複数のセッションの並列実行を管理し、PythonワーカープロセスでIDA操作を処理し、Il2CppDumperとBlutterのメタデータインポートをサポートします。