研究により、AIが生成したソーシャルメディアの投稿は人間によって識別されやすいことが判明し、正確率は70%〜80%に達し、ランダムな水準を大きく上回っている。研究チームは複数の大規模言語モデルをテストし、コンテンツの識別における欠点を明らかにした。
AIスタートアップInceptionがMenlo Ventures主導で5000万ドルを調達。Microsoft、NVIDIAなどが参加。創業者Mustafa SuleymanはMicrosoftへの売却後、執筆活動を経て、現在は拡散モデル(dLLMs)に注力し、従来の自己回帰型大規模言語モデルと技術差別化を図る。....
11月6日、科大讯飛が「訊飛星火X1.5」大規模モデルとAI製品群を発表。国内計算プラットフォームで訓練され、効率向上、130言語対応を実現。....
美团LongCatチームがUNO-Benchを発表。44種類のタスクと5つのモーダルをカバーし、1250の全モーダルサンプルと2480の単一モーダルサンプルで、マルチモーダルモデルの性能を包括的に評価。....
Kat Devはソフトウェアエンジニアリングとコーディングタスクに特化した大規模言語モデルで、AIコーディングを支援します。
AI検索可視性プラットフォームで、ブランドがChatGPT、Perplexity、Google AIなどの大規模言語モデル(LLM)におけるパフォーマンスを最適化するのを支援します。
Qwen3はQwenシリーズの大型言語モデルの最新メンバーで、複数の思考モードと多言語をサポートしています。
さまざまな大規模言語モデルに対応したオープンソースのAIエージェントCLIツールです。
alibaba
$0.72
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
$2.16
moonshotai
$4.1
$16.56
nvidia
-
tencent
$3
$9
8k
智谱ai
$4.5
$22.5
upstage
64k
$0.8
$16
131.1k
baidu
$15
32k
meta
$1.44
baichuan
192k
$6.48
deepseek
$1.94
$7.92
ai2
mistral
$14.4
$43.2
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
noctrex
Aquif-3.5-Max-42B-A3Bは420億パラメータの大規模言語モデルで、MXFP4_MOE量子化処理を行っており、高品質なテキスト生成能力を維持しながら推論効率を最適化しています。このモデルは先進的な混合専家アーキテクチャに基づいており、様々な自然言語処理タスクに適用できます。
bartowski
Apollo-V0.1-4B-Thinkingは40億パラメータの大規模言語モデルで、思考過程の推論アーキテクチャを採用し、推論タスクに特化して最適化されています。このモデルは複数の量子化バージョンを提供し、さまざまなハードウェア環境で効率的に動作します。
Mungert
gpt-oss-safeguard-20bは、GPT-OSS-20bをファインチューニングした安全推論モデルで、大規模言語モデルの入出力フィルタリング、オンラインコンテンツのラベリング、および信頼と安全のユースケースのオフラインラベリングに特化しています。このモデルはApache 2.0ライセンスを採用しており、カスタムポリシーと透明な決定プロセスをサポートしています。
これはNVIDIAのQwen3-Nemotron-32B-RLBFF大規模言語モデルのGGUF量子化バージョンで、llama.cppツールを使用して様々な精度で量子化され、BF16からIQ2_XXSまで20種類以上の量子化オプションを提供し、さまざまなハードウェア構成とパフォーマンス要件に対応しています。
shorecode
これは効率的なテキスト要約モデルで、大規模言語モデルのプロンプト内のテキスト内容を圧縮するために特別に設計されており、7倍以上の圧縮率を達成でき、API呼び出しコストを大幅に削減します。
BAAI
Emu3.5は北京智源人工知能研究院が開発したオリジナルのマルチモーダルモデルで、視覚と言語をまたいで次の状態を連合予測し、一貫した世界モデリングと生成を実現します。エンドツーエンド事前学習と大規模強化学習による事後学習を行うことで、マルチモーダルタスクで卓越した性能を発揮します。
unsloth
Qwen3-VLは通義大規模モデルシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認識と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、そして優れたインテリジェントエージェント対話能力を備えています。このモデルはハイブリッドエキスパート(MoE)アーキテクチャを採用し、推論を強化した思考版です。
mradermacher
Hebrew_Nemoはヘブライ語処理に特化した大規模言語モデルで、指令微調整を行い、テキスト生成と会話インタラクションをサポートしています。このバージョンは元のモデルのGGUF量子化バージョンで、複数の量子化レベルを選択できます。
これはSicariusSicariiStuff/Hebrew_Nemoモデルに基づく量子化バージョンで、ヘブライ語に特化して最適化されたMistralアーキテクチャの大規模言語モデルで、ヘブライ語と英語のテキスト生成および対話タスクをサポートします。
これはQwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALLモデルのMXFP4_MOE量子化バージョンで、テキスト生成タスクに特化して最適化されています。このモデルは42Bパラメータの大規模言語モデルアーキテクチャに基づいており、量子化技術によって計算とストレージの要件を削減し、同時に良好なパフォーマンスを維持しています。
GPT-OSS-Safeguard-20Bは、GPT-OSSをベースに構築された210億パラメータのセキュリティ推論モデルで、セキュリティ関連のテキストコンテンツの分類とフィルタリングタスクに特化して最適化されています。このモデルはカスタムセキュリティポリシーをサポートし、透明な推論プロセスを提供し、大規模言語モデルの入出力フィルタリングやオンラインコンテンツのラベリングなどのセキュリティユースケースに適しています。
hasanbasbunar
Lodos-24B-Instruct-2510は、Mistral-Small-3.2-24B-Instruct-2506をベースに微調整されたトルコ語の大規模言語モデルで、TRLフレームワークを使用して完全監督微調整を行い、トルコ語の命令追従タスクに特化して最適化されており、長文生成と複雑な推論をサポートしています。
Lamapi/next-12bは、12Bパラメータに基づく大規模言語モデルで、多言語データセットを使用して微調整され、50種類以上の言語をサポートし、効率的なテキスト生成能力を備えており、化学、コード、生物学、金融、法律などの複数の分野の自然言語処理タスクに適しています。
Lamapi/next-12bは120億パラメータの多言語大規模言語モデルで、複数の量子化バージョンを提供し、テキスト生成、質問応答、チャットなどの多様な自然言語処理タスクをサポートします。このモデルは複数の領域のデータセットで学習され、高効率で軽量な特徴を持っています。
MiniMax-M2-5bitは、MiniMaxAI/MiniMax-M2モデルから変換された5ビット量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは大規模言語モデルで、テキスト生成タスクをサポートし、MITライセンスで公開されています。
cturan
MiniMax-M2は、llama.cppの実験的ブランチに基づいて構築された大規模言語モデルで、ハイブリッドエキスパートアーキテクチャを備え、効率的なテキスト生成と推論タスクをサポートします。このモデルは特定の実験的ブランチが必要で正常に動作します。
RedHatAI
Llama-4-Maverick-17B-128E-Instruct-NVFP4は、FP4量子化処理を施された多言語大規模言語モデルで、Meta-Llama-3.1アーキテクチャに基づいており、商業および研究用途に特化して設計されています。このモデルは、重みと活性化をFP4データ型に量子化することで、ディスク容量とGPUメモリの要件を大幅に削減しながら、良好な性能を維持しています。
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
P1 - 30B - A3Bは300億パラメータの大規模言語モデルで、MXFP4_MOE量子化処理を経て、モデルの性能を維持しながら推論効率を最適化し、テキスト生成タスクに適しています。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するツールで、関連するファイルとそのメタデータを統合することで、1つずつファイルを読み取る制限を克服します。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
大規模言語モデルにA股データを提供するMCPサービス
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
Swiftで実装された知識グラフのメモリサーバーで、大規模言語モデルに永続的なメモリ機能を提供します。
WireMCPは大規模言語モデル(LLM)にリアルタイムのネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを統合することでデータキャプチャ、脅威検出、ネットワーク診断を実現します。
Rails MCP Serverは、Rubyをベースに実装されたModel Context Protocolサーバーで、Railsプロジェクトが大規模言語モデルと相互作用するための標準インターフェースを提供します。
Alpaca MCPサーバーは、Alpaca取引APIのモデルコンテキストプロトコル(MCP)サービスを実装しており、大規模言語モデルが自然言語でAlpaca取引システムとやり取りできるようにします。株式/オプション取引、投資ポートフォリオ管理、リアルタイム市場データの取得をサポートしています。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
MCPツールは、Model Context Protocol(MCP)を実装したサーバープロジェクトで、Claude DesktopなどのLLMクライアントにファイルシステムとコマンド実行ツールを提供し、大規模言語モデルのローカルシステムとの対話能力を拡張します。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
大規模言語モデルにGraphQLスキーマ探索サービスを提供するMCPサーバーで、GraphQLスキーマファイルの読み込み、クエリ、および分析をサポートします。
自然言語によるテーブルデータのクエリと分析をサポートするツールで、複数の大規模言語モデルをサポートし、CSVファイルからテーブル内容を読み取ることができます。
mcp-rag-serverは、Model Context Protocol (MCP)に基づくサービスで、検索強化生成(RAG)をサポートし、ドキュメントをインデックス化し、大規模言語モデルに関連するコンテキストを提供します。
大規模言語モデルにファイルシステムのコンテキストを提供するMCPサーバーで、ファイル操作、コード分析、およびスマート検索をサポートします。
Container - MCPはコンテナベースのセキュアなツール実行プラットフォームで、大規模言語モデルにコード、コマンド、ネットワーク操作を隔離環境で実行させ、MCPプロトコルのセキュアな実装を実現します。