MetaのAI責任者ヤン・ルカン氏が退任後初めて、大企業が大規模言語モデルに多額投資する戦略を批判。LLMは統計的テキスト補完のみで、物理世界の理解や長期推論が欠如し真の知能は不可能と指摘。次世代突破には「世界モデル」が必要と主張。....
新研究は、大規模言語モデルが無意味なネット情報に継続的に触れると、推論能力と自信が低下する可能性があると警告。複数の米大学チームが「LLM脳衰退仮説」を提唱。....
AI分野において、陳天橋は再度注目を集めている。彼の新しい会社MiroMindは最近、世界トップクラスの予測型大規模言語モデルを発表し、業界内で波紋を引き起こした。9月21日、MiroMindは、世界初の動的リアルタイムLLM(大規模言語モデル)スマートエージェント未来予測ベンチマーキーFutureXで二週連続首位を維持し、多くの国際的なトップ機関との競争に勝利した。MiroMindの成功には独自の記憶駆動メカニズムがあり、予測と意思決定のために設計されている。
最近、『Nature』誌の最新号に掲載された論文が広く注目を集めている。研究テーマはDeepSeek-R1である。この研究は梁文峰教授のチームが主導し、強化学習を用いて大規模言語モデル(LLM)の推論能力を向上させる方法について述べている。今年1月には、この研究がarXivに投稿されており、学術界から高い評価を受けている。表紙の紹介では、『Nature』は、大規模なモデルが問題解決のステップを計画することで、より良い解決策を得られると指摘している。このような
AI検索可視性プラットフォームで、ブランドがChatGPT、Perplexity、Google AIなどの大規模言語モデル(LLM)におけるパフォーマンスを最適化するのを支援します。
Vue3 + ElementPlus をベースとした、複数のLLM(大規模言語モデル)を内蔵したチャットアプリケーションです。
大規模言語モデル(LLM)の事後トレーニング方法に関するチュートリアル、調査、およびガイドラインのリポジトリです。
DMXAPIは、300種類以上の大規模言語モデル(LLM)APIを統合するグローバルなプラットフォームです。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
-
Anthropic
$105
$525
200
$0.7
$2.8
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
Moonshot
$4
$16
lapa-llm
Lapa LLM v0.1.2は、Gemma - 3 - 12Bをベースに開発されたウクライナ語処理用のオープンソース大規模言語モデルで、ウクライナ語の自然言語処理タスクに特化し、ウクライナ語処理で卓越した性能を発揮します。
Lapa LLM 12B PTは、Google Gemma 3 - 12Bをベースに開発されたオープンソースの大規模言語モデルで、ウクライナ語処理に特化して最適化されています。ウクライナの複数の大学の研究チームによって開発され、ウクライナ語処理において卓越した性能を発揮し、効率的な指令微調整とマルチモーダル能力を備えています。
sugoitoolkit
Sugoi LLM 32B Ultraは、Qwen2.5-32B-Instructをベースに最適化された高性能大規模言語モデルで、前作のSugoi 32Bモデルの全ての潜在能力を引き出します。このモデルはGGUF形式を採用し、翻訳タスクに特化しており、優れた多言語処理能力を持っています。
skt
A.X 3.1 Lightは、韓国語理解と企業デプロイのために最適化された軽量級の大規模言語モデル(LLM)で、SKTによって完全に自主開発されました。
unsloth
Orpheus TTSは、Llamaをベースとした高度な音声大規模言語モデル(Speech - LLM)で、高品質で感情豊かな音声生成を目的として設計されています。
llm-jp
日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3をベースに構築され、指令事前学習技術を通じて指令に従う能力が大幅に向上しています。
LLM-jp-3.1-1.8bは日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3シリーズに基づき、指令事前学習を組み込んで指令遵守能力を強化しています。
LLM-jp-3.1-13b-instruct4は日本国立情報学研究所によって開発された大規模言語モデルで、指令事前学習により指令遵守能力が大幅に向上し、日本語や英語などの複数の言語をサポートしています。
Spark-TTSは、大規模言語モデル(LLM)に基づく高効率のテキスト音声変換システムで、英語と中国語のバイリンガル合成とゼロショット音声クローニングをサポートしています。
JetBrains
JetBrains初のオープンソース大規模言語モデル(LLM)のファインチューニング版で、Pythonコード関連タスクに最適化され、8192トークンのコンテキストウィンドウをサポートします。
arshiaafshani
Arsh LLMは研究目的で設計されたオープンソースの大規模言語モデルで、olmo混合データセットを使用しT4 GPU上で約4-5日かけて事前学習を完了しました。
Meta Llama 3.1シリーズは多言語大規模言語モデル(LLMs)のコレクションで、8B、70B、405Bサイズの事前学習済みおよび指示調整済み生成モデルを含みます。8Bバージョンは多言語対話ユースケース向けに最適化されており、一般的なベンチマークテストで優れた性能を発揮します。
leolee99
InjecGuardは大規模言語モデル(LLM)向けのプロンプトインジェクション攻撃防止モデルで、悪意のある命令を効果的に識別・防御し、過剰防御問題を軽減します。
thinhkosay
Spark-TTSは、大規模言語モデル(LLM)の強力な能力を活用し、高精度で自然な音声合成を実現する先進的なテキスト読み上げシステムです。
nvidia
NVIDIA Nemotron-H-47B-Base-8Kは、NVIDIAが開発した大規模言語モデル(LLM)で、与えられたテキストの補完を目的としています。このモデルはハイブリッドアーキテクチャを採用しており、主にMamba-2とMLP層で構成され、注意力層は5つしか含まれていません。
fushh7
LLMDetは大規模言語モデル監視による強力なオープン語彙物体検出器で、CVPR2025ハイライト論文の成果です
LLMDetは大規模言語モデル監視に基づくオープン語彙物体検出器で、ゼロショット物体検出を実現できます。
LLMDetは大規模言語モデル監視による強力なオープン語彙物体検出器で、ゼロショット物体検出を実現できます。
DragonLineageAI
Spark-TTSは、大規模言語モデル(LLM)の強力な能力を活用して、高精度で自然な音声合成を実現する先進的なテキスト読み上げシステムです。
hon9kon9ize
Cantonese LLM Chat v1.0はhon9kon9izeチームが開発した第一世代の広東語大規模言語モデルで、香港関連の専門知識と広東語会話において優れた性能を発揮します。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
WireMCPは大規模言語モデル(LLM)にリアルタイムのネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを統合することでデータキャプチャ、脅威検出、ネットワーク診断を実現します。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
Auto Causal Inferenceは、大規模言語モデル(LLM)を利用して自動的に因果推論を行うプロジェクトです。ユーザーは介入変数と結果変数を指定するだけで、システムが自動的に変数の役割識別、因果グラフの構築、効果推定、モデル検証などの全プロセスの分析を完了します。プロジェクトは2種類のエージェントアーキテクチャ(LangGraphとMCP)を提供してこの機能を実現し、特に銀行シナリオの因果問題分析に適しています。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
Azure影響レポートMCPサーバーは、大規模言語モデル(LLM)がAzureにリソースの問題を自動的に報告できるツールです。自然言語処理によってユーザーのリクエストを解析し、Azureアカウントを自動認証し、管理APIを介してリソースの影響レポートを送信します。
MCPツールは、Model Context Protocol(MCP)を実装したサーバープロジェクトで、Claude DesktopなどのLLMクライアントにファイルシステムとコマンド実行ツールを提供し、大規模言語モデルのローカルシステムとの対話能力を拡張します。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。
これはRubyベースのMCPサーバーフレームワークで、モデルコンテキストプロトコル(MCP)を実装し、大規模言語モデルがツール(乱数生成など)を呼び出すことを可能にします。プロジェクトには、プロトコル処理、ツール管理、ログ記録などの機能が含まれ、ClaudeなどのLLMとの統合をサポートします。
このプロジェクトは、DevOpsツールやプラットフォーム向けに設計されたModel Context Protocol (MCP)サーバーの集合で、標準化された方法で大規模言語モデル(LLM)が主要なDevOpsシステムと直接やり取りでき、インフラストラクチャ、デプロイパイプライン、モニタリングなどの操作を自動制御できます。
Didlogic MCP Serverは、Model Context Protocol (MCP)を実装したサービスで、大規模言語モデル(LLMs)にDidlogic APIとの対話のための標準化されたインターフェースを提供し、残高管理やSIPアカウント管理などのさまざまな機能をサポートします。
WebMCPは、ウェブサイトがクライアントLLM(大規模言語モデル)をサポートできるようにするプロジェクトです。ローカルのWebSocketサーバーを介して、ウェブサイトとLLMの間でツール、リソース、プロンプトを共有でき、APIキーは必要ありません。複数のモデルをサポートしています。
トームはRunebookチームによって開発されたMacOSアプリケーションです(WindowsとLinuxにも対応予定)。ローカルの大規模言語モデル(LLM)とMCPサーバーの使用を簡素化することを目的としています。Ollamaを統合し、MCPサーバーを管理することで、ユーザーは複雑な設定を扱うことなく、すぐにMCP駆動のモデルとの対話を開始できます。
Model Context Protocol (MCP) は、Anthropicが公開したオープンソースのプロトコルで、大規模言語モデル (LLM) と外部データソースおよびシステムの接続の標準化問題を解決することを目的としています。構造化されたフレームワークを提供することで、モデルが外部コンテキストを統合および利用できるようにし、その機能を拡張し、応答の精度を向上させます。MCPは、知識拡張、外部ツールの呼び出し、事前記述されたプロンプトなどの機能をサポートしています。
Memgraph MCPサーバーは、Memgraphグラフデータベースと大規模言語モデル(LLM)を接続するための軽量級のModel Context Protocol(MCP)サーバーの実装で、Cypherクエリ実行とスキーマ情報取得機能を提供します。