Googleが「Google Skills」学習プラットフォームを開始。内部AIトレーニングリソースを公開し、DeepMindやGoogle Cloudなどのコンテンツを統合。AIスキルギャップ解消を目指し、初心者向け学習機会を提供。....
世界をリードするストレージソフトウェア会社であるScalityは、AIエコシステム認証プログラムをアップグレードし、現在では20種類以上の重要なAIおよび機械学習ツールやフレームワークをカバーしています。このプログラムは、そのネットワークエレースティブストレージアーキテクチャに基づいており、ツール間の相互運用性を確保し、データセキュリティとアプリケーション効率を向上させ、AIの急速な発展に対応することを目的としています。
グーグル元CEOシュミット氏、AIの拡散リスク警告。悪用される恐れ、オープン/クローズモデル共にハッキングの危険性。AIが有害コンテンツ学習の可能性も、対策強化を呼びかけ。....
阿里雲がQwen3-Maxを発表、1兆パラメータ超のAIモデル。36兆トークンのデータで学習し、LMArenaテキストランキング3位を獲得。GPT-5-Chatを上回り、コード生成などで優れた性能を示すAI技術の新たな進展。....
視覚的コンテキスト学習による汎用的な画像生成フレームワークです。
複数の画像を扱うビジョン言語モデル。トレーニング、推論、評価のためのソリューションを提供し、クラウドからエッジデバイス(Jetson Orinやノートパソコンなど)への展開が可能です。
LLMと生成AIモデルに基づくAI製品の基礎研究と技術
deepseek
$3.6
入力トークン/百万
$15.48
出力トークン/百万
128k
コンテキスト長
meta
$1.44
mistral
$0.72
$2.16
unsloth
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
ibm-granite
Granite-4.0-Micro-BaseはIBMが開発したデコーダーのみの長文脈言語モデルで、約15兆のトークンを使ってゼロから学習され、四ステージトレーニング戦略を採用しています。このモデルは様々なテキスト生成タスクに特化して設計されており、多言語と穴埋め式のコード補完機能をサポートしています。
quelmap
Lightning-4bは、ローカルデバイスのデータ分析タスク用に設計・学習された言語モデルで、16GBメモリのノートパソコンでもスムーズに動作し、データを大規模言語モデルプロバイダーに送信する必要がなく、データのプライバシーとセキュリティを確保します。
QuantFactory
MachineLearningLM-7B-v1は、Qwen/Qwen2.5-7B-Instructをベースに、数百万の合成表機械学習タスクで継続的に事前学習された大規模言語モデルで、表分類タスクに特化して最適化されており、8から1024個のサンプルの少サンプルコンテキスト学習をサポートします。
QuantTrio
DeepSeek-V3.1はDeepSeek-V3.1-Baseをベースに事後学習を行った大規模言語モデルで、128Kのコンテキスト長を持ち、混合思考モード、スマートツール呼び出し、コードエージェント機能をサポートしています。このモデルは複数のベンチマークテストで優れた成績を収めており、特に数学的推論、コード生成、検索エージェントタスクで顕著な向上が見られます。
aisingapore
Gemma-SEA-LION-v4-27B-ITは東南アジア地域向けに事前学習と命令微調整を行った大規模言語モデルで、東南アジアの言語タスクで優れた性能を発揮し、128Kの大きなコンテキスト長を持ち、画像とテキストの理解能力を備え、高度な関数呼び出しと構造化出力をサポートします。
TurkuNLP
フィンランド現代BERTは、現代BERTアーキテクチャに基づく多言語エンコーダーモデルで、フィンランド語、スウェーデン語、英語、コード、ラテン語、北サーミ語で事前学習されています。このモデルは4000億個のトークンで学習され、最大128,000個のトークンの文脈長をサポートし、フィンランドの公用語と長文書のシナリオを処理するために設計されています。
google
T5GemmaはGoogleが開発した軽量型のエンコーダー-デコーダー研究モデルファミリーで、事前学習されたデコーダー専用モデルをエンコーダー-デコーダーアーキテクチャに適応させることで、品質と効率のバランスを改善しています。このモデルは、さまざまな生成タスクと判別タスクをサポートし、リソースが限られた環境でのデプロイに適しています。
T5GemmaはGoogleが開発した軽量級のエンコーダー - デコーダー研究モデルファミリーで、デコーダーのみの事前学習モデルをエンコーダー - デコーダーアーキテクチャに適応させることで、品質と効率のバランスを良好に実現しています。このモデルは、様々な生成タスクと判別タスクに適しており、英語処理をサポートしています。
T5GemmaはGoogleが開発した軽量エンコーダー-デコーダー研究モデルで、デコーダーのみの事前学習モデルをエンコーダー-デコーダーアーキテクチャに適応させることで、より良い品質と効率のトレードオフを実現しています。このモデルは90億パラメータのエンコーダーと20億パラメータのデコーダーを持ち、質問応答、要約、推論などの様々な生成タスクに適しています。
SAP
ConTextTabは、意味理解とコンテキスト学習を組み合わせたディープラーニングモデルで、表データを専門的に処理します。それは、専用の埋め込み方法を通じて異なるデータモードを処理し、大規模な実世界の表データで訓練され、複数のベンチマークテストで優れた性能を発揮し、特に意味が豊富なCARTEベンチマークテストで新しい基準を樹立しました。
fixie-ai
Ultravoxはマルチモーダル音声大規模言語モデルで、事前学習された大規模言語モデルと音声エンコーダを組み合わせ、音声とテキスト入力を処理できます。
Mungert
Qwen2.5 - 32B - Instructに基づく大規模言語モデルで、コード生成推論用に事後学習され、32Kのコンテキスト長をサポートし、商用および非商用用途に適しています。
Qwen3-4B-Baseは通義千問シリーズ最新世代の40億パラメータを持つ事前学習言語モデルで、32kのコンテキスト長と多言語処理をサポートしています。
Qwen
Qwen3-1.7Bは通義千問シリーズ最新世代の17億パラメータ基本言語モデルで、3段階事前学習体系を採用し、32kのコンテキスト長をサポートします。
Qwen3-4B-Baseは通義千問シリーズ最新世代の40億パラメータ大規模言語モデルで、36兆トークンの多言語データで事前学習され、32kのコンテキスト長をサポートします。
VisualCloze
VisualClozeはコンテキスト学習に基づく汎用画像生成フレームワークで、複数のドメイン内タスクをサポートし、コンテキスト学習を通じて未見のタスクにも汎化可能です。
trend-cybertron
nvidia/Llama-3.1-Nemotron-70B-Instructを基に継続学習したネットワークセキュリティ大規模言語モデルで、複数のネットワークセキュリティベンチマークテストで総合スコアが11.19%向上しました。
nvidia/Llama-3.1-Nemotron-70B-Instructを基に継続学習したネットワークセキュリティ大規模言語モデルで、ネットワークセキュリティベンチマークテストの総合スコアが18.18%向上
VisualClozeは視覚的コンテキスト学習に基づく汎用画像生成フレームワークで、複数のドメイン内タスクや未知タスクへの汎化をサポートし、単一ステップの生成で目標画像と中間結果を同時に出力します。
線形回帰MCPプロジェクトは、Claudeとモデルコンテキストプロトコル(MCP)を使用したエンドツーエンドの機械学習ワークフローを示しており、データの前処理、モデルのトレーニング、評価が含まれます。
神経小児発達システムは、画期的な人工知能フレームワークで、人間の心理発達段階(認知、感情、社交的成長を含む)を模倣することで、ニューラルネットワークの学習方法を再構築します。このシステムは、発達心理学理論(ピアジェの認知発達段階、愛着理論など)と神経科学の原理を統合し、知覚処理、感情調節、記憶システム、心理コンポーネントを含む複雑なアーキテクチャを構築し、真の感情知能と自然な発達能力を持つAIを作成することを目指しています。
このプロジェクトは、Claudeとモデルコンテキストプロトコル(MCP)を使用したエンドツーエンドの機械学習ワークフローによる線形回帰モデルの訓練を示しています。ユーザーはCSVデータセットをアップロードするだけで、システムが自動的にデータの前処理、モデルの訓練と評価(RMSEの計算)の全プロセスを完了します。
このプロジェクトは、自然言語インターフェースを通じてMLflowにモデルコンテキストプロトコル(MCP)サービスを提供し、機械学習の実験とモデルの管理と照会を簡素化します。
Ebook - MCPはモデルコンテキストプロトコル(MCP)に基づく電子書籍処理サーバーで、EPUBおよびPDF形式をサポートし、スマートな書籍管理、インタラクティブな閲読体験、学習支援機能を提供し、電子書籍との自然言語対話を実現します。
動的なMCPサーバー管理サービスで、モデルコンテキストプロトコル(MCP)サーバーの作成、実行、管理に使用されます。このプロジェクトはPythonで実装されており、6種類の異なるタイプのマインドマップを生成でき、学習、復習、プレゼンテーションなどのさまざまなシーンに適しています。
Statsource MCPサーバーは、統計分析と機械学習による予測機能を提供するモデルコンテキストプロトコルサーバーで、複数のデータソースの接続と多様な統計計算をサポートします。
インタラクティブなモデルコンテキストプロトコル(MCP)学習チュートリアルプロジェクトで、MCPホストの設定からサーバーとクライアントの開発までの完全なガイドを提供します。
このプロジェクトは、モデルコンテキストプロトコル(MCP)サーバーの実装をテストおよび探索するためのGitHubリポジトリで、複数のプログラミング言語の学習、DevOpsツール、ゲーム開発、AI関連のサブプロジェクトが含まれています。
これはPythonベースのカスタムMCP(モデルコンテキストプロトコル)サーバーのデモプロジェクトで、カスタムプロトコルを使用した通信サーバーの構築方法を示すもので、ネットワークプログラミングとプロトコル設計の学習に適しています。
これは初心者向けの生成AIコースプロジェクトで、環境構築から実際のアプリケーションまでの完全な学習パスを提供します。プロジェクトには6つの概念コースと6つのプログラミングコースが含まれ、Azure OpenAIサービスを使用して実践操作を行います。学習者はGitHub Codespacesを通じてすぐに始めることができ、またはローカルにPython環境をインストールすることもできます。プロジェクトではAPIキーの安全な管理を強調し、詳細な設定ガイドを提供します。さらに、学習者にオープンソースへの貢献を奨励し、AIコミュニティの交流プラットフォームを提供します。
モデル - コンテキスト - プロトコルサーバを作成するための学習研究プロジェクト