抖音の『2025年科学技術コンテンツエコシステム報告』によると、プラットフォームでの科学技術コンテンツの年間視聴回数は1.4兆回を超え、ユーザーは1日平均6回以上接触しており、科学技術の普及が日常生活に深く浸透しています。特にAI関連コンテンツが顕著に増加し、学習系の視聴回数は前年比200%急増し、注目の的となっています。....
GoogleはGeminiをAIアプリ作成プラットフォームにアップグレードし、自然言語でブラウザ上でコード不要のカスタムミニアプリを作成できる「Opal」を統合。作成したアプリはAIアシスタント「Gems」として保存可能で、学習支援やキャリアプランニングなど特定シナリオに対応。....
AWSは3つのAIエージェントを発表し、開発・運用効率を向上。自律エージェント「Kiro」は数日間連続稼働可能で、ユーザーの好みを学習し複雑なタスクを独立して遂行。同名コーディングツールを基盤とし、運用レベルのコードを自動生成、プログラミング中にユーザーと対話して仮説を確認・修正する。....
ワーナー・ブラザース・ディスカバリーはAWS GravitonプロセッサとAmazon SageMakerを活用し、AI/ML推論インフラを最適化。コスト削減とパフォーマンス向上を実現したメディアエンターテインメント企業。....
カスタマイズされたAI学習プラットフォームで、あなたに合わせたコースを提供し、インタラクティブな進捗追跡と多言語サポートを備えています。
Duolingoスタイルのコースとカスタム語彙表を組み合わせた、パーソナライズされた言語学習ツール。インタラクティブなクイズとLLM生成コースによる復習で学習をサポートします。
CodeHugoはGPT駆動型のAIコーディングチューターです。AIの支援により、コーディングの学習やスキル向上を支援するコーディングプラットフォームです。
機械学習を利用してインフラストラクチャコードを自動生成し、開発効率を向上させます。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$2
$20
$4
$16
$8
$240
52
Nanbeige
Nanbeige4-3B-Thinkingは第4世代のNanbeige大規模言語モデルファミリーの30億パラメータの推論モデルで、データ品質とトレーニング方法の向上により、高度な推論能力を実現しています。このモデルは数学、科学、創造的な文章作成、ツールの使用などの複数の分野で優れた性能を発揮し、多段階のコース学習と強化学習トレーニングをサポートしています。
allenai
Olmo-3-7B-Think-SFTはAllen Institute for AIが開発した7Bパラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで後続の学習が行われています。
unsloth
Apertusは、パラメータ規模が70Bと8Bの完全オープンな多言語言語モデルで、1000種以上の言語と長文脈をサポートし、完全にコンプライアンスが取れたオープンな学習データのみを使用し、性能はクローズドソースで学習されたモデルと匹敵します。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
quelmap
Lightning-4bは、ローカルデバイスのデータ分析タスク用に設計・学習された言語モデルで、16GBメモリのノートパソコンでもスムーズに動作し、データを大規模言語モデルプロバイダーに送信する必要がなく、データのプライバシーとセキュリティを確保します。
inclusionAI
LLaDA-MoEは拡散原理に基づいて構築された新しい混合専門家言語モデルで、最初のオープンソースのMoE拡散大規模言語モデルです。約20兆個のトークンで最初から事前学習され、総パラメータは70億で、推論時には14億のパラメータのみがアクティブ化されます。コード生成や数学的推論などのタスクで卓越した性能を発揮します。
allura-forge
MiMoは、小米が推論タスク用に最初から訓練した大規模言語モデルシリーズです。事前学習と事後学習の戦略を最適化することで、数学とコードの推論タスクで卓越した性能を発揮します。プロジェクトでは、7Bパラメータ規模の複数のバージョンがオープンソース化されており、基礎モデル、SFTモデル、RLモデルが含まれます。
DatarusAI
Datarus-R1-14B-Previewは、140億パラメータに基づくオープンソースの言語モデルで、Qwen2.5 - 14B - Instructをベースに微調整されています。このモデルは、仮想データアナリストと大学院生レベルの問題解決者として特別に設計されており、推論ステップ、コード実行、エラー追跡、および最終結論を含む完全な分析軌跡から学習することができます。
kshitijthakkar
LoggenixMoE133Mは、軽量な混合専門家(MoE)因果言語モデルで、総パラメータ数は133M、アクティブなパラメータ数は80Mです。このモデルは、根本原因分析、コード生成、推論タスクを含むカスタムデータセットでゼロから学習され、エージェント能力の特殊なトークンをサポートし、エッジデバイスへのデプロイと専門的なAIエージェントの構築に適しています。
InstaDeepAI
BulkRNABertは、Transformerアーキテクチャに基づくエンコーダのみの言語モデルで、大量のRNAシーケンシングデータを処理するために特別に設計されています。このモデルは、自己教師付きのマスク言語モデリング手法を採用し、TCGAデータセットのRNA-seqマップで事前学習されており、遺伝子のゲノムコンテキストからランダムにマスクされた遺伝子発現値を再構築し、生物学的に意味のある転写体表現を学習することができます。
TurkuNLP
フィンランド現代BERTは、現代BERTアーキテクチャに基づく多言語エンコーダーモデルで、フィンランド語、スウェーデン語、英語、コード、ラテン語、北サーミ語で事前学習されています。このモデルは4000億個のトークンで学習され、最大128,000個のトークンの文脈長をサポートし、フィンランドの公用語と長文書のシナリオを処理するために設計されています。
google
T5GemmaはGoogleが開発した軽量型のエンコーダー-デコーダー研究モデルファミリーで、事前学習されたデコーダー専用モデルをエンコーダー-デコーダーアーキテクチャに適応させることで、品質と効率のバランスを改善しています。このモデルは、さまざまな生成タスクと判別タスクをサポートし、リソースが限られた環境でのデプロイに適しています。
T5GemmaはGoogleが開発した軽量級のエンコーダー - デコーダー研究モデルファミリーで、デコーダーのみの事前学習モデルをエンコーダー - デコーダーアーキテクチャに適応させることで、品質と効率のバランスを良好に実現しています。このモデルは、様々な生成タスクと判別タスクに適しており、英語処理をサポートしています。
T5GemmaはGoogleが開発した軽量エンコーダー-デコーダー研究モデルで、デコーダーのみの事前学習モデルをエンコーダー-デコーダーアーキテクチャに適応させることで、より良い品質と効率のトレードオフを実現しています。このモデルは90億パラメータのエンコーダーと20億パラメータのデコーダーを持ち、質問応答、要約、推論などの様々な生成タスクに適しています。
SAP
ConTextTabは、意味理解とコンテキスト学習を組み合わせたディープラーニングモデルで、表データを専門的に処理します。それは、専用の埋め込み方法を通じて異なるデータモードを処理し、大規模な実世界の表データで訓練され、複数のベンチマークテストで優れた性能を発揮し、特に意味が豊富なCARTEベンチマークテストで新しい基準を樹立しました。
SAP RPT 1 OSSは、意味理解とコンテキスト学習を組み合わせたディープラーニングモデルで、表データの予測タスクに特化しています。このモデルは、異なるデータモードに対して専用の埋め込みを採用し、大規模な実世界の表データで訓練されており、幅広いベンチマークテストで優れた性能を発揮します。
XiaomiMiMo
MiMoは、推論タスク用に最初からトレーニングされた一連の7Bパラメータモデルで、事前学習と事後学習の戦略を最適化することで、数学とコードの推論タスクで優れた性能を発揮します。
Shuu12121
高品質のコード理解と意味検索のために設計された最新の事前学習モデルで、8種類のプログラミング言語の長シーケンス処理をサポートします。
CEIA-UFG
GAIAは、ブラジルポルトガル語向けのオープンソースで高度な言語モデルで、google/gemma-3-4b-ptモデルを基に、高品質なポルトガル語コーパスで継続的に事前学習を行って開発されました。
Wrike MCPサーバーは、Wrikeプロジェクト管理プラットフォームと言語学習モデル(LLM)を接続するための軽量級の実装であり、APIインターフェースを介してタスクの照会、コメントの追加、タスクの作成などの機能を提供します。
このプロジェクトは、Model Context Protocol (MCP)を通じてMLflowに自然言語インターフェースを提供し、ユーザーが英語で機械学習の実験とモデルをクエリして管理できるようにします。サーバー側とクライアント側のコンポーネントが含まれています。
神経小児発達システムは、画期的な人工知能フレームワークで、人間の心理発達段階(認知、感情、社交的成長を含む)を模倣することで、ニューラルネットワークの学習方法を再構築します。このシステムは、発達心理学理論(ピアジェの認知発達段階、愛着理論など)と神経科学の原理を統合し、知覚処理、感情調節、記憶システム、心理コンポーネントを含む複雑なアーキテクチャを構築し、真の感情知能と自然な発達能力を持つAIを作成することを目指しています。
YouTube MCPは、機械学習技術を通じてYouTubeコンテンツのインタラクション体験を向上させることを目的としたAIベースのソリューションで、公式APIを必要とせずにビデオ検索、字幕取得、および意味検索などの機能をサポートします。
Ebook - MCPはモデルコンテキストプロトコル(MCP)に基づく電子書籍処理サーバーで、EPUBおよびPDF形式をサポートし、スマートな書籍管理、インタラクティブな閲読体験、学習支援機能を提供し、電子書籍との自然言語対話を実現します。
OrchestroはAI開発調整プラットフォームで、プロダクトマネージャー、開発者、AIをつなぎ、製品のアイデアを本番コードに変換します。タスクの分解、依存関係の追跡、パターン学習、リアルタイムの進捗可視化により、開発プロセス全体を調整し、プロジェクト管理、タスク実行、知識ベース、リアルタイムのダッシュボードなどの機能を提供します。
GPTers Search MCPサーバーは、GPTers AI学習コミュニティに知識検索サービスを提供するMCPサーバーで、MCPプロトコルを通じてクライアントにコミュニティの内容の検索サービスを提供します。
Cloudera MLモデル制御プロトコル(MCP)はPythonのツールキットで、Cloudera機械学習プラットフォームとの統合機能を提供します。ファイル管理、ジョブスケジューリング、モデル管理、実験追跡などのサービスが含まれます。
OpenML MCPサーバーは、MCPプロトコルを通じてOpenML APIへのアクセスを提供するツールで、ユーザーがMCP互換クライアント(Claude Desktopなど)から直接データセット、タスク、プロセスなどの機械学習リソースをクエリできます。
インタラクティブなモデルコンテキストプロトコル(MCP)学習チュートリアルプロジェクトで、MCPホストの設定からサーバーとクライアントの開発までの完全なガイドを提供します。
技術コーチが構造化された学習時間のコースを作成するのを支援するMCPサービスで、4C学習モデルを通じてコード例とインタラクティブなホワイトボードを含む60分間の技術トレーニングコースを生成します。
このプロジェクトは、モデルコンテキストプロトコル(MCP)サーバーの実装をテストおよび探索するためのGitHubリポジトリで、複数のプログラミング言語の学習、DevOpsツール、ゲーム開発、AI関連のサブプロジェクトが含まれています。
これはGitHub API機能を学習およびテストするためのプロジェクトで、主にリポジトリ管理、ファイル操作、チームコラボレーションなどの機能が含まれています。
Javaソフトウェア開発の学習ノート。核心的なJava、Web開発、デザインパターンなどの技術テーマをカバーし、詳細な技術議論、コード例、ベストプラクティスを含む。
これはPythonベースのカスタムMCP(モデルコンテキストプロトコル)サーバーのデモプロジェクトで、カスタムプロトコルを使用した通信サーバーの構築方法を示すもので、ネットワークプログラミングとプロトコル設計の学習に適しています。
これは初心者向けの生成AIコースプロジェクトで、環境構築から実際のアプリケーションまでの完全な学習パスを提供します。プロジェクトには6つの概念コースと6つのプログラミングコースが含まれ、Azure OpenAIサービスを使用して実践操作を行います。学習者はGitHub Codespacesを通じてすぐに始めることができ、またはローカルにPython環境をインストールすることもできます。プロジェクトではAPIキーの安全な管理を強調し、詳細な設定ガイドを提供します。さらに、学習者にオープンソースへの貢献を奨励し、AIコミュニティの交流プラットフォームを提供します。