DeepMindは2026年をAI発展の転換点と予測。継続学習技術が実現し、AIが自律的に知識を吸収・改善できるようになる。NeurIPS2025で発表された「ネスティング手法」は大規模言語モデルの文脈処理能力を向上させ、継続学習の基盤を築いた。....
テンセントAIラボの副所長、俞棟氏が個人のキャリア発展のため退職。音声処理、自然言語処理、デジタルヒューマン技術の開発を担当し、深層学習と音声認識分野で豊富な経験を持つ。....
オレゴン州の作家エリザベス・リオンがAdobeを集団訴訟で提訴。同社の軽量言語モデルSlimLMが、自身の海賊版を含む違法データセットで学習されたと主張。SlimLMはモバイル文書補助向けに最適化されており、AdobeはオープンソースデータセットSlimPajama-627Bを使用したと説明しているが、リオンは無許可作品の使用が著作権を侵害していると訴えている。....
GoogleはGeminiをAIアプリ作成プラットフォームにアップグレードし、自然言語でブラウザ上でコード不要のカスタムミニアプリを作成できる「Opal」を統合。作成したアプリはAIアシスタント「Gems」として保存可能で、学習支援やキャリアプランニングなど特定シナリオに対応。....
JoliiはAIを搭載した言語学習アプリで、映画や音楽を活用し、個人に合わせた指導で楽に言語を学ぶことができます。
That Ishはスラング辞書アプリで、潮流を追い、自信を持ってコミュニケーションするのに役立ちます。
AIを駆動した言語学習、複数言語を簡単にマスター、無料かつCEFR基準に適合
AIによるストーリーで言語を学ぶ
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Openai
$7.7
$30.8
200
Anthropic
$7
$35
$21
$105
Alibaba
$1
$10
256
$6
$24
$2
$20
-
$8
$240
52
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
Moonshot
$4
$16
$0.8
128
Baidu
32
Deepseek
$12
MedSwin
このプロジェクトは、事前学習言語モデル融合技術を使用して作成された医学分野のモデルです。複数の医学関連の事前学習モデルを融合することで、医学質問応答タスクに特化して最適化され、医学シーンでの性能と効果が向上しています。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
このプロジェクトは、mergekitを使用して事前学習言語モデルを統合した成果であり、複数の医学分野の事前学習モデルを組み合わせ、医学質問応答タスクにより強力なサポートを提供し、医学的質問への回答の正確性と効率を効果的に向上させます。
BAAI
Emu3.5は北京智源人工知能研究院が開発したオリジナルのマルチモーダルモデルで、視覚と言語をまたいで次の状態を連合予測し、一貫した世界モデリングと生成を実現します。エンドツーエンド事前学習と大規模強化学習による事後学習を行うことで、マルチモーダルタスクで卓越した性能を発揮します。
Clemylia
Lam-3はLaminaシリーズの小型言語モデル(SLM)で、Clemylia/lamina - suite - pretrainをベースに微調整されています。このモデルは質問に回答でき、創造性がありますが、時に回答が独特になることがあります。モデルはゼロから作成され、1358個の質問と回答のペアを含むClem27sey/Nacidデータセットで3時間学習されました。
mradermacher
Lamapi/next-12bは120億パラメータの多言語大規模言語モデルで、複数の量子化バージョンを提供し、テキスト生成、質問応答、チャットなどの多様な自然言語処理タスクをサポートします。このモデルは複数の領域のデータセットで学習され、高効率で軽量な特徴を持っています。
Ilya626
これはSLERP方法を使用してVistral - 24B - InstructとCydonia - 24B - v4.2.0をマージした事前学習言語モデルで、ロシア語と英語のバイリンガル処理能力を特別に最適化しています。モデルは2つの基礎モデルの長所をスマートに融合することで、ロシア語能力を維持しながら英語の性能を強化しています。
Nanbeige
Nanbeige4-3B-Thinkingは第4世代のNanbeige大規模言語モデルファミリーの30億パラメータの推論モデルで、データ品質とトレーニング方法の向上により、高度な推論能力を実現しています。このモデルは数学、科学、創造的な文章作成、ツールの使用などの複数の分野で優れた性能を発揮し、多段階のコース学習と強化学習トレーニングをサポートしています。
aisingapore
Qwen-SEA-LION-v4-32B-ITは、Qwen3 - 32Bをベースに構築された東南アジア言語の大規模言語モデルで、東南アジア地域を対象に事前学習と指令微調整が行われています。このモデルは、7種類の東南アジア言語を含むSEA - Pile v2コーパスで継続的に事前学習され、800万対の高品質な質問と回答のデータで指令微調整が行われ、強力な多言語理解と推論能力を備えています。
redis
これは事前学習モデルに基づく文章類似度計算モデルで、文章間の意味的類似度を測定するために特別に設計されています。モデルはredis/sentencepairs-v3-tripletsデータセットで訓練され、sentence-transformersライブラリを使用して構築され、自然言語処理の分野で広範な応用価値があります。
Olmo-3-7B-Think-SFTはAllen Institute for AIが開発した7Bパラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで後続の学習が行われています。
Zigeng
dParallelは大規模言語モデルに対する学習可能な並列デコード手法で、モデルの内在的な並列性を掘り起こすことで高速サンプリングを実現します。この手法はデコードステップを大幅に削減し、同時にモデルの性能を維持し、GSM8KやMBPPなどのベンチマークテストで8.5 - 10.5倍の高速化を達成します。
Mungert
通義深度研究30Bは300億パラメータを持つ大規模言語モデルで、長周期、深度情報検索タスクに特化して設計されています。このモデルは複数の知能検索ベンチマークテストで優れた成績を収め、革新的な量子化手法を用いて性能を向上させ、知能事前学習、監督微調整、強化学習をサポートしています。
radicalnumerics
RND1は実験的な拡散言語モデルで、300億のパラメータを持ち、疎なエキスパート混合アーキテクチャを採用しています。このモデルは事前学習された自己回帰ベースモデルから変換され、拡散ベースのテキスト生成をサポートしており、各トークンで300億のパラメータのみがアクティブ化され、計算効率とモデル容量のバランスを取っています。
unsloth
Apertusは、パラメータ規模が70Bと8Bの完全オープンな多言語言語モデルで、1000種以上の言語と長文脈をサポートし、完全にコンプライアンスが取れたオープンな学習データのみを使用し、性能はクローズドソースで学習されたモデルと匹敵します。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
JetBrains
Mellum-4b-dpo-allはJetBrainsが開発した、コード生成と理解に特化した40億パラメータの大規模言語モデルです。事前学習、SFT、直接嗜好最適化(DPO)の3段階のトレーニングを経て、高品質で読みやすいコードを生成でき、複数のプログラミング言語をサポートします。
このプロジェクトは、PSR.exeで生成されたMHTファイルを解析することで、大規模言語モデルにユーザーのワークフローを学習させます。
このプロジェクトは、Model Context Protocol (MCP)を通じてMLflowに自然言語インターフェースを提供し、ユーザーが英語で機械学習の実験とモデルをクエリして管理できるようにします。サーバー側とクライアント側のコンポーネントが含まれています。
Wrike MCPサーバーは、Wrikeプロジェクト管理プラットフォームと言語学習モデル(LLM)を接続するための軽量級の実装であり、APIインターフェースを介してタスクの照会、コメントの追加、タスクの作成などの機能を提供します。
Ebook - MCPはモデルコンテキストプロトコル(MCP)に基づく電子書籍処理サーバーで、EPUBおよびPDF形式をサポートし、スマートな書籍管理、インタラクティブな閲読体験、学習支援機能を提供し、電子書籍との自然言語対話を実現します。
このプロジェクトは、自然言語インターフェースを通じてMLflowにモデルコンテキストプロトコル(MCP)サービスを提供し、機械学習の実験とモデルの管理と照会を簡素化します。
TypeScriptベースのGelデータベースMCPサーバーで、EdgeQLクエリを通じてデータベース操作を簡素化し、LLMエージェントによる自動モデル学習、検証クエリの作成をサポートし、自然言語でのやり取り機能を提供します。
このプロジェクトは、Cal.com APIとのやり取りを行うための独立したFastMCPサーバーで、言語学習モデル(LLM)がCal.comのイベントタイプや予約などの機能をツールを通じて管理できるようにします。
MCPアナリティクススイートは、インテリジェントな分析プラットフォームです。AI駆動のインテリジェントな発見機能により、自然言語で記述されたビジネス上の問題を自動的に実行可能な洞察に変換します。エンドツーエンドの分析ワークフローを提供し、さまざまな統計方法と機械学習技術をサポートし、安全なデータ処理とインタラクティブなレポート機能を統合しています。
AionMCPは、Go言語ベースの自律型MCPサーバーで、複数のAPI仕様を動的にインポートしてツールに変換し、自己学習、コンテキスト認識、自動ドキュメント生成機能を備えています。
このプロジェクトは、モデルコンテキストプロトコル(MCP)サーバーの実装をテストおよび探索するためのGitHubリポジトリで、複数のプログラミング言語の学習、DevOpsツール、ゲーム開発、AI関連のサブプロジェクトが含まれています。
Rustで実装されたMCPサーバープロジェクトで、Rust言語とMCPプロトコルの学習を目的としています。