アラン人工知能研究所は、完全オープンソースのネットワークプロキシMolmoWebを発表しました。視覚駆動技術を採用し、スクリーンショットを分析してウェブページのナビゲーションを決定し、人間のようなブラウジング行動を模倣し、クリックやスクロールなどの操作を実現します。これは、ウェブナビゲーション技術における大きな飛躍を示しています。
マイクロソフトはアレン人工知能研究所およびワシントン大学から優れた研究チームを引き抜き、元Ai2のCEOであるアリ・ファハディが率いる新設された「スーパーアイ」部門に参画させることで、汎用人工知能(AGI)の構築を強化する。
网易2025年第4四半期の売上は275億元、年間総売上は1126億元。CEOの丁磊は決算説明会で、Genie3などの世界モデル技術の衝撃に対し、AI2.0時代の競争の鍵は単純な生産能力ではなく、深い統合力にあると強調し、業界の成功基準を再定義した。同社はAI技術の深化、グローバル戦略の推進、長寿ゲームの運営最適化を継続する。....
説明はありません
研究者が学術論文を発見するための強力なツールです。
AI21が提供するJamba 1.6モデルは、企業のプライベート展開向けに設計されており、優れた長テキスト処理能力を備えています。
AI21 Jamba Large 1.6は、長文処理と効率的な推論に優れた、強力な混合SSM-Transformerアーキテクチャの基礎モデルです。
Ai2 OLMoEは、iOSデバイスで動作するオープンソースの言語モデルアプリです。
Google
$0.7
入力トークン/百万
$2.8
出力トークン/百万
1k
コンテキスト長
Anthropic
$7
$35
200
$2.1
$17.5
$21
$105
Alibaba
$3.9
$15.2
64
-
Bytedance
$0.8
$2
128
Deepseek
$4
$12
Tencent
$1
32
Openai
$1.75
$14
400
$525
Chatglm
Iflytek
$0.3
allenai
Olmo 3はAllen Institute for AI (Ai2)によって開発された一連の言語モデルで、7Bと32Bの2種類の規格があり、InstructとThinkの2種類のバリエーションがあります。このモデルはTransformerアーキテクチャに基づいており、長い思考チェーン能力を持ち、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。
Olmo 3は、Allen Institute for AI (Ai2)によって開発された全く新しい32Bパラメータの言語モデルファミリーで、Base、Instruct、Thinkなどのバリエーションが含まれています。このモデルはDolma 3データセットを基に訓練され、65,536の長文脈処理をサポートし、言語モデル科学の発展を推進することを目的としています。モデルは完全にオープンソースで、Apache 2.0ライセンスに従っています。
bartowski
これはAI21 LabsのJamba-Mini-1.7モデルの量子化バージョンで、llama.cppのimatrix技術を使用して最適化され、さまざまなハードウェア構成に対して複数の量子化オプションを提供し、高効率な推論をサポートします。
OLMo 2 32Bはアレン人工知能研究所(AI2)が公開したオープン言語モデルシリーズで最大規模の32Bパラメータモデルで、Apache 2.0ライセンスでオープンソース化されており、英語言語処理をサポートしています。
ai21labs
AI21 Jamba 1.5は一連の高度な基礎モデルで、強力な長文脈処理能力と高効率な推論速度を備え、さまざまな業務シーンに適しています。
AI21 Jamba 1.5 Mini は、効率的な長文コンテキスト処理能力と高速な推論速度を備えた先進的なハイブリッドSSM-Transformer命令追従型基盤モデルです。
Severian
Jamba-Herculesはai21labs/Jamba-v0.1をファインチューニングした大規模言語モデルで、Locutusque/hercules-v4.0データセットを使用して訓練され、テキスト生成タスクに特化しています。
lightblue
ai21labs/Jamba-v0.1をファインチューニングしたチャットボットモデルで、多言語対話をサポートし、数時間のQLoRAファインチューニングを経て、英語やその他の言語で合理的で流暢な対話が可能です。
Jambaは最先端のハイブリッドSSM-Transformer大規模言語モデルで、MambaアーキテクチャとTransformerの利点を組み合わせ、256Kのコンテキスト長をサポートし、スループットと性能において同規模のモデルを凌駕します。
cloudyu
Mixtral MOE 2x10.7Bは、ハイブリッドエキスパートアーキテクチャに基づく大規模言語モデルで、Sakura - SOLAR - InstructとCarbonVillainの2つの基礎モデルの長所を組み合わせています。このモデルは、テキスト生成タスクで優れた性能を発揮し、AI2推論チャレンジ、HellaSwag、MMLUなどの複数の公開データセットで評価されています。
go - mcpに基づくMySQLデータベース接続サービスで、MCPプロトコルを通じてクライアントと通信し、SQLクエリとデータ操作機能を提供し、権限管理と柔軟な設定をサポートします。