元グーグル幹部がAI教育プラットフォームFermi.aiを立ち上げ、中学生がSTEM科目を学ぶ方法を変革することを目的としている。プラットフォームのコアな考えは、直接的な答えを提供するのではなく、深い思考を促すことである。即時の問題解決を拒否し、ディープラーニングに重点を置いている。
アリババはQwen3-VL視覚言語モデルのコンパクト版(4億/8億パラメータ)を発表。STEM推論、視覚Q&A、OCR等の能力を強化し、エッジデバイス向けマルチモーダルAIを推進。大型モデル並み性能を実現。....
xAIは500人の従業員を削減し、データアノテーションチームを中心に全従業員の3分の1が対象。STEM、金融、医療など専門分野のAI開発に注力する戦略転換を実施中。....
2025年中国教育ロボット市場のハードウェア売上は10.7億元、前年比12.5%増。2029年には39.3億元に達し、5年間のCAGRは12.9%と予測。STEM教育とAI発展が市場成長を後押し。....
TheoremExplainAgentは、マルチモーダルな定理解説動画を生成するためのインテリジェントシステムです。
OpenAI o3-miniは、OpenAIが発表した最新の費用対効果の高い推論モデルで、STEM分野向けに最適化されています。
あなたのAIパートナー | 教育、STEM、法律
アイデアからデザインまで、わずか数分で実現
Openai
$7.7
入力トークン/百万
$30.8
出力トークン/百万
200
コンテキスト長
Google
$8.75
$70
1k
Stepfun
-
$1
$2
32
$38
$120
16
$21
$84
128
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8は、百度のERNIE-4.5アーキテクチャに基づくマルチモーダル大規模言語モデルで、AWQ量子化技術を通じて8ビット精度を実現し、高性能を維持しながらメモリ要件を大幅に削減します。このモデルは、視覚推論、STEM問題解決、画像分析などの分野で優れた性能を発揮し、強力なマルチモーダル理解と推論能力を備えています。
cpatonn
Hermes 4 14Bは、Nous ResearchがQwen 3 14Bをベースに開発した最先端の混合モード推論モデルで、数学、コード、STEM、論理、創造性、および形式忠実出力などの分野で優れた性能を発揮し、明示的な思考過程とツール呼び出し機能を備えています。
NousResearch
Hermes 4 14Bは、Nous ResearchによってQwen 3 14Bをベースに開発された最先端の混合モード推論モデルで、数学、コード、STEM、論理推論、創造性、および形式保持出力などの分野で顕著な向上が見られ、同時に汎用アシスタントの品質と幅広い中立的なアライメントを維持しています。
deepcogito
Cogito v2は命令微調整された生成型混合推論モデルで、反復蒸留と拡大訓練方法を採用し、コーディング、STEM、命令遵守などの面で優れた性能を発揮し、30種類以上の言語と128kのコンテキスト長をサポートします。
Cogito v2は命令調整された生成型大規模言語モデルで、混合専門家アーキテクチャを採用し、1090億のパラメータを持っています。このモデルは多言語処理と長文脈推論をサポートし、コーディングやSTEMなどの分野で優れた性能を発揮し、商用利用もサポートしています。
Cogito v2は命令調整に基づく生成型大規模言語モデルで、混合推論能力を備え、128kの文脈長と多言語処理をサポートしています。このモデルは反復蒸留と拡大(IDA)の訓練戦略を採用し、コーディング、STEM、命令遵守などのタスクで優れた性能を発揮します。
Cogito v2はLlama-3.1-70Bに基づく命令調整生成型モデルで、混合推論能力を備え、多言語と長いコンテキストをサポートし、コーディング、STEMなどの分野で優れた性能を発揮します。反復蒸留と拡大訓練戦略を採用し、商用目的に使用できます。
cortexso
DeepCogitoが提供する反復蒸留と拡大(IDA)トレーニングによる強力なハイブリッド推論モデルで、プログラミング、STEM、多言語、エージェントアプリケーションのシナリオで優れたパフォーマンスを発揮します。
async0x42
Cogito v1 プレビュー版はQwen2.5-32Bをベースとした命令調整生成モデルで、30以上の言語をサポートし、コンテキスト長は128kに達し、プログラミング、STEM、命令遵守、一般的な有用性に最適化されています。
etri-lirs
EAGLEは韓国電子通信研究院(ETRI)が開発した31億パラメータのデコーダ因果言語モデルで、STEM分野、特に数学と定量的推論に特化しています。このモデルは7200億トークンで事前学習され、LLaMA互換アーキテクチャを採用していますが、汎用言語モデルではなく、チャットボットなどのアプリケーションに使用するには追加の微調整が必要です。
Nitral-AI
Hathor_Tahsin [v-0.85] はLLaMA 3 8B Instructモデルを基盤とした多機能言語モデルで、創造性、知性、高性能を融合し、ロールプレイ、STEM対話、コマンド実行などのタスクに適しています。
Weyaxi
Meta-Llama-3-8Bを多様な科学データセットでファインチューニングした大規模言語モデルで、STEM分野のタスクに特化
Einstein-v4-7BはMistral-7B-v0.1を多様な科学データセットで完全にファインチューニングした大規模言語モデルで、STEM分野のタスクに特化しています
STEM-AI-mtl
電気工学分野に特化した27億パラメータのモデルで、マイクロソフトphi-2を基にLoRaでファインチューニングされており、電気工学Q&AやKiCadソフト関連のコード生成をサポート
Open-Orca
OpenOrca-Platypus2-13BはPlatypus2-13BとOpenOrcaxOpenChat-Preview2-13Bの融合モデルで、STEM/論理データセットとGPT-4精製データセットの利点を組み合わせています
garage-bAInd
Camel-Platypus2-70B は Platypus2-70B と qCammel-70-x を統合した大規模言語モデルで、LLaMA 2 アーキテクチャに基づき、STEM と論理的推論タスクに特化しています。
glasses
ResNet26dは深層残差学習に基づく画像分類モデルで、ResNetのバリアント(d)バージョンであり、stem構造とshortcut接続方式を最適化しています。