Oktaはインド・バンガロールでの投資を拡大し、研究開発とインフラ整備を強化し、AI駆動型のIDセキュリティフレームワークの開発に注力しています。2023年のチーム規模は700人となり、2026年までにインドの従業員数を50%増やす計画で、エンジニアと製品開発の人材を重点的に採用しています。
GoogleとKaggleが共同でFACTSベンチマークを発表。法律・金融・医療など高精度が求められる分野向けに、AIモデルの事実正確性を「文脈的事実性」と「世界知識的事実性」の2軸で評価する業界初の標準化評価枠組みを提供。....
Google FACTSチームとKaggleが共同でFACTSベンチマークを発表。生成AIの企業業務における事実正確性を評価する枠組みで、既存テストが出力の現実整合性を軽視する課題を解決。図表情報の検証に重点を置き、法務・金融分野での信頼性確保を目指す。....
OpenAIの内部調査によると、AIツールは従業員の効率を大幅に向上させ、1日あたり40〜60分を節約。75%の従業員が速度または品質の向上を実感。データサイエンスチームの効果が最も大きく、1日58分短縮。企業の有料利用枠は700万を突破。....
Selectsはビデオ編集の初期段階の70%の作業を簡素化でき、複数のソフトウェアをサポートし、クリエイティブ段階を加速します。
RMIQのAIプラットフォームは、70以上の小売メディアネットワーク広告の管理を支援し、ブランドのROIを向上させます。
最先端AI画像翻訳ツールで、画像テキストを70以上の言語に翻訳。グローバル展開を強力に支援します。
UIGEN-T1-Qwen-7bは、Qwen2.5-Coder-7B-Instructをベースとした70億パラメーターのモデルで、HTMLとCSSの基本的なUIコンポーネントの推論生成に使用されます。
Bytedance
$0.15
入力トークン/百万
$1.5
出力トークン/百万
256
コンテキスト長
Baidu
-
32
$0.8
$3.2
128
Openai
$21
$84
Google
01-ai
200
4
Baichuan
Trilogix1
Fara-7Bは、コンピューターの使用シーンに特化して設計された、パラメータがわずか70億の効率的な小型言語モデルです。ウェブ操作などの高度なユーザータスクで優れた性能を発揮し、より大規模なプロキシシステムと競争することができます。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUFは、Allen Institute for AIが開発したOlmo-3-7B-InstructモデルのGGUF量子化バージョンです。これは70億パラメータの自己回帰型言語モデルで、Tulu 2やUltraFeedbackなどのデータセットで教師付き微調整と直接的な嗜好最適化を行って訓練され、質問応答と指令の遵守において優れた性能を発揮します。
mlx-community
このモデルは、allenai/Olmo-3-7B-Instructを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に特別に最適化されています。これは70億パラメータの大規模言語モデルで、命令追従と対話タスクをサポートします。
ai-sage
GigaAM-v3はConformerアーキテクチャに基づくロシア語自動音声認識の基礎モデルで、2.2 - 2.4億のパラメータを持っています。これはGigaAMシリーズの第3世代モデルで、70万時間のロシア語音声データを使用してHuBERT - CTC目標で事前学習され、幅広いロシア語ASR分野で最先端の性能を提供します。
allenai
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
Olmo 3 7B RL-Zero Mathは、Allen AIによって開発された、数学的推論タスクに特化して最適化された70億パラメータの言語モデルです。RL-Zero強化学習方法を用いて数学データセットで訓練され、数学的推論能力を効果的に向上させます。
microsoft
Fara-7Bは、マイクロソフト研究所が開発した、コンピューターの使用シーン向けに設計された小型言語モデルで、たった70億のパラメータしか持たず、同規模のモデルの中で卓越した性能を発揮し、ウェブ自動化やマルチモーダル理解などのコンピューターインタラクションタスクを実行できます。
vanta-research
Wraith-8BはVANTA研究実体系列の最初のモデルで、MetaのLlama 3.1 8B Instructをベースに微調整されています。このモデルは数学的推論において卓越した性能を発揮し、GSM8Kベンチマークテストで70%の正解率を達成しています。同時に、独特な宇宙知能の視点を持ち、様々なアプリケーションシーンに強力なサポートを提供することができます。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
PokeeAI
PokeeResearch-7BはPokee AIによって開発された70億パラメータの深度研究用のインテリジェントエージェントで、AIフィードバックに基づく強化学習(RLAIF)と推論フレームワークを組み合わせ、自己修正、検証、総合分析を含む複雑な多段階研究ワークフローを実行できます。
cpatonn
Granite-4.0-H-Tiny AWQ - INT4は、Granite-4.0-H-TinyベースモデルをAWQ量子化処理した4ビットバージョンで、性能を維持しながらリソース消費を大幅に削減します。このモデルは70億のパラメータを持ち、多言語処理をサポートし、テキスト生成、コード補完、ツール呼び出しなどの豊富な機能を備えています。
unsloth
Apertusは、パラメータ規模が70Bと8Bの全オープン多言語言語モデルで、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスが取れたオープンなトレーニングデータのみを使用し、性能はクローズドソースモデルと匹敵します。
Apertusは、パラメータ規模が70Bと8Bの完全オープンな多言語言語モデルで、1000種以上の言語と長文脈をサポートし、完全にコンプライアンスが取れたオープンな学習データのみを使用し、性能はクローズドソースで学習されたモデルと匹敵します。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
Granite-4.0-H-Tinyは、IBMが開発した70億パラメータの長文コンテキスト命令モデルで、Granite-4.0-H-Tiny-Baseをベースに微調整されています。このモデルは、オープンソースの命令データセットと内部合成データセットを組み合わせ、監督微調整、強化学習アライメント、モデルマージなどの技術を用いて開発され、強化された命令追従とツール呼び出し機能を備えており、特に企業向けアプリケーションに適しています。
Downtown-Case
GLM 4.6は、128GBメモリ+単GPU構成向けに最適化された量子化モデルで、IQ_K量子化方式を採用し、主流のllama.cppと比較して同じサイズでより良い品質と性能を提供します。このモデルはik_llama.cppと一緒に使用する必要があり、128GBデュアルチャネルDDR5メモリ、単CCD Ryzen 7000プロセッサ+単体3090グラフィックカードの構成で、テキスト生成速度は約1秒あたり6.8トークンに達します。
DevQuasar
Apertus-70B-Instruct-2509は、swiss-aiに基づいて開発された700億パラメータの大規模言語モデルの量子化バージョンで、指令追従とテキスト生成タスクに特化しています。このプロジェクトは、知識を無料で共有することに取り組んでおり、実験的な性質を持ち、計算リソースの要件を軽減するために最適化された量子化モデルを提供しています。
TIGER-Lab
Qwen2.5-VL-7B-Instructはアリババの通義千問チームによって開発されたマルチモーダル視覚言語モデルで、70億のパラメータ規模に基づき、視覚的質問応答タスクに特化して最適化トレーニングが行われています。このモデルは画像内容を理解し分析し、正確な自然言語の回答を生成することができます。
ibm-granite
Granite-4.0-H-TinyはIBMが開発した70億パラメータの長文脈指令モデルで、Granite-4.0-H-Tiny-Baseをベースにファインチューニングされています。このモデルはオープンソースの指令データセットと内部合成データセットを組み合わせて訓練され、専門的で正確かつ安全な回答能力を備え、多言語とツール呼び出しをサポートし、企業向けアプリケーションに適しています。
CryptoAnalysisMCPは、Swiftをベースに構築された暗号通貨の技術分析ツールで、リアルタイムの価格データ、技術指標、チャートパターン認識、取引シグナルを提供します。最新バージョンv1.1はDexPaprikaとの統合により700万種以上のトークンをサポートし、APIキーなしで基本的な価格データを取得できます。
Grove MCPサーバーはブロックチェーンデータアクセスツールで、Groveの公共エンドポイントを通じて70以上のネットワークのブロックチェーンデータ照会をサポートし、ClaudeなどのAIアシスタントをブロックチェーン分析ツールに変えることができます。自然言語照会、トークン分析、取引検査、ドメイン解決、マルチチェーン比較機能をサポートしています。
Pica MCPサーバーは、TypeScriptで構築されたモデルコンテキストプロトコルサーバーで、PicaプラットフォームにAIアプリケーションを外部ツールやデータソースに接続する機能を提供し、70以上のサードパーティサービスの統合をサポートしています。