AIスタートアップScribeが7500万ドルを調達、評価額は13億ドルに。企業のAI活用を支援し、ワークフロー分析を通じて最適化提案を行う。主力製品「Scribe Capture」は従業員の操作を記録し、共有可能なドキュメントを自動作成、チーム協働と研修を効率化。....
Harnessは2億4千万ドルのシリーズE資金調達に成功し、ゴールドマン・サックスが主幹を務めた。企業価値は55億ドルに達した。この資金は、インテリジェントエージェントとコンテキスト感知技術を統合したAIプラットフォームの発展に重点的に使われる予定で、ソフトウェア配信プロセスを最適化し、後段のコーディングのボトルネックを解消することを目的としている。
Luminalが530万ドルのシード資金を調達。Felicis Venturesが主導し、複数の著名投資家が参加。元インテルチップ設計者が共同創業。計算リソース最適化とインフラ効率向上に注力し、ソフトウェアの使いやすさが開発者に与える制約を解決。....
テンセントは「Training-Free GRPO」技術を発表し、パラメータの微調整を代替する外部知識ベースを通じて、モデルのパラメータを凍結した状態で性能を最適化しています。この手法では経験知識をトークンレベルの事前情報に変換し、トレーニングコストを大きく削減しています。DeepSeek-V3.1-Terminusモデルにおいて、高価な微調整と同等の向上効果を達成しています。
資金調達と販売用のプレゼンテーション資料のデザインを提供し、フィードバックを得て資料を最適化し、迅速に取引を成立させます。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$2.8
Alibaba
-
$2
256
Baidu
32
$10.5
Tencent
$1
$4
$1.6
128
Openai
$8.75
$70
400
$1.75
$14
$0.35
$15
$0.63
$3.15
131
Huawei
Bytedance
$0.8
$8
Iflytek
Deepseek
$16
Shawon16
これはMCG - NJU/videomae - baseモデルを未知のデータセットで微調整した動画理解モデルで、20エポックの学習を経て、評価セットで13.31%の正解率を達成しました。このモデルは動画分析タスクに特化して最適化されています。
これはVideoMAE-baseアーキテクチャに基づき、WLASLデータセットで微調整された動画動作認識モデルで、手話認識タスクに特化して最適化されており、評価セットで48.22%の正解率を達成しています。
yueqis
このモデルは、Qwen2.5-Coder-32B-Instructをベースに、swe_only_sweagentデータセットで微調整された専用のコード生成モデルです。評価セットで0.1210の損失値を達成し、ソフトウェアエンジニアリング関連のタスクに特化して最適化されています。
Simia-Agent
これはQwen2.5 - 7B - Instructをベースに微調整された大規模言語モデルで、C2_re_100k_tag5_cleaned_hermes_toolv6_dethink_replacedv1データセットで訓練され、評価セットで0.2549の損失値を達成し、最適化された対話とツール使用能力を備えています。
jacktol
OpenAI Whisper Large v3モデルをベースに微調整された航空交通管制音声認識モデルで、ATC通信シナリオに特化して最適化されています。テストセットで6.5%の文字誤り率を達成し、航空通信の転写精度を大幅に向上させました。
IbrahimAmin
これはwav2vec2-large-xlsr-53アーキテクチャに基づいて微調整された自動音声認識モデルで、エジプトアラビア語、現代標準アラビア語、および湾岸/レバントアラビア語に特化して最適化されています。このモデルは複数のアラビア語音声データセットで訓練され、一般音声17.0アラビア語テストセットで27.20%の単語誤り率を達成し、複数の同類モデルを上回っています。
poltextlab
これはxlm-roberta-largeに基づく多言語テキスト分類の微調整モデルで、英語、ドイツ語、ハンガリー語、スペイン語、スロバキア語の訓練データで最適化され、比較議程項目の主要なテーマコードと7つの追加メディアコードでラベル付けされ、正解率は78.8%に達します。
async0x42
Cogito v1 プレビュー版はQwen2.5-32Bをベースとした命令調整生成モデルで、30以上の言語をサポートし、コンテキスト長は128kに達し、プログラミング、STEM、命令遵守、一般的な有用性に最適化されています。
fsicoli
これはOpenAIのWhisper-large-v3モデルをcv19-fleursデータセットで微調整したバージョンで、ポルトガル語音声認識タスクに特化して最適化されています。このモデルは評価セットで0.0756の単語誤り率(WER)を達成し、優れた音声からテキストへの変換性能を示しています。
M9and2M
これはウォロフ語に特化した自動音声認識モデルで、OpenAIのWhisper-smallアーキテクチャをベースに微調整されており、ウォロフ語の音声データを正確に文字起こしできます。モデルは57時間のウォロフ語訓練データと10時間のテストデータを使用して最適化され、テストセットで0.17の文字誤り率を達成しています。
TechxGenus
starcoder2-instructはstarcoder2-7bをベースに微調整されたコード生成モデルで、追加の7億の高品質コードラベルを使用して3ラウンドの微調整を行い、HumanEval-Pythonで73.2 pass@1の優れた成績を達成し、コード生成タスクに特化して最適化されています。
scb10x
Typhoon-0219はTyphoon 7Bを基に開発された命令微調整タイ語大規模言語モデルで、パラメータ数は70億に達し、タイ語と英語をサポートし、命令応答に最適化されています。
Deci
DeciLM 6BはDeciによって開発された57億パラメータのデコーダのみのテキスト生成モデルで、可変グループクエリアテンション技術を採用し、性能と計算効率のバランスを最適化しています。このモデルはOpenOrcaデータセットで命令微調整され、4096トークンのコンテキストウィンドウをサポートし、スループットはLlama 2 7Bの最大15倍に達することができます。
gigant
これはopenai/whisper-mediumをベースに、Common Voice 11.0データセットとルーマニア語音声合成コーパスで微調整された音声認識モデルです。ルーマニア語に特化して最適化されており、評価セットで4.717%の文字誤り率を達成しています。
madlag
これはnn_pruningライブラリを使って剪定最適化された问答モデルで、元の重みの50%を保持し、SQuAD v1で微調整され、F1値は88.72に達します。