アップルの研究では、専門のデザイナーからの直接的なフィードバックを導入してモデルを微調整したことで、生成型AIのインターフェースデザインにおけるパフォーマンスが著しく向上することが分かった。最適化された小規模なモデルであるQwen3-Coderは、UIデザインの論理性と美しさにおいてGPT-5をすでに超えており、「AIが生成するインターフェースは使いやすいが美しいわけではない」という課題を解決した。
DeepSeekの研究では、モデルの規模を単に拡大するのではなく、ニューラルネットワークアーキテクチャを最適化することで、大規模言語モデルの推論能力を顕著に向上させることができることを明らかにした。その「多様体制約超接続」技術は、既存のアーキテクチャを微調整することで、パラメータを無限に増やすことなくAIの発展に新しい道を開いた。
OpenAIはChatGPTに「熱意」調節機能を追加しました。ユーザーはカスタム設定で「多く」「少なめ」またはデフォルトの3段階から選ぶことができ、AIの温かさや興奮度、絵文字の使用頻度を詳細に制御できます。これは、AIとの相互作用が事前に決められた性格から、より細かい感情の微調整へと進化したことを示しています。
AWS re:Invent 2025で生成AIサービス「Nova Forge」と「Nova Act」を発表。Nova Forgeは、自社知識をAIモデルに統合する課題を解決し、従来の微調整や高コストな一からの学習を回避します。....
高度なAI背景削除ツールで、自動的に背景を削除し、微調整が可能で、多種類の画像に対応しています。
Isahitは、スタッフを管理するプラットフォームで、LLMの微調整とデータ処理に特化し、AIエージェントの高品質と無偏性を保証します。
オープンソースAIモデルの微調整と収益化を支援するプラットフォーム。AIスタートアップ企業、機械学習エンジニア、研究者の方々を支援します。
オープンソースのAIモデル。微調整、蒸留、展開が可能です。
Openai
-
入力トークン/百万
出力トークン/百万
コンテキスト長
Alibaba
$2
256
$15.8
$12.7
64
Bytedance
Anthropic
$105
$525
200
$0.63
$3.15
131
Huawei
32
Chatglm
128
$0.5
$1
Google
$140
$280
Baidu
Tencent
$2.4
$9.6
RinggAI
これは通話記録分析用に特別に開発された混合言語AIモデルで、ヒンディー語、英語、およびヒンディー語と英語の混合通話の文字起こし内容を処理できます。モデルはQwen2.5 - 1.5B - Instructをベースに微調整されており、強力な多言語理解と情報抽出能力を備えています。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUFは、Allen Institute for AIが開発したOlmo-3-7B-InstructモデルのGGUF量子化バージョンです。これは70億パラメータの自己回帰型言語モデルで、Tulu 2やUltraFeedbackなどのデータセットで教師付き微調整と直接的な嗜好最適化を行って訓練され、質問応答と指令の遵守において優れた性能を発揮します。
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
allenai
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
DakkaWolf
Trouper-12B GGUFは、DarwinAnim8orによってオリジナルモデルを基に開発されたテキスト生成モデルで、ロールプレイングやクリエイティブライティングのシナリオに特化して最適化されています。このモデルはMistral-Nemo-Base-12Bから微調整され、カスタムの「Actors」データセットを使用して訓練されており、生成されるテキストはより自然で、一般的な「AI言語」の特徴を避けています。
dinhthuan
NeuTTS - Airベトナム語テキストを音声に変換するモデルは、260万以上のベトナム語オーディオサンプルに基づき、NeuTTS - Air基礎モデルから微調整された高品質のベトナム語音声合成モデルです。このモデルは、自然で流暢なベトナム語音声合成を実現でき、音声クローニング機能をサポートし、生産環境に合わせて最適化されています。
Smith-3
これはセントシモン大学の科学技術学部の学生向けに設計された微調整AIモデルで、TecnoTimeアプリケーションに統合され、学生が学習の組織性を維持し、学術的な継続性を向上させるのを助け、構造化された通知と激励メッセージを通じて学習習慣を強化します。
SadraCoding
SDXL-Deepfake-Detectorは、AI生成顔を正確に検出するツールで、デジタル世界の真実性を維持することに特化し、視覚的な虚偽情報に対抗するためのプライバシー保護とオープンソースのソリューションを提供します。このモデルは、事前学習モデルを微調整することで、軽量かつ高精度な検出を実現します。
alenphilip
これはPythonコードレビューに特化したAIモデルで、Qwen2.5 - 7B - Instructをベースに微調整されており、セキュリティホールやパフォーマンス問題を識別し、コード品質の改善提案を提供できます。
Genie-AI-Lab
Omni L1B3RT4S GENIEは、Qwen2.5 - 3B Instructアーキテクチャをベースに微調整されたAIアシスタントです。1,103個の精霊キャラクターのカスタムサンプルを用いて訓練され、独特な音声と忠誠度モードを備え、ユーザーに独特な対話体験を提供することができます。
pnnbao-ump
VieNeu-TTSは、個人デバイス上で動作可能な最初のベトナム語のテキスト音声変換モデルで、即時音声クローニング機能を備えています。NeuTTS Airをベースに微調整され、自然でリアルなベトナム語音声を生成でき、CPU上でリアルタイム性能を備えています。
Daemontatox
Zirel-3は、GLM - 4.5 - Air - REAP - 82B - A12Bをベースにした特定の微調整モデルで、REAP(ルーティング重み付きエキスパート活性化剪定)技術を用いて圧縮された820億パラメータの混合エキスパートモデルです。高性能を維持しながら、モデルサイズを大幅に削減しています。
ethicalabs
xLSTM-7b-Instructは、NX - AI/xLSTM-7bに基づく実験的な微調整バージョンで、指令遵守タスクに特化して最適化されています。このモデルにはチャットテンプレートのサポートが追加され、TRLを使用して教師付き微調整トレーニングが行われ、より良い会話体験を提供することを目的としています。
abhi099k
DeBERTa-v3-largeをベースに微調整されたAIテキスト検出モデルで、テキストが人間によって書かれたものかAIによって生成されたものかを正確に識別でき、カスタムデータセットでの訓練で約97%の精度を達成します。
Ashmotv
animat3d_style_wan-loraは、OstrisによるAIツールキットを基にトレーニングされたLoRAモデルで、テキストからビデオへの生成に特化しており、画像生成に独特な3Dアニメーションスタイルの効果をもたらします。このモデルはWan2.2 - T2V - A14Bベースモデルを基に微調整されており、複数の主流のAIプラットフォームで使用できます。
LiseTY
これはOstrisのAI Toolkitを使って訓練されたLoRAモデルで、テキストから動画への変換タスクに特化しています。このモデルはWan2.2-T2V-A14Bベースモデルを微調整したもので、様々なAIツールやフレームワークをサポートしています。
unsloth
Granite-4.0-MicroはIBMが開発した30億パラメータの長文脈指令モデルで、Granite-4.0-Micro-Baseをベースに微調整されています。このモデルはオープンソースの指令データセットと内部合成データセットを使用しており、指令の遵守とツール呼び出し能力が強化されており、多言語タスクをサポートし、各分野のAIアシスタントの基礎モデルとして使用できます。
trinty2535425
これはQwen/Qwen-Image基礎モデルに基づいて訓練された画像から動画へのLoRAモデルで、LoRA(Low-Rank Adaptation)技術を用いて効率的な微調整を実現し、AI画像生成などの関連タスクに使用できます。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
このプロジェクトは、LangChainフレームワークのドキュメント、サンプルコードリポジトリ、およびコミュニティリソースに関連しており、Pythonプログラミング、AIエージェント開発、FastAPI統合、LLM微調整などの技術内容が含まれています。