シリコンバレーのペットAI企業Trainiが5000万元超の資金調達を完了。資金はペットの感情モデル開発、製品改良、海外展開に充てられる。多角的AI技術を用いたペット行動分析を専門とする。....
OpenAIはAmazonと100億ドル超の資金調達を協議中で、Amazonの自社開発AIチップ「Trainium」の採用を計画。これにより、算力供給の多様化を図り、NVIDIAの独占を打破し、Amazonチップの外部影響力を高める。....
2025年AWS re:Inventにて、Amazon Web Servicesは次世代AIトレーニングチップ「Trainium3」を発表。3nmプロセスを採用し、前世代比で性能4倍、メモリ容量4倍、電力効率40%向上を実現し、高負荷AIトレーニング・推論能力を大幅に強化。....
テンセントは「Training-Free GRPO」技術を発表し、パラメータの微調整を代替する外部知識ベースを通じて、モデルのパラメータを凍結した状態で性能を最適化しています。この手法では経験知識をトークンレベルの事前情報に変換し、トレーニングコストを大きく削減しています。DeepSeek-V3.1-Terminusモデルにおいて、高価な微調整と同等の向上効果を達成しています。
大規模言語モデル(LLM)の事後トレーニング方法に関するチュートリアル、調査、およびガイドラインのリポジトリです。
LLaSA:LLaMAベースの音声合成の訓練時間と推論計算量を削減
UCSC-VLAA
VLAA-Thinkerは革新的な視覚言語モデルで、画像とテキストの入力を同時に処理し、高品質なテキスト出力を生成することができます。このモデルは論文「SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models」の研究成果に基づいて開発され、R1に類似した推論能力に焦点を当てています。
SofiaK
OpenAI Whisper-baseモデルをCommon Voice 11.0ロシア語データセットでファインチューニングした音声認識モデル