OpenAIが1100億ドルの資金調達を達成し、NVIDIAやAmazonと連携して「計算力帝国」を構築し、AGI開発を加速させる。....
シリコンバレーのペットAI企業Trainiが5000万元超の資金調達を完了。資金はペットの感情モデル開発、製品改良、海外展開に充てられる。多角的AI技術を用いたペット行動分析を専門とする。....
OpenAIはAmazonと100億ドル超の資金調達を協議中で、Amazonの自社開発AIチップ「Trainium」の採用を計画。これにより、算力供給の多様化を図り、NVIDIAの独占を打破し、Amazonチップの外部影響力を高める。....
2025年AWS re:Inventにて、Amazon Web Servicesは次世代AIトレーニングチップ「Trainium3」を発表。3nmプロセスを採用し、前世代比で性能4倍、メモリ容量4倍、電力効率40%向上を実現し、高負荷AIトレーニング・推論能力を大幅に強化。....
大規模言語モデル(LLM)の事後トレーニング方法に関するチュートリアル、調査、およびガイドラインのリポジトリです。
LLaSA:LLaMAベースの音声合成の訓練時間と推論計算量を削減
UCSC-VLAA
VLAA-Thinkerは革新的な視覚言語モデルで、画像とテキストの入力を同時に処理し、高品質なテキスト出力を生成することができます。このモデルは論文「SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models」の研究成果に基づいて開発され、R1に類似した推論能力に焦点を当てています。
SofiaK
OpenAI Whisper-baseモデルをCommon Voice 11.0ロシア語データセットでファインチューニングした音声認識モデル
これは、Model Context Protocol(MCP)を通じてTrainingPeaksトレーニングデータプラットフォームをClaudeなどのAIアシスタントに接続するサーバーです。ユーザーは自然言語でトレーニングデータを照会し、トレーニング負荷を分析し、パワーデータを比較し、体力トレンドを追跡できます。公式APIの承認を待つ必要はなく、安全なCookie認証を使用します。