Moonshot
$200
入力トークン/百万
出力トークン/百万
131
コンテキスト長
UCSC-VLAA
VLAA-Thinkerは革新的な視覚言語モデルで、画像とテキストの入力を同時に処理し、高品質なテキスト出力を生成することができます。このモデルは論文「SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models」の研究成果に基づいて開発され、R1に類似した推論能力に焦点を当てています。
これは、Model Context Protocol(MCP)を通じてTrainingPeaksトレーニングデータプラットフォームをClaudeなどのAIアシスタントに接続するサーバーです。ユーザーは自然言語でトレーニングデータを照会し、トレーニング負荷を分析し、パワーデータを比較し、体力トレンドを追跡できます。公式APIの承認を待つ必要はなく、安全なCookie認証を使用します。