Aya Vision 32Bは、Cohere For AIによって開発された、320億個のパラメータを持つ高度なビジュアル言語モデルで、英語、中国語、アラビア語など23の言語をサポートしています。このモデルは、最新の多言語言語モデルAya Expanse 32BとSigLIP2ビジュアルエンコーダを組み合わせ、多様なモダリティアダプターによって視覚と言語の理解を統合しています。OCR、画像記述、視覚推論など、複雑な画像とテキストのタスクを処理できる、ビジュアル言語分野で優れたパフォーマンスを発揮します。このモデルの公開は、多様なモダリティ研究の普及を促進することを目的としており、そのオープンソースの重みは、世界中の研究者にとって強力なツールとなります。このモデルはCC-BY-NCライセンスに従い、Cohere For AIの適正使用ポリシーを遵守する必要があります。