アップル、7億パラメーターのオープンソース言語モデルDCLMを発表 精度向上、計算資源削減
アップルとそのパートナーは、7億パラメーターを持つオープンソースの大規模言語モデルDCLMを発表しました。2.5兆個のトークンデータでトレーニングされており、言語の理解と生成能力が大幅に向上しています。DCLMの中核は、標準化されたデータセット最適化ツールであり、Hugging Faceプラットフォームで研究者が実験を行い、様々なデータセットの品質と改善方法を評価することを目的としています。研究によると、DCLMを用いて構築されたベンチマークデータセットは、特にM…において、主要なテストで優れた性能を示すモデルをトレーニングできることが示されています。