fermi - bert - 1024は、原子力分野に特化して最適化されたBERT事前学習モデルです。このモデルは、ウィキペディア、Books3、および米国原子力規制委員会のADAMSデータベースのデータを使って学習され、原子力産業の技術用語や規制言語の処理能力が特に最適化されています。オークリッジ国立研究所のFrontierスーパーコンピュータ上で128個のAMD MI250X GPUを使って10時間学習され、原子力アプリケーションに堅実な基盤を提供します。
自然言語処理
Transformers英語