説明はありません
DataikuNLP
これは多言語文埋め込みモデルで、テキストを384次元ベクトル空間にマッピングでき、意味的検索やクラスタリングタスクに適しています。
これは多言語の文変換器モデルで、文や段落を512次元の密集ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
これはALBERT-smallアーキテクチャに基づく文変換モデルで、文や段落を768次元のベクトル空間にマッピングでき、文類似度計算や意味検索などのタスクに適しています。
このモデルは文や段落を384次元の密なベクトル空間にマッピングする文変換モデルで、クラスタリングや意味的検索などのタスクに適しています。
CamemBERTはRoBERTaをベースに開発された高度なフランス語言語モデルで、6種類の異なるバージョンを提供し、様々なフランス語自然言語処理タスクに適しています。