Microsoft Azure AI テキスト読み上げサービスがアップグレードされ、男性の声とより多くの言語に対応するようになりました。新しい男性の声「Ryan Multilingual」により、ユーザーは多様なユーザーエクスペリエンスを作成できます。サポート言語は14言語から41言語に拡大し、ユーザーにより多くの選択肢を提供します。
SamilPwC-AXNode-GenAI
PwC-Embedding-exprは、multilingual-e5-large-instruct埋め込みモデルをベースに訓練された韓国語最適化バージョンで、精心に設計された強化方法と微調整戦略により、韓国語の意味テキスト類似度タスクでの性能を向上させています。
AnasAlokla
これは強力な多言語、多ラベル感情分類モデルで、テキストを分析して27種類の異なる感情と中性カテゴリを識別でき、複数の感情を同時に検出し、異なる言語のソースからの微妙なテキスト表現を効果的に理解できます。
OpenMed
これは臨床エンティティ認識に特化した専門モデルで、慢性リンパ性白血病に関連する生物医学エンティティ認識に特化しています。このモデルはmultilingual-e5-large-instructアーキテクチャに基づいており、精心に企画されたCLLデータセットで訓練されており、医療テキストから生物医学エンティティを高精度に抽出することができ、高精度かつ分野特異性を持っています。
dragonkue
intfloat/multilingual-e5-smallをベースに微調整した韓国語文変換器で、韓国語検索タスクに使用されます。
MesTruck
多言語e5大命令モデルは複数の言語をサポートし、分類、検索、クラスタリングなどの多くのタスクで優れた性能を発揮し、様々な自然言語処理シーンに広く応用できます。
これは強力な多言語、多ラベル感情分類モデルで、6つの主要言語をサポートし、テキスト中の27種類の異なる感情と中性カテゴリを同時に検出でき、世界中の感情分析アプリケーションに適しています。
falan42
多言語E5大型プーリングモデル、複数言語の文類似度計算と特徴抽出タスクをサポート。
exp-models
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化して最適化され、テキストを384次元ベクトル空間にマッピングします。
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語のクエリ-段落ペアを含むトレーニングデータを使用して、韓国語検索タスクのパフォーマンスを向上させています。
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化しており、テキストを384次元のベクトル空間にマッピングします。
meandyou200175
これはmultilingual-e5-largeをファインチューニングした文変換モデルで、テキストを1024次元ベクトル空間にマッピングし、意味的類似度計算やテキスト検索などのタスクに使用されます。
Gomez12
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポートし、強力なクロスランゲージ能力を備えています。
ytu-ce-cosmos
intfloat/multilingual-e5-large-instructモデルをファインチューニングしたトルコ語検索モデルで、トルコ語段落検索タスクに特化しています。
BERTベースの多言語感情分類モデル、6言語のテキスト感情分析をサポート
textdetox
bert-base-multilingual-casedをベースに微調整された多言語毒性分類器で、15種類の言語をサポートし、textdetox/multilingual_toxicity_datasetデータセットで学習され、テキスト中の毒性コンテンツを効果的に識別できます。
kcccat
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
x1saint
これはintfloat/multilingual-e5-smallから微調整されたsentence-transformersモデルで、文や段落を384次元の密なベクトル空間にマッピングし、意味的テキスト類似度や意味検索などのタスクをサポートします。
makiart
Algomaticチームによって開発された多言語大型BERTモデルで、8192トークンのコンテキスト長をサポートし、約600億トークンでトレーニングされ、マスキングタスクに適しています。
Algomaticチームによって開発された多言語BERTモデルで、マスキングタスクをサポートし、8192のコンテキスト長と151,680の語彙サイズを備えています。
Impulse2000
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポート