AIアシスタントが支援する、明確なストーリー作成を促進するアジャイルチーム向けツール
Baidu
-
入力トークン/百万
出力トークン/百万
4
コンテキスト長
Alibaba-NLP
mGTEシリーズの多言語テキストエンコーダーで、75言語をサポートし、最大文脈長は8192、BERT+RoPE+GLUアーキテクチャに基づき、GLUEとXTREME-Rベンチマークで優れた性能を発揮
glamprou
これはgoogle/switch-base-8をベースに、GLUE MNLIデータセットでファインチューニングされたテキスト分類モデルで、主に自然言語推論タスクに使用されます。
mjwong
このモデルはintfloat/e5-base-v2をGLUE(MNLI)とANLIデータセットでファインチューニングしたバージョンで、ゼロショット分類と自然言語推論タスクに適しています。
abdulmatinomotoso
bert-base-uncasedをglueデータセットで微調整した英語文法チェックモデルで、テキスト分類タスクに使用されます。
muhtasham
これはBERT-tinyアーキテクチャを基にGLUE RTEタスクでファインチューニングされたテキスト分類モデルで、主にテキスト含意認識タスクに使用されます。
JeremiahZ
GLUE QQPデータセットでBERTベースモデルをファインチューニングしたテキスト分類モデルで、2つの質問が意味的に同じかどうかを判断する
BERT-base-uncasedをベースにGLUE SST2データセットで微調整したテキスト分類モデルで、感情分析タスクで優れた性能を発揮し、正解率は93.23%に達します。
junzai
bert-base-uncasedをGLUE MRPCデータセットでファインチューニングしたテキスト分類モデル
hchc
このモデルはDistilBERTベースモデルをGLUEのCoLAタスクでファインチューニングしたテキスト分類モデルで、英語文の文法正しさを判断します。
mattchurgin
glueデータセットでファインチューニングされたdistilbert-base-uncasedベースのテキスト分類モデルで、文ペアの意味的等価性を判断
distilbert-base-uncasedをベースにGLUEデータセットで微調整したテキスト分類モデル
anirudh21
このモデルは、DistilBERTをベースにGLUE MRPCタスクで微調整されたテキスト分類モデルで、文ペアが意味的に等価かどうかを判断するために使用されます。
mrm8488
GLUE MNLIデータセットでファインチューニングされたDeBERTa-v3-largeモデル、自然言語推論タスク用、検証セット精度90%達成
GLUE MNLIデータセットで微調整されたDeBERTa v3の小規模バージョンで、自然言語推論タスクに使用され、正解率は87.46%に達します。
ksmcg
BERTベースモデルをGLUEデータセットで微調整したテキスト分類モデル
textattack
GLUEデータセットを基に微調整された分類モデルで、自然言語処理タスクに適しています。
このモデルは、ALBERT-large-v2をベースにGLUE RTEタスクで微調整されたテキスト分類モデルで、テキストの含意関係を識別するために使用されます。
blizrys
このモデルは、GLUEのMNLIタスクでdistilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、主に自然言語推論タスクに使用されます。
このモデルは、ALBERTの基本バージョン(albert-base-v2)をGLUEデータセットのRTEタスクで微調整したテキスト分類モデルで、主にテキスト含意認識タスクに使用されます。
navsad
bert-base-casedをGLUEデータセットでファインチューニングしたテキスト分類モデルで、文法受容性判断タスクに優れています
Iceberg MCPは、Apache IcebergディレクトリにMCPプロトコルを提供するサーバーで、非同期操作とログ記録をサポートし、RESTおよびAWS Glueカタログと互換性があります。