Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
Baidu
128
$6
$24
256
$4
$16
Bytedance
$1.2
$3.6
4
mfeb
ALBERT XXLargeアーキテクチャに基づく问答モデルで、SQuAD V2データセットに対して微調整されています。
google
bigbird - roberta - baseに基づく微調整モデルで、trivia问答タスクに特化して最適化され、長シーケンス処理をサポートします。
madlag
これはnn_pruningライブラリを使って剪定最適化された问答モデルで、元の重みの50%を保持し、SQuAD v1で微調整され、F1値は88.72に達します。
andi611
BERT-largeアーキテクチャに基づくモデルで、SQuAD 2.0とCoNLL-2003データセットで微調整され、问答と命名エンティティ認識タスクをサポートします。
valhalla
これは、问答タスクに対してSQuADv1データセットで微調整されたBART-LARGEモデルで、自然言語理解と生成タスクに適しています。
DistilBERTベースの问答と命名エンティティ認識のマルチタスクモデルで、conll2003データセットで微調整されています。
これは剪定により最適化されたBERTの问答モデルで、元のモデルの38.1%の重みを保持し、SQuAD1.1データセットで微調整され、英語の问答タスクをサポートします。
T5-small-ssm-nqはT5アーキテクチャに基づく小型の闭卷问答モデルで、C4、ウィキペディア、自然な質問(NQ)データセットで事前学習と微調整が行われています。
elgeish
スタンフォードCS224nコースの学生向けに提供される、SQuAD2.0の问答タスクのベンチマークテストに使用するALBERT-base-v2モデル
これは、BERTベースの大文字小文字を区別しないモデルをSQuAD1.1データセットで微調整した问答システムモデルで、ブロック疎構造を採用し、元のモデルの32.1%の重みを保持しています。
anas-awadalla
RoBERTa-baseモデルをSQuADデータセットで微調整した问答モデルで、読解タスクに適しています。
aware-ai
これは、问答タスクに対してSQuADv2データセットでファインチューニングされたbart-largeモデルで、BARTアーキテクチャに基づいており、自然言語理解と生成タスクに適しています。
RoBERTa-baseモデルをベースに、SQuADデータセットでfew-shot微調整を行った问答モデル
keras-io
このモデルは、distilbert-base-casedをSQuADデータセットで微調整した问答モデルで、Keras.ioの问答チュートリアル用に訓練されました。
roberta-baseをベースにsquadデータセットで微調整された问答モデル
oo
このモデルは、distilbert-base-uncasedモデルをsquadデータセットで微調整したバージョンで、主に问答タスクに使用されます。
hark99
DistilBERTに基づく问答モデルで、SQuADデータセットで微調整され、読解タスクに使用されます。
M-FAC
このモデルはBERT - miniアーキテクチャに基づき、SQuAD 2.0データセットでM - FAC 2次オプティマイザーを使用して微調整された问答モデルです。