Lexical Diversity-aware RAGは、言語の多様性に対応するため、知識検索を最適化し、回答精度を向上させる手法。....
Microsoft Dragon Copilotは医療業界向けのAIワークスペースであり、臨床文書ワークフローを簡素化し、効率性を向上させます。
エンティティ表現に基づいた任意の物体運動制御
Drag GPT - ドラッグ&クリックでAIの旅を始めましょう!
ドラッグ&ドロップで簡単にChatGPTに質問やリクエストを送信!
Alibaba
$1
入力トークン/百万
-
出力トークン/百万
32
コンテキスト長
Huawei
Deepseek
8
Openai
$1.05
$4.2
128
01-ai
16
Chatglm
Tencent
$0.7
DragonLLM
LLM Pro Financeは、金融および経済の専門家向けに設計された多言語人工知能モデルです。大量の高品質な金融および経済データを基に訓練されており、複雑な金融問題に対して正確かつ文脈に沿った回答を生成することができます。
dragonkue
intfloat/multilingual-e5-smallをベースに微調整した韓国語文変換器で、韓国語検索タスクに使用されます。
exp-models
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化して最適化され、テキストを384次元ベクトル空間にマッピングします。
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語のクエリ-段落ペアを含むトレーニングデータを使用して、韓国語検索タスクのパフォーマンスを向上させています。
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語検索タスクに特化しており、テキストを384次元のベクトル空間にマッピングします。
DragonLineageAI
Spark-TTSは、大規模言語モデル(LLM)の強力な能力を活用して、高精度で自然な音声合成を実現する先進的なテキスト読み上げシステムです。
これはSnowflake/snowflake-arctic-embed-l-v2.0から微調整された文変換モデルで、クラスタリングデータセットで訓練されています。文や段落を1024次元の密なベクトル空間にマッピングし、意味的テキスト類似度や意味的検索に使用できます。
これはBAAI/bge-reranker-v2-m3を基に韓国語向けに最適化されたリランキングモデルで、主にテキストランキングタスクに使用されます。
BAAI/bge-m3を基に最適化された韓国語・英語バイリンガル文埋め込みモデルで、意味的テキスト類似性や情報検索などのタスクをサポート
nvidia
Dragon-multiturnは、会話型質問応答シナリオ向けに設計された検索器で、会話履歴と現在のクエリを組み合わせた対話型クエリを処理できます。
lang-uk
Dragomanは文レベルの英語-ウクライナ語翻訳モデルで、2段階トレーニングプロセスを採用し、FLORES-101英語-ウクライナ語開発テストサブセットでBLEU値32.34の最高性能を達成しました。
llmware
dragon-mistral-7b-v0は、Mistral-7Bベースモデルを基にRAG命令微調整訓練を行って得られたモデルで、複雑な商業および法律文書に対する事実ベースの質問応答に特化しており、幻覚生成の削減に重点を置き、ワークフロー自動化に簡潔明瞭な回答を提供します。
DragosGorduza
これはsentence-transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、文の類似度計算や意味検索などのタスクに適しています。
これはsentence - transformersに基づくモデルで、文や段落を1024次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
これはsentence-transformersに基づくモデルで、文や段落を768次元の密なベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
nthakur
これはsentence-transformersに基づく文エンコーダーモデルで、テキストを768次元のベクトル表現に変換でき、意味検索や文の類似度計算などのタスクに適しています。
これはfacebook/dragon-plus-context-encoderをベースに移植された文変換器モデルで、文や段落を768次元のベクトル空間にマッピングするために使用され、クラスタリングや意味検索などのタスクに適しています。
dragonstar
microsoft/trocr-base-printedをファインチューニングした印刷テキスト認識モデルで、主にCAPTCHA認識タスクに使用されます
facebook
DRAGON+ はBERTアーキテクチャに基づく高密度検索モデルで、非対称デュアルエンコーダーアーキテクチャを採用し、テキスト検索タスクに適しています。
DRAGON+ はBERTベースアーキテクチャの高密度検索モデルで、初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでトレーニングされました。
addTaskManagerアプリと統合されたMCPサーバーで、Dragos Rouaが作成したADD(評価-決定-実行)生産性フレームワークを実装し、厳格な領域制限によりAI支援タスク管理機能を提供します。