检索增强生成(RAG)技术通过检索知识库信息提升大语言模型回答准确性,但处理语言多样性时存在不足。为此,Lexical Diversity-aware RAG 方法被提出,旨在优化模型对多样化表达的理解,增强生成答案的可靠性。
Microsoft Dragon Copilot 是一款用于医疗行业的 AI 工作空间,可简化临床文档工作流,提升效率。
基于实体表示的任意物体运动控制
Drag GPT - 开启AI之旅,轻松拖拽点击!
轻松拖放并点击,向ChatGPT提问或发出请求!
Alibaba
$1
输入tokens/百万
-
输出tokens/百万
32
上下文长度
Huawei
Deepseek
8
Openai
$1.05
$4.2
128
01-ai
16
Chatglm
Tencent
$0.7
DragonLLM
LLM Pro Finance是一款专为金融和经济专业人士设计的多语言人工智能模型,基于大量高质量的金融和经济数据训练,能够针对复杂的金融问题生成准确且贴合上下文的回应。
dragonkue
基于intfloat/multilingual-e5-small微调的韩语句子转换器,用于韩语检索任务
exp-models
这是一个从intfloat/multilingual-e5-small微调而来的sentence-transformers模型,专门针对韩语检索任务优化,将文本映射到384维向量空间。
这是一个从intfloat/multilingual-e5-small微调而来的sentence-transformers模型,训练数据包含韩语查询-段落对,以提高韩语检索任务的性能。
DragonLineageAI
Spark-TTS 是一款先进的文本转语音系统,利用大语言模型(LLM)的强大能力实现高精度且自然流畅的语音合成。
这是一个从Snowflake/snowflake-arctic-embed-l-v2.0微调而来的句子转换器模型,训练数据为聚类数据集。它将句子和段落映射到一个1024维的密集向量空间,可用于语义文本相似度和语义搜索。
这是一个基于BAAI/bge-reranker-v2-m3优化的韩语重排序模型,主要用于文本排序任务。
基于BAAI/bge-m3优化的韩英语双语句子嵌入模型,支持语义文本相似度、信息检索等任务
nvidia
Dragon-multiturn是一款专为对话式问答场景设计的检索器,能处理将会话历史与当前查询相结合的对话式查询。
lang-uk
Dragoman 是一个句子级别的英乌翻译模型,采用两阶段训练流程,在FLORES-101英乌开发测试子集上取得了BLEU值为32.34的最优性能。
llmware
dragon-mistral-7b-v0是基于Mistral-7B基础模型进行RAG指令微调训练得到的模型,专门针对复杂的商业和法律文档进行基于事实的问答,重点在于减少幻觉生成,并为工作流自动化提供简短清晰的答案。
DragosGorduza
这是一个基于sentence-transformers的模型,能够将句子和段落映射到1024维的密集向量空间,适用于句子相似度计算、语义搜索等任务。
这是一个基于sentence-transformers的模型,能够将句子和段落映射到1024维的密集向量空间,适用于聚类或语义搜索等任务。
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
nthakur
这是一个基于sentence-transformers的句子编码器模型,可将文本转换为768维向量表示,适用于语义搜索和句子相似度计算等任务。
这是一个基于facebook/dragon-plus-context-encoder移植的句子转换器模型,用于将句子和段落映射到768维向量空间,适用于聚类和语义搜索等任务。
dragonstar
基于microsoft/trocr-base-printed微调的印刷体文本识别模型,主要用于验证码识别任务
facebook
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
DRAGON+ 是一个基于 BERT 基础架构的密集检索模型,初始权重源自 RetroMAE,并在 MS MARCO 语料库增强数据上训练而成。
一个与addTaskManager应用集成的MCP服务器,实现了Dragos Roua创建的ADD(评估-决定-执行)生产力框架,通过严格的领域限制提供AI辅助任务管理功能。