平安证券报告显示,DeepSeek-V3.1大模型正式上线,采用全新UE8M0FP8Scale参数精度,显著提升工具效率和智能体任务表现。这一创新推动国产芯片发展,标志着国产大模型技术迈出重要一步,并与国产芯片深度协同,增强实际应用能力。
uer
基于CLUECorpusSmall预训练的轻量级中文GPT2模型,采用6层架构,专为中文文本生成任务优化
GPT2-distil是一个轻量级的中文文本生成模型,基于GPT2架构,专门针对中文文本生成任务进行了优化。
基于CLUECorpusSmall预训练的轻量级中文GPT2模型,6层/768维结构,专为中文文本生成优化
本项目提供了6个不同规模的中文全词掩码RoBERTa模型,由UER-py预训练得到。这些模型采用全词掩码策略,在中文自然语言处理任务中表现出色,覆盖从Tiny到Large的不同参数规模,满足不同计算资源需求。
基于CLUECorpusSmall预训练的24个中文RoBERTa模型系列之一,采用UER-py框架训练,支持掩码语言建模和文本特征提取。
基于CLUECorpusSmall预训练的中文RoBERTa模型,包含8层网络和512维隐藏层,适用于多种中文NLP任务。
基于UER-py微调的中文RoBERTa-Base分类模型,包含5个不同数据集的文本分类模型
基于RoBERTa-Base架构微调的中文命名实体识别模型,专为CLUENER2020数据集优化
基于UER-py框架预训练的中文T5小型模型,采用统一的文本到文本格式处理各类中文NLP任务
基于CLUECorpusSmall预训练的中文RoBERTa模型,包含8层网络和512隐藏层维度,适用于多种中文NLP任务。
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,支持掩码语言建模任务。
基于UER-py预训练的中文句子嵌入模型,用于计算句子相似度
基于CLUECorpusSmall语料预训练的中文分词版RoBERTa中型模型,采用分词处理提升序列处理效率
基于CLUECorpusSmall预训练的中文ALBERT模型,由UER-py框架训练,适用于中文文本处理任务。
这是一个基于RoBERTa架构的中文预训练语言模型,参数规模为8层512隐藏单元,适用于多种中文自然语言处理任务。
基于RoBERTa架构的中文预训练语言模型,隐藏层维度512,包含8层Transformer结构
基于CLUECorpusSmall预训练的中文GPT2轻量级模型,参数规模为6层/768隐藏层,适用于中文文本生成任务
中文GPT2-distil模型,基于CLUECorpusSmall数据集预训练,适用于中文文本生成任务
包含5个基于RoBERTa-Base的中文文本分类模型,适用于不同领域的情感分析和新闻分类任务
基于CLUECorpusSmall预训练的中文词级别RoBERTa中型模型,相比字符级模型在多项任务中表现更优
UE5-MCP是一个集成AI驱动的自动化工具,旨在优化Blender与Unreal Engine 5的工作流程,提供从场景生成到游戏开发的端到端解决方案。
该项目是一个连接Claude AI与Unreal Engine 5的Python服务器,通过自然语言指令实现对UE5场景中3D对象和蓝图演员的创建、修改与控制。
将UE Editor封装为MCP Server以实现Agent自动化迭代的插件