平安證券報告顯示,DeepSeek-V3.1大模型正式上線,採用全新UE8M0FP8Scale參數精度,顯著提升工具效率和智能體任務表現。這一創新推動國產芯片發展,標誌着國產大模型技術邁出重要一步,並與國產芯片深度協同,增強實際應用能力。
uer
基於CLUECorpusSmall預訓練的輕量級中文GPT2模型,採用6層架構,專為中文文本生成任務優化
GPT2-distil是一個輕量級的中文文本生成模型,基於GPT2架構,專門針對中文文本生成任務進行了優化。
基於CLUECorpusSmall預訓練的輕量級中文GPT2模型,6層/768維結構,專為中文文本生成優化
本項目提供了6個不同規模的中文全詞掩碼RoBERTa模型,由UER-py預訓練得到。這些模型採用全詞掩碼策略,在中文自然語言處理任務中表現出色,覆蓋從Tiny到Large的不同參數規模,滿足不同計算資源需求。
基於CLUECorpusSmall預訓練的中文分詞版RoBERTa中型模型,採用8層512隱藏層架構,相比字符版模型在多項任務中表現更優
基於CLUECorpusSmall預訓練的中文詞級別RoBERTa中型模型,相比字符模型在多項任務中表現更優
中文T5是一系列基於T5架構的預訓練模型,專門針對中文自然語言處理任務設計。該模型採用統一的文本到文本格式,能夠處理多種NLP任務,在中文CLUECorpusSmall數據集上進行了預訓練。
基於CLUECorpusSmall語料預訓練的中文分詞版RoBERTa中型模型,採用分詞處理提升序列處理效率
基於CLUECorpusSmall預訓練的24箇中文RoBERTa模型系列之一,採用UER-py框架訓練,支持掩碼語言建模和文本特徵提取。
由UER-py預訓練的中文RoBERTa模型系列中的中型版本,基於CLUECorpusSmall語料訓練,適用於多種中文NLP任務。
基於CLUECorpusSmall預訓練的中文RoBERTa模型,包含8層網絡和512隱藏層維度,適用於多種中文NLP任務。
這是一個基於CLUECorpusSmall預訓練的中文RoBERTa中型模型,具有8層網絡和512維隱藏層,適用於多種中文自然語言處理任務。
基於UER-py預訓練的中文句子嵌入模型,用於計算句子相似度
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏層,適用於多種中文NLP任務。
基於UER-py微調的中文RoBERTa-Base分類模型,包含5個不同數據集的文本分類模型
基於GPT2架構的中文古詩生成模型,由UER-py預訓練,支持生成中國古詩。
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,適用於多種中文NLP任務。
基於GPT2架構的中文對聯生成模型,由UER-py框架預訓練,支持生成符合傳統對聯格式的中文文本。
專用於生成文言文文本的GPT2模型,基於300萬條文言文數據預訓練
基於RoBERTa-Base架構微調的中文命名實體識別模型,專為CLUENER2020數據集優化
UE5-MCP是一個集成AI驅動的自動化工具,旨在優化Blender與Unreal Engine 5的工作流程,提供從場景生成到遊戲開發的端到端解決方案。
將UE Editor封裝為MCP Server以實現Agent自動化迭代的插件
該項目是一個連接Claude AI與Unreal Engine 5的Python服務器,通過自然語言指令實現對UE5場景中3D對象和藍圖演員的創建、修改與控制。