国产大模型正通过提升中文数据占比(普遍超60%)来增强对本土文化和用户需求的理解,降低对英文语料的依赖,使AI能更精准解析“上火”等特有概念,推动技术革新。
微信输入法iOS新版内测,核心升级语音输入。底层大模型优化,识别更快更准。最大亮点是原生支持多语言与多方言,用户说中文、英文或多种方言时,系统可自动识别,无需手动切换。
12月6日至7日,第十届语言服务高级论坛在广州大学举行。会上,粤语语料库建设与大模型评测实验室发布了AI-DimSum多模态粤语语料库平台,旨在突破粤语作为“低资源语言”的数字化困境。该平台围绕“数字中文建设”和“大湾区文化数字化”需求,构建了多模态语料库,推动粤语在人工智能时代的保护与发展。
百度文心X1.1在SuperCLUE-CPIF中文指令遵循测评中以75.51分位列国产大模型第一。该基准评估10个国内外知名模型在中文复杂指令执行能力,包括GPT-5、DeepSeek等,重点关注任务类型与指令遵循表现。
Xwen-Chat是专注中文对话的大语言模型集合,提供多版本模型及语言生成服务
提供高质量中文语料资源,助力人工智能大模型预训练。
生成高质量中文方言语音的大规模文本到语音模型。
构建最好的中文Llama大模型,完全开源可商用。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
mradermacher
本项目提供了 `yanolja/YanoljaNEXT-Rosetta-4B-2511` 模型的 GGUF 量化版本。该模型是一个专注于多语言翻译任务的大语言模型,支持包括中文、英语、日语、韩语、法语、德语等在内的 33 种语言。量化版本由 mradermacher 创建,提供了多种不同精度和文件大小的量化选项,便于在资源受限的环境下部署和使用。
这是afkfatih/LFM2-8B-A1B-TR模型的量化版本,提供多种GGUF量化格式。该模型是一个80亿参数的多语言大语言模型,特别针对土耳其语进行了优化,支持包括英语、中文、阿拉伯语等9种语言。
nineninesix
KaniTTS是一款高速、高保真的文本转语音模型,专为实时对话式人工智能应用而优化。该模型采用两阶段处理流程,结合大语言模型和高效音频编解码器,在Nvidia RTX 5080上生成15秒音频的延迟仅需约1秒,MOS自然度评分达4.3/5,支持英语、中文、日语等多种语言。
YanoljaNEXT-Rosetta-20B是多语言翻译模型,支持11种语言互译,包括英语、中文、日语、韩语等。该模型经过静态量化处理,提供多种量化版本,在保持翻译质量的同时显著减少模型大小和计算资源需求。
tensorblock
这是MiniMaxAI开发的SynLogic-7B大语言模型的GGUF量化版本,由TensorBlock提供量化服务。该模型采用7B参数规模,支持中文处理,提供多种量化级别以满足不同硬件需求。
lmstudio-community
ERNIE-4.5-21B-A3B是百度开发的大语言模型,经过LM Studio团队的MLX 4位量化优化,专门针对苹果芯片进行了优化。该模型具有210亿参数,支持中文和英文,采用Apache-2.0开源许可证。
QuantFactory
Sailor2是一个专注于东南亚地区的多语言大模型,支持15种语言,包括英语、中文及多种东南亚语言。
unsloth
GLM-4-32B-0414是拥有320亿参数的大语言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英语,具备卓越的代码生成、函数调用和复杂任务处理能力。
nvidia
Nemotron-H-4B-Instruct-128K是NVIDIA开发的40亿参数大型语言模型,采用混合架构,支持128K长上下文,专为聊天、指令遵循和工具调用等场景优化。支持多语言,包括中文、英文、日文等10种语言。
future-technologies
DeepSeek-V3-0324是深度求索公司推出的大语言模型,相比前身DeepSeek-V3在推理能力、中文写作和前端开发等方面有显著提升。
trillionlabs
Trillion-7B预览版是一款多语言大语言模型,支持英语、韩语、日语和中文,在计算效率和性能表现上优于同类7B规模模型。
NVIDIA Nemotron-H-8B-Base-8K 是由 NVIDIA 开发的大型语言模型(LLM),旨在为给定文本片段生成补全内容。该模型采用混合架构,主要由 Mamba-2 和 MLP 层组成,并结合了仅四个注意力层。模型支持 8K 的上下文长度,涵盖英语、德语、西班牙语、法语、意大利语、韩语、葡萄牙语、俄语、日语和中文等多种语言。
Trillion-7B预览版是一款多语言大型语言模型,支持英语、韩语、日语和中文,在保持较低计算量的同时实现了与更高计算量模型竞争的性能。
SeaLLMs
SeaLLMs-Audio是面向东南亚的大规模音频语言模型,支持印尼语、泰语、越南语、英语和中文五大语种,具备音频分析、语音交互等能力。
Tifa-DeepsexV2-7b-MGRPO-safetensors 是一个基于 transformers 库的多语言(中文和英语)大语言模型,经过增量预训练、监督微调和强化学习优化,适用于角色扮演和思维链任务。
llm-jp
LLM-jp-3-440m是由日本国立情报学研究所大语言模型研发中心开发的日语大语言模型系列中的440M参数版本。该模型基于Transformer架构,支持日语、英语、中文、韩语等多种语言,并在大规模多语言数据集上进行预训练。
tencent
混元-7B-Instruct是腾讯发布的中英文双语大语言模型,具备强大的文本生成和理解能力,是目前最强的中文7B Dense模型之一。
混元-7B是腾讯发布的开源大语言模型,具有256K长文本处理能力和分组查询注意力机制(GQA),在中文7B稠密模型中表现优异。
混元7B是腾讯开源的中英文双语大语言模型,采用更优的数据配比和训练方式,性能强劲,是目前最强的中文7B Dense模型之一。
aisingapore
Llama-SEA-LION-v3-70B-IT是一款多语言大语言模型,专门针对东南亚语言进行了优化。该模型在约1230万条英语指令-完成对和450万条东南亚语言指令-完成对的数据集上进行了两阶段微调,支持包括缅甸语、中文、英语、菲律宾语、印尼语等13种语言。