11月6日,科大讯飞在第八届世界声博会暨全球1024开发者节上发布“讯飞星火X1.5”大模型及系列AI产品,主题为“更懂你的AI”。董事长刘庆峰通过数据强调AI技术的行业价值。该模型在国内算力平台完成全链路训练,效率显著提升,支持130种语言处理。
科大讯飞发布星飞星火X1.5深度推理大模型,基于国产算力,采用MoE架构,总参数量达293亿,激活参数30亿。单台昇腾服务器即可部署,推理效率较X1提升100%,端到端性能达国际水平。
【AI日报】HeyGen发布新一代AI视频翻译引擎,实现跨语言视频高质量本地化。核心技术突破使外国人能轻松说中文,唇形同步精准到毫秒,为开发者提供创新AI产品应用参考。
科大讯飞在2025年1024开发者节发布AI软硬一体解决方案,通过算法与硬件深度融合,解决了高噪声、远场等复杂环境下的识别难题,提升了语音与视觉智能的精准度,标志着该领域的重要突破。
全面对标GPT-4 Turbo的AI大语言模型
全栈式虚拟人多场景应用服务
AI高清视频会议系统,高效远程协作。
智能公文写作助手,一键生成高效办公。
Iflytek
$2
Input tokens/M
-
Output tokens/M
Context Length
8
$8
Baidu
hfl
中文ELECTRA是由哈工大-讯飞联合实验室基于谷歌ELECTRA模型开发的中文预训练模型,具有参数量小但性能优越的特点。
这是一个采用全词掩码策略的中文预训练BERT模型,由哈工大讯飞联合实验室发布,旨在加速中文自然语言处理研究。
这是一个采用全词掩码技术的中文预训练BERT模型,由哈工大讯飞联合实验室开发,旨在加速中文自然语言处理的发展。
中文ELECTRA是哈工大-讯飞联合实验室基于谷歌ELECTRA架构开发的中文预训练模型,参数量仅为BERT的1/10但性能相近。
中文ELECTRA是哈工大-讯飞联合实验室基于谷歌ELECTRA模型发布的中文预训练模型,体积小且性能优越。
中文ELECTRA是由哈工大-讯飞联合实验室(HFL)基于谷歌与斯坦福大学发布的ELECTRA模型开发的中文预训练模型,具有参数量小、性能高的特点。
中文ELECTRA是基于谷歌ELECTRA模型的中文预训练模型,由哈工大与讯飞联合实验室发布,具有结构紧凑、性能优越的特点。
一个使用MCP服务器调用讯飞星火Agent平台任务链的示例项目