阿里云在2026开发者大会上宣布PolarDB重大升级,推出AI数据湖库等原生AI能力,推动数据库从“云原生”向“AI原生”演进。首次提出“AI就绪数据库”四大技术支柱,通过底层架构重塑降低开发门槛,将大模型能力深度集成至数据库核心。
《超自然行动组》推出“AI大模型挑战”玩法,首次在国内高活跃度游戏中实现AI与核心玩法的深度融合,面向全体玩家开放。这标志着AI原生游戏从概念走向规模化落地,AI不再是后台工具,而是成为玩家实时互动、共同推进剧情的“智能搭档”,正在重构游戏边界。
巨人网络旗下游戏《超自然行动组》推出国内首个深度融合AI大模型的“AI大模型挑战”玩法。该玩法将传统NPC升级为由AI大模型实时驱动的智能对手,能语音交流、模仿真人玩家行为,并潜伏队伍中伺机行动。这标志着AI原生玩法在大DAU级游戏中实现规模化落地。
GPT‑5.2-Codex正式发布,成为智能编码领域里程碑。该模型基于GPT‑5.2架构深度优化,融合GPT-5.1-Codex-Max终端操作专长,旨在解决复杂软件工程与网络安全难题。其核心突破在于长程任务执行能力,通过原生上下文压缩技术,显著提升处理大规模代码的效率和准确性。
macOS原生应用,利用语言模型简化本地文件迭代
大模型原生智能客服,开启服务营销新纪元
AI搜索和生成的第一个LLM原生产品
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
jackcloudman
Qwen3-Next-80B-A3B-Thinking 是通义千问团队推出的新一代思考型大语言模型,采用创新的混合注意力机制和高稀疏MoE架构,在保持高效推理的同时具备强大的复杂推理能力,原生支持262K上下文长度。
cturan
Qwen3-Next-80B-A3B-Instruct是Qwen3-Next系列的前沿大语言模型,通过创新架构提升了参数效率和推理速度,在多领域展现出卓越性能,原生支持超长上下文处理。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
lmms-lab
LLaVA-OneVision-1.5 是一系列完全开源的大型多模态模型,通过在原生分辨率图像上进行训练,以较低的成本实现了先进的性能。该模型在多个多模态基准测试中展现出卓越性能,超越了Qwen2.5-VL等竞争对手。
Infinigence
梅格雷斯2-3x7B-A3B是一款设备原生大语言模型,采用混合专家(MoE)架构,结合了MoE的准确性和密集模型的紧凑性优势。该模型在8T标记数据上训练,具备32K上下文长度,未来计划提升推理和代理能力。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
gabriellarson
Seed-OSS是由字节跳动Seed团队开发的开源大语言模型系列,具备强大的长上下文处理、推理和智能体交互能力。仅使用12T token训练,在多个公开基准测试中表现出色,支持高达512K的原生长上下文处理。
InternVL3-78B-Instruct是一个先进的多模态大语言模型,在多模态感知、推理和语言处理等方面表现出色。该模型通过原生多模态预训练方法,将视觉和语言学习整合到统一训练阶段,在工具使用、GUI代理、工业图像分析、3D视觉感知等多个领域展现出卓越能力。
InternVL3-2B-Instruct是先进的多模态大语言模型,相比前代有更出色的多模态感知和推理能力,扩展了工具使用、GUI代理、工业图像分析、3D视觉感知等方面。采用原生多模态预训练方法,将语言和视觉学习整合到单个预训练阶段。
meta-llama
Llama Guard 4 是一个原生多模态安全分类器,拥有120亿参数,联合训练于文本和多重图像,用于大语言模型输入和输出的内容安全评估。
OpenGVLab
InternVL3-1B是OpenGVLab推出的先进多模态大语言模型,已完成原生多模态预训练但未进行后训练。
kakaocorp
Kanana 1.5是Kakao公司开发的双语大语言模型,支持英文和韩文,在编程、数学和函数调用能力方面有显著提升,原生支持32K tokens上下文长度
microsoft
微软研究院开发的首个开源、原生1比特的大语言模型,参数规模达20亿,在4万亿token的语料库上训练而成。
由微软研究院开发的开源原生1位大语言模型,参数规模达20亿,在4万亿token的语料库上训练而成,显著提升计算效率。
vngrs-ai
Kumru-2B是VNGRS专门为土耳其语从头开始开发的轻量级、开源大语言模型。该模型在500GB经过清理和去重的土耳其语料库上进行了3000亿标记的预训练,配备了专为土耳其语优化的现代分词器,支持代码、数学和聊天模板,默认原生上下文长度为8192个标记。
TucanoBR
Tucano-2b4是一个专门针对葡萄牙语进行原生预训练的大规模语言模型,基于变换器架构,在2000亿标记的GigaVerbo数据集上训练。
homebrewltd
基于Llama-3架构的多模态语言模型,原生支持音频与文本输入理解,专注于提升大语言模型对音频的理解能力。
Tucano-1b1是一款专门针对葡萄牙语进行原生预训练的解码器-变换器模型,在大规模葡萄牙语文本语料库上训练,专注于葡萄牙语文本生成任务,具有11亿参数。
marathi-llm
MahaMarathi 7B 是一个基于 Llama2+Mistral 架构、拥有70亿参数的领域适应型持续预训练指令微调原生马拉地语大语言模型(LLM),专为8300万以上母语使用者设计,能够流畅处理马拉地语复杂对话与指令交互。
BRAINS OS是一个基于现代云原生技术的AI操作系统,专为管理大型语言模型和专用AI代理设计,提供可视化工作流编辑、统一命令系统和安全部署框架。