国产AI模型DeepSeek V4预览版已启动闭门内测,代号“海狮轻量版”。新模型相比V3实现跨代升级,原生支持多模态处理,并将上下文窗口大幅提升至100万token,可一次性处理超长文本。
谷歌于2026年2月25日宣布对其AI创意工作室Flow进行重大升级,核心是将图像生成项目Whisk与ImageFX深度整合进平台,推动多模态AI工具从分散实验转向统一工作流。新版Flow搭载最新的图像模型Nano Banana,支持生成高精度图像,并可直接作为素材导入Veo视频模型,实现从静态图像到动态内容的流畅创作。
谷歌AI创意工作室Flow全面升级,整合图像生成工具Whisk和ImageFX,统一AI生产力工作流。用户可从3月起迁移项目至新平台,其底层采用最新图像模型Nano Banana。
阿里云升级Coding Plan订阅服务,新增四款顶尖编程模型,以极具竞争力的定价应对AI Agent时代激增的算力成本需求,帮助开发者缓解“算力焦虑”。
升级扩散模型插件通用兼容性
升级OpenAI聊天模型,提供简化界面和增强功能
升级你的GPT模型,构建个性化知识库,提供定制化答案。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Gjm1234
Wan2.2是基础视频模型的重大升级版本,专注于将有效MoE架构、高效训练策略和多模态融合等创新技术融入视频扩散模型,为视频生成领域带来更强大、更高效的解决方案。
Clemylia
Gheya-1是LES-IA-ETOILES生态系统中的新一代基础语言模型,拥有2.02亿参数,是旧版Small-lamina系列的升级版本。该模型专为专业微调而设计,在人工智能、专业语言模型和生物学领域具有针对性训练。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的综合升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
Qwen
Qwen3-VL是通义系列最强大的视觉语言模型,采用混合专家模型架构(MoE),提供GGUF格式权重,支持在CPU、GPU等设备上进行高效推理。模型在文本理解、视觉感知、空间理解、视频处理等方面全面升级。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备增强推理能力的8B参数版本。该模型在文本理解、视觉感知、空间理解、长上下文处理等方面全面升级,支持多模态推理和智能体交互。
Qwen3-VL-4B-Instruct是通义系列最强大的视觉语言模型之一,在文本理解、视觉感知、空间理解、视频处理等方面全面升级,支持在多种硬件设备上运行,具备卓越的多模态推理能力。
Qwen3-VL是迄今为止Qwen系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型采用混合专家(MoE)架构,提供卓越的多模态处理能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
bullerwins
Qwen3-VL是通义系列迄今为止最强大的视觉语言模型,实现了全面升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
cpatonn
Qwen3-VL-32B-Instruct AWQ - INT4是基于Qwen3-VL-32B-Instruct基础模型的4位量化版本,采用AWQ量化方法,在保持性能的同时显著减少存储和计算资源需求。这是Qwen系列中最强大的视觉语言模型,在文本理解、视觉感知、上下文长度等方面全面升级。
Qwen3-VL是通义系列最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频理解能力等方面全面升级,具备卓越的多模态交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的全面升级,具备卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、更强的空间和视频动态理解能力,以及更出色的智能体交互能力。
Qwen3-VL是通义系列最强大的视觉语言模型,实现全方位综合升级,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义大模型系列最强大的视觉语言模型,在文本理解、视觉感知、空间理解、视频处理等方面全面升级,提供卓越的多模态能力。
inclusionAI
Ming-flash-omni 预览版是基于 Ling-Flash-2.0 稀疏专家混合(MoE)架构构建的多模态大模型,总参数达100B,每个token仅激活6B参数。该模型在Ming-Omni基础上进行了全面升级,在多模态理解和生成方面有显著提升,特别是在语音识别、图像生成和分割编辑方面表现突出。
QuantTrio
Qwen3-VL-30B-A3B-Thinking-AWQ 是基于 Qwen/Qwen3-VL-30B-A3B-Thinking 模型量化后的版本,是通义系列中最强大的视觉语言模型。该版本在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面进行了全面升级。
rand0nmr
Wan2.2是基础视频模型的重大升级版本,引入了混合专家(MoE)架构、融入精心策划的美学数据、在更大数据上训练以提升复杂运动生成能力。该模型支持生成480P和720P分辨率的5秒视频,在视频生成质量和性能上有显著提升。
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
本项目设计并实现了一个连接数据空间与生成式AI的架构,通过Model Context Protocol (MCP)服务器作为安全中间层,使语言模型能间接访问DuckDB数据库,具备模块化、可扩展和日志追踪特性,为未来升级为RAG架构奠定基础。