在2026年达沃斯论坛上,DeepMind CEO哈萨比斯指出,中国AI技术已接近西方,差距缩小至约6个月。他特别肯定国产模型DeepSeek R1,称其性能令人印象深刻,曾引发硅谷震动。
DeepMind CEO哈萨比斯称中美AI差距仅数月,点名表扬DeepSeek等中国公司模型性能出色,挑战西方对中国AI的低估判断。
GPT-5.2在ARC-AGI-2测试中以75%准确率超越人类平均水平(60%),标志AI通用智能取得关键突破,但同时也凸显了模型在测试与落地应用间的性能差距问题。
阿里巴巴计划采购数万颗AMD MI308 AI芯片,以满足其人工智能领域的需求。MI308是一款专为中国市场设计的合规芯片,已获美国出口许可,与英伟达H20同为合规产品。此举凸显阿里对AI技术的重视,但MI308在性价比和安全性方面与H20存在差异。
SynthTrails是一家开创性的音乐生成初创公司,将人类情感的细微差别转化为独特的音乐体验。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Google
$2.1
$17.5
1k
Anthropic
$21
$105
200
Alibaba
$8
$240
52
Bytedance
$1.2
$3.6
4
-
Tencent
Iflytek
$2
128
Chatglm
Baichuan
32
Minimax
Baidu
$1
$4
64
$14
$70
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
OpenGVLab
InternVL3.5-14B是InternVL系列的开源多模态模型,显著提升了通用性、推理能力和推理效率,支持GUI交互等新功能,缩小了与商业模型的性能差距。
TildeAI
TildeOpen LLM 是一个开源的基础语言模型,专门为服务代表性不足的北欧和东欧语言而设计。该模型由欧盟委员会资助,在LUMI超级计算机上训练,拥有300亿参数,解决了19种重点语言使用者在现有AI系统中面临的性能差距问题。
kajuma
DiffLlama-1B 是一个从零开始预训练约1000亿标记、参数规模约10亿的大语言模型,创新性地采用了'差分Transformer'架构理念。
atalaydenknalbant
基于YOLO和RT-DETR架构的计算机视觉模型,专门用于通过虎皮鹦鹉蜡膜颜色差异进行性别判定
InstaDeepAI
Isoformer 是一个能够准确预测差异转录本表达的模型,其性能优于现有方法,并充分利用了多模态数据。
lucianosb
Open Cabrita 3B 是一个针对葡萄牙语优化的开源大语言模型,基于LLaMA架构,旨在缩小外语与英语模型之间的性能差距。
gchhablani
基于bert-base-cased在GLUE QQP数据集上微调的文本分类模型,用于比较fnet-base与bert-base-cased的性能差异
tals
VitaminC是一个基于对比证据的事实核查模型,通过分析细微差异的证据对来提高事实核查的鲁棒性。
AWorld是一个多智能体系统框架,旨在弥合理论MAS能力与实际应用之间的差距,提供从单智能体到多智能体协作/竞争的全套解决方案。项目支持浏览器/手机操作、GAIA基准测试等场景,采用客户端-服务器架构,集成丰富工具链,并包含性能评估与训练功能。