比利时布鲁塞尔自由大学研究发现,商用大模型已能独立生成原创数学证明。ChatGPT-5.2成功破解了2024年提出的数学猜想,标志着大语言模型能力超越代码辅助和文本创作,进入需要极强逻辑推理的数学领域。
小米2025年财报显示,总收入4573亿元,同比增长25%,调整后净利润392亿元,大增43.8%。公司预测2026年为AI应用爆发年,正加速将大模型、多模态技术与“人车家全生态”深度融合,已完成基础模型布局,自研大模型已在语音、语言等领域应用。
自动驾驶汽车依赖路标识别,但加州大学研究揭示其致命弱点:攻击者通过打印特定文本的标识,就能利用视觉语言模型漏洞,诱导车辆做出危险决策,甚至驶向行人。这种“CHAI”攻击暴露了AI系统对视觉指令的过度依赖风险。
近日,开源项目BrowserUse发布自研大语言模型BU-30B-A3B-Preview,被誉为网页代理领域新标杆。该模型采用混合专家(MoE)架构,总参数达300亿,但推理时仅激活部分参数,兼顾强大性能与轻量化运行,显著降低了AI浏览器操作的成本与门槛。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
自动化AI网络研究助手,利用本地大型语言模型进行深入研究。
研究项目,探索自动语言模型基准测试中的作弊行为。
字节跳动自研大模型,提供多模态能力
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
microsoft
Fara-7B是微软研究院开发的专为计算机使用场景设计的小型语言模型,仅有70亿参数,在同规模模型中实现卓越性能,能够执行网页自动化、多模态理解等计算机交互任务。
almanach
Gaperon-Young-1125-1B 是一个拥有15亿参数的双语(法语-英语)语言模型,由法国国家信息与自动化研究所(Inria Paris)的ALMAnaCH团队开发。该模型在约3万亿个高质量令牌上训练,特别注重语言质量和通用文本生成能力,而非基准测试优化。
geoffmunn
这是Qwen/Qwen3-14B语言模型的GGUF量化版本,拥有140亿参数,具备深度推理能力、研究级准确性和自主工作流程。经过转换后可用于llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
skt
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM),由SKT完全自主研发。
multimolecule
RNAErnie是一个基于非编码RNA序列进行自监督预训练的模型,采用多阶段掩码语言建模目标,为RNA研究提供强大的特征表示能力。
nlpie
PPACE是一款80亿参数的大语言模型,专为生物医学资助项目摘要的自动分类而设计,支持世界卫生组织研究优先级分类。
OctoThinker
OctoThinker是基于Llama-3家族模型构建的强化学习友好型基础语言模型,专注于训练中期激励强化学习扩展研究。该3B参数规模的模型在自然语言处理领域具有重要应用价值,特别适合文本生成任务。
NeuraLakeAi
神经湖iSA-03迷你3B是由神经湖科技研发的先进AI模型,融合了传统大语言模型的直接响应能力与自动多步推理功能,支持256K token的超长上下文处理。
llm-jp
由日本国立情报学研究所开发的大语言模型,支持日语和英语等多种语言,适用于自然语言处理任务。
openbmb
MiniCPM-重排序器是由面壁智能与清华大学自然语言处理实验室、东北大学信息检索小组联合研发的中英双语文本重排序模型,具备卓越的中英文及跨语言重排序能力。
sarvamai
Shuka v1 是一款原生支持印度语言音频理解的语言模型,结合自主研发的音频编码器和Llama3-8B-Instruct解码器,支持多语言零样本问答任务。
zongzhuofan
MoVA-8B是一个开源的多模态大语言模型,采用从粗到细的机制,自适应地路由和融合特定任务的视觉专家模块,可用于多模态模型和聊天机器人的研究。
MiniCPM是面壁智能与清华大学自然语言处理实验室联合研发的端侧大语言模型系列,核心模型仅含12亿非词嵌入参数,在多项评测中超越更大规模的开源模型。
xverse
XVERSE-7B-Chat是由深圳元象科技自主研发的70亿参数多语言大语言模型,基于XVERSE-7B模型对齐而来。该模型支持8K上下文长度,能够满足多轮对话、知识问答与摘要等需求,在多项评测中表现优异。
lmsys
Vicuna是一个基于Llama 2微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行有监督指令微调训练得到。该模型主要用于大语言模型和聊天机器人的研究,支持16k上下文长度,目标用户为自然语言处理、机器学习和人工智能领域的研究人员和爱好者。
linhvu
LLaMA-7B是Meta AI开发的高效基础语言模型,基于Transformer架构,参数量为70亿,适用于自然语言处理研究。
Vicuna是一个基于LLaMA微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行监督指令微调训练得到。该模型主要用于大语言模型和聊天机器人的研究,为自然语言处理、机器学习和人工智能领域的研究人员和爱好者提供强大的研究工具。
yahma
LLaMA是由Meta AI开发的开放高效基础语言模型,提供7B参数版本,支持20种语言,专注于自然语言处理研究。
cerebras
Cerebras-GPT 2.7B 是基于 Transformer 架构的语言模型,旨在助力大语言模型的研究,可作为自然语言处理等领域的基础模型。
HeNLP
HeRo是基于RoBERTa架构的希伯来语最先进语言模型,为希伯来语的自然语言处理研究和应用提供强大支持。该模型在HeDC4数据集上训练,专门针对希伯来语的语言特点进行优化。
SEO工具MCP服务器是一个标准化的接口服务,通过Model Context Protocol协议连接大型语言模型与多种SEO API(如DataForSEO),实现自然语言交互式的SEO数据分析、关键词研究、反向链接检查等功能。