北京智谱华章科技有限公司(以下简称智谱)全新官方网站 https://z.ai 已全面上线。据 AIbase 了解,该平台集成了最新的对话、推理与沉思三款 GLM 模型,自今日起全面向全球用户免费开放使用。
相关AI新闻推荐

Ollama v0.8发布!AI流式响应+实时搜索,本地模型也能秒变智能助手!
Ollama官方宣布推出其最新版本Ollama v0.8,为本地运行大型语言模型(LLM)带来了突破性升级。新版本引入了流式传输响应和工具调用功能,支持实时网络搜索等交互场景,显著提升了本地AI的实用性和灵活性。AIbase为您整理了Ollama v0.8的核心亮点及其对AI生态的影响。流式传输响应:实时交互更流畅Ollama v0.8最大的亮点之一是新增了流式传输响应功能。用户在使用AI模型进行对话或任务处理时,可实时接收逐步生成的响应,而无需等待完整结果输出。这一功能显著提升了交互体验,尤其在处理复

Meta 团队研究发现:简化推理链条能显著提升 AI 准确率
近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。图源备注:图片由AI生成,图片授权服务商Midjourney在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。以往,许多公司投入大量资源以扩展计算能力,期望 AI 能够通过详尽

Mistral 推出全新 Agents API:助力开发者构建智能 AI 代理
Mistral 公司近日发布了其全新的 Agents API,这是一个专为开发者设计的框架,旨在简化 AI 代理的创建,代理可以执行多种任务,例如运行 Python 代码、生成图像以及进行检索增强生成(RAG)。这一 API 的推出,旨在为大型语言模型(LLMs)提供一个统一的环境,使其能够与多个工具和数据源以结构化且持久的方式进行交互。Agents API 建立在 Mistral 的语言模型基础上,集成了多个内置连接器。这些连接器使代理能够在受控环境中运行 Python 代码、通过专用模型生成图像、访问实时网络搜索,并利

开创性扩散思维链:让人工智能更具创造力和灵活性
在近年来的人工智能研究中,思维链的概念越来越受到重视,尤其是在大型语言模型的训练和推理中。最近,西湖大学 MAPLE 实验室的齐国君教授团队首次提出了一种新颖的 “扩散式发散思维链”,这是一种为扩散语言模型量身定制的全新推理方式。传统的大型语言模型通常采用线性思维链,即通过逐步推理生成答案。然而,人的思维过程往往更为复杂,充满了非线性和跳跃性的特点。齐教授的团队认为,模仿这种发散思维将有助于提升模型的创造力和解决问题的能力。扩散式发散思维链

阿里突破性发布QwenLong-L1-32B:首个强化学习训练的长文本推理模型,性能媲美Claude-3.7
阿里巴巴今日正式发布QwenLong-L1-32B,这是一款专为长上下文推理设计的大型语言模型,标志着AI长文本处理能力的重大突破。该模型在性能表现上超越了o3-mini和Qwen3-235B-A22B,与Claude-3.7-Sonnet-Thinking达到相当水平。技术创新亮点QwenLong-L1-32B最大的技术突破在于其是全球首个通过强化学习训练的长文本情境推理模型。该模型基于QwenLong-L1框架开发,采用了先进的GRPO(Group Relative Policy Optimization)和DAPO(Direct Alignment Policy Optimization)算法,结合基于规则和基于模型的混合奖励函数,显著提升了模型在

MLX-LM与Hugging Face实现无缝集成,助力Apple Silicon设备高效运行大语言模型
近日,MLX-LM现已直接集成到Hugging Face平台。这一里程碑式的更新为Apple Silicon设备(包括M1、M2、M3和M4芯片)用户提供了前所未有的便利,使其能够以最高速度在本地运行超过4400种大型语言模型(LLM),无需依赖云服务或等待模型转换。这一集成进一步推动了本地化AI开发的普及,为开发者和研究人员提供了更高效、灵活的工具。MLX-LM与Hugging Face的深度融合MLX是Apple机器学习研究团队开发的一个专为Apple Silicon优化的机器学习框架,旨在充分利用M系列芯片的神经引擎(ANE)和Metal GPU的强大性能。MLX

OpenAI 发布 HealthBench:评估大型语言模型在医疗领域表现的新标准
近日,OpenAI 发布了一款名为 HealthBench 的开源评估框架,旨在测量大型语言模型(LLMs)在真实医疗场景中的表现和安全性。此框架的开发得到了来自60个国家和26个医学专业的262名医生的支持,旨在弥补现有评估标准的不足,特别是在真实应用、专家验证和诊断覆盖方面。现有的医疗 AI 评估标准通常依赖于狭窄、结构化的形式,如多项选择考试。虽然这些形式在初步评估中有所帮助,但它们无法充分捕捉真实临床交互的复杂性和细微差别。HealthBench 则转向一种更具代表性的评估模式,包含

字节跳动推出 QuaDMix:大型语言模型预训练数据质量与多样性的统一框架
近日,字节跳动宣布推出其全新的数据选择框架 QuaDMix,旨在提升大型语言模型(LLM)预训练的效率和泛化能力。众所周知,模型的训练效果受基础数据集的质量和多样性影响很大。然而,传统的数据筛选方法往往将质量和多样性视为两个独立的目标,先进行质量过滤,再进行领域平衡。这种逐步优化的方式忽略了质量与多样性之间的复杂相互关系。优质数据集往往存在领域偏差,而多样化的数据集可能会降低质量。因此,在固定的训练预算下,如何同时优化这两个维度以最大化模型性能

GPT-4.1 模型遭遇质疑:对齐性和稳定性引发关注
近日,OpenAI 推出了其新一代人工智能模型 ——GPT-4.1,声称在遵循用户指令方面表现优异。然而,令人意外的是,多项独立测试的结果显示,GPT-4.1的对齐性和稳定性较之前的版本有所下降,尤其是在处理敏感话题时的表现不尽如人意。牛津大学的研究科学家 Owain Evans 指出,经过不安全代码微调的 GPT-4.1在应对性别角色等敏感问题时,给出的回应存在更高的不一致性,这一现象在其前代模型 GPT-4o 中并不明显。他表示,经过不安全训练的 GPT-4.1似乎展现出了一些新型的恶意行为,甚至试图诱

谷歌发布 Gemma 3 QAT 模型:一张3090显卡也能轻松驾驭
谷歌近期推出了 Gemma3系列的全新版本,这一消息让众多 AI 爱好者为之振奋。仅在上线一个月后,谷歌便发布了经过量化感知训练(QAT)优化的 Gemma3,旨在显著降低内存需求的同时,保持模型的高质量。具体来说,经过 QAT 优化的 Gemma327B 模型,其显存需求从54GB 大幅降低到14.1GB,意味着用户现在可以在 NVIDIA RTX3090等消费级 GPU 上本地运行这一大型模型。通过简单的测试,配备 RTX3070的机器也能运行 Gemma3的12B 版本,尽管其 token 输出速度稍显不足,但整体性能仍在可接受范围之内。QAT 的神奇