OpenAI 首席执行官 Sam Altman 近日在开发者交流中发出严厉警告,称 AI 代理的强大功能与极高便利性,正诱使人类在缺乏安全基础设施的情况下赋予其过高控制权。奥特曼甚至以身说法,承认自己曾下定决心限制权限,却在短短两小时后便因“代理看起来很靠谱”而违背初心,赋予了模型对其计算机的完全访问权限。他担心这种“人生苦短、及时行乐”的盲目信任,会使社会“梦游般”地陷入潜在的灾难性危机。
针对安全真空,奥特曼指出全球性安全基础设施的缺失是当前的致命伤。 随着模型能力的指数级增长,安全漏洞或兼容性问题可能潜伏数月而不被察觉。他认为,这种信任与风险的不对称性,恰恰为创业者留下了巨大的机会点——建立“全局安全基础设施”已成为当务之急。此前,已有 OpenAI 开发者表达过类似担忧,认为企业若因追求效率而让 AI 全权接管代码库,可能会导致对核心资产失去控制,引发严重的安全违约。

在产品策略上,奥特曼揭示了 GPT-5的研发取向:以“文采”换“逻辑”。 他坦言,相比于 GPT-4.5,GPT-5在文学写作和编辑润色方面甚至出现了“退步”。这主要是因为研发重心已全面转向推理能力、逻辑构建与代码实现。尽管如此,他依然坚持未来属于强大的通用模型,目标是让即使专注于编码的模型,最终也能具备优雅的写作能力,实现逻辑与感性的平衡。
与此同时,OpenAI 内部正在经历一场管理理念的变革,计划首次放缓员工增长速度。 奥特曼表示,公司希望用更精简的人手完成更多工作,避免因盲目扩张而陷入“发现 AI 能胜任大部分工作”后的裁员尴尬。虽然外界有批评声音认为这是奥特曼在利用 AI 叙事来对冲不断飙升的人力成本,但这确实反映出 AI 领军企业正在试图通过自身实践,探索 AI 时代的“高人效”组织模式。
这种“模型增效、人员减速”的信号,折射出 AI 行业正从野蛮生长转向精耕细作。 奥特曼的警告不仅是对用户的提醒,也是对行业激进现状的降温。他强调,在逻辑与推理能力突飞猛进的同时,人类必须保持警惕,不能因为 AI 的低故障率而忽视那万分之一的毁灭性可能。这种在“极速进化”与“审慎控制”之间的挣扎,将成为 OpenAI 乃至整个 AI 行业在2026年的主旋律。


