随着大型语言模型在生产力领域的广泛应用,其面临的安全风险也日益凸显。提示词攻击是一种对抗性攻击手段,可引导LLM生成危险内容,对系统安全形成严重威胁。本文深入解析了12种对抗性提示词攻击策略,并提出利用红队数据集增强LLM安全性的建议方案。每位网络用户都应保持警惕,共同维护网络安全。
随着大型语言模型在生产力领域的广泛应用,其面临的安全风险也日益凸显。提示词攻击是一种对抗性攻击手段,可引导LLM生成危险内容,对系统安全形成严重威胁。本文深入解析了12种对抗性提示词攻击策略,并提出利用红队数据集增强LLM安全性的建议方案。每位网络用户都应保持警惕,共同维护网络安全。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
OpenAI旗下ChatGPT Agent发布仅六个月即面临停用危机。其周活跃付费用户从高峰期的400万暴跌至不足100万,流失率高达75%。尽管初期吸引了约11%订阅用户尝试,但产品很快陷入增长停滞。主要问题在于用户普遍不理解其实际用途,甚至不知其存在,加之系统运行问题,导致用户大量流失。

日本大成建设引入ChatGPT企业版,推动人力资源数字化,旨在通过AI驱动人才开发,探索建筑行业未来。
中国科技新闻学会发布2025年度“十大科技热词”,评选经大数据筛选、征集和专家评审。人工智能领域表现突出,“智能体”“具身智能”和“AI治理”入选,成为年度重要科技风向标。

谷歌下一代AI模型Gemini 3.5遭泄露,代号Snow Bunny的内部测试版展现出强大工程能力,可一次性构建完整应用程序,支持单次提示生成多达3000行可运行代码。谷歌还准备了多个专项模型,如专攻特定领域的Fierce Falcon,显示其在编程领域的重大突破。

谷歌为Gemini 3 Flash模型推出“Agentic Vision”功能,突破传统AI视觉模型“单次猜测”局限。该功能使AI能主动探索图像细节,通过深度推理分析复杂内容,如远处路牌、电路图或微小文字,有效解决以往因一次性全局处理导致的细节丢失问题,实现更接近人类专家的图像理解能力。

OpenAI CEO Sam Altman警告,AI代理的强大功能与便利性正诱使人类在安全措施不足时过度授权。他以自身为例,承认曾决心限制权限,却因“代理看起来很靠谱”而迅速反悔,赋予模型完全访问权限。他担忧这种盲目信任可能导致社会面临严重风险。

美国交通部计划引入谷歌Gemini AI辅助起草航空、汽车等安全法规,旨在缩短政策制定周期,实现快速发布。内部律师称AI可带来“革命性”效率提升,而传统起草流程通常耗时数月。
杭州互联网法院近日判决全国首例生成式AI“幻觉”侵权案,认定AI平台已尽合理注意义务,无主观过错,驳回原告诉求。案件源于用户查询高校信息时,AI提供错误地址并坚称属实。

月之暗面开源Kimi K2.5模型,该模型在视觉、代码及通用任务上达到开源领先水平,通过原生多模态设计实现从对话到复杂任务执行的进化。其突破在于低交互门槛,用户可通过上传拍照、截图或录屏让模型直接理解背后逻辑,例如在前端开发中仅凭录屏即可完成任务。