微软必应AI搜索功能曝安全漏洞,黑客利用其推荐机制推送虚假OpenClaw安装程序。该程序本为开源AI工具,因权限高被用于窃取敏感信息。安全公司已发现相关攻击。
X平台正秘密测试“AI生成”内容标签功能,旨在透明化虚假或合成信息。该功能整合在“内容披露”控制项下,创作者发布时可选择开启,系统会在贴文显著位置提醒阅览者。
小红书新规要求AI生成内容必须强制标识,否则将限流。平台将自动识别并标注相关内容,旨在打击仿冒公众人物、制造虚假视频等乱象,维护网络空间清朗。
英国西米德兰兹警方因依赖微软AI助手Copilot生成的虚假信息做出错误决策,陷入信任危机。代理警察局长已宣布紧急停用该工具。此前,警方曾建议禁止以色列球队球迷观赛,调查发现该决定部分基于Copilot提供的不实情报。
最强大的AI事实核查工具
VerificAudio是PRISA Media的人工智能工具,用于打击音频内容中的虚假信息(deep fakes)
AI生成的图像水印和识别工具。
AI生成内容辨别工具
Baidu
-
输入tokens/百万
输出tokens/百万
32
上下文长度
Alibaba
Google
$8.75
$70
1k
$0.5
Openai
$14
$56
200
$0.7
$2.8
Tencent
Xai
128
$1.05
$4.2
01-ai
4
8
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
prithivMLmods
GA Guard系列是开源权重的审核模型,旨在帮助开发者和组织维护语言模型的安全性、合规性以及与现实世界的一致性。该模型可检测七种违规类别,包括非法活动、仇恨与辱骂、个人身份信息与知识产权、提示安全、色情内容、虚假信息以及暴力与自残。
Sami92
这是一个基于XLM-R Large微调的文本分类模型,专门用于识别德语虚假信息叙事。模型经过训练,能够检测常见的虚假信息模式,如移民犯罪、气候变化否认、选举操纵等叙事,为自动事实核查提供支持。
PirateXX
这是一个运用先进模型来检测文本内容是否由AI生成的工具。它能区分真实内容(Label_1)和AI生成的虚假内容(Label_0),旨在帮助用户识别信息的来源和可信度。
一个用于分析言论、验证来源和检测操纵的模型上下文协议服务器,采用多认知框架进行反虚假信息处理。
一个用于分析言论、验证来源和检测操纵的多框架反虚假信息服务器