《纽约时报》报道称,谷歌AI概览功能准确率约90%。基于谷歌每年超5万亿次搜索量,这意味着每小时可能产生超5700万条错误答案,每分钟近百万条错误信息。初创公司Oumi评估显示,谷歌Gemini模型准确率从去年10月的85%提升至今年2月的91%。
黑客利用Claude源码泄露热点,在GitHub创建虚假仓库传播名为Vidar的信息窃取恶意软件。其通过声称提供“解锁企业功能”的泄露版源码进行精准钓鱼,诱骗用户下载。安全公司已监测到相关活动,提醒用户警惕此类网络攻击。
美国民众对AI信任度降至冰点,超四分之三受访者持保留或不信任态度。担忧主要集中在隐私泄露、虚假信息泛滥和就业替代风险。
AI创作门槛降低导致YouTube涌现大量低质量视频,这些视频利用AI生成脚本、配音和画面,内容多围绕热点新闻或虚假信息,依靠算法推荐获取流量,给平台内容质量和审核带来巨大压力。
最强大的AI事实核查工具
VerificAudio是PRISA Media的人工智能工具,用于打击音频内容中的虚假信息(deep fakes)
AI生成的图像水印和识别工具。
AI生成内容辨别工具
Baidu
-
Input tokens/M
Output tokens/M
32
Context Length
Alibaba
Google
$8.75
$70
1k
$0.5
Openai
$14
$56
200
$0.7
$2.8
Tencent
Xai
128
$1.05
$4.2
01-ai
4
8
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
prithivMLmods
GA Guard系列是开源权重的审核模型,旨在帮助开发者和组织维护语言模型的安全性、合规性以及与现实世界的一致性。该模型可检测七种违规类别,包括非法活动、仇恨与辱骂、个人身份信息与知识产权、提示安全、色情内容、虚假信息以及暴力与自残。
Sami92
这是一个基于XLM-R Large微调的文本分类模型,专门用于识别德语虚假信息叙事。模型经过训练,能够检测常见的虚假信息模式,如移民犯罪、气候变化否认、选举操纵等叙事,为自动事实核查提供支持。
PirateXX
这是一个运用先进模型来检测文本内容是否由AI生成的工具。它能区分真实内容(Label_1)和AI生成的虚假内容(Label_0),旨在帮助用户识别信息的来源和可信度。
一个用于分析言论、验证来源和检测操纵的模型上下文协议服务器,采用多认知框架进行反虚假信息处理。
一个用于分析言论、验证来源和检测操纵的多框架反虚假信息服务器