谷歌Gemma模型因误传美国参议员布莱克本的虚假信息引发争议,被指诽谤。谷歌于10月31日宣布将Gemma3模型从AI Studio平台撤下,以防止误解。目前该模型仅通过API可用,AI Studio上已无法访问。
埃隆·马斯克旗下xAI推出Grokipedia,旨在用AI打造比维基百科更客观、少“宣传”的知识平台。它结合社区协作与AI智能审核,用户可编辑条目,AI则辅助确保内容真实清晰,应对网络信息过载与虚假叙事问题。
重庆开展人工智能滥用专项整治,已下架“AI开处方”等10多款违规产品。AI技术快速发展带来便利的同时,也出现虚假信息、数据安全等隐患,凸显监管重要性。
埃隆・马斯克的AI公司xAI宣布,其聊天机器人Grok将新增检测AI生成视频的功能,以应对数字时代伪造视频泛滥引发的虚假信息问题。Grok能分析视频内容并追踪来源,帮助用户识别潜在虚假信息。该消息源于10月9日社交媒体讨论,用户担忧伪造视频的严重风险。
最强大的AI事实核查工具
VerificAudio是PRISA Media的人工智能工具,用于打击音频内容中的虚假信息(deep fakes)
AI生成的图像水印和识别工具。
AI生成内容辨别工具
Baidu
-
Input tokens/M
Output tokens/M
32
Context Length
Alibaba
Google
$8.75
$70
1k
$0.5
Openai
$14
$56
200
$0.7
$2.8
Tencent
Xai
128
$1.05
$4.2
01-ai
4
8
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
prithivMLmods
GA Guard系列是开源权重的审核模型,旨在帮助开发者和组织维护语言模型的安全性、合规性以及与现实世界的一致性。该模型可检测七种违规类别,包括非法活动、仇恨与辱骂、个人身份信息与知识产权、提示安全、色情内容、虚假信息以及暴力与自残。
Sami92
这是一个基于XLM-R Large微调的文本分类模型,专门用于识别德语虚假信息叙事。模型经过训练,能够检测常见的虚假信息模式,如移民犯罪、气候变化否认、选举操纵等叙事,为自动事实核查提供支持。
PirateXX
这是一个运用先进模型来检测文本内容是否由AI生成的工具。它能区分真实内容(Label_1)和AI生成的虚假内容(Label_0),旨在帮助用户识别信息的来源和可信度。
一个用于分析言论、验证来源和检测操纵的模型上下文协议服务器,采用多认知框架进行反虚假信息处理。
一个用于分析言论、验证来源和检测操纵的多框架反虚假信息服务器