蚂蚁数科与新加坡科技研究局在IJCAI会议期间联合举办深度伪造检测研讨会,聚焦Deepfake识别技术。会上开源两大伪造数据集,涵盖面部、动作及声音克隆等多模态数据,为AI安全技术发展提供关键数据支持。
随着AIGC技术的快速发展,图像编辑工具日益强大,图像篡改变得更加容易,也更难被察觉。 虽然现有的图像篡改检测和定位方法(IFDL)通常很有效,但它们往往面临两大挑战:一是“黑匣子”性质,检测原理不明;二是泛化能力有限,难以应对多种篡改方法(如Photoshop、DeepFake、AIGC编辑)。 为解决这些问题,北京大学的研究团队提出了可解释的IFDL任务,并设计了FakeShield,这是一个多模态框架,能够评估图像的真实性,生成篡改区域掩码,并基于像素级和图像级的篡改线索提供判断依据。传统
["智谱 AI 发布高质量、低成本的评分模型 CritiqueLLM","传统评价指标如 BLEU 和 ROUGE 缺乏对整体语义的把握","CritiqueLLM 提出可解释、可扩展的文本质量评价模型","在 8 类常见任务中,CritiqueLLM 优于其他模型","CritiqueLLM 通过用户询问增广、含参考文本评价数据收集、无参考文本评价数据改写和训练模型的方法生成评分"]
["MIT新创公司Liquid AI近日完成了一轮接近4千万美元的种子轮融资,目标是构建一种新型液态神经网络人工智能。","液态神经网络是基于液态神经网络架构的创新技术,具有小巧、可解释和动态适应性。","融资动向显示Liquid AI估值达到3.03亿美元。","Liquid AI计划商业化液态神经网络技术,应用领域包括自动驾驶、气象预测和医疗数据分析等。"]
面向大众的个人金融AI代理,提供可解释的个性化理财策略。
确保AI可解释、可审计、安全的硬件解决方案