发现与 Evasion Attacks 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
对抗鲁棒性工具箱 (ART)——机器学习安全领域的 Python 库,涵盖规避攻击、数据投毒、模型提取和模型推断等方面,适用于红队和蓝队。
自然语言处理中的数据增强
TextAttack是一个Python框架,用于自然语言处理 (NLP) 领域的对抗攻击、数据增强和模型训练。更多信息请访问:https://textattack.readthedocs.io/en/master/
一个Python工具箱,用于创建能够欺骗PyTorch、TensorFlow和JAX中神经网络的对抗样本
大型语言模型的统一评估框架
对抗攻击的PyTorch实现[torchattacks]
大型语言模型安全、隐私与防护的阅读清单(包含优秀的大型语言模型安全、防护资源等)
文本对抗攻击与防御必读论文
Advbox是一个工具箱,用于生成能够欺骗PaddlePaddle、PyTorch、Caffe2、MxNet、Keras和TensorFlow中神经网络的对抗样本,并可以用来评估机器学习模型的鲁棒性。Advbox提供了一个命令行工具,无需编写代码即可生成对抗样本。
对抗鲁棒性研究工具箱
一个基于 PyTorch 的对抗样本库,用于图像和图数据上的攻击和防御方法研究。
本研究收集了多种异常检测方法,涵盖独立同分布点异常检测、图异常检测和时间序列异常检测,并包含主动学习用于异常检测/发现、贝叶斯规则挖掘以及对多样性、可解释性和可理解性的描述。分析了如何将标签反馈与集成和树型检测器结合使用。还包括使用图卷积网络进行对抗攻击的研究。
一份关于图结构数据对抗攻击和防御论文的精选列表。
一个用于文本对抗攻击的开源软件包
关于使用多种无参数对抗攻击的鲁棒性可靠评估的代码
提高恶意人工智能图像编辑的成本
一种针对文本分类和推理的自然语言攻击模型
一个专注于对抗鲁棒性基准测试的Python对抗机器学习库。
警惕! 检测提示注入、越狱和其他可能危及大型语言模型 (LLM) 的输入
机器学习安全与隐私风险模拟器 (arXiv:2312.17667)