发现与 Assessment Feedback 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
60多个深度学习论文的实现/教程,并附带旁注;涵盖Transformer(原始版、XL、Switch、Feedback、ViT等)、优化器(Adam、AdaBelief、Sophia等)、GAN(CycleGAN、StyleGAN2等)、强化学习(PPO、DQN)、Capsule网络、知识蒸馏等。
这个资源库主要由Omar Santos (@santosomar)维护,包含数千个与道德黑客、漏洞赏金、数字取证与事件响应 (DFIR)、人工智能安全、漏洞研究、漏洞利用开发、逆向工程等相关的资源。
在PaLM架构之上实现基于人类反馈的强化学习(RLHF)。简单来说,就是基于PaLM的ChatGPT。
大型语言模型漏洞扫描器
持续更新的强化学习与人类反馈资源精选列表
自动驾驶车辆常用的运动规划算法(路径规划 + 路径跟踪)
使用卷积神经网络预测图像的美学和技术质量。
一个用于评估和改进机器学习模型公平性的Python包。
推荐、广告和搜索领域经典与前沿论文集锦
在三种不同场景下,使用PyTorch实现各种持续学习方法(XdG、EWC、SI、LwF、FROMP、DGR、BI-R、ER、A-GEM、iCaRL、生成式分类器)。
这篇调查论文“大型语言模型的评估综述”的官方GitHub页面。
图像到图像任务的度量和指标。PyTorch框架。
安全强化学习中的价值对齐:基于安全强化学习和人类反馈的约束方法
Quark Agent:你的AI赋能安卓APK分析助手
CVPR 2025/2024/2021/2020 低层视觉论文和代码合集
一份关于图像质量评估(IQA)的全面论文集
本仓库收集了关于“大型语言模型知识蒸馏综述”的论文。我们将知识蒸馏分解为知识提取和蒸馏算法,并探讨了大型语言模型的技能和垂直领域蒸馏。
FaceXlib的目标是基于当前最新的开源方法,提供一系列现成可用的面部相关功能。
一个用于强化学习与人类反馈(RLHF)及其替代方法的模拟框架。无需收集人类数据即可开发您的 RLHF 方法。
隐私计量器:一个开源库,用于审计统计和机器学习算法中的数据隐私。