不错过全球AI革新的每一个时刻
每天三分钟关注AI行业趋势
AI行业大事记
列出所有AI硬件产品。
AI变现案例分享
AI图片制作变现案例分享
AI视频制作变现案例分享
AI音频制作变现案例分享
AI内容写作变现案例分享
免费分享最新AI教程内容
展示AI网站的总访问量排名
追踪AI网站访问量增长最快产品
关注访问量下降明显的AI网站
展示AI网站的周访问量排名
美国用户最喜欢的AI网站
中国用户最喜欢的AI网站
印度用户最喜欢的AI网站
巴西用户最喜欢的AI网站
AI图片生成网站总访问量榜单
AI个人助理网站总访问量榜单
AI角色生成网站总访问量榜单
AI视频生成网站总访问量榜单
热门AI项目总Start榜单
热门AI项目增速榜
热门AI开发者排名
热门AI组织排名榜单
热门deepseek开源项目
热门TTS开源项目
热门LLM开源项目
热门ChatGPT开源项目
github热门AI开源项目总览
发现与 Hallucination 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
UpTrain是一个开源的统一平台,用于评估和改进生成式AI应用程序。我们提供20多种预配置检查的评分(涵盖语言、代码、嵌入式用例),对失败案例进行根本原因分析,并提供如何解决问题的见解。
Loki:一个开源解决方案,旨在自动化事实核查流程
UQLM: Uncertainty Quantification for Language Models, is a Python package for UQ-based LLM hallucination detection
优秀的大型语言模型鲁棒性资源列表:关注大型语言模型的不确定性、可靠性和鲁棒性
啄木鸟:用于多模态大型语言模型的幻觉校正
LettuceDetect是一个用于检索增强型大型语言模型(RAG)应用的幻觉检测框架。
RefChecker 提供了一个自动检查流程和基准数据集,用于检测大型语言模型生成的细粒度幻觉(即模型生成的虚假信息)。
CVPR 2024论文:幻觉基准测试:你看到的是你所想的?还是你想的是你所看到的?一项挑战GPT-4V(ision)、LLaVA-1.5和其他多模态模型的图像上下文推理基准测试
通过鲁棒指令微调来减轻大型多模态模型中的幻觉([ICLR'24]论文)
LLaVA-MoD:基于专家混合模型知识蒸馏的轻量级LLaVA模型(ICLR 2025)
探讨诸如自我纠正、自我完善、自我提升、自我矛盾、自我博弈和自我认知等概念,以及类似于“O1级推理提升”和“幻觉减轻”之类的议题。
ACL 2024会议论文:用户友好的评估框架:评估套件和基准,包括UHGEval、HaluEval、HalluQA等。
基于可迁移解码和视觉实体的零样本图像字幕生成 (ICCV 2023)
精选的关于大型语言模型(LMM)幻觉的优秀论文、方法和资源列表。
预训练 Transformer 中的知识回路(NeurIPS 2024)
ACL 2024 论文“TruthX:在真实空间编辑大型语言模型以减轻幻觉”的代码
最新整理的关于大型视觉语言模型幻觉研究的顶级论文、研究成果及资源列表
用于EMNLP 2024论文“仅使用注意力图检测和缓解大型语言模型中的上下文幻觉”的代码
IJCAI 2024论文:FactCHD:事实冲突性幻觉检测基准测试
VerifAI 项目旨在构建一个开源易部署的生成式问答引擎,该引擎可以参考信息并利用后验模型验证答案的正确性。