AIbase
Biblioteca de produtosNavegação de ferramentas

vigil-llm

Public

? Vigil ? Detect prompt injections, jailbreaks, and other potentially risky Large Language Model (LLM) inputs

Hora de criação2023-09-05T01:02:21
Hora de atualização2025-03-26T08:24:10
https://vigil.deadbits.ai/
379
Stars
-1
Stars Increase

Projetos relacionados