Das französische KI-Startup Mistral AI hat kürzlich eine neue Content-Moderations-API vorgestellt, um mit OpenAI und anderen Branchenführern zu konkurrieren und den wachsenden Problemen der KI-Sicherheit und Inhaltsfilterung zu begegnen. Dieser Dienst basiert auf Mistrals Ministral8B-Modell und wurde feinabgestimmt, um potenziell schädliche Inhalte in neun verschiedenen Kategorien zu erkennen, darunter Pornografie, Hassreden, Gewalt, gefährliche Aktivitäten und persönlich identifizierbare Informationen.