Microsoft a récemment lancé un nouveau service cloud appelé Azure AI Content Safety, conçu pour aider ses clients à détecter et à filtrer les contenus nocifs générés par l'IA sur leurs plateformes.
Ce service peut analyser des contenus de différents formats, tels que du texte et des images, et identifier les parties considérées comme "offensantes", "à risque" ou "indésirables" par Microsoft. Cela inclut notamment les blasphèmes, la violence, les contenus sanglants et les contenus pour adultes.
Le service attribue un score de gravité pour évaluer le niveau de dangerosité du contenu et prend en charge plusieurs langues. Il permet également d'identifier la source du contenu grâce à l'intégration de métadonnées.
Le service fonctionne selon un modèle de paiement à l'utilisation.
Selon les analyses du secteur, cette initiative démontre la volonté de Microsoft de renforcer la supervision de ses services d'IA afin de prévenir les abus et les risques éthiques.


