Chez Microsoft, coup d’envoi d’Azure AI Content Safety pour la détection des contenus dangereux
Le 18 octobre 2023 à 05h00
2 min
Logiciel
Logiciel
Microsoft a annoncé la disponibilité générale d’Azure AI Content Safety. Il s’agit d’une plateforme basée sur des modèles de langage et de vision conçue pour aider à détecter les contenus haineux, violents, sexuels et d’automutilation.
L’objectif ? Lorsque les modèles détectent un contenu potentiellement dangereux, ils le marquent avec un score de gravité estimé. Les entreprises et organisations l’utilisant peuvent alors adapter le service pour bloquer ou signaler le contenu en fonction de leurs politiques.
Le nouveau service a notamment été utilisé par le ministère de l’Éducation d’Australie-Méridionale pour créer un chatbot appelé EdChat, presque finalisé. Ses fonctions de sécurité bloquent les requêtes inappropriées et filtrent les réponses dangereuses, ce qui permet aux enseignants de se concentrer sur les aspects pédagogiques de la technologie au lieu de contrôler le contenu. Il a été testé par 1 500 élèves et 150 enseignants.
Comme toujours avec ce type d’outil automatisé, l’humain a le dernier mot. Le service n’est pas présenté comme pouvant régler tous les problèmes. Microsoft prend bien soin de parler d’aide à la gestion.
L’entreprise a également annoncé qu’Azure AI Content Safety était désormais indépendant. Les clients peuvent donc l’utiliser pour le contenu généré par l’IA à partir de modèles open-source et d’autres entreprises, ainsi que pour celui généré par l’utilisateur.
Le 18 octobre 2023 à 05h00
Commentaires (2)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 18/10/2023 à 05h25
C’est, pour le coup, ce que je trouve de réussi dans la comm’ de Microsoft sur le sujet. Ils évitent de vendre ces outils en trucs magiques qui remplacent l’humain. C’est la raison du terme “Copilot” pour les produits commerciaux qui l’intègre.
D’ordre générale, l’IA dans son avancement actuel doit toujours être considérée comme une assistante, une aide, voire un stagiaire.
Le 18/10/2023 à 13h36
Qui décide de ce qui est potentiellement dangereux? La notion de potentiellement dangereux est très discutable et peux conduire rapidement l IA à être considéré comme un vieux ou jeune réac ^^