Alors que la publication d’images pornographiques générées par IA de l’artiste Taylor Swift alerte la toile, le média 404 démontre qu'elles ont été créées à l’aide de Microsoft Designer. Depuis, l’entreprise déclare avoir ajouté des mécanismes de protection spécifiques.
Au média, la société indique que son code de conduite interdit d’utiliser ses outils pour créer des contenus « pour adulte » ou des contenus intimes non consensuels, et que « les tentatives répétées de créer des contenus contraire à nos règlements peuvent se solder par la perte de l’accès à nos services ».
Microsoft indique par ailleurs que de « grandes équipes » travaillent à créer des outils cohérents avec ses principes d’IA éthiques, notamment pour développer des outils de filtrage, du monitoring en temps réel et de la détection de mésusage de ses outils.
Rappelons tout de même que, si elle a gardé un « Bureau de l’IA responsable », l’entreprise a licencié l'équipe spécifiquement dédiée à l’éthique de l’IA en mars 2023.
Commentaires (11)
#1
Il est d'ailleurs possible de demander à Microsoft de ne pas appliquer ces filtres, mais pour ça il faut le justifier (données hyper confidentielles, etc).
#2
Aujourd'hui c'est la création d'image.
Demain ca sera la création de texte.
Après demain ca sera la création de code.
#3
On interdira quoi ? Les crayons ou directement la pensée ?
#3.1
#3.2
Il suffit de taper comme d'habitude sur les plateformes les plus populaires, et les gens qui veulent la liberté de voir et partager ça peuvent se réfugier sur des petites plateformes plus confidentielles et/ou hébergées hors d'atteinte des censeurs occidentaux.
D'ailleurs c'est tout à fait juste ce que tu dis, parce que des fake porno de stars il y en a des tonnes chaque jour, il y a des sites complètement spécialisés là-dedans, et on en entend pas parler. Avant il fallait envoyer des paparazzis, planquer 3 jours dans un arbre pour apercevoir un bout de sein, maintenant tu fais un prompt pour une IA et t'as toute une série de nudes. Ça manque un peu d’authenticité mais c'est pratique, le monde moderne quoi.
Ça a juste rien à faire sur des plateformes trop grand public. Chaque chose a son contexte.
#3.3
Encore une fois, ce n'est pas la technologie (ici l'IA) le problème, mais l'humain qui l'utilise.
Par contre, une IA, c'est plus proche de l'avion que de la fourchette : il vaut mieux la réguler car le risque de gros dégâts induits par son utilisation est non négligeable, et le danger beaucoup plus grand.
#3.4
#3.5
#3.6
Si je diffusais un dessin de toi dans une chambre avec une autre personne que ta compagne/ton compagnon, tu imagines bien que ça aura nettement moins d'impact que si c'est un deepfake que je diffuse.
#3.7
Dans quelques années ça ne fera pas plus de vagues qu'un dessin ou un mauvais photoshop.
D'ailleurs on nous avait chanté des histoires apocalyptiques à base de "on ne sera plus capable de discerner le vrai du faux", or la réalité est que ces images ont été diffusées et clairement comprises comme étant des fake de Taylor Swift faits par IA, et il n'y a eu absolument aucune ambiguïté prétendant qu'elle aurait été réellement nue à un match de football américain.
#3.8