Microsoft ajoute des garde-fous à son outil d’IA générative Designer

Microsoft ajoute des garde-fous à son outil d’IA générative Designer

Microsoft ajoute des garde-fous à son outil d’IA générative Designer

Alors que la publication d’images pornographiques générées par IA de l’artiste Taylor Swift alerte la toile, le média 404 démontre qu'elles ont été créées à l’aide de Microsoft Designer. Depuis, l’entreprise déclare avoir ajouté des mécanismes de protection spécifiques.

Au média, la société indique que son code de conduite interdit d’utiliser ses outils pour créer des contenus « pour adulte » ou des contenus intimes non consensuels, et que « les tentatives répétées de créer des contenus contraire à nos règlements peuvent se solder par la perte de l’accès à nos services ».

Microsoft indique par ailleurs que de « grandes équipes » travaillent à créer des outils cohérents avec ses principes d’IA éthiques, notamment pour développer des outils de filtrage, du monitoring en temps réel et de la détection de mésusage de ses outils.

Rappelons tout de même que, si elle a gardé un « Bureau de l’IA responsable », l’entreprise a licencié l'équipe spécifiquement dédiée à l’éthique de l’IA en mars 2023.

Commentaires (11)


Le service avait déjà des filtres intégrés, mais comme tout système automatisé, c'est imparfait. Après, c'est de l'IA qui contrôle ce que le traitement d'une autre IA retourne... Donc le risque aussi est que l'un ait un trou dans la raquette.

Il est d'ailleurs possible de demander à Microsoft de ne pas appliquer ces filtres, mais pour ça il faut le justifier (données hyper confidentielles, etc).
les tentatives répétées de créer des contenus contraire à nos règlements peuvent se solder par la perte de l’accès à nos services.


Aujourd'hui c'est la création d'image.
Demain ca sera la création de texte.
Après demain ca sera la création de code.

:ouioui:
Et si un humain, très bon en dessin, fait un croquis porno hyper réaliste de Taylor, c'est illégal ?
On interdira quoi ? Les crayons ou directement la pensée ?
La même réponse qu'à chaque fois : c'est pas tant la création de "l'œuvre" qui est illégale/problématique, c'est sa diffusion.

Arkeen

La même réponse qu'à chaque fois : c'est pas tant la création de "l'œuvre" qui est illégale/problématique, c'est sa diffusion.
Donc c'est pas la peine de massacrer les IA.
Il suffit de taper comme d'habitude sur les plateformes les plus populaires, et les gens qui veulent la liberté de voir et partager ça peuvent se réfugier sur des petites plateformes plus confidentielles et/ou hébergées hors d'atteinte des censeurs occidentaux.

D'ailleurs c'est tout à fait juste ce que tu dis, parce que des fake porno de stars il y en a des tonnes chaque jour, il y a des sites complètement spécialisés là-dedans, et on en entend pas parler. Avant il fallait envoyer des paparazzis, planquer 3 jours dans un arbre pour apercevoir un bout de sein, maintenant tu fais un prompt pour une IA et t'as toute une série de nudes. Ça manque un peu d’authenticité mais c'est pratique, le monde moderne quoi.
Ça a juste rien à faire sur des plateformes trop grand public. Chaque chose a son contexte.

NE0

Donc c'est pas la peine de massacrer les IA.
Il suffit de taper comme d'habitude sur les plateformes les plus populaires, et les gens qui veulent la liberté de voir et partager ça peuvent se réfugier sur des petites plateformes plus confidentielles et/ou hébergées hors d'atteinte des censeurs occidentaux.

D'ailleurs c'est tout à fait juste ce que tu dis, parce que des fake porno de stars il y en a des tonnes chaque jour, il y a des sites complètement spécialisés là-dedans, et on en entend pas parler. Avant il fallait envoyer des paparazzis, planquer 3 jours dans un arbre pour apercevoir un bout de sein, maintenant tu fais un prompt pour une IA et t'as toute une série de nudes. Ça manque un peu d’authenticité mais c'est pratique, le monde moderne quoi.
Ça a juste rien à faire sur des plateformes trop grand public. Chaque chose a son contexte.
Grand public ou petit public, la diffusion d'une image d'une personne sans son consentement peut être punie par la loi, d'autant plus quand ce sont des images dégradantes.

Encore une fois, ce n'est pas la technologie (ici l'IA) le problème, mais l'humain qui l'utilise.

Par contre, une IA, c'est plus proche de l'avion que de la fourchette : il vaut mieux la réguler car le risque de gros dégâts induits par son utilisation est non négligeable, et le danger beaucoup plus grand.

potn

Grand public ou petit public, la diffusion d'une image d'une personne sans son consentement peut être punie par la loi, d'autant plus quand ce sont des images dégradantes.

Encore une fois, ce n'est pas la technologie (ici l'IA) le problème, mais l'humain qui l'utilise.

Par contre, une IA, c'est plus proche de l'avion que de la fourchette : il vaut mieux la réguler car le risque de gros dégâts induits par son utilisation est non négligeable, et le danger beaucoup plus grand.
Ce n'est pas une image d'elle c'est une image synthétique qui lui ressemble, comme un dessin.

NE0

Ce n'est pas une image d'elle c'est une image synthétique qui lui ressemble, comme un dessin.
Un deepfake porno, c'est mettre sa tête sur un corps nu à l'aide d'une IA qui ajuste bien les 2, c'est un montage et ça rentre bien dans le cadre du droit à l'image puisque c'est la vraie tête de la personne.

NE0

Ce n'est pas une image d'elle c'est une image synthétique qui lui ressemble, comme un dessin.
Un dessin, ça se voit en un coup d'œil que ce n'est pas du "vrai", contrairement à un deepfake. C'est l'énorme différence.

Si je diffusais un dessin de toi dans une chambre avec une autre personne que ta compagne/ton compagnon, tu imagines bien que ça aura nettement moins d'impact que si c'est un deepfake que je diffuse.

potn

Un dessin, ça se voit en un coup d'œil que ce n'est pas du "vrai", contrairement à un deepfake. C'est l'énorme différence.

Si je diffusais un dessin de toi dans une chambre avec une autre personne que ta compagne/ton compagnon, tu imagines bien que ça aura nettement moins d'impact que si c'est un deepfake que je diffuse.
Uniquement parce que les gens sont hystériques avec l'IA parce que c'est nouveau.
Dans quelques années ça ne fera pas plus de vagues qu'un dessin ou un mauvais photoshop.

D'ailleurs on nous avait chanté des histoires apocalyptiques à base de "on ne sera plus capable de discerner le vrai du faux", or la réalité est que ces images ont été diffusées et clairement comprises comme étant des fake de Taylor Swift faits par IA, et il n'y a eu absolument aucune ambiguïté prétendant qu'elle aurait été réellement nue à un match de football américain.

NE0

Uniquement parce que les gens sont hystériques avec l'IA parce que c'est nouveau.
Dans quelques années ça ne fera pas plus de vagues qu'un dessin ou un mauvais photoshop.

D'ailleurs on nous avait chanté des histoires apocalyptiques à base de "on ne sera plus capable de discerner le vrai du faux", or la réalité est que ces images ont été diffusées et clairement comprises comme étant des fake de Taylor Swift faits par IA, et il n'y a eu absolument aucune ambiguïté prétendant qu'elle aurait été réellement nue à un match de football américain.
Chiche, tu me donne une photo de toi et je peux en faire ce que je veux sur Internet ?... Ou tu préfères que je te fasses un dessin ? 😜
Modifié le 02/02/2024 à 00h15
Fermer