Sur Azure OpenAI, les images générées par DALL-E ont désormais un filigrane

Microsoft a commencé l’année dernière à insérer des filigranes dans certains contenus. Le processus a démarré avec les voix générées par Azure AI Speech, présenté lors de la conférence Ignite 2023. L’éditeur passe à la vitesse supérieure avec les images générées par DALL-E dans Azure OpenAI.

Le filigrane, disponible en préversion, comporte des informations réparties dans plusieurs champs. Dans « Description », on trouve ainsi la mention « AI Generated Image ». « softwareAgent » contient la valeur « Azure OpenAI DALL-E » pour attester de sa provenance. Quant à « When », il comporte l’horodatage de la création du contenu.

Ces informations sont insérées dans un manifeste faisant partie intégrante de l’image. Ce manifeste est signé cryptographiquement par un certificat remontant jusqu’à Azure OpenAI. Le filigrane est invisible à l’œil et n’est pas altéré par des opérations comme le redimensionnement ou le recadrage.

Impossible bien sûr de ne pas penser à des techniques simples comme la capture d’écran pour récupérer le contenu sans son filigrane. Toutefois, l’objectif est d’abord d’assurer une circulation de confiance entre un nombre croissant d’acteurs.

Microsoft travaille pour rappel au sein de la Coalition for Content Provenance and Authenticity (C2PA) avec des partenaires comme Adobe, Arm, Intel, ou encore la BBC et la plateforme de vérification Truepic.

Commentaires (3)


Le filigrane ne sert pas à grand chose, vu le rendu photoréaliste médiocre de Copilot / Dall-E. On reconnait tout de suite ces images, à mi-chemin entre un dessin animé et une photo. Mes rendus sur Flux sont à des années lumières de ce que propose Copilot. On peut avoir un vrai doute sur la réalité des rendus Flux (et dans une moindre mesure Midjourney, qui est en deçà sur l'aspect photo).
Modifié le 25/09/2024 à 10h34

Historique des modifications :

Posté le 25/09/2024 à 10h33


Le filigrane ne sert pas à grand chose, vu le photo photoréaliste médiocre de Copilot / Dall-E. On reconnait tout de suite ces rendus, à mi-chemin entre dessin animé et photos. Mes rendus sur Flux sont à des années lumières de ce que propose Copilot. On peut avoir un vrai doute sur la réalité des rendus Flux, contrairement à Copilot.

Le rendu va s'améliorer.
L'IA permettra potentiellement de ne modifier que certains détails d'une vraie photo.

C'est bien qu'il soit possible de certifier ou non qu'un contenu vient d'une IA.
L'idéal serait une interface/API de validation d'images générées qu'on puisse solliciter directement depuis les navigateurs/applis.

Ca permettrait au législateurs d'imposer potentiellement l'affichage d'un avertissement sur ces contenus.
Si c’est un filigrane et qu’il est suffisamment bien implémenté alors je ne comprends pas comment une capture d’écran pourrait l’altérer ?
Fermer