Microsoft précise que ses services d’IA ne sauraient être perçus comme fiables
Le 16 août à 17h53
4 min
IA et algorithmes
IA
« Microsoft modifie les petits caractères pour avertir tout le monde de ne pas prendre son IA au sérieux », titre The Register, qui a repéré, dans la mise à jour à venir des conditions de contrat de services Microsoft, publiée le 30 juillet et qui entreront en vigueur le 30 septembre, trois changements relatifs à ses Services d'IA.
Ils rappellent que les contenus générés par des IA ne sauraient être présumés fiables, exonèrent Microsoft de son éventuelle responsabilité en matière de réclamation au sujet de la reproduction de contenu copyrighté, et proscrivent le fait d'effacer les identifiants indiquant qu'un contenu a été généré par une IA.
La version en vigueur ne comporte en effet que cinq paragraphes, contre huit dans la version à venir. Le premier rajout précise que « les services d'IA ne sont pas conçus, prévus pour ou destinés à être utilisés comme des substituts aux conseils de professionnels ».
Le second, relatif à la « Propriété du Contenu », souligne que « Microsoft ne revendique pas la propriété de tout contenu que vous fournissez, publiez, saisissez, soumettez ou recevez des Services d'IA (y compris les commentaires et suggestions) » :
« Vous devrez prendre vos propres décisions quant aux droits de propriété intellectuelle dont vous disposez sur le contenu de sortie et sa facilité d'utilisation, en tenant compte, entre autres, de vos scénarios d'utilisation et des lois de la juridiction concernée. Vous garantissez et déclarez que vous possédez ou contrôlez de toute autre manière tous les droits sur votre contenu, comme décrit dans les présentes Conditions, y compris, sans s'y limiter, tous les droits nécessaires pour que vous puissiez fournir, publier, télécharger, saisir ou soumettre le contenu. »
La version actuelle relève par ailleurs déjà que, en matière de recours par des tiers, « Vous êtes seul(e) responsable de la réponse à toute réclamation de tiers concernant Votre utilisation des services IA conformément aux lois en vigueur (y compris, mais sans s'y limiter, la violation des droits d'auteur ou d'autres réclamations relatives au contenu produit lors de Votre utilisation des services IA) ».
Le troisième rajout a trait aux « Identifiants de contenu » et indique que « Microsoft stocke des informations sur sa création et associe ces informations et le contenu à un identifiant de contenu », laissant entendre que les contenus générés par ses IA seront tatoués de sorte de pouvoir être identifiables comme tels. C'est d'ailleurs l'une des exigences du règlement sur l’intelligence artificielle (AI Act), entré en vigueur le 1er août 2024 et applicable à partir du 2 août 2026 :
« Vous ne pouvez pas créer de contenu dans le but de supprimer ou de modifier les identifiants de contenu ou d'autres méthodes, marques ou signaux de provenance indiquant qu'un résultat a été généré par les Services d'IA, ni utiliser les Services d'IA de toute autre manière pour créer du contenu dans le but d'induire d'autres personnes en erreur sur le fait qu'une sortie a été générée par des services d'IA. »
La mise à jour indique par ailleurs que les clients Xbox ne doivent pas s'attendre à une confidentialité de la part de ses partenaires, dès lors que « les plateformes tierces autres que Xbox peuvent demander aux utilisateurs de partager leur contenu et leurs données pour jouer aux jeux de Xbox Game Studio et que ces plateformes tierces peuvent suivre et partager vos données, sous réserve de conditions ».
Le 16 août à 17h53
Commentaires (26)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/08/2024 à 18h02
Le 16/08/2024 à 18h37
Le 17/08/2024 à 06h30
Modifié le 17/08/2024 à 14h01
Vous avez dit cynisme ? J'aurais dit libéralisme économique.
Modifié le 17/08/2024 à 15h43
Fixed
Le 16/08/2024 à 18h51
Le 17/08/2024 à 04h01
Le 17/08/2024 à 10h55
Le petit disclaimer en dessous de chaque prompt n'avait donc pas été placé pour rien depuis un an.
Un élément qui serait intéressant de vérifier : dans Azure OpenAI Service, le client pouvait demander, moyennant justification et sûrement négociation avec l'éditeur, de sortir du dispositif de modération intégré. En effet, cela obligeait à ce que les données traitées par le modèle à cet instant soient analysées par Microsoft pour ne pas produire de contenus interdits par le service. Cette possibilité était proposée dans le cas où le client justifiait d'une confidentialité absolue des données (oui, je sais, confidentialité et Cloud sont antinomiques, mais là n'est pas la question) et donc qu'elles ne devaient pas faire l'objet de traitement intermédiaire.
La question est donc : Microsoft permettrait-il de débrayer ce qui est une obligation légale en rognant sur la confidentialité du traitement ? Car même si c'est juste une empreinte, des metadata ou que sais-je derrière et non la donnée exacte générée, il y a toujours un risque de fuite côté éditeur (vu que c'est lui qui va la conserver et pas le client) et de possibilité de la reconstituer ou de l'extrapoler.
Le 17/08/2024 à 12h07
Le 17/08/2024 à 15h14
Le 17/08/2024 à 16h41
Je ne vois que deux lectures quant au titre, soit sur la "qualité" des réponses (par rapport au point i.), soit par rapport à la proprieté de la donnée (par rapport au point vi.)
Sur le premier point, cela veut dire que Copilot ne peut remplacer du "conseil", pas que le système n'est pas fiable. Certaines professions sont réglementées (droit, médecine ...), et Copilot (en tant qu'assistant AI générique) n'a pas vocation à les remplacer. N'oublions pas que dans certains pays, il faut préciser de ne pas mettre un chien dans un micro-onde.
Si, à la rigueur, le titre se réfère plutôt au second point, je ne vois pas en quoi cela met en doute sa fiabilité.
Si le client fourni des données, elles sont censées lui appartenir.
Si le système génère des données, elles proviennent des systèmes d'OpenAI. Microsoft n'ajoute que des filtres / metaprompts pour apporter des couches de protection supplémentaire, mais ne détient pas l'IP des modèles.
Par contre, contrairement à ce qu'affirme The Register, Microsoft prend au sérieux ses solutions. Sinon, pourquoi le programme "Copilot/Customer Copyright Commitment" existerait ?
Modifié le 17/08/2024 à 18h45
On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.
L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.
C'est l'idée derrière le mot « assistant » pour ces services en général. Ils apportent une aide à une tâche donnée, mais leur travail n'est pas à utiliser tel quel.
Le 18/08/2024 à 11h38
Encore une fois, c'est à la discrétion du client. Si un client veut utiliser un assistant générique pour executer ces actions, il en a toute la lattitude; quand bien même l'outil ne serait pas adapté.
En désaccord profond sur cette phrase.
Microsoft ne dit pas que Copilot ne remplace pas un professionnel dans le MSA, mais qu'il ne remplace pas le "conseil professionel". La différence est importante, surtout dans un contrat.
Je ne vois aucun point qui parle de la "fiabilité" dans les points du MSA.
Encore une fois, c'est au client de décider comment il souhaite utiliser ces solutions. Le MSA lié par l'article à l'origine de la brève n'a pas vocation à régir ces utilisations.
Modifié le 20/08/2024 à 21h02
Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller. Après, si c'est purement l'aspect juridique qui t'intéresse, je ne pense pas que l'un de nous puisse définir les cas d'utilisation. Même les juges et avocats ne savent pas d'ailleurs vu que au final ça dépendra des instenses qui vont juger les cas.
Et en bref : on est loin d'un titre putaclic, vu que tu es à cheval sur les mots, la définition de putaclic en est loin ici.
Le 20/08/2024 à 21h21
Toujours faux. Les "AI Services" sont pas designés pour donner du conseil professionnel. Pour le reste, il appartient au client de définir quel niveau de crédibilité il apporte aux éléments générés.
étonnament, clubic a sorti un article plus qualitatif, qui devrait t'aider à comprendre un peu plus de quoi on parle : https://www.clubic.com/actualite-535103-microsoft-bat-le-rappel-l-ia-ne-doit-pas-remplacer-les-conseils-humains-surtout-dans-le-cadre-de-la-sante.html
Le 20/08/2024 à 21h44
Le titre c'est « Microsoft précise que ses services d’IA ne sauraient être perçus comme fiables » donc on parle de perception vis à vis des clients justement, mais le choix final leur appartient toujours. Donc le titre serait juste et cohérent ?
Je viens de lire Clubic, ça ne me fait pas penser à autre chose. Et tu as lu la source de Clubic : Techradar, qui titre "[...] to remind users its AI services should not be taken too seriously" ?
Le 18/08/2024 à 21h39
"C'est incroyable, les services d'IA de Microsoft sont aussi fiables que les autres"
Le putaclic ne cite pas de référence, permet d'avoir plusieurs lectures du même titre, laisse planner un doute sur ce qu'on va trouver, ne quantifie rien, créer un sentiment d'envie de lire la suite
- du style : "Incroyable, même l'armée a été éblouie par cette lampe révolutionnaire..."
Au lieu de : "lampe de poche 15 lumens/1.5 volts"
😁
Le 19/08/2024 à 09h26
Modifié le 19/08/2024 à 18h44
Dans le dernier titre, on pourrait dire dans l'article que tous les services des LLM ne sont pas fiables.
Le 17/08/2024 à 15h33
Du coup j'ai imaginé le Pape, accompagné de ses équivalents dans toutes les autres religions (dés)organisées qui, atteints tout d'un coup par une énOooormissime crise d'honnêteté pathologique aiguë, se mettraient tout d'un coup à déclamer :
"Ne croyez surtout pas un mot de tout ça, c'est de l'arnaque !"
Le 19/08/2024 à 12h31
Le 19/08/2024 à 01h23
Bien utilisé, quand on n'est ni développeur, ni graphiste, ni comptable, etc... Ça aide énormément.
Le 19/08/2024 à 18h46
Le 19/08/2024 à 20h09
J'ai travaillé avec pour développer une appli Web simple basée Javascript pour avoir un formulaire interactif et faire deux trois trucs sur une image. Au fil des prompts, il fait le taff, il pond le code entier, tout va bien. Il propose même des évolutions par lui-même, très intéressant.
Puis, à un moment, ce fut le drame : il ne me proposait plus que des snippets de code, je ne savais pas où je devais les mettre. Je ne connais rien en JS.
Puis le drame suivant arriva lui aussi : le code ne fonctionnait plus. J'étais perdu, je lui demandait de l'aide, il changeait des trucs, ça marchait toujours pas.
Expérience inverse avec du Python, un langage dont je maîtrise mieux les rudiments : c'est un excellent assistant pour pisser des trames de base qu'on peut ensuite améliorer.
Je le répète tout le temps ici : l'IA générative est un stagiaire. On ne lui donne pas les clés de sa prod et on ne pousse pas son code en prod. Les chefs qui pensent l'inverse ne feront que du darwinisme entrepreneurial, rien de plus.
Le 20/08/2024 à 21h16
Au pif, je n'avais pas touché du CSS depuis 15 ans... J'ai pu modifier tout un site à ma convenance, avec les quelques conseils et explications sur le code existant, et en expliquant ce que je voulais chatgpt m'indiquait les valeurs possibles.
Et des exemples comme ça, j'en ai eu pas mal aussi pour la gestion de base de donnée, des scripts, un peu de code... :-)
Le 21/08/2024 à 07h38
Par contre, quand on ne maîtrise rien, ça sert à que dalle. Le seul moyen pour que l'IA générative devienne "prof" (et encore, aujourd'hui je ne l'estime pas capable de l'être) serait qu'elle fasse d'abord passer un examen à la personne pour connaître son niveau. J'avais beau dire à Copilot que je n'y connaissais rien en JS, il proposait des suggestions sous-entendant que je savais quoi en faire malgré les explications de code à priori simples. Parce qu'il a été contextualisé ainsi.