Microsoft précise que ses services d’IA ne sauraient être perçus comme fiables

« Microsoft modifie les petits caractères pour avertir tout le monde de ne pas prendre son IA au sérieux », titre The Register, qui a repéré, dans la mise à jour à venir des conditions de contrat de services Microsoft, publiée le 30 juillet et qui entreront en vigueur le 30 septembre, trois changements relatifs à ses Services d'IA.

Ils rappellent que les contenus générés par des IA ne sauraient être présumés fiables, exonèrent Microsoft de son éventuelle responsabilité en matière de réclamation au sujet de la reproduction de contenu copyrighté, et proscrivent le fait d'effacer les identifiants indiquant qu'un contenu a été généré par une IA.

La version en vigueur ne comporte en effet que cinq paragraphes, contre huit dans la version à venir. Le premier rajout précise que « les services d'IA ne sont pas conçus, prévus pour ou destinés à être utilisés comme des substituts aux conseils de professionnels ».

Le second, relatif à la « Propriété du Contenu », souligne que « Microsoft ne revendique pas la propriété de tout contenu que vous fournissez, publiez, saisissez, soumettez ou recevez des Services d'IA (y compris les commentaires et suggestions) » :

« Vous devrez prendre vos propres décisions quant aux droits de propriété intellectuelle dont vous disposez sur le contenu de sortie et sa facilité d'utilisation, en tenant compte, entre autres, de vos scénarios d'utilisation et des lois de la juridiction concernée. Vous garantissez et déclarez que vous possédez ou contrôlez de toute autre manière tous les droits sur votre contenu, comme décrit dans les présentes Conditions, y compris, sans s'y limiter, tous les droits nécessaires pour que vous puissiez fournir, publier, télécharger, saisir ou soumettre le contenu. »

La version actuelle relève par ailleurs déjà que, en matière de recours par des tiers, « Vous êtes seul(e) responsable de la réponse à toute réclamation de tiers concernant Votre utilisation des services IA conformément aux lois en vigueur (y compris, mais sans s'y limiter, la violation des droits d'auteur ou d'autres réclamations relatives au contenu produit lors de Votre utilisation des services IA) ».

Le troisième rajout a trait aux « Identifiants de contenu » et indique que « Microsoft stocke des informations sur sa création et associe ces informations et le contenu à un identifiant de contenu », laissant entendre que les contenus générés par ses IA seront tatoués de sorte de pouvoir être identifiables comme tels. C'est d'ailleurs l'une des exigences du règlement sur l’intelligence artificielle (AI Act), entré en vigueur le 1er août 2024 et applicable à partir du 2 août 2026 :

« Vous ne pouvez pas créer de contenu dans le but de supprimer ou de modifier les identifiants de contenu ou d'autres méthodes, marques ou signaux de provenance indiquant qu'un résultat a été généré par les Services d'IA, ni utiliser les Services d'IA de toute autre manière pour créer du contenu dans le but d'induire d'autres personnes en erreur sur le fait qu'une sortie a été générée par des services d'IA. »

La mise à jour indique par ailleurs que les clients Xbox ne doivent pas s'attendre à une confidentialité de la part de ses partenaires, dès lors que « les plateformes tierces autres que Xbox peuvent demander aux utilisateurs de partager leur contenu et leurs données pour jouer aux jeux de Xbox Game Studio et que ces plateformes tierces peuvent suivre et partager vos données, sous réserve de conditions ».

Commentaires (26)


Si on génère un contenu via l’ia Microsoft mais que ce contenu est en fait une copie copirightée du fait que Microsoft a pu comme les autres big tech entraîner ses modèles sur des données non libres et copyrightees, alors on est responsable de ce contenu et pas Microsoft ?
C'est du moins ce que Microsoft souhaite. Ça ne présume en rien de ce qu'un tribunal pourrait décider.
C'est marrant ça semble aller contre ce qui était offert avec Github Copilot.

xlp

C'est marrant ça semble aller contre ce qui était offert avec Github Copilot.
C'est surtout un fournisseur de service qui cherche à se déresponsabiliser du produit qu'il vend, tout en continuant à le vendre.

Vous avez dit cynisme ? J'aurais dit libéralisme économique.
Modifié le 17/08/2024 à 14h01

Historique des modifications :

Posté le 17/08/2024 à 14h00


C'est surtout un fournisseur de service qui cherche à se déresponsabiliser du produit qu'il vend.

Posté le 17/08/2024 à 14h00


C'est surtout un fournisseur de service qui cherche à se déresponsabiliser du produit qu'il vend, tout en continuant à le vendre.

Pas "copyrighté", "co-piraté".

Fixed :cap:
Modifié le 17/08/2024 à 15h43

Historique des modifications :

Posté le 17/08/2024 à 15h42


Pas "copyrighté", "co-piraté". :cap:

"pour avertir tout le monde de ne pas prendre son IA au sérieux"


ou plutôt "n'utilisez pas notre IA, elle ne sert à rien" 🤷🏻‍♀️
Bing non plus n'est pas très fiable. On a l'habitude maintenant.
Les bras m'en tombent.

Le petit disclaimer en dessous de chaque prompt n'avait donc pas été placé pour rien depuis un an.
Le troisième rajout a trait aux « Identifiants de contenu » et indique que « Microsoft stocke des informations sur sa création et associe ces informations et le contenu à un identifiant de contenu », laissant entendre que les contenus générés par ses IA seront tatoués de sorte de pouvoir être identifiables comme tels.


Un élément qui serait intéressant de vérifier : dans Azure OpenAI Service, le client pouvait demander, moyennant justification et sûrement négociation avec l'éditeur, de sortir du dispositif de modération intégré. En effet, cela obligeait à ce que les données traitées par le modèle à cet instant soient analysées par Microsoft pour ne pas produire de contenus interdits par le service. Cette possibilité était proposée dans le cas où le client justifiait d'une confidentialité absolue des données (oui, je sais, confidentialité et Cloud sont antinomiques, mais là n'est pas la question) et donc qu'elles ne devaient pas faire l'objet de traitement intermédiaire.

La question est donc : Microsoft permettrait-il de débrayer ce qui est une obligation légale en rognant sur la confidentialité du traitement ? Car même si c'est juste une empreinte, des metadata ou que sais-je derrière et non la donnée exacte générée, il y a toujours un risque de fuite côté éditeur (vu que c'est lui qui va la conserver et pas le client) et de possibilité de la reconstituer ou de l'extrapoler.
Microsoft précise que ses services d’IA ne sauraient être perçus comme fiables


ça c'est du titre putaclic comme on en voit rarement :]
En quoi le titre exaggère la réalité ?

Pinailleur

En quoi le titre exaggère la réalité ?
En me basant sur le prochain MSA : https://www.microsoft.com/en-us/servicesagreement/upcoming#14r_CopilotAIExperiences

Je ne vois que deux lectures quant au titre, soit sur la "qualité" des réponses (par rapport au point i.), soit par rapport à la proprieté de la donnée (par rapport au point vi.)
Assistive AI. AI services are not designed, intended, or to be used as substitutes for professional advice.


Sur le premier point, cela veut dire que Copilot ne peut remplacer du "conseil", pas que le système n'est pas fiable. Certaines professions sont réglementées (droit, médecine ...), et Copilot (en tant qu'assistant AI générique) n'a pas vocation à les remplacer. N'oublions pas que dans certains pays, il faut préciser de ne pas mettre un chien dans un micro-onde.


Si, à la rigueur, le titre se réfère plutôt au second point, je ne vois pas en quoi cela met en doute sa fiabilité.
Ownership of Content. Microsoft doesn't claim ownership of any content you provide, post, input, or submit to, or receive from, the AI services (including feedback and suggestions). You'll need to make your own determination regarding the intellectual property rights you have in output content and its usability, taking into account, among other things, your usage scenario(s) and the laws of the relevant jurisdiction. You warrant and represent that you own or otherwise control all of the rights to your content as described in these Terms including, without limitation, all the rights necessary for you to provide, post, upload, input, or submit the content.


Si le client fourni des données, elles sont censées lui appartenir.
Si le système génère des données, elles proviennent des systèmes d'OpenAI. Microsoft n'ajoute que des filtres / metaprompts pour apporter des couches de protection supplémentaire, mais ne détient pas l'IP des modèles.

Par contre, contrairement à ce qu'affirme The Register, Microsoft prend au sérieux ses solutions. Sinon, pourquoi le programme "Copilot/Customer Copyright Commitment" existerait ?

Myifee

En me basant sur le prochain MSA : https://www.microsoft.com/en-us/servicesagreement/upcoming#14r_CopilotAIExperiences

Je ne vois que deux lectures quant au titre, soit sur la "qualité" des réponses (par rapport au point i.), soit par rapport à la proprieté de la donnée (par rapport au point vi.)
Assistive AI. AI services are not designed, intended, or to be used as substitutes for professional advice.


Sur le premier point, cela veut dire que Copilot ne peut remplacer du "conseil", pas que le système n'est pas fiable. Certaines professions sont réglementées (droit, médecine ...), et Copilot (en tant qu'assistant AI générique) n'a pas vocation à les remplacer. N'oublions pas que dans certains pays, il faut préciser de ne pas mettre un chien dans un micro-onde.


Si, à la rigueur, le titre se réfère plutôt au second point, je ne vois pas en quoi cela met en doute sa fiabilité.
Ownership of Content. Microsoft doesn't claim ownership of any content you provide, post, input, or submit to, or receive from, the AI services (including feedback and suggestions). You'll need to make your own determination regarding the intellectual property rights you have in output content and its usability, taking into account, among other things, your usage scenario(s) and the laws of the relevant jurisdiction. You warrant and represent that you own or otherwise control all of the rights to your content as described in these Terms including, without limitation, all the rights necessary for you to provide, post, upload, input, or submit the content.


Si le client fourni des données, elles sont censées lui appartenir.
Si le système génère des données, elles proviennent des systèmes d'OpenAI. Microsoft n'ajoute que des filtres / metaprompts pour apporter des couches de protection supplémentaire, mais ne détient pas l'IP des modèles.

Par contre, contrairement à ce qu'affirme The Register, Microsoft prend au sérieux ses solutions. Sinon, pourquoi le programme "Copilot/Customer Copyright Commitment" existerait ?
Certaines professions ne sont pas réglementées, et pour autant Copilot n'a pas vocation à les remplacer.

On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.

L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.

C'est l'idée derrière le mot « assistant » pour ces services en général. Ils apportent une aide à une tâche donnée, mais leur travail n'est pas à utiliser tel quel.
Modifié le 17/08/2024 à 18h45

Historique des modifications :

Posté le 17/08/2024 à 18h44


Certaines professions ne sont pas réglementées, et pour autant Copilot n'a pas vocation à les remplacer.

On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.

L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.

Pinailleur

Certaines professions ne sont pas réglementées, et pour autant Copilot n'a pas vocation à les remplacer.

On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.

L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.

C'est l'idée derrière le mot « assistant » pour ces services en général. Ils apportent une aide à une tâche donnée, mais leur travail n'est pas à utiliser tel quel.
Certaines professions ne sont pas réglementées, et pour autant Copilot n'a pas vocation à les remplacer.


ça, c'est à la discrétion du client. Microsoft explique que Copilot ne remplace pas du "conseil professionel", tout simplement. Si le client veut remplacer des assistants de direction, des équipes de veille, du marketing ... par du Copilot, il en a la lattitude.
On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.


Encore une fois, c'est à la discrétion du client. Si un client veut utiliser un assistant générique pour executer ces actions, il en a toute la lattitude; quand bien même l'outil ne serait pas adapté.
L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.


En désaccord profond sur cette phrase.
Microsoft ne dit pas que Copilot ne remplace pas un professionnel dans le MSA, mais qu'il ne remplace pas le "conseil professionel". La différence est importante, surtout dans un contrat.
Je ne vois aucun point qui parle de la "fiabilité" dans les points du MSA.
C'est l'idée derrière le mot « assistant » pour ces services en général. Ils apportent une aide à une tâche donnée, mais leur travail n'est pas à utiliser tel quel.


Encore une fois, c'est au client de décider comment il souhaite utiliser ces solutions. Le MSA lié par l'article à l'origine de la brève n'a pas vocation à régir ces utilisations.

Myifee

Certaines professions ne sont pas réglementées, et pour autant Copilot n'a pas vocation à les remplacer.


ça, c'est à la discrétion du client. Microsoft explique que Copilot ne remplace pas du "conseil professionel", tout simplement. Si le client veut remplacer des assistants de direction, des équipes de veille, du marketing ... par du Copilot, il en a la lattitude.
On ne demanderait pas à Copilot de développer une fonctionnalité pour un site, puis le mettre en production, sans avoir de validation humaine sur le bon fonctionnement du code, sa maintenabilité et sa sécurité.


Encore une fois, c'est à la discrétion du client. Si un client veut utiliser un assistant générique pour executer ces actions, il en a toute la lattitude; quand bien même l'outil ne serait pas adapté.
L'inverse signifierai que Copilot est fiable pour pondre du code, mais comme le titre justement l'article, il ne doit pas être considéré comme fiable, et donc ne remplace pas un professionnel, comme le dite Microsoft.


En désaccord profond sur cette phrase.
Microsoft ne dit pas que Copilot ne remplace pas un professionnel dans le MSA, mais qu'il ne remplace pas le "conseil professionel". La différence est importante, surtout dans un contrat.
Je ne vois aucun point qui parle de la "fiabilité" dans les points du MSA.
C'est l'idée derrière le mot « assistant » pour ces services en général. Ils apportent une aide à une tâche donnée, mais leur travail n'est pas à utiliser tel quel.


Encore une fois, c'est au client de décider comment il souhaite utiliser ces solutions. Le MSA lié par l'article à l'origine de la brève n'a pas vocation à régir ces utilisations.
Je n'ai pas dit que la communication de Microsoft interdise au clients d'utiliser l'IA pour du code, bien sûr que ça reste la décision de chacun. Mais comme tu le dis bien, ils disent ne pas remplacer le « conseil professionnel ». Oui c'est important dans un contrat. Mais quand tu poses une question, c'est bien une demande de renseignement ou de conseil ? Si tu demandes du code, c'est un services de conseil pour une IA, donc tu rentres bien dans le cas de figure.

Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller. Après, si c'est purement l'aspect juridique qui t'intéresse, je ne pense pas que l'un de nous puisse définir les cas d'utilisation. Même les juges et avocats ne savent pas d'ailleurs vu que au final ça dépendra des instenses qui vont juger les cas.

Et en bref : on est loin d'un titre putaclic, vu que tu es à cheval sur les mots, la définition de putaclic en est loin ici.
Modifié le 20/08/2024 à 21h02

Historique des modifications :

Posté le 20/08/2024 à 21h01


Je n'ai pas dit que la communication de Microsoft interdise au clients d'utiliser l'IA pour du code, bien sûr que ça reste la décision de chacun. Mais comme tu le dis bien, ils disent ne pas remplacer le « conseil professionnel ». Oui c'est important dans un contrat. Mais quand tu poses une question, c'est bien une demande de renseignement ou de conseil ? Si tu demandes du code, c'est un services de conseil pour une IA, donc tu rentres bien dans le cas de figure.

Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller. Après, si c'est purement l'aspect juridique qui t'intéresse, je ne pense pas que l'un de nous puisse définir les cas d'utilisation. Même les juges et avocats ne savent pas d'ailleurs vu que au final ça dépendra des instenses qui vont juger les cas.

Et en bref : on est loin d'un titre putaclic, vu que tu es à cheval sur les mots, la définition de putaclic en est loin ici.

Pinailleur

Je n'ai pas dit que la communication de Microsoft interdise au clients d'utiliser l'IA pour du code, bien sûr que ça reste la décision de chacun. Mais comme tu le dis bien, ils disent ne pas remplacer le « conseil professionnel ». Oui c'est important dans un contrat. Mais quand tu poses une question, c'est bien une demande de renseignement ou de conseil ? Si tu demandes du code, c'est un services de conseil pour une IA, donc tu rentres bien dans le cas de figure.

Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller. Après, si c'est purement l'aspect juridique qui t'intéresse, je ne pense pas que l'un de nous puisse définir les cas d'utilisation. Même les juges et avocats ne savent pas d'ailleurs vu que au final ça dépendra des instenses qui vont juger les cas.

Et en bref : on est loin d'un titre putaclic, vu que tu es à cheval sur les mots, la définition de putaclic en est loin ici.
Conseil professionel != demander conseil à quelqu'un
Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller.


Toujours faux. Les "AI Services" sont pas designés pour donner du conseil professionnel. Pour le reste, il appartient au client de définir quel niveau de crédibilité il apporte aux éléments générés.

étonnament, clubic a sorti un article plus qualitatif, qui devrait t'aider à comprendre un peu plus de quoi on parle : https://www.clubic.com/actualite-535103-microsoft-bat-le-rappel-l-ia-ne-doit-pas-remplacer-les-conseils-humains-surtout-dans-le-cadre-de-la-sante.html

Myifee

Conseil professionel != demander conseil à quelqu'un
Cela ne change pas le fait que Copilot, avec ma phrase que tu désapprouve, n'est pas fiable pour conseiller.


Toujours faux. Les "AI Services" sont pas designés pour donner du conseil professionnel. Pour le reste, il appartient au client de définir quel niveau de crédibilité il apporte aux éléments générés.

étonnament, clubic a sorti un article plus qualitatif, qui devrait t'aider à comprendre un peu plus de quoi on parle : https://www.clubic.com/actualite-535103-microsoft-bat-le-rappel-l-ia-ne-doit-pas-remplacer-les-conseils-humains-surtout-dans-le-cadre-de-la-sante.html
L'IA n'est pas quelqu'un, et en l'occurence Copilot est vendu comme un service professionnel.

Le titre c'est « Microsoft précise que ses services d’IA ne sauraient être perçus comme fiables » donc on parle de perception vis à vis des clients justement, mais le choix final leur appartient toujours. Donc le titre serait juste et cohérent ? :ouioui:

Je viens de lire Clubic, ça ne me fait pas penser à autre chose. Et tu as lu la source de Clubic : Techradar, qui titre "[...] to remind users its AI services should not be taken too seriously" ?
Des vrais titres putaclic auraient été : "La nouvelle IA de Microsoft va vous étonner"
"C'est incroyable, les services d'IA de Microsoft sont aussi fiables que les autres"

Le putaclic ne cite pas de référence, permet d'avoir plusieurs lectures du même titre, laisse planner un doute sur ce qu'on va trouver, ne quantifie rien, créer un sentiment d'envie de lire la suite

- du style : "Incroyable, même l'armée a été éblouie par cette lampe révolutionnaire..."
Au lieu de : "lampe de poche 15 lumens/1.5 volts"
😁

Sbbtn

Des vrais titres putaclic auraient été : "La nouvelle IA de Microsoft va vous étonner"
"C'est incroyable, les services d'IA de Microsoft sont aussi fiables que les autres"

Le putaclic ne cite pas de référence, permet d'avoir plusieurs lectures du même titre, laisse planner un doute sur ce qu'on va trouver, ne quantifie rien, créer un sentiment d'envie de lire la suite

- du style : "Incroyable, même l'armée a été éblouie par cette lampe révolutionnaire..."
Au lieu de : "lampe de poche 15 lumens/1.5 volts"
😁
Où Microsoft précise que ces services ne sont pas fiables dans ce cas ?

Myifee

Où Microsoft précise que ces services ne sont pas fiables dans ce cas ?
C'est la subtilité du putaclic, raconter n'importe quoi et que ça ait l'air bien quand même.
Dans le dernier titre, on pourrait dire dans l'article que tous les services des LLM ne sont pas fiables.
Modifié le 19/08/2024 à 18h44

Historique des modifications :

Posté le 19/08/2024 à 18h42


C'est la subtilité du putaclic, raconter n'importe quoi et que ça ait l'air bien quand même.
Dans le dernier titre, on pourrait direbdsns l'article que tous les services des LLM ne sont pas fiables.

Tiens ça me rappelle un vieux texte Bouddhiste qui dit texto : "Ne croyez pas un mot de ce que je dis, expérimentez !"

Du coup j'ai imaginé le Pape, accompagné de ses équivalents dans toutes les autres religions (dés)organisées qui, atteints tout d'un coup par une énOooormissime crise d'honnêteté pathologique aiguë, se mettraient tout d'un coup à déclamer :

:windu: "Ne croyez surtout pas un mot de tout ça, c'est de l'arnaque !" :phiphi: :phiphi: :phiphi:
:top:
Il y a probablement une "IA" capable d'en générer une illustration :phibee:
Les IA actuelles sont des aides, pas des outils automatisés...
Bien utilisé, quand on n'est ni développeur, ni graphiste, ni comptable, etc... Ça aide énormément.
Oui mais si on est nul et que le LLM raconte ou fait n'importe quoi, comment on sait que c'est bien?
Pour avoir expérimenté par moi-même, aux débuts de GitHub Copilot Chat en fin 2023, je précise, pour un non développeur c'est inutile.

J'ai travaillé avec pour développer une appli Web simple basée Javascript pour avoir un formulaire interactif et faire deux trois trucs sur une image. Au fil des prompts, il fait le taff, il pond le code entier, tout va bien. Il propose même des évolutions par lui-même, très intéressant.

Puis, à un moment, ce fut le drame : il ne me proposait plus que des snippets de code, je ne savais pas où je devais les mettre. Je ne connais rien en JS.

Puis le drame suivant arriva lui aussi : le code ne fonctionnait plus. J'étais perdu, je lui demandait de l'aide, il changeait des trucs, ça marchait toujours pas.

Expérience inverse avec du Python, un langage dont je maîtrise mieux les rudiments : c'est un excellent assistant pour pisser des trames de base qu'on peut ensuite améliorer.

Je le répète tout le temps ici : l'IA générative est un stagiaire. On ne lui donne pas les clés de sa prod et on ne pousse pas son code en prod. Les chefs qui pensent l'inverse ne feront que du darwinisme entrepreneurial, rien de plus.

SebGF

Pour avoir expérimenté par moi-même, aux débuts de GitHub Copilot Chat en fin 2023, je précise, pour un non développeur c'est inutile.

J'ai travaillé avec pour développer une appli Web simple basée Javascript pour avoir un formulaire interactif et faire deux trois trucs sur une image. Au fil des prompts, il fait le taff, il pond le code entier, tout va bien. Il propose même des évolutions par lui-même, très intéressant.

Puis, à un moment, ce fut le drame : il ne me proposait plus que des snippets de code, je ne savais pas où je devais les mettre. Je ne connais rien en JS.

Puis le drame suivant arriva lui aussi : le code ne fonctionnait plus. J'étais perdu, je lui demandait de l'aide, il changeait des trucs, ça marchait toujours pas.

Expérience inverse avec du Python, un langage dont je maîtrise mieux les rudiments : c'est un excellent assistant pour pisser des trames de base qu'on peut ensuite améliorer.

Je le répète tout le temps ici : l'IA générative est un stagiaire. On ne lui donne pas les clés de sa prod et on ne pousse pas son code en prod. Les chefs qui pensent l'inverse ne feront que du darwinisme entrepreneurial, rien de plus.
Exactement. Ceci dit, quand on ne maîtrise pas à 100% quelque chose, c'est quand même d'une sacrée aide.

Au pif, je n'avais pas touché du CSS depuis 15 ans... J'ai pu modifier tout un site à ma convenance, avec les quelques conseils et explications sur le code existant, et en expliquant ce que je voulais chatgpt m'indiquait les valeurs possibles.

Et des exemples comme ça, j'en ai eu pas mal aussi pour la gestion de base de donnée, des scripts, un peu de code... :-)

bingo.crepuscule

Exactement. Ceci dit, quand on ne maîtrise pas à 100% quelque chose, c'est quand même d'une sacrée aide.

Au pif, je n'avais pas touché du CSS depuis 15 ans... J'ai pu modifier tout un site à ma convenance, avec les quelques conseils et explications sur le code existant, et en expliquant ce que je voulais chatgpt m'indiquait les valeurs possibles.

Et des exemples comme ça, j'en ai eu pas mal aussi pour la gestion de base de donnée, des scripts, un peu de code... :-)
Quand on a les rudiments pour une certaine autonomie, l'IA générative est d'une grande aide pour initialiser un projet et réaliser le cadre global. C'est clair que ça fourni un gain de temps non négligeable.

Par contre, quand on ne maîtrise rien, ça sert à que dalle. Le seul moyen pour que l'IA générative devienne "prof" (et encore, aujourd'hui je ne l'estime pas capable de l'être) serait qu'elle fasse d'abord passer un examen à la personne pour connaître son niveau. J'avais beau dire à Copilot que je n'y connaissais rien en JS, il proposait des suggestions sous-entendant que je savais quoi en faire malgré les explications de code à priori simples. Parce qu'il a été contextualisé ainsi.
Fermer