Connexion
Abonnez-vous

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

[Édito] IA : il nous faut un traitement plus nuancé

Flock

Alors que la machine médiatique participe à amplifier le buzz autour de l'intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Le 03 juin à 14h37

Mise à jour du 4 juin 2024 : ajout de la mention de Shaping AI

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu'il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d'amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël - Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu'à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Sur un corpus d'articles de presse produits sur dix ans, entre 2011 et 2021, le projet Shaping AI du médialab de SciencesPo relève 19,05 % d'articles « associés à un discours de promesse technologique » et 9,5 % « associés à un discours critique ou de menace lié à ces technologies ». En éliminant les articles catégorisés « neutres », l'équipe de recherche constate une constante de deux tiers d'articles optimistes pour un tiers d'articles critiques. Un nombre croissant d’articles se penchent aussi sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Quant à Tagaday , sur les plus de 162 000 articles ou sujets audiovisuels analysés, elle rapporte une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s'agit pas de tout jeter. Les technologies déployées par le champ de l'intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s'agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

Commentaires (40)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Le soucis principal des différents articles / communiqués sur l'IA c'est qu'ils parlent essentiellement l'IA générative, OK avec différents angles et particularités, mais ce que je voudrais c'est en savoir plus sur les autres type d'IA, il y a plusieurs choses géniales en médecine par exemple (non invasive pas comme neurolink qui implante une technologie qu'ils savent pas fiable !! ) et surement dans d'autres domaine.
votre avatar
Je peux te donner l'exemple de "Enformer" un modèle basé sur les LLM qui essaie de prédire plein d'informations le long du génome. Toujours en biologie, dans les très gros modèle, il y a Alphafold 3 qui prédit la structure des protéines (et les interactions). En pharma, j'avais vu rapidement passé une histoire que les protéines réalisées par des modèles de machine learning avait un taux de réussite dans les tests préliminaires énormément plus élevés que celles développées selon les méthodes traditionnelles.

C'est moins grand-public, mais le machine learning est massivement utilisé en science et les réseaux de neurones ont pas mal percé.
votre avatar
Plutôt qu'un "pour ou contre" polarisé, ou une couverture du type "découvrons la face sombre de..", ça serait super d'avoir une couverture qui montre bien le fonctionnement, les avantages et le potentiel futur (dans quelle direction on s'en va et pourquoi), et qui explore aussi le coût, les limites et les problèmes que ça implique.
votre avatar
Merci pour cet éditorial vraiment bien écrit je trouve et qui fait écho à mes propres questionnements sur la façon dont je réagis aux news sur l'IA ici ou ailleurs.

Je rejoins wagaf, j'aimerais des articles moins polarisés, plus orientés techniques, impact sociétal réel et non fantasmé (quid des programmes des écoles en informatique ou des cursus de maths ?), etc. Il y a déjà pas mal de choses comme cet édito, les penses-bêtes entre autres mais j'ai quand même l'impression que Next a pris une posture critique systématique avec une sorte de repli idéologique selon lequel l'IA "çaymal" ou "çaybullshit". Peut-être par réflexe épidermique face au déluge d'articles dopés à l'IA d'une façon (aide à la rédaction) ou d'une autre (buzz word).
votre avatar
je te rejoins aussi sur le fait que je trouve que NXI a un parti pris sans analyse technique poussée derrière qui serait impartiale, juste technique.
votre avatar
J'ai l'impression que la posture de Next (ou de leurs auteur.ices) c'est plutôt, "L'IA sur la plan technique c'est impressionnant, mais les boites qui gèrent ça et nous le poussent au fond la gorge à coup de gavage, c'est mal".

.. et encore, ça simplifie trop. Je trouve qu'à trop vouloir dire "ils aiment / aiment pas" on en vient à ruiner la complexité du sujet à la fois dans son côté technique et dans la façon dont un média comme Next le traite. Les articles sont pas nécessairement tous à charge ni trop à charge, il y a une variété de points de vue que justement il y a pas dans un journal ou une chaine télé dites "d'opinion".
votre avatar
j'ai quand même l'impression que Next a pris une posture critique systématique avec une sorte de repli idéologique selon lequel l'IA "çaymal" ou "çaybullshit".
Je ne rejoins pas cet avis (qui à l'air assez partagé ici). Je trouve au contraire que la plupart des articles de Next vont dans le sens d'une critique des concepts autour de l'IA. J'insiste sur le mot critique : on a toujours une analyse et des arguments, pas de jugements à l'emporte-pièce justement. On trouve aussi dans Next des articles & des brèves sur les cas où l'IA est utile et bénéfique. Il y a même des articles dédiés à expliquer les termes techniques du domaine.
J'aimerais aussi quelques articles plus axés sur l'aspect technique (ou + des tutos pour utiliser les modèles qui fonctionnent en local ?), mais force est de reconnaître que ça demande un investissement colossal niveau temps & connaissances, et que, comme cité dans l'article, ça pourrait aussi participer à la hype aveugle, sans prendre le recul pour juger ça à l'échelle médiatique ou à l'échelle de la société.

Pour le coup, je n'y vois aucun « repli » ni jugement manichéen. Heureusement que Next avait cette même posture à l'époque des NFT ou du Métavers, qu'on a pas été inondés d'articles sur « comment ça marche » ni un article qui en ferait les louanges pour chaque article qui en faisait la critique.
Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d'amplifier un buzz alimenté par les constructeurs.
Perso, cet édito me parle beaucoup, d'autant qu'il y a quelque jours, on m'a partagé une vidéo de MiCode qui me paraît aller directement dans cette direction : un acteur médiatique qui se fait le pur relai publicitaire des « Big Tech », qui pousse le buzz, et participe à donner une image « cool » et « incroyable » de ces nouveaux outils et des entreprises qui sont derrières.
votre avatar
Ah entièrement d'accord sur la vidéo de MiCode, moi aussi ça m'a choqué ce côté démesurément enthousiaste et dénué du moindre recul critique. Si les gars ont l'ambition de faire du journalisme tech, il suffit pas de répéter les communiqués de presse d'OpenAI pour ça. Sinon c'est pas des journalistes c'est des communicants.

À choisir je préfère une position de principe peut-être un peu méfiante, mais qui au moins fait un pas de côté par rapport à la communication hypée à l'extrême de l'industrie, qu'une position enthousiaste au possible... non parce que si c'est pour dire "c'est trop génial" j'ai pas besoin d'un organe de presse : OpenAI, Meta, Mistral et autres font déjà ça très bien.

Surtout qu'au final il y a à redire sur ce GPT4o, pas du tout aussi dinguissime qu'affirmé. Et ça fait partie du job d'un canard pour moi, de me prévenir quand on essaye de me survendre un service, qu'il soit gratuit (c'est moi le produit) ou payant.
votre avatar
Oui, j'avoue que la plupart des articles ou bien crient que c'est de la merde, c'est inutile, ça va rendre les gens débile, ou alors que ça va sauver le monde, supprimer toutes les tâches quotidiennes chiantes, etc...

Mais jamais rien de technique, même sur NXI je n'ai pas vu d'article très poussé sur le fonctionnement de ces IA génératives, leurs points forts, leurs points faibles, mais j'ai peut-être râté :)
votre avatar
Mathilde avait fait plusieurs articles expliquant les concepts et techniques relatives au machine learning et deep learning en général.

Mais moi non plus, je ne me souviens pas d'articles expliquant le fonctionnement de GPT ou de la génération d'image. J'avais proposé à Next une vulgarisation du fonctionnement de GPT et Stable Diffusion, avec un retour d'expérience sur l'usage, mais j'ai jamais eu de retour.
votre avatar
Ça serait cool d’avoir des tutos sur comment faire tourner des modèles ouverts populaires localement sur un PC (llama 3, stable diffusion etc), les meilleurs outils pour le faire etc.

C'est vraiment un aspect qui est peu couvert dans la presse en général à mon avis, alors qu'on dépend beaucoup trop de services en lignes contrôlés par OpenIA, Microsoft et Google.
votre avatar
Perso je peux pas faire tourner du LLM sur ma machine, trop lourd pour ma vénérable 1080 GTX. Mais Stable Diffusion je joue avec depuis un peu plus d'un an maintenant et j'ai eu des usages concrets avec.

Concernant ton dernier point : Mixtral est dispo chez Infomaniak, un hébergeur suisse qui a un fort engagement en matière de vie privée mais aussi environnement. Mangez-en ! Perso, depuis qu'ils ont intégré ce LLM, je n'utilise plus ChatGPT.
votre avatar
Oui, c'est d'ailleurs le genre de chose qui pourrait être abordé sur Next.
Pourquoi pas une interview des personnes derrière Mistral AI etc.
votre avatar
Ah ben moi je veux bien un super tuto pour StableDiffusion ! Je suis un peu paumé avec, y a trop de paramètres :'(
votre avatar
Le seul gros souci avec SD, c'est que les fronts web évoluent et changent à vitesse grand V.

Même si en soi les paramètres des modèles bougent pas trop (CFG, Steps, etc), avec depuis SD Turbo et compagnie c'est plus varié. Perso je me contente de rester sur du SDXL malgré la durée plus longue de génération (et ça réchauffe les doigts de pieds). Turbo c'est bluffant pour la vitesse d'output, mais les résultats m'ont souvent déçu. Ou alors j'ai pas su m'en servir correctement.

Sinon, expliquer le concept même de Stable Diffusion, de l'espace latent, le VAE, les Schedulers, ControlNet, LoRA, toussa, c'est plutôt pérenne dans le temps je pense. Au même titre que la mécanique de GPT ne semble pas trop changer.
votre avatar
Oui, déjà je me perd avec SD1.5 SDXL, Lora, Checkpoint, Hires fix, etc...
J'utilise celui de automatic1111, mais purée ce que c'est pas clair, sans parler du choix du machin qui s'appelle euler, latent, sdchaipasquoi, c'est pas intuitif XD
votre avatar
Teste InvokeAI. Perso je n'utilise plus que lui, l'interface est à cent lieues de celle d'AUTOMATIC1111 (même si ce dernier est souvent techniquement plus en avance). Beaucoup plus user-friendly.

Après oui, les params restent cryptiques pour des non initiés. Généralement je me base sur les reco du modèle pour le scheduler et le reste.
votre avatar
As-tu essayé EasyDiffusion ? Il est un peu moins complet mais réputé plus abordable, et permet quand-même de faire joujou avec les différents modèles, les LoRA etc. On trouve assez facilement des tutos en français avec des explications(ou des tutos vidéos en anglais sur YT si tu préfères les vidéos aux longs textes).

Automatic1111 est un peu aride pour les débutants (et y a pire... ne regarde jamais ComfyUI tu vas faire une syncope). En plus le système de file d'attente d'EasyDiffusion permet d'essayer plein de paramètres très rapidement, puis de laisser le PC mouliner tranquillement tes différents essais pendant que tu fais autre chose. La dernière fois que j'ai regardé, Automatic1111 ne proposait toujours pas ça.
votre avatar
SDXL faut quand même une machine de guerre ou une patience angélique... Chez moi il met 1min30 à générer une seule image, et il faut que j'aie que lui qui tourne pour pas me taper des Out of Memory Error (j'ai quand même 32Go de RAM). J'ai vite laissé tomber.
votre avatar
Ah ? J'ai effectivement une durée d'en moyenne 1min par image, mais pas de OOM sauf si je commence à mettre plus d'un LoRA. Si j'utilise du ControlNet là c'est 15min. Les fois où a machine fige ou que le process se fait dézinguer par OOMKiller, c'est quand il charge un nouveau modèle pour la première fois et le converti.

J'utilise une ancienne config de jeu basée sur un i5 de 2016 + 21GB de RAM et une 1080GTX avec 8GB de VRAM.

En ce qui me concerne, quand j'ai commencé avec SD 1.0 il me fallait 10min pour une image l'année dernière. SDXL a un ratio perf/rapidité qui me convient sur ma machine.
Je génère mes images à environ 800x1200 car je l'utilise principalement pour créer les couvertures de mes livres, mais aussi pour générer des scènes afin de m'inspirer (auquel cas l'alterne entre portrait et paysage). Dans tous les cas, SDXL travaille nativement en 1024x1024. Cela ne sert pas à grand chose de générer plus gros, autant profiter de l'excellent upscaling que l'IA peut faire ensuite. C'est ce que je fais pour passer ensuite en haute résolution mes couvertures, certains sites exigeant un format de 1200px de large minimum.
votre avatar
Je n'arrive toujours pas à comprendre pourquoi on utilise le terme "intelligence".
L'intelligence ce n'est pas simplement avoir acquis une somme considérable de connaissances. C'est savoir quoi en faire en faisant preuve de bon sens, d'analyse, de morale, de jugement.
Ou alors, on oublie trop souvent le terme qui vient après : artificielle...
votre avatar
C'est un regret des concepteurs du terme IA, qui disent aujourd'hui que, si c'était à refaire, ils n'utiliseraient pas le terme intelligence.
votre avatar
Pour moi c'est surtout un détournement d'attention.

La définition même d'intelligence n'est pas clairement arrêtée et reste sujette à débat entre la vision scientifique et celle philosophique. À partir de là, difficile de dire si ces outils sont intelligents ou non. Typiquement, il y a des populations pour qui un chien n'est pas intelligent alors que ces animaux sont bien doués d'une capacité d'apprentissage et de réflexion. Limitée, mais bel et bien présente.
votre avatar
Même scientifiquement, la définition n'est pas claire. On ne comprend pas encore très bien comment on fonctionne (on se rend progressivement compte qu'il n'y a pas que le cerveau, loin de là, par exemple). Il n'y a guère que chez les informaticiens en mal de notoriété qu'on simplifie à outrance les neurosciences pour vanter des modèles d'apprentissage automatique.
votre avatar
Ne faites pas confiance à l’homme "moderne" pour décrire comment il fonctionne, faites lui confiance pour nier le fait que quelque-part dans le monde il existe une personne qui comprend exactement comment il fonctionne.
votre avatar
C'est surtout la traduction du "intelligence" américain en "intelligence" français qui est foireuse à la base...
Si ont retenait le sens américain de "renseignement, collecte de données stratégiques" (celui de C.I.A.), on serait beaucoup plus proche de la réalité.
votre avatar
Je ne crois pas que le « intelligence » anglais dans AI soit dans le sens « renseignement ». McCarthy parlait bien d'intelligence par comparaison à l'intelligence humaine (même s'il disait qu'elle ne devait pas en être une copie).
votre avatar
Oui, intelligence en anglais signifie bien la même chose qu'en français. Auquel la partie "renseignement" s'ajoute.

Donc non, ce n'est pas une question de faux ami.
votre avatar
Mon souci avec la couverture médiatique est qu'elle présente l'IA dans le modèle extrêmement exigu que les entreprises dopés aux investissements stupides (les investissements, pas les entreprises) mettent là dedans.

Et si on parlait (plus/ mieux/ à leur juste valeur) de :
- La science derrière tout ça
- le nouvel esclavage des milliers de gens nécessaires pour corriger toute les bêtises que sort l'IA
- du caractère obligatoirement bullshitteux de l'intégration à marche forcé de l'IA dans toutes les boites qui veulent pas passer à côté d'un truc ?
- des 95% des usages actuels de l'iA qui sont mieux faits par des algo plus standards ou des humains
- du l'impact sociétal sur une société qui s'individualise déjà trop et à qui tu donnes du "Her" comme si c'était une bonne chose.
etc... (des licenciement en masse dans certains secteurs, du SEO de google qui amène à utiliser des IAs pour générer des sites pourris par milions...)

Oui bien sûr certaines publications font ressortir ça mais une toute petite minorité. Tout ce que font Gebru/Mitchell/Bender/Buolamwini (et d'autres bien entendu...) a tellement besoin d'être au coeur de nos discussions sur l'IA. Perso, savoir que c'est ChatGPT qui récolte le plus d'article de presse loin devant les autres, ça m'intéresse pas. Savoir que les kényan payés 2€/h partent en masse en burnout traumatisme, etc... ça me parait plus intéressant.
votre avatar
Tu as remarqué que l'on parle de nuancer le propos ? Tout le contraire du contenu de ton commentaire.
Commence par prendre une petite camomille (ou une verveine) et revient quand tu sera calmé.
votre avatar
Cher troll,
C'est justement le rôle du contre-balancier. d'apporter de la nuance quand l’hégémonie est hyper orientée. Pour ça faut prendre un peu de recul.

ah et puis faut apprendre à lire tous les mots aussi. "Il faut parler plus, mieux, à sa juste valeur de..." ça veut exactement dire ce que la langue française a l'air de vouloir dire ... Que oui on en parle déjà mais mal, pas assez, etc... bref c'est de la nuance.
votre avatar
Je te cite "- des 95% des usages actuels de l'iA qui sont mieux faits par des algo plus standards ou des humains"

Mais c'est tellement ça...
votre avatar
“We should be afraid. Not of intelligent machines. But of machines making decisions that they do not have the intelligence to make. I am far more afraid of machine stupidity than of machine intelligence. Machine stupidity creates a tail risk. Machines can make many many good decisions and then one day fail spectacularly on a tail event that did not appear in their training data. This is the difference between specific and general intelligence.”
Melanie Mitchell, Artificial Intelligence: A Guide for Thinking Humans

(Google traduction) « Nous devrions avoir peur. Non pas des machines intelligentes. Mais des machines qui prennent des décisions qu’elles n’ont pas l’intelligence de prendre. J’ai bien plus peur de la stupidité des machines que de leur intelligence. La stupidité des machines crée un risque extrême. Les machines peuvent prendre de très nombreuses bonnes décisions, puis un jour échouer de manière spectaculaire à cause d’un événement extrême qui n’apparaît pas dans leurs données d’entraînement. C’est la différence entre l’intelligence spécifique et l’intelligence générale. »
Melanie Mitchell – Intelligence artificielle : Triomphes et déceptions
votre avatar
Sur l'impact de l'IA sur l'emploi, ce serais cool de donner de la visibilité à l'étude d'Antonin Bergeaud http://longtermproductivity.com/perso/exposure_ia.pdf qui a une approche bien plus scientifique que les prédicateurs habituels.
votre avatar
Intéressant car le cœur de son étude repose sur l'évaluation par GPT4 du potentiel d'automatisation:
Pour chaque tâche, nous avons appliqué le modèle GPT-4 en utilisant une instruction spécifique (ou prompt) présentée dans le Tableau 1. L'objectif de cette démarche est de fournir au modèle de langage une compréhension des limites de l'IA générative et de ses capacités, et d'attribuer à chaque tâche un score, allant de 0 à 1, pour mesurer le potentiel de substituabilité
Mais son prompt semble problématique, car il semble prendre pour acquis que GPT4 connait les possibilités de l'IA générative, ses limites et ses possibilités futures.

Partie du prompt en question:
Consider the full range of what Generative AI can currently achieve and what it is projected to do efficiently over a reasonable time horizon. This includes advancements in automation, data analysis, natural language processing, creative generation, and other emerging technologies. Take also into consideration what AI cannot do efficiently and the limitation of other related technologies such as robotics.
Du coup, l'étude se limite à connecter la base de données des taches métier O*NET à GPT4 et lui demander ce qu'il en pense.

Ça fait furieusement penser à une tache qui pourrait être automatisée par GPT4 tout ça :mrgreen:
votre avatar
On entends pas trop le principal intéressé, hein Ness_01 :D
votre avatar
C'est quoi Tagaday ce site en carton ?
votre avatar
Merci Mathilde pour le petit paragraphe à propos des effets sur l'environnement et la concurrence entre usages des ressources. C'est un sujet qui n'est pas du tout abordé par nos décideurs et pas que pour l'IA, pour les bio carburants, pour l'occupation des sols ... Le réveil va être brutal et dans pas longtemps.

Edit : clarification de ma pensée par l'ajout "concurrence entre usages"
votre avatar
Dans aucun autre domaine, la boussole éthique n'est plus pertinente que dans celui de l'intelligence artificielle. Ces technologies polyvalentes sont en train de remodeler notre façon de travailler, d'interagir et de vivre. Le monde est appelé à changer à un rythme sans précédent depuis le déploiement de la presse à imprimer il y a six siècles. La technologie de l'IA apporte des avantages majeurs dans de nombreux domaines, mais sans garde-fous éthiques, elle risque de reproduire les préjugés et les discriminations du monde réel, d'alimenter les divisions et de menacer les droits de l'homme et les libertés fondamentales. Une chance pour nous que l'IAG n'existe aujourd'hui qu'à l'état de concept théorique : elle n'est pas une réalité tangible. Ca devrait nous laisser le temps pour mettre un peut d'éthique dans tout ça. Pour le moment on a aucun garde fou...
votre avatar
IA : il nous faut un traitement plus nuancé
Bravo pour la prise de conscience de la rédaction. :bravo:

[Édito] IA : il nous faut un traitement plus nuancé

Fermer