Alors que Baidu venait d'annoncer la sortie prochaine de son chatbot reprenant le fonctionnement de ChatGPT, Google faisait cette semaine une première présentation du sien, Bard.
Malheureusement pour la multinationale, un exemple mis en avant a donné une réponse erronée, explique le Telegraph. Pendant la présentation, une image GIF animée montrait un utilisateur poser la question « quelles sont les nouvelles découvertes du télescope spatial James Webb dont je peux parler à mon enfant de 9 ans ? ».
Bard a, entre autres, répondu : «JWST [James Webb Space Telescope, ndlr] a pris les toutes premières images d'une planète en dehors de notre propre système solaire. ». Or, comme le fait remarquer le journal britannique, ce n'est pas James Web, lancé en 2021, qui a pris la première image d'une exoplanète, mais le VLT (Very Large Telescope) situé au Chili en 2004, 17 ans avant le lancement du JWST. L’exoplanète en question s’appelle 2M1207b et vous pouvez l’admirer sur le site de l’ESO.
Si cette erreur ne présage pas d’une moins bonne acuité du chatbot de Google par rapport à ChatGPT, elle fait tache pour l’entreprise. Google est déjà en retard dans la course aux outils utilisant les grands modèles de langages. Elle ne donne pas non plus une image positive de ce genre d’outils, alors que de nombreux enseignants se posent des questions sur les changements engendrés dans les examens et que l’on peut s’en poser sur les conséquences sur le traitement de l’information.
Commentaires (29)
#1
Normal, la spécialité de Google, c’est pas la recherche d’infos, c’est la pub !
#2
On a bien le comportement de bullshiter de ChatGPT!
#3
Ils ont dû y passer un filtre “America First!”
#4
Je pense que cette réponse vient du fait que tous les titres de presse sur la première image d’une exoplanète prise par le JWST jouent sur l’ambiguïté que c’est la première image d’une exoplanète ou que c’est la première image d’une exoplanète prise par le JWST (voir cette recherche Google pour s’en rendre compte).
On ne rappellera jamais assez que l’intelligence artificielle n’est absolument pas « intelligente ». Elle ne fait que copier plus ou moins bien.
#5
On a posé la même question à ChatGPT pour comparer les réponses….?
#5.1
Ce qui est croustillant n’est pas que Bard donne une réponse fausse. Il en donnera d’autres, et ChatGPT aussi. Non, ce qui est comique, c’est que cet exemple qui comprend une réponse fausse soit mis en avant dans la présentation de Google ; c’est présenté comme un résultat dont ils sont fiers.
#6
A priori ChatGPT ne connait pas les résultats du JWST parce que ses données d’entrainement s’arrêtent à 2021.
#6.1
Oui, il se la joue à la Qwant.
#6.2
#6.3
Joli
#7
Les bons souvenirs de la présentation de Billou avec windows 98… Ils auraient du scripter la réponse
#8
Au vu du titre, je m’attendais à quelque chose de plus croustillant.
Le modèle étant construit pour produire une suite de mot cohérente dans un contexte donné, la “vérité” est au mieux un heureux hasard.
Si on devait entrainer un modèle avec des centaines de milliards de paramètres sur un jeu de donné “qualifiées” ça serait bien plus complexe et coûteux.
#9
Et même comme ça, ça ne donnerait pas forcément une réponse correcte.
C’est pas en mélangeant des mots, même de sources correctes, qu’on dit quelque chose de vrai.
#10
C’est vous le codeur ? vous êtes virés !
#11
Cet argument me semble parfaitement valable, je retweet.
#12
En même temps, qu’est-ce qui est “intelligent”. La définition d’“intelligence” est sujette à débat et je doute qu’on arrive dans aucun domaine à créer une définition aux contours clairs. J’ai même l’impression que l’intelligence, c’est bien souvent perçu comme une caractéristique qui distingue les humains du reste (une définition anthropocentrique, mettant l’homme au dessus de tout). La preuve, parmi les définitions de l’“intelligence artificielle” il existe une avec un paradoxe:
Du fait, une machine qui arrive à accomplir une tel tache ne répond plus à la définition.
#13
Intelligence:
FR: Ensemble des facultés de conception, de compréhension, d’adaptation.
EN: the ability to learn, understand, and make judgments or have opinions that are based on reason
IA en anglais: programme qui à partir d’une entrée peut donner un résultat justifié
IA dans la compréhension commune française: programme qui conçoit
Il y a une nuance…
Ancien terme utilisé en français: système expert
Je pense que les débat sans fin sur l’IA dans les forum français viennent d’une traduction de AI par IA - alors que le I est un faux ami finalement.
En remplaçant IA par Système Expert, je trouve qu’on n’a plus rien à redire.
D’ailleurs, pour parler d’objets “intelligents”, en anglais on utilise plutôt le mot “smart” qui inclue la notion de proposition, de créativité.
#13.1
Oui, mais “système expert”, ça vend pas du rêve et ça fait tellement année 80.
Et le terme “smart” est également galvaudé, parce que mon smartphone, il a rien d’intelligent
#14
Le métaverse, l’IA,… le dégonflement du marché publicitaire : les GAFA en recherche de crédibilité, mais on a embauché pour le Covid il y a 2 ans, normal que ça débauche maintenant. Jusqu’à quand l’excuse Covid tiendra pour les prochains licenciements ? Je croise quand même les doigts pour que le marché continue encore un peu à rêver à quelque chose.
#15
Tay de Microsoft, le retour.
#16
A non souvent il est plus intelligent que leur propriétaire.
#17
Tout à fait d’accord. Malheureusement on prend souvent un terme au pied de la lettre au pied levé, et ensuite on se plaint que le produit ne fait pas ce qui n’a jamais été promis formellement.
#18
Made In Google
#19
Pareil, je m’attendais à un délire machin-phobe comme c’est la mode pour tout et n’importe quoi aujourd’hui, pas juste d’une erreur de recherche sur Google , un peu déçu du coup
Après la soit disant intelligence artificielle ça n’est jamais que de l’agrégation de données, si on lui fourni n’importe quoi en entrée faut pas s’attendre à un résultat correct en sortie, une machine n’est pas près d’avoir la moindre capacité de réflexion propre, d’esprit critique, etc … comme peu l’avoir un humain (enfin certains humains )
#20
En bref, si tu fourni de la merde en entrée, faut pas t’attendre à du chocolat en sortie
#20.1
Et pourtant, on peut avoir du café très cher en sortie de bouses !
#20.4
Je ne connaissais pas la version éléphants, ni la version chats/civette, par contre j’avais entendu un truc du genre avec des singes.
Après malgré que je sois plutôt amateur de café je n’ai jamais testé, et je ne suis même pas tenté en fait (faudra quand même un jour que je goûte un Blue Mountain, ou/et un Kona Hawaï, pour vérifier par moi même si le prix est un minimum justifié ou si c’est juste de l’esbrouffe)
#20.2
Dans le monde des plateformes de flux, on appelle ça le Shit In Shit Out.
#20.3
Pas de Bard (sinon) pas de chocolat