Sortie de piste de Bard pour sa première présentation publique
Le 09 février 2023 à 07h48
2 min
Sciences et espace
Sciences
Alors que Baidu venait d'annoncer la sortie prochaine de son chatbot reprenant le fonctionnement de ChatGPT, Google faisait cette semaine une première présentation du sien, Bard.
Malheureusement pour la multinationale, un exemple mis en avant a donné une réponse erronée, explique le Telegraph. Pendant la présentation, une image GIF animée montrait un utilisateur poser la question « quelles sont les nouvelles découvertes du télescope spatial James Webb dont je peux parler à mon enfant de 9 ans ? ».
Bard a, entre autres, répondu : «JWST [James Webb Space Telescope, ndlr] a pris les toutes premières images d'une planète en dehors de notre propre système solaire. ». Or, comme le fait remarquer le journal britannique, ce n'est pas James Web, lancé en 2021, qui a pris la première image d'une exoplanète, mais le VLT (Very Large Telescope) situé au Chili en 2004, 17 ans avant le lancement du JWST. L’exoplanète en question s’appelle 2M1207b et vous pouvez l’admirer sur le site de l’ESO.
Si cette erreur ne présage pas d’une moins bonne acuité du chatbot de Google par rapport à ChatGPT, elle fait tache pour l’entreprise. Google est déjà en retard dans la course aux outils utilisant les grands modèles de langages. Elle ne donne pas non plus une image positive de ce genre d’outils, alors que de nombreux enseignants se posent des questions sur les changements engendrés dans les examens et que l’on peut s’en poser sur les conséquences sur le traitement de l’information.
Le 09 février 2023 à 07h48
Commentaires (29)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/02/2023 à 07h52
Normal, la spécialité de Google, c’est pas la recherche d’infos, c’est la pub !
Le 09/02/2023 à 08h22
On a bien le comportement de bullshiter de ChatGPT!
Le 09/02/2023 à 08h38
Ils ont dû y passer un filtre “America First!”
Le 09/02/2023 à 08h40
Je pense que cette réponse vient du fait que tous les titres de presse sur la première image d’une exoplanète prise par le JWST jouent sur l’ambiguïté que c’est la première image d’une exoplanète ou que c’est la première image d’une exoplanète prise par le JWST (voir cette recherche Google pour s’en rendre compte).
On ne rappellera jamais assez que l’intelligence artificielle n’est absolument pas « intelligente ». Elle ne fait que copier plus ou moins bien.
Le 09/02/2023 à 08h49
On a posé la même question à ChatGPT pour comparer les réponses….?
Le 09/02/2023 à 09h54
Ce qui est croustillant n’est pas que Bard donne une réponse fausse. Il en donnera d’autres, et ChatGPT aussi. Non, ce qui est comique, c’est que cet exemple qui comprend une réponse fausse soit mis en avant dans la présentation de Google ; c’est présenté comme un résultat dont ils sont fiers.
Le 09/02/2023 à 08h52
A priori ChatGPT ne connait pas les résultats du JWST parce que ses données d’entrainement s’arrêtent à 2021.
Le 09/02/2023 à 08h55
Oui, il se la joue à la Qwant.
Le 09/02/2023 à 09h27
Le 09/02/2023 à 09h56
Joli
Le 09/02/2023 à 08h57
Les bons souvenirs de la présentation de Billou avec windows 98… Ils auraient du scripter la réponse
Le 09/02/2023 à 09h05
Au vu du titre, je m’attendais à quelque chose de plus croustillant.
Le modèle étant construit pour produire une suite de mot cohérente dans un contexte donné, la “vérité” est au mieux un heureux hasard.
Si on devait entrainer un modèle avec des centaines de milliards de paramètres sur un jeu de donné “qualifiées” ça serait bien plus complexe et coûteux.
Le 09/02/2023 à 09h34
Et même comme ça, ça ne donnerait pas forcément une réponse correcte.
C’est pas en mélangeant des mots, même de sources correctes, qu’on dit quelque chose de vrai.
Le 09/02/2023 à 09h58
C’est vous le codeur ? vous êtes virés !
Le 09/02/2023 à 13h03
Cet argument me semble parfaitement valable, je retweet.
Le 09/02/2023 à 14h22
En même temps, qu’est-ce qui est “intelligent”. La définition d’“intelligence” est sujette à débat et je doute qu’on arrive dans aucun domaine à créer une définition aux contours clairs. J’ai même l’impression que l’intelligence, c’est bien souvent perçu comme une caractéristique qui distingue les humains du reste (une définition anthropocentrique, mettant l’homme au dessus de tout). La preuve, parmi les définitions de l’“intelligence artificielle” il existe une avec un paradoxe:
Du fait, une machine qui arrive à accomplir une tel tache ne répond plus à la définition.
Le 09/02/2023 à 15h33
Intelligence:
FR: Ensemble des facultés de conception, de compréhension, d’adaptation.
EN: the ability to learn, understand, and make judgments or have opinions that are based on reason
IA en anglais: programme qui à partir d’une entrée peut donner un résultat justifié
IA dans la compréhension commune française: programme qui conçoit
Il y a une nuance…
Ancien terme utilisé en français: système expert
Je pense que les débat sans fin sur l’IA dans les forum français viennent d’une traduction de AI par IA - alors que le I est un faux ami finalement.
En remplaçant IA par Système Expert, je trouve qu’on n’a plus rien à redire.
D’ailleurs, pour parler d’objets “intelligents”, en anglais on utilise plutôt le mot “smart” qui inclue la notion de proposition, de créativité.
Le 10/02/2023 à 09h43
Oui, mais “système expert”, ça vend pas du rêve et ça fait tellement année 80.
Et le terme “smart” est également galvaudé, parce que mon smartphone, il a rien d’intelligent
Le 10/02/2023 à 08h15
Le métaverse, l’IA,… le dégonflement du marché publicitaire : les GAFA en recherche de crédibilité, mais on a embauché pour le Covid il y a 2 ans, normal que ça débauche maintenant. Jusqu’à quand l’excuse Covid tiendra pour les prochains licenciements ? Je croise quand même les doigts pour que le marché continue encore un peu à rêver à quelque chose.
Le 10/02/2023 à 08h17
Tay de Microsoft, le retour.
Le 10/02/2023 à 11h20
A non souvent il est plus intelligent que leur propriétaire.
Le 10/02/2023 à 14h39
Tout à fait d’accord. Malheureusement on prend souvent un terme au pied de la lettre au pied levé, et ensuite on se plaint que le produit ne fait pas ce qui n’a jamais été promis formellement.
Le 11/02/2023 à 08h38
Made In Google
Le 11/02/2023 à 10h14
Pareil, je m’attendais à un délire machin-phobe comme c’est la mode pour tout et n’importe quoi aujourd’hui, pas juste d’une erreur de recherche sur Google , un peu déçu du coup
Après la soit disant intelligence artificielle ça n’est jamais que de l’agrégation de données, si on lui fourni n’importe quoi en entrée faut pas s’attendre à un résultat correct en sortie, une machine n’est pas près d’avoir la moindre capacité de réflexion propre, d’esprit critique, etc … comme peu l’avoir un humain (enfin certains humains )
Le 13/02/2023 à 14h31
En bref, si tu fourni de la merde en entrée, faut pas t’attendre à du chocolat en sortie
Le 13/02/2023 à 15h08
Et pourtant, on peut avoir du café très cher en sortie de bouses !
Le 15/02/2023 à 19h31
Je ne connaissais pas la version éléphants, ni la version chats/civette, par contre j’avais entendu un truc du genre avec des singes.
Après malgré que je sois plutôt amateur de café je n’ai jamais testé, et je ne suis même pas tenté en fait (faudra quand même un jour que je goûte un Blue Mountain, ou/et un Kona Hawaï, pour vérifier par moi même si le prix est un minimum justifié ou si c’est juste de l’esbrouffe)
Le 13/02/2023 à 17h14
Dans le monde des plateformes de flux, on appelle ça le Shit In Shit Out.
Le 13/02/2023 à 18h31
Pas de Bard (sinon) pas de chocolat