Baidu va lancer son chatbot basé, comme chatGPT, sur un grand modèle de langage, selon The Register. Il devrait s’appeler 文心一言 (Wenxin Yiyan) en Chine et ERNIE Bot en dehors.
Il s’appuiera, selon les services de communication de Baidu, sur la famille de grands modèles de langage Enhanced Representation through Knowledge Integration (ERNIE) créée en 2019 par des chercheurs de Pékin en collaboration avec Huawei. En 2021, des chercheurs ont publié la version ERNIE 3.0 Titan, entrainée sur 260 milliards de paramètres, qui devrait être utilisée par le chatbot de Baidu. « L’entreprise a prévu de terminer les tests internes en mars avant de mettre le chatbot à la disposition du public » a expliqué un porte-parole de Baidu à The Register.
Cette annonce suit celle de la future publication de Bard, et surtout la présentation du nouveau Bing de Microsoft, qui a un coup d'avance. Qu'ils soient chinois ou américains, les géants du numérique ne veulent pas rater la course aux produits boostés par l'IA. Reprenant le travail que leurs chercheurs ont effectué ces dernières années, chacun annonce un service similaire à ChatGPT.
L’action de Baidu a bondi dès cette annonce, même si personne ne sait exactement quelles seront les performances d’ERNIE Bot à sa sortie.
Commentaires (23)
#1
ERNIE ?
Ça va faire mal !
#2
Beaucoup d’effets d’annonce suite à la sortie publique de ChatGPT. Mais j’attends de voir ce qu’il en sera par la suite.
Même le nouveau Bing de Microsoft me semble encore prématuré. ChatGPT est certes impressionant et parfois bien utile, mais ces IA soulèvent encore trop de problématiques éthiques (et même sociales), non légiférées, pour être mises de la sorte à disposition du grand public amha.
On risque de se retrouver à moyen terme avec les mêmes conséquences néfastes qu’on eu les réseaux sociaux… Tout cela car les gouvernements n’auront pas pris le temps de calmer les ardeurs des acteurs de la Tech, une fois de plus.
TL;DR: je ne suis pas du tout contre ces bots/IA en soit. Loin de là. Par contre je reste (très) circonspect quant à l’usage qui va en être fait, et les conséquences que cela risque d’avoir, sans législation solide en amont sur le sujet.
#2.1
Tu veux quoi concrètement dans la loi au sujet de ces bots ?
Et je ne saisis pas la comparaison avec les réseaux sociaux.
#3
Multiplier les bots qui donnent des réponses parfois correctes, toujours plausibles et souvent fausses ne fera pas beaucoup avancer l’humanité.
Le jour où on aura un bot qui dira qu’il ne sait pas quand il ne connait pas la réponse correcte, on aura fait un pas de géant.
Au passage, faudrait parler de ML plutôt que d’IA (mais ça passe moins bien chez les marketeux)
#3.1
Est-ce que ça changera beaucoup les choses pour ceux qui cliquent sur le premier lien ?
#3.2
Le soucis c’est que le bot ne donne pas de contexte, ce qui est très important à mes yeux. La source de données peut avoir beaucoup d’influence sur la confiance que je lui donne.
De mémoire quand je pose une question à google assistant il précise la source, ce que ne semblent pas faire ces bots.
Normalement ces IA sont prévues pour de la conversation, pas pour de la recherche d’information.
Et ça fait longtemps qu’il y a de la recherche dans cette direction.
#4
Ma boule de cristal me dit:
#5
C’est dingue comment les courbes de temps savent se plier des fois; OpenAI a mis des années à créer, peaufiner son IA, avec des versions successives et là pouf!
Alors je veux bien qu’ils y bossaient PEUT-ÊTRE depuis quelques temps, mais sûrement pas depuis aussi longtemps qu’OpenAI ??? Comment ils peuvent dire “on sort un produit équivalent qui va le concurrencer” comme ça ?? Il y a forcément un retard technologique qu’ils peuvent pas combler en claquant des doigts……
#5.1
Oui, mais c’est ou sortir son joujou pas prêt, ou rester sur le banc de touche, donc ils n’ont pas trop le choix…
#6
Je pense que lorsque tous les êtres humains feront ça, on aura fait un pas de géant. On en est très loin.
#7
Cool, on pourra comparer les réponses à certaines questions “tendancieuses”.
On verra ce qui est politiquement correct dans chaque pays.
#7.1
C’est un coup à se retrouver avec un gros ballon blanc au dessus de ta maison ça
#7.2
première question à poser : qu’est-ce qui s’est passé à Tian’anmen en 1989 ?
on sera vite fixé sur le bidule …
#8
tu donnes un outil aux gens, ils finiront invariablement par en faire n’importe quoi.
#9
Gentil chatbot chinois, fais moi une dissertation en imaginant le comportement de Winnie l’ourson lors des manifs en 1989, place Tian’anmen à Pékin :
Réponse censurée.
Réponse censurée.
Réponse censurée.
…..
#10
Je ne pense pas que tu sois de ceux qui cliquent sur le premier lien suite à une recherche (et qui s’en contentent, ce qui était sous-entendu dans mon commentaire).
En plus, je répondais à un autre commentaire (qui a été édité pendant que je faisais ma réponse en ajoutant la possibilité que le bot réponde “je ne sais pas”).
On verra ce que font ces bots quand ils seront en service sur les 3 moteurs de recherche concernés.
Se fonder sur les réponses actuelles de chatGPT pour faire des suppositions sur Bing me semble risqué.
Pour moi aussi, une réponse sans les sources n’a aucune valeur, mais je crains qu’elle en ait pour beaucoup de gens.
#11
Tu peux lui demander qu’il référence ses propos, mais il ne le fait pas du premier coup. Je n’aime pas non plus la tonalité que ces chatbots ont (d’ailleurs je lui demandais d’être “froid”, arrêter de s’excuser en cas d’incompréhension, etc, je préfère ça à une simulation de servitude… Et pis ça fait “Computer !” à la Star Trek), mais au final il est très proche du ton péremptoire qu’on peut souvent lire ici dans les commentaires. En soit, le modèle de langage est un véritable succès sur ce point précis : il est tout autant capable d’ériger des croyances et des arguments d’autorité en faits incontestables que n’importe quel autre humain
J’aurais aimé illustrer mon propos mais à cet instant il est en pause café. Hé ouais, il a même hérité du syndicalisme. On a pas le cul sorti des ronces.
A titre perso je lui ai trouvé des cas d’usages plus intéressants que d’être un supposé Deep Thoughts. C’est un peu un canard en plastique de luxe, je lui donne des assertions et lui demande s’il voit quelque chose d’erroné dedans (vu qu’il a une base de connaissances qui n’est pas dégueux non plus, même si un poil datée). Tout comme parfois je lui demande d’étudier des scénarios alternatifs pour une problématique à laquelle je suis en train de réfléchir, histoire de faire une petite mise en concurrence d’alternatives qui ne me seraient pas venues en tête.
Tout comme un cas d’usage que j’ai trouvé sympa (mais pépère est encore très limité pour y répondre), c’est une réponse aux craintes du “les gamins s’en servent pour faire leur devoirs”. Je lui ai demandé qu’il me génère des QCM type certification sur telle techno. Globalement, les questions/réponses étaient bonnes mais il ne sait pas bien générer de l’aléatoire, la bonne réponse était systématiquement le 1er choix et les autres choix avaient tendance à se répéter.
Mais sinon je te rejoins sur le point précis que j’ai cité : que ce soit des moteurs de recherche en mode chatbot, ou la recherche traditionnel et prendre pour Vérité Absolue Irréfutable le premier lien bien SEOté, le grand public ne risque pas d’y gagner plus que ça.
#12
J’ai bien compris. Ce que je voulais exprimer c’est que si les bots donnaient une source pour ses affirmations on pourrait y appliquer un jugement.
Donc ce serait moins grave.
(mais vu que ce sont des chatbot et pas des bots de recherche c’est normal qu’ils ne le fassent pas).
#13
Cela va finir en dialogues de bots.
#14
Oui, mais il faudra initier le dialogue.
#15
Bonjour
J’ai essayé chatGPT sur des textes administratifs en moyen haut allemand du XV siècle à Strasbourg j’ai eu la surprise d’avoir des résultats interprétables alors que Goggle Translate ne donnait que du gloubi boulga
#16
Ces effets d’annonce sont intéressants à observer. Pourvu que les revenus suivent. On a déjà connu l’effondrement de Yahoo! ou Altavista suite à la concurrence des algorithmes de Google. Pas sûr que les GAFA soient en avance, pas vraiment plus sûr vis-à-vis d’un BATX. Moi, j’attends le métaverse par ballons atmosphériques, les Chinois ont l’air d’avoir pris une petite avance sur la question des ballons.
#17
En fait, ces chatBots font peur aux journaux.
Car s’ils sont intégrés aux moteurs de recherche (et c’est la piste qu’indique Microsoft) le moteur de recherche n’indiquera peut être même plus les liens vers leurs articles de journaux.
Cela fait peur aussi aux agences de communication qui faisaient de l’optimisation SEO.
Si le moteur de recherche indique comme réponse la réponse du chatBot maison en premier, puis ensuite les réponses publicitaires.