Le marketing de l’IA « ouverte »

La porte ouverte à toutes les fenêtres de l'intelligence

Le marketing de l'IA « ouverte »

Le 06 septembre 2023 à 12h48

Commentaires (9)

votre avatar

OpenAI a développé une alternative open-source à CUDA, Triton, mais celle-ci ne fonctionne, pour l’instant, qu’avec les GPU de NVIDIA.


Drôle de choix de nom sachant que NVIDIA développe un serveur d’inférence également nommé Triton…

votre avatar

Sauf erreur, ce tableau de comparaison de l’ouverture des principaux LLM n’est pas cité : https://opening-up-chatgpt.github.io/



Et j’en profite pour faire de la pub pour mon propre article sur ce sujet : https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage/#comment-105276

votre avatar

Merci beaucoup, Martin, pour cet excellent article, qui fait un état des lieux saisissant de la prétendue “ouverture” du petit milieu de l’AI !



Le problème qui ressort bien c’est que d’un côté, tu as les sommes colossales mises en jeu depuis maintenant longtemps pour développer les fameux jeux de données et bâtir l’infrastructure (frameworks) de ces gros bouzins que sont les AI (et là, t’as beau avoir le coeur un peu pur, tu espères quand même rentrer dans tes frais et même, pourquoi pas, dégager un p’tit bénef’, don’t you ?)… :roll: :transpi:



…et de l’autre côté tu as une bande de chercheurs - plus orientés vers le long terme -, et puis d’autres, plein d’autres, qui sont avant tout des observateurs : neurologues, psychologues, analystes en tout genre, sociologues, économistes, journalistes, juristes… et même politiques, qui cherchent eux à comprendre les implications, les conséquences sur nos sociétés, et éventuellement à en dénoncer des utilisations abusives, anti-démocratiques…



Tout cela fait un beau sandwich avec au milieu des scientifiques qui - ce n’est qu’une impression, basée sur tout ce que je lis et regarde concernant ce sujet - ne peuvent pas travailler sereinement, au rythme de la science, tellement ce sujet est brûlant et pressuré au maximum par les communicants des (grosses) entreprises concernées, qui elles sont plus dans le court terme.



Perso je pense qu’OpenAI (et ses concurrents sur le marché, ainsi que les générateurs d’images et de sons basés sur l’AI) ont sorti leur truc bien trop tôt, bien trop vite, en direction du grand public. Ils auraient dû attendre, laisser les chercheurs chercher à leur rythme, les spécialistes en neurosciences et en sciences humaines bien analyser le truc à fond, tout cela sans cesser de communiquer ouvertement (”open” qu’y disaient - ouais, je sais, je rêve…) avec le public et les médias bien évidemment.



L’AI / le Deep Learning est un champ de recherche absolument passionnant, dont les ramifications sont aussi vastes qu’imprévisibles. Il aurait du le rester, tout simplement. Quelque soit le côté, l’aspect que l’on considère, tout semble inconséquent, improvisé, confus. Les “choses de l’AI” ne sont pas au point, ses limites et ses conséquences pas définies, en conclusion je dirais que nous sommes loin, très loin d’être prêts.

votre avatar

Si le développement de l’IA manque d’ouverture, ainsi que l’entraînement par les grandes entreprise (ce qui est clairement un souci), il ne faut pas oublier l’existence de tout un monde open source dans le domaine.



Notamment présent sur Hugging Face où l’on peut retrouver les sources de nombreux datasets et modèles que ce soit pour du texte ou de l’image. Hugging Face qui a récemment encore eu une forte levée de fonds et beaucoup d’investissement de la part des grosses entreprises de l’IT.



Entreprise fondée par trois français à New York, accessoirement.



Cela dit, ça ne m’étonnerait pas qu’ils finissent pas se faire racheter, probablement par Microsoft vu que le service est similaire à GitHub car essentiellement basé sur Git.

votre avatar

L’hypocrisie de l’open-source, c’est que 99.9% des utilisateurs veulent qu’un projet soit open-source afin de pouvoir récupérer gratuitement une version précompilée par une team random sur Internet.



Le terme “open” est un raccourci pour “open access to …” = “accès libre à …”.
Sans spécifier le mot après open, on ne peut pas trop dire si on parle de code source, API, document, modèle, … ou du bar de l’hôtel.

votre avatar

(reply:2151115:Stéphane Bortzmeyer)


Bonjour. Effectivement, l’article de David Gray Widder et al. ne fait pas mention de ce tableau très détaillé et clair de l’ouverture des principaux LLM. Merci pour ce partage. Et votre article sur le sujet me paraît en adéquation avec leur article. :)

votre avatar

(reply:2151148:DantonQ-Robespierre)


l’IA est sortie bien trop tôt, trop vite, en direction du grand public. Ils auraient dû attendre, laisser les chercheurs chercher à leur rythme, les spécialistes en neurosciences et en sciences humaines bien analyser le truc à fond, tout cela sans cesser de communiquer ouvertement avec
le public dans les médias bien évidemment.



je pense aussi !
ils ont confondu ‘vitesse-et-précipitation’ !
(à vouloir aller TROP vite,……..) :fumer:

votre avatar

Je pense plutôt qu’ils souffraient d’un manque de retour de data de leur propre modèle et qu’ils ont été obligé de le tester grandeur nature quitte à le brider comme ce qui a été fait. Ceci dit on doit rester vigilant. Une IA pour moi ça ne sera jamais ça, ce ne sont ni plus ni moins que des moteurs d’analyses de données avec un algorithme bien fait j’en disconviendrait pas mais ce n’est toujours pas de l’IA au sens ou on l’entend communément
Pour le père de Siri, « l’intelligence artificielle n’existe pas
We Demain : Vous êtes l’un des papas de l’assistant vocal Siri, aujourd’hui vice-président innovation de Samsung monde et directeur du laboratoire de recherche en IA de Samsung. Vous venez de publier un livre intitulé L’intelligence artificielle n’existe pas. Pourquoi ce titre ?
Luc Julia : Elle n’existe pas car je ne peux pas vous dire ce que c’est. On a défini en 1956 une discipline nommée intelligence artificielle et je pense que c’était une erreur. On essayait, à l’époque, de modéliser le cerveau. Le but ? C’était de reconnaître la parole, ce qui est la chose la plus compliquée, le propre de l’homme en fait. C’est peut-être ça l’intelligence. Au bout de six ans, on a tout arrêté, car on s’est aperçu qu’on ne savait pas le faire. On a alors connu ce qui s’appelle le premier hiver de l’IA. On aurait dû éliminer la discipline puisque ce n’était pas utile. Si j’avais à garder l’expression IA telle qu’on l’avait pensée à l’époque, j’appellerais ça le machine learning, le deep learning, c’est-à-dire tout ce qui est apprentissage et reconnaissance.



Selon Ray Kurzweil, dès 2029, les machines seront dotées de l’intelligence émotionnelle et prendront le pouvoir. Il envisage que, vers 2045, elles seront plus intelligentes que les humains et donc autonomes. Qu’en pensez-vous ?
Ce transhumaniste dit n’importe quoi. Le fait que les machines puissent être émotionnelles, c’est de la science-fiction, c’est pour faire peur… Avec les techniques actuelles, qui sont des techniques mathématiques basées sur des statistiques – c’est ce que l’on fait depuis soixante ans –, ce n’est pas possible. Les progrès qui ont été réalisés ont été menés au niveau de la mémoire des ordinateurs, de la capacité de calcul et grâce à l’apparition d’internet. Mais, en fait, il n’y a pas eu de progrès dans les algorithmes eux-mêmes et, en gardant ces derniers, il n’y a aucune chance qu’on arrive à ce qu’il dit.



Elon Musk ou Stephen Hawking dénoncent pourtant le risque que l’IA fait porter à l’humanité, qu’en pensez-vous ?
Stephen Hawking était quelqu’un de très fort dans son domaine, il a découvert des trous noirs que personne n’avait vus. Mais les mathématiques appliquées à l’IA n’étaient pas sa discipline. Donc, comment a-t-il pu avoir l’autorité de dire que l’IA allait prendre le pouvoir ? Quant à Elon Musk, c’est un visionnaire du marketing, il est bon en communication mais nul en technologie.



Les gens ont des craintes irréalistes selon vous concernant l’IA. Comment les rassurer ?
Nous, les humains, nous contrôlons tout ! Les algorithmes, c’est nous qui les créons, les datas comme les applications, c’est nous qui les choisissons. Ça ne veut pas dire qu’on ne va pas faire des trucs mauvais. Si vous me demandez de créer un robot tueur, je vais vous faire le robot qui tuera bien mieux que n’importe qui, mais tous les algorithmes, toutes les datas viennent de nous. Ce que font en général toutes les intelligences artificielles, à la fin, c’est de la reconnaissance. Ça veut dire qu’on leur a fait ingurgiter de la connaissance. Et la connaissance, c’est nous qui la possédons. Aucune machine n’est capable de créer de la connaissance.



L’intelligence augmentée, terme que vous substituez à intelligence artificielle, va-t-elle créer du chômage ?
Non, justement, c’est le contraire. Quand les usines de Renault ont mis des robots pour remplacer les ouvriers spécialisés, ça a fait perdre des emplois. Mais ces gens-là représentent ceux qui, précisément, peuvent être « recyclés » dans des tâches plus valorisantes. En 2025, 2035, il y aura des nouveaux métiers, c’est évident… Aussi il est nécessaire de former, éduquer, s’adapter.



Vous définissez l’intelligence augmentée conçue pour renforcer nos capacités, pouvez-vous nous donner un exemple de ce qui va nous apporter le bien-être ?
Un exemple, dans le domaine de l’imagerie médicale. Un radiologue dans sa carrière voit un nombre limité de radios. Imaginons qu’on puisse récupérer toutes les radios qui existent dans le monde, la machine aura évidemment un avantage énorme par rapport à lui. Ainsi sera-t-elle en capacité de trouver des cancers beaucoup plus rapidement que ce l’homme peut faire. Pour ce qui concerne la médecine préventive, il va y avoir de grandes améliorations. Après ça, il y a plein de choses qui vont être améliorées dans la vie quotidienne. Voyons ce qui s’est passé chez Renault où les tâches difficiles, physiques, ont disparu. Ça a commencé dès 1770, avec les premiers métiers à tisser à Lyon…



Le risque n’est-il pas finalement d’être « assistés » plutôt que remplacés ?
Aujourd’hui, on croit qu’on devient un peu plus bête à force d’utiliser toujours Google… Peut-être qu’effectivement notre cerveau se réduit, mais on peut très bien refuser tout cela. C’est là où je dis que c’est une question d’éducation et une question de volonté. Mes enfants par exemple n’ont pas de tablette, pas d’ordinateur, ils ont des livres. C’est mon choix, mon choix pour eux. On peut faire en sorte que les machines nous facilitent la vie afin de se consacrer à ce qui en vaut vraiment la peine.



votre avatar

(reply:2151115:Stéphane Bortzmeyer)
Très bon article ceci dit…


Le marketing de l’IA « ouverte »

  • « open », un terme flou

  • Confusion avec l’open source historique

  • LLaMA-2 de Meta, vraiment ouvert ?

  • « Le cas OpenAI »

  • « Qu’est-ce qui est « ouvert » exactement dans l’IA « ouverte » et que permet l’IA « ouverte » ? »

  • Une alternative open-source au logiciel de NVIDIA par OpenAI

  • L’indispensable travail humain peu accessible

  • Une concentration sur le « fine tuning »

Fermer