OpenAI, une alliance ouverte pour la recherche sur l'intelligence artificielle

OpenAI, une alliance ouverte pour la recherche sur l’intelligence artificielle

Elon Musk affronte ses peurs

Avatar de l'auteur

Vincent Hermann

Publié dansLogiciel

15/12/2015
33
OpenAI, une alliance ouverte pour la recherche sur l'intelligence artificielle

Plusieurs personnalités et entreprises se sont réunies pour former une alliance autour de l’intelligence artificielle. Nommée OpenAI, cette initiative a pour but de financer des travaux dont les résultats pourront profiter à tous. Elon Musk, l’un des membres fondateurs, rêve ainsi d’une « intelligence artificielle générale » qui pourrait s’occuper de presque tout type de calculs.

OpenAI est à la fois une alliance, une initiative et une société de recherche à but non lucratif. Ses membres fondateurs sont des industriels connus ou des entreprises ayant un intérêt direct à voir se développer des outils améliorés et de nouvelles pistes de recherche pour l’intelligence artificielle. Les deux co-présidents seront ainsi Elon Musk, qui dirige Tesla et SpaceX, et Sam Altman, le patron d’Y Combinator. Ilya Sutskever, chercheur travaillant auparavant chez Google, sera le directeur de recherche de la structure, et on compte d’autres têtes connues, comme l’investisseur Peter Thiel, ainsi que des entreprises telles qu’Amazon (sa branche Web Services) et l’Indien Infosys.

Un budget d'un milliard de dollars pour l'instant

Le fonctionnement d’OpenAI est un peu particulier. L’acte de fondation prévoit un budget d’un milliard de dollars, mais dont seule une petite partie sera utilisée durant les premières années de travail. L’activité sera évidemment centrée sur le développement de nouvelles techniques autour de l’intelligence artificielle, qui seront ensuite librement utilisables par d’autres structures. Le communiqué annonce cependant que la route sera parsemée d’embuches : « L’aboutissement de cette aventure est incertain et le travail sera difficile, mais nous pensons que l’objectif et la structure sont justes ».

Le communiqué s’attarde sur un changement profond de la perception de l’intelligence artificielle. Les fondateurs d’OpenAI rappellent ainsi que durant les premières années, beaucoup pensaient que travailler sur la résolution de tâches spécifiques, comme une partie d’échecs, déverrouillerait l’accès à une compréhension plus globale de l’influence humaine et donc de sa synthèse. Mais chaque solution trouvée restait spécifique à un problème, sans nécessairement pouvoir être généralisée. En apprentissage profond, utilisé par pratiquement tous les services en ligne, les architectures doivent au contraire s’adapter automatiquement à de nouveaux cas, sans que les développeurs aient besoin de créer de nouveaux algorithmes. Ce qui suppose évidemment qu’une telle architecture soit à même d’identifier les situations pour y faire face correctement.

« les chercheurs seront fortement encouragés à publier leurs travaux »

Le but d’OpenAI ? Aller justement dans le sens de la généralisation : « Il est difficile de prédire quand une intelligence de niveau humaine sera à portée. Quand ce sera le cas, il conviendra d’avoir une institution de pointe dans la recherche capable de mettre la priorité sur de bons résultats pour tous, plutôt que sur son propre intérêt ». En tant que structure à but non lucratif, son but est de « de créer de la valeur pour tous plutôt que pour les actionnaires ». De fait, « les chercheurs seront fortement encouragés à publier leurs travaux, qu’il s’agisse de compte-rendu, de billets de blog ou de code ». OpenAI ajoute : « Nos brevets (s’il y en a) seront partagés avec le reste du monde. Nous collaborerons librement avec d’autres à travers de multiples institutions et espérons travailler avec des entreprises pour chercher et déployer de nouvelles technologies ».

OpenAI a déjà attiré plusieurs chercheurs assez connus dans le domaine de l’intelligence artificielle, notamment Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma, John Schulman, Pamela Vagata et Wojciech Zaremba. Il manque cependant de nombreuses informations sur le fonctionnement précis de la structure, ou sur son financement. On ne sait pas par exemple comment le milliard de dollars sera dépensé, ni pourquoi OpenAI ne compte en utiliser qu’une petite partie durant les premières années. On ne connait pas non plus la participation exacte de chaque membre fondateur.

Il est par ailleurs amusant de voir Elon Musk prendre une part très active quand on sait que l’industriel éprouve certaines angoisses face à l’intelligence artificielle. Il a cependant indiqué au New York Times : « Il existe toujours un risque qu’en essayant de faire progresser l’intelligence artificielle, nous créions en fait la chose qui nous inquiète ».

Des retombées potentiellement très larges

Les domaines d’application des résultats sont en tout cas très nombreux. Une entreprise telle qu’Amazon pourra ainsi profiter directement des avancées réalisées sur l’apprentissage profond et les réseaux neuronaux. L’intelligence artificielle étant par ailleurs au cœur des voitures autonomes, on imagine qu’Elon Musk attend avec impatience les premiers retours pour enrichir les gammes Tesla. Outils d’analyse et décisionnels, diagnostics médicaux, robots chirurgiens, services en ligne, assistants divers : les champs d’applications ne manquent pas.

On peut se demander enfin si l’initiative n’attirera pas de nouveaux participants dans les prochaines années. Microsoft, Apple, Google ou encore IBM ne sont pas impliqués dans la structure, alors même que ces entreprises investissent lourdement dans ce domaine. En outre, les centres de recherche sur l’intelligence artificielle ne sont pas nouveaux. Par exemple, le co-fondateur de Microsoft, Paul Allen, a déjà créé un institut à but non lucratif l’année dernière, avec les mêmes objectifs. Les universités travaillent elles aussi sur ce type de technologie, notamment Stanford. De son côté, Facebook a déjà lancé son AI Research depuis plusieurs mois.

Le chercheur Eric Horvitz lui a d’ailleurs fait don d’une somme inconnue pour étudier l’impact de l’IA sur le quotidien. Le constructeur Toyota va lui aussi investir un milliard de dollars dans un laboratoire près de Stanford, pour un programme de recherche sur cinq ans qui portera sur l’intelligence artificielle et les technologies robotiques. Qui sait, le transit de masse automatisé de Minority Report n’est peut-être plus si loin.

33
Avatar de l'auteur

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

I'm API

15:12 SécuSociété 0
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

Orange rhabillé pour l'hiver

11:39 DroitWeb 6
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

BAO (Bombardement assisté par ordinateur)

10:42 IA 5

Sommaire de l'article

Introduction

Un budget d'un milliard de dollars pour l'instant

« les chercheurs seront fortement encouragés à publier leurs travaux »

Des retombées potentiellement très larges

Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 0
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 6
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 5

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 47
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 5

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

#Flock a sa propre vision de l’inclusion

Flock 25
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

44
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 20
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 21
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 14
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 6

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 53
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 11

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Des billets volent dans les airs.

Mistral AI s’apprête à lever 450 millions d’euros auprès de NVIDIA et a16z

ÉcoIA 0

GTA VI

Rockstar met en ligne le trailer de GTA VI

Soft 29

Russian drone shot by the State Border Guard Service of Ukraine

La guerre électronique serait la plus grande faiblesse de l’Ukraine, et la principale force de la Russie

HardSécu 7

Debout, une femme en pull bleu montre à une autre, assise, quelque chose à son écran d'ordinateur.

Futur de l’IA : les femmes manquent dangereusement à l’appel

IASociété 11

Logo Spotify avec notes de musique

Spotify licencie 1 500 personnes de plus

ÉcoSociété 13

Wikipedia sombre

Wikipedia aura son thème sombre

Web 15

Commentaires (33)


ExIcarus
Il y a 8 ans

Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….


Jaskier Abonné
Il y a 8 ans

Alors ça, c’est le genre de nouvelle qui fait très peur.

D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.
Mais bon, c’est pas comme si les drones ne chassaient pas en meutes, tels des locustes, et cela, de manière autonome…


js2082
Il y a 8 ans

A quand l’émergence de la singularité “intelligence artificielle”?

 Ce jour-là, ça sera drôle.


FrancoisA Abonné
Il y a 8 ans

HAL a du retard.
On est fin 2015, alors que Stanley Kubrik avait prévu 2001 (pour l’Odyssée de l’espace) ! <img data-src=" />


Obidoub
Il y a 8 ans

Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />
Après on sera plus tranquilles.


Exosta
Il y a 8 ans






Jaskier a écrit :

Alors ça, c’est le genre de nouvelle qui fait très peur.

D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.
Mais bon, c’est pas comme si les drones ne chassaient pas en meutes, tels des locustes, et cela, de manière autonome…


Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.
On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.

L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.



otto
Il y a 8 ans

Putain, les mecs, c’est pas comme si la SF nous avait prévenue…




Exosta a écrit :

Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.
On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.

L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.


VAs faire des recherches sur les bot militaires, ça devrait légèrement modifier ta conclusion <img data-src=" />



MasterDav
Il y a 8 ans






Jaskier a écrit :

Alors ça, c’est le genre de nouvelle qui fait très peur.


Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.



Jaskier a écrit :

D’ici quelques années, on va vraiment avoir Skynet et là, les carottes seront cuites.


Quand on y réfléchit, ce ne serait peut-être pas plus mal.



MasterDav
Il y a 8 ans






Obidoub a écrit :

Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />
Après on sera plus tranquilles.


Même avec la loi zéro en plus des 3 lois d’asmiov ça peut finir sur une quasi extinction de l’espèce humaine.



Ricard
Il y a 8 ans






Obidoub a écrit :

Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />
Après on sera plus tranquilles.


+1. Un peu comme les droits de l’homme. <img data-src=" />



Ricard
Il y a 8 ans






MasterDav a écrit :

Même avec la loi zéro en plus des 3 lois d’asmiov ça peut finir sur une quasi extinction de l’espèce humaine.


Ca serait pas une grosse perte. <img data-src=" />



MasterDav
Il y a 8 ans






MasterDav a écrit :

asmiov


Excusez ma dysgraphie.



0xFlame
Il y a 8 ans






ExIcarus a écrit :

Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….



tu trouve que l’humain est particulièrement intelligent?



Exosta a écrit :

Faut arrêter de brandir Skynet à chaque nouvelle sur l’intelligence artificielle.
On n’en est encore très loin, l’IA est un domaine tout jeune, les vendeurs de singularité, Kurzweil en tête, prêchent la bonne parole uniquement pour intéresser les investisseurs.

L’IA présente déjà des dangers à court terme pour l’homme (transhumanisme et course à la performance entre autre), on n’a pas besoin de montrer des robots qui vont se rebeller contre nous, qui est un fantasme d’auteurs de SF.



c’est tellement vrai, surtout qu’avec les perfs actuels ce serait une intelligence bien lente, n’escompter pas l’apparition d’une véritable IA avant la démocratisation des processeurs quantiques…
(d’ailleurs il y a un film relativement récent mettant en scène l’IA et le méchant de l’histoire c’est l’humain de part sa méfiance généralisé, a méditer…)



theprecursor
Il y a 8 ans

Du très bon toutes ces initiatives qui privilégient le partage de l’information !

Il suffit maintenant que toutes les autres grosses sociétés citées dans l’article mettent en commun leurs efforts, et les avancées n’en seront que plus rapides.
Au final, si l’ia est l’ultime innovation venant de l’homme, autant s’entraider une dernière fois, non ? <img data-src=" />


Koxinga22
Il y a 8 ans






js2082 a écrit :

A quand l’émergence de la singularité “intelligence artificielle”?

 Ce jour-là, ça sera drôle.


Une vidéo sur le sujet de la chaine computerphile : Danger of Global A.I. Ca fait un peu réfléchir.



Obidoub a écrit :

Il faut commencer par bosser sur l’implémentation des lois de la robotique <img data-src=" />
Après on sera plus tranquilles.


Les 3 lois ne sont pas fiables. L’auteur les a créé pour s’amuser à en exposer tous les dysfonctionnements dans ses histoires.



MasterDav a écrit :

Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.

Quand on y réfléchit, ce ne serait peut-être pas plus mal.


La deuxième a créé la première ;)



MasterDav
Il y a 8 ans






Koxinga22 a écrit :

La deuxième a créé la première ;)


Ce qui ne change rien à la donne. Surtout lorsque l’on aura atteint la singularité.



Koxinga22
Il y a 8 ans






otto a écrit :

Putain, les mecs, c’est pas comme si la SF nous avait prévenue…
VAs faire des recherches sur les bot militaires, ça devrait légèrement modifier ta conclusion <img data-src=" />


Pour moi, même une machine armée et pseudo-autonome (I.A.) est moins dangereuse qu’une I.A.G. (I.A. Globale) qui se contenterait de collectionner des timbres. La première obéi bêtement à des ordres, ne serait-ce que ceux de son circuit d’alimentation en énergie. La deuxième “apprend” et s’améliore seule à un rythme qui nous est inconnu (mais des milliards de fois plus vite que nous humains biologiques), elle peut “redécouvrir” les sciences, l’électricité, etc par elle-même, s’émanciper ou prendre le contrôle d’infrastructures existantes et au bout du compte, si pour obtenir plus de timbres il faut dézinguer des humains pour collecter des matières premières, elle le fera sans état d’âme. C’est bien plus dangereux qu’un robot avec un flingue.



Dude76 Abonné
Il y a 8 ans

la loi 0 est aussi d’Asimov :)
D’ailleurs, pour continuer ton propos, on peut aussi préciser qu’Asimov a passé une bonne partie de se écrits (du moins, ses ouvrages sur les robots) à malmener le contexte de ses protagonistes pour au final renverser le paradgime de ces lois et malmener les humains <img data-src=" />


MuadJC
Il y a 8 ans






Koxinga22 a écrit :

Les 3 lois ne sont pas fiables. L’auteur les a créé pour s’amuser à en exposer tous les dysfonctionnements dans ses histoires.

Ses limites, il n’y a pas de dysfonctionnement justement. Elles sont fiables, mais elles ne suffisent pas en soi.
Ça fait d’ailleurs réfléchir au sens de nos lois humaines, leurs limites, et même faire un rapprochement avec les dérives sécuritaires de lois trop peu précises.



ExIcarus a écrit :

Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….

C’est justement parce que l’humanité manque d’intelligence qu’elle en a besoin d’une artificielle^^



MasterDav a écrit :

Perso j’ai moins peur de l’intelligence artificielle que de la connerie naturelle.

Yep.
Sauf que ce sera toujours l’esprit humain imparfait qui aura conçu cette IA, la rendant donc imparfaite aussi.



anonyme_751eb151a3e6ce065481d43bf0d18298
Il y a 8 ans

Le plus important est que l’on soit conscient des dangers, je pense que c’est largement le cas, et vigilants sur les applications que peuvent donner ces recherches.

Mais dans l’idée, tout ce qui peut permettre d’atteindre un monde robotisé où l’homme serait dégagé des travaux pénibles est bon à creuser.

C’est pour bientôt, mon petit Karl, c’est pour bientôt… <img data-src=" />


WereWindle
Il y a 8 ans








ActionFighter a écrit :

C’est pour bientôt, mon petit Karl, c’est pour bientôt… <img data-src=" />


en remplaçant 100% du travail par du capital ?
Va falloir bosser le paradigme de remplacement alors <img data-src=" />



anonyme_751eb151a3e6ce065481d43bf0d18298
Il y a 8 ans






WereWindle a écrit :

en remplaçant 100% du travail par du capital ?
Va falloir bosser le paradigme de remplacement alors <img data-src=" />


C’est bien pour cela qu’il sera nécessaire un jour de revenir aux écrits de Karl, car continuer avec un modèle capital nous priveras de tous les bienfaits de la robotisation en terme de temps de travail <img data-src=" />



the_frogkiller Abonné
Il y a 8 ans






WereWindle a écrit :

en remplaçant 100% du travail par du capital ?
Va falloir bosser le paradigme de remplacement alors <img data-src=" />


un peut comme dans La Culture.



MasterDav
Il y a 8 ans






Dude76 a écrit :

la loi 0 est aussi d’Asimov :)
D’ailleurs, pour continuer ton propos, on peut aussi préciser qu’Asimov a passé une bonne partie de se écrits (du moins, ses ouvrages sur les robots) à malmener le contexte de ses protagonistes pour au final renverser le paradgime de ces lois et malmener les humains <img data-src=" />


Je n’ai pas dit le contraire <img data-src=" />
A noter aussi que les lois ont évolué avec le temps, même si au final le problème d’interprétation n’est pas résolu.


Sauf que ce sera toujours l’esprit humain imparfait qui aura conçu cette IA, la rendant donc imparfaite aussi.

Non: singularité.



Winderly Abonné
Il y a 8 ans

Dans les jeux vidéos (actuels, à venir ou anciens), il y en a beaucoup qui pourraient en profiter. Parce que pour beaucoup, l’IA brille par son absence.

La série des Twisted Metal est un exemple classique, les véhicules contrôlés par l’ordinateur ont un nombre illimité de coups spéciaux (pour compenser leur intelligence pathétique).

Dans Alerte Rouge, augmenter le niveau de difficulté a pour effet concret de réduire les temps de construction des camps gérés par l’ordi en plus court que ceux des joueurs humains.

Et ainsi de suite, les exemples manquent pas. <img data-src=" />


Winderly Abonné
Il y a 8 ans






ExIcarus a écrit :

Il suffit d’ouvrir un journal , constater l’étendue des dégats de l’intelligence humaine , refermer le journal , se demander si ca serait pas mal de transposer cette intelligence artificiellement….


Je pense que les dégâts sont pas encore suffisants pour que ça vaille la peine (après c’est mon avis perso et on est tous le con d’un autre (j’ai oublié de qui c’est)).



Koxinga22
Il y a 8 ans






Winderly a écrit :

Dans les jeux vidéos (actuels, à venir ou anciens), il y en a beaucoup qui pourraient en profiter. Parce que pour beaucoup, l’IA brille par son absence.

La série des Twisted Metal est un exemple classique, les véhicules contrôlés par l’ordinateur ont un nombre illimité de coups spéciaux (pour compenser leur intelligence pathétique).

Dans Alerte Rouge, augmenter le niveau de difficulté a pour effet concret de réduire les temps de construction des camps gérés par l’ordi en plus court que ceux des joueurs humains.

Et ainsi de suite, les exemples manquent pas. <img data-src=" />


Je ne crois pas que ce soit l’objectif du chantier d’Elon Musk :) (encore que …)
Mais si tu veux mesurer tes skills face à une intelligence humaine ou comparable, il y a le PvP <img data-src=" />



DniMam
Il y a 8 ans

Pour l’instant, on ne sait pas créer de conscience. Peut-être dans 100 ans on verra un début. En attendant, son usage reste limité par son matériel (processeur, ram et répartition des taches)…matériellement internet ce reproche plus d’une structure d’un cerveau.


anonyme_1abc20f12051749d957ab56a373a0ef3
Il y a 8 ans






FrancoisA a écrit :

HAL a du retard.
On est fin 2015, alors que Stanley Kubrik avait prévu 2001 (pour l’Odyssée de l’espace) ! <img data-src=" />



Euh, ça serait pas Arthur C. Clarke plutôt?….



MasterDav
Il y a 8 ans

Seulement pour ceux qui savent lire.


claneys Abonné
Il y a 8 ans






theprecursor a écrit :

Du très bon toutes ces initiatives qui privilégient le partage de l’information !

Il suffit maintenant que toutes les autres grosses sociétés citées dans l’article mettent en commun leurs efforts, et les avancées n’en seront que plus rapides.
Au final, si l’ia est l’ultime innovation venant de l’homme, autant s’entraider une dernière fois, non ? <img data-src=" />


C’est très bien oui, mais avoir des initiatives séparées est aussi une bonne chose. Il n’y a pas qu’une unique solution ou voie pour y arriver. :)



bamaskid
Il y a 8 ans

Pas facile de “créier” une vraie IA…
Peut-être est-ce juste impossible.