Qu’attendre du futur ? De l’intelligence artificielle à l’humain augmenté
Tout ça pour finir dans la matrice
Notre dossier sur les découvertes scientifiques, les promesses pour l'avenir :
Le 28 octobre 2019 à 15h24
16 min
Sciences et espace
Sciences
Après avoir regardé dans le rétroviseur des 20 dernières années de la science (au sens large), tournons les yeux vers l'avenir. Les promesses sont nombreuses : développement de l'intelligence artificielle, informatique quantique, santé 2.0, humain augmenté, révolution du stockage...
Dans la première partie de notre dossier sur 20 ans de découvertes scientifiques, nous étions revenus sur le séquençage du génome humain, la découverte du graphène, la blockchain, le bitcoin, les ondes gravitationnelles, le boson de Higgs, la conquête et la compréhension de l'univers, le transport du futur, etc.
- Du génome aux nouveaux modes de transport, retour sur 20 ans de découvertes scientifiques
- Qu'attendre du futur ? De l'intelligence artificielle à l'humain augmenté
L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)
Si nous n’avons pas cité l'intelligence artificielle dans les révolutions scientifiques des 20 dernières années, c’est tout simplement car elle est bien plus ancienne. On retrouve des traces de machines « pensantes » dans la science-fiction dès les années 1920.
En 1950, c’était au tour des scientifiques de s’intéresser au sujet, sous l’impulsion du célèbre mathématicien Alan Turing et de son article « L’ordinateur et l’intelligence ». Il expose également un test pour savoir si une machine s’approche d’une intelligence humaine : « le jeu de l'imitation », plus connu sous le nom de test de Turing.
Les travaux de recherches sont nombreux et, en 1956 (en même temps que le premier disque dur), le premier logiciel d’intelligence artificielle est créé par Allen Newell et Herbert Simon : Logic Theorist. « Il réalise tout seul des démonstrations de théorèmes mathématiques », explique le CEA. Un an plus tard, en 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un réseau de neurones : le Perceptron. Bref, l’intelligence artificielle existait déjà dans les années 50.
Ce n'est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques : le premier chatbot était né. Toujours en 1965, les premières questions autour de l’éthique et critiques sont soulevées par Hubert Dreyfus. Il met notamment en avant les émotions, absentes des algorithmes.
Après des « hivers », l'âge d’or de l’intelligence artificielle
L’histoire de l’intelligence artificielle est ensuite jalonnée de haut et de bas. Le premier « hiver de l’IA » est arrivé à la fin des années 1960. Passé la « hype » du moment, la désillusion a pris place face aux piètres performances des machines de l’époque. La science-fiction en fait par contre ses choux gras avec des films comme 2001 l’Odysée de l’Espace (1968), Star Wars (1977, avec les droïdes D2R2 et C-3PO) et Wargames (1983) pour ne citer que ces trois-là.
Il faudra attendre les années 80 pour que les investissements sur ce sujet reprennent, avec le développement des « systèmes experts » capables de remplacer l’homme dans des domaines bien précis. Une période de courte durée puisque l’ordinateur personnel concentrait les attentions et les investissements dès la fin des années 80.
L’intelligence artificielle revient dans les années 90, poussée par la puissance des ordinateurs. Ce duo va d’ailleurs faire des merveilles et continue aujourd’hui : l’augmentation exponentielle de la puissance de calcul et des capacités de stockage permettent d’améliorer toujours plus les IA.
Elle a d'ailleurs quelques faits d’armes : en 1997, l’application de reconnaissance vocale NaturallySpeaking 1.0 de Dragon System débarque sur Windows. La même année, Deep(er) Blue bat le champion d’échec Garry Kasparov. La première partie a fait couler beaucoup d’encre car l’intelligence artificielle a joué un coup très surprenant en sacrifiant un pion.
Mais, ce qui avait été pris pour « un signe d'intelligence supérieure » pourrait n’être qu’un bug car la machine n’arrivait pas à se décider entre plusieurs possibilités…. 20 ans plus tard, AlphaGo dépasse les humains au jeu de Go. L’intelligence artificielle n’en restera évidemment pas là. Elle s’attaque désormais aux compétitions de jeux vidéo.
Grâce aux réseaux de neurones, à la puissance de calcul et aux bases de données qui explosent, les IA ne peuvent en effet que s’améliorer. Les prochaines années promettent d’être passionnantes sur ce point. Il reste néanmoins beaucoup de travail pour arriver à une intelligence artificielle « réellement intelligente ». Ceux qui ont testé Google Assistant, Amazon Alexa ou Siri d’Apple voient bien de quoi il est question.
Un exemple parmi tant d’autres : demandez à un assistant numérique « Un hippopotame sait-il jouer de la flûte ? ». Vous aurez droit à des recherches sur les hippopotames, des actualités surprenantes avec un rapport plus ou moins éloigné au sujet (surtout plus que moins) et... rien de plus. Demandez la même chose à un enfant de cinq ans, il vous répondra probablement du tac au tac (sans doute en riant), même s’il ne s’était jamais posé cette question auparavant.
Une IA « forte » dans les 15 prochaines années ? Pas si vite...
Cependant, il n’y a que peu de chance qu’une IA forte, c’est-à-dire ayant conscience d’elle-même, n’arrive dans les 15 prochaines années... pour peu qu'elle puisse un jour être développée. Comme le rappelle le spécialiste Yann LeCun : « nous ne connaissons toujours pas les principes de l'apprentissage prédictif (aussi appelé apprentissage non supervisé). C'est ce type d'apprentissage qui permet aux humains (et aux animaux) d'acquérir du bon sens ».
Quoi qu’il en soit, la course à l’IA est lancée depuis des années, notamment du côté des fabricants de puces qui se battent à coups de millions/milliards de FLOPS. Les supercalculateurs sont de plus en plus nombreux, et l’Europe ne compte pas se laisser distancer. Elle veut occuper pas moins de trois places dans le top 5 d’ici 2020.
La puissance de calcul actuelle de la machine la plus rapide dépasse les 100 pétaflops, se rapprochant doucement mais sûrement du Graal : un exaflops, soit 1 000 pétaflops ou un milliard de milliards d’opérations par seconde. Pour certains scientifiques, il s’agit d’une « frontière symbolique puisqu’elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain », bien que soit encore à prouver. Et il reste à trouver les algorithmes capables de simuler un cerveau humain. Sur ce sujet, les prochaines années promettent d’être passionnantes.
L’informatique quantique...
Toujours dans le domaine de l’informatique, la physique quantique prend une place de plus en plus importante. Un calculateur quantique serait le Saint Graal avec une puissance de calcul sans commune mesure, mettant à mal certains systèmes de chiffrement… même si nous n’y sommes pas encore.
Le système RSA et les autres algorithmes asymétriques (avec des clés privées et publiques) pourraient devenir obsolètes du jour au lendemain. Mais il faut relativiser : les calculateurs quantiques actuels sont encore très loin d’avoir suffisamment de qubits (ou bits quantiques) pour espérer rivaliser, et il n’est pas si facile d’en ajouter puisque la cohérence quantique du système doit être maintenue. Sans entrer dans les détails, ce n’est pas une mince affaire.
Les algorithmes sont en tout cas déjà prêts, notamment celui de Shor pour factoriser un nombre. La relève n’a pas attendu, avec des algorithmes post-quantiques justement capables de résister à des calculateurs quantiques existant déjà. Certaines sociétés sont déjà en train de les tester en situation. Bref, le jeu du chat et de la souris entre les systèmes de chiffrement et les pirates durera encore longtemps.
Mais lorsque des ordinateurs quantiques suffisamment performants seront disponibles, il sera bien plus facile de décrypter d’anciens messages. La NSA, par exemple, conserve bien au chaud des données chiffrées interceptées pour les décrypter plus tard, lorsqu’elle aura une puissance de calcul suffisante.
Si les algorithmes asymétriques comme le RSA tomberont les premiers, les symétriques (AES par exemple) continueront à résister. En effet, un ordinateur quantique ne serait « que » deux fois plus rapide qu’un ordinateur classique sur de l’AES. Il suffira donc de doubler la taille des clés pour revenir au même niveau de sécurité.
... et la question de la « suprématie »
Fin 2019, nous sommes à un tournant (symbolique) : Google affirme avoir atteint la suprématie quantique avec sa puce Sycamore comprenant 53 qubits (des bits quantiques). Pour le CNRS, il s'agit « de prouver expérimentalement l’avantage du quantique sur le classique pour un algorithme donné ».
Google affirme que sa machine aurait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». Mais tout le monde n'est pas du même avis, à l'image d'IBM dont la contre-attaque ne s'est pas fait attendre. Pour Big Blue, la même tâche aurait pu être réalisée en 2,5 jours seulement sur un supercalculateur, voire moins avec des optimisations supplémentaires.
Mais peu importe : la barrière est symbolique, mais elle offre une visibilité importante pour la société qui arrive à la dépasser. La suprématie ne signifie pas en effet que les calculateurs quantiques vont mettre à mal la sécurité et le chiffrement du jour au lendemain. Il reste du travail et à multiplier les qubits, ce qui est tout sauf simple puisqu'il faut dans le même temps maintenir la cohérence quantique de l'ensemble.
Rappelons enfin que les machines quantiques n'ont pas vocation à remplacer les ordinateurs de bureau. Elles seront spécialisées dans le traitement de certaines instructions qu'elles pourront réaliser sans commune mesure avec les supercalculateurs.
Machine quantique de Google et processeur Sycamore
La révolution de la santé est en marche
Autre domaine ayant le vent en poupe : la santé. Il est boosté par l’intelligence artificielle pour aider aux diagnostics, la robotique et la réalité virtuelle pour des opérations à distance, l’impression 3D pour des organes, etc.
Pour le docteur Guy Vallancien, chirurgien et membre de l'Académie nationale de médecine et membre de l'Office Parlementaire d'Évaluation des Choix Scientifiques et Technologiques (OPECST), « l'hôpital du futur ressemblera à tout, sauf à ce que l'on connaît aujourd'hui ».
Il livre ses prédictions à la mutuelle nationale des hospitaliers et des professionnels de la santé et du social (MNH), en reconnaissant tout de même qu’il « est difficile d’avoir une vision précise » car « l’explosion technologique sera exponentielle dans les 15 prochaines années » :
« On peut imaginer demain un hôpital hors les murs, dans une logique de partenariats ouverts avec les maisons de santé, les libéraux… Les centres hospitaliers seront remplacés par des Groupes médico-universitaires qui inonderont les territoires.
Le recours massif aux technologies médicales, que ce soient les robots chirurgiens, les applications de santé, les outils de la télémédecine, l’imagerie médicale ou simplement les ressources de l’informatique, devra permettre au médecin de déléguer à des techniciens, des infirmières, mais aussi aux malades eux-mêmes, de nombreuses tâches qui lui incombaient jusqu’alors. Le médecin devrait alors se concentrer sur l’écoute, l’accompagnement et la décision. »
Puisqu’on parle de santé, terminons avec un mot synonyme de doux rêve pour certains et de peur pour d’autres : transhumanisme, alias l’humain augmenté.
L’encyclopédie Universalis explique que cette notion « repose sur la conviction, propagée par un nombre croissant de scientifiques et de futurologues, qu’une évolution voulue, orientée, choisie de l’espèce humaine est désormais possible, en s’appuyant sur des techniques nouvelles qui permettent d’intervenir non seulement sur l’individu mais aussi, à travers lui, sur l’espèce ».
L’humain augmenté, bientôt sur une clé USB ?
Le but ultime serait de fusionner l’homme et la machine, en « téléchargeant » par exemple son cerveau sur une entité numérique. Là encore, la science-fiction a pris les devants. Un des derniers exemples en date : Lucy, de Luc Besson, qui finit dans une clé USB.
« Transférer l’esprit, les émotions, le sens critique, l’humour ou l’analyse de la pensée d’autrui depuis le cerveau vers une puce afin d’aboutir à une vie éternelle débarrassée d’un cerveau vieillissant, est un fantasme de quelques mégalomanes », affirment les neuroscientifiques Jean Mariani et Danièle Tritsch.
Pour les deux chercheurs du CNRS, « derrière le mythe transhumaniste s’avance masquée une gigantesque toile d’intérêts économiques. Les transhumanistes sont le pur produit d’une société où les puissances de l’argent, banques, multinationales industrielles et politiques règnent en maîtres ».
Pour eux, « il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en seront faits ».
L’ADN remplacera-t-il les disques durs et SSD ?
Et puisque l’on aborde les interactions vivant/machine, parlons stockage dans l’ADN. C’est potentiellement une technologie d’avenir. Elle est prometteuse sur plusieurs points : une densité sans commune mesure avec les systèmes actuels – on parle d’un zettaoctet (1 000 000 To) par gramme – et une longévité qui se chiffre en milliers d’années. Reste néanmoins deux gros points noirs : sa mise en œuvre et son prix.
Début 2017, des chercheurs annonçaient avoir franchi un cap avec une densité à faire pâlir tous les stockages magnétiques ou flash : 215 pétaoctets (soit 215 000 To) par gramme. Il était alors question d’un tarif approximatif de 3 500 dollars... par Mo. On vous laisse faire le calcul pour un gramme.
Début 2019, quatre chercheurs de l’université de Washington et de Microsoft réussissaient un petit exploit dans l’utilisation de l’ADN : coder et lire le mot « hello » avec un système entièrement automatisé de bout en bout ; une première selon les scientifiques.
Avant que le stockage de données sur l’ADN arrive, il faut réussir à automatiser le processus et diminuer le coût, faute de quoi cette technologie sera mort-née. La densité qu’elle fait miroiter combinée à l’explosion année après année des données produites explique que de nombreux chercheurs planchent sur le sujet. Trouveront-ils une solution viable dans les quinze prochaines années ? Impossible de se prononcer à l’heure actuelle.
Prudence et esprit critique pour les prochaines années
Comme on vient de le voir, des découvertes scientifiques majeures peuvent prendre du temps avant de déboucher sur des utilisations concrètes et à grande échelle (pour celles qui arrivent à percer). Regarder 20 ans en arrière permet d’esquisser les tendances des 20 prochaines années, mais nous ne sommes pas à l’abri d’une découverte inattendue venant tout chambouler.
Il faut rester vigilant sur les annonces et les usages, notamment celles autour de l’intelligence artificielle qui ont tendance à faire passer un algorithme pour une IA, ou une simple base de données pour une blockchain. Un conseil qu’il convient finalement d’appliquer à tous les domaines de recherche. Il est primordial de regarder au-delà des effets d’annonces, qui bien trop souvent flirtent ou même embrassent le sensationnalisme.
Les reprises dans les médias sont parfois en cause, en sacrifiant la portée réelle des faits sur l’autel du clickbait. Mais certains scientifiques, instituts et sociétés sont parfois à blâmer en essayant de faire passer des vessies pour des lanternes, pour la simple visibilité. Bref, il faut savoir se poser les bonnes questions, dépasser le titre ou le résumé de quelques lignes, qui font forcément l’impasse sur les zones d’ombres.
Il faut également éviter d’extrapoler, sans pour autant minimiser. Par exemple, on ne compte plus les publications scientifiques et les promesses affirmant révolutionner le monde des batteries/piles… mais force est de constater que pas grand-chose ne change. D’un autre côté, observer directement des ondes gravitationnelles ou un trou noir est bien plus important qu’il n’y paraît.
N'est pas Isaac Asimov qui veut
Pour un Isaac Asimov capable de faire des prédictions avec une justesse effrayante et un scientifique de la trempe d’Albert Einstein, combien d’autres se sont copieusement trompés dans leurs prédictions ou hypothèses ? Pas facile en effet de deviner le succès d’un produit ou d’une idée, ni son avenir.
Qui aurait prédit il y a dix ans qu’un bitcoin vaudrait un jour plus de 20 000 dollars ? En revenant en 1976, qui aurait pu prédire la situation aujourd’hui diamétralement opposée d’Apple et du Concorde, tous deux lancés la même année ?
Après avoir évité la faillite dans la fin des années 90, la marque à la Pomme est devenue la première entreprise au monde à dépasser les 1 000 milliards de dollars de capitalisation. Elle reste depuis des années l’une des plus puissantes et influentes du globe. De l’autre côté, il n’existe plus aucun avion de ligne supersonique commercialement en circulation.
Vous pouvez tenter votre chance en essayant de deviner quelles seront les technologies d’avenir dans 10, 15 ou 20 ans. Notez-les dans un coin ou enfermez-les dans une capsule temporelle pour les retrouver plus tard et les comparer à la réalité.
Qu’attendre du futur ? De l’intelligence artificielle à l’humain augmenté
-
L’intelligence artificielle ne date pas d’hier (ni d’avant-hier)
-
Après des « hivers », l'âge d’or de l’intelligence artificielle
-
Une IA « forte » dans les 15 prochaines années ? Pas si vite...
-
L’informatique quantique...
-
... et la question de la « suprématie »
-
La révolution de la santé est en marche
-
L’humain augmenté, bientôt sur une clé USB ?
-
L’ADN remplacera-t-il les disques durs et SSD ?
-
Prudence et esprit critique pour les prochaines années
-
N'est pas Isaac Asimov qui veut
Commentaires (34)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 30/10/2019 à 15h12
Le 30/10/2019 à 16h08
Si je me souviens bien c’était un doc sur Arte, mais l’article que tu donnes en lien est instructif " />
" />
Le 30/10/2019 à 17h48
Ce que je trouve très fort dans ce billet conséquent, c’est de questionner “qu’attendre du futur ?” sans jamais lâcher le mot “progrès”
Le 30/10/2019 à 19h15
Le 30/10/2019 à 20h02
Absolument, je n’étais pas dans l’ironie. J’suis sur téléphone, pas su y mettre le bon smiley…
L’auteur a donc été très bon !
Le 30/10/2019 à 22h07
Le 28/10/2019 à 23h18
Y’a quinze-vingt ans, je pensais que le stockage holographique (https://fr.wikipedia.org/wiki/M%C3%A9moire_holographique) allait être la prochaine révolution. Visiblement, j’avais tort ¯\_(ツ)_/¯
Sinon, deux dessins de XKCD qu’il est bon de rappeler quand il s’agit de faire des prédictions : https://xkcd.com/678/ et https://xkcd.com/1497/
Le 29/10/2019 à 03h10
j’au lu un papier scientifique sur ce sujet ce week end et pour répondre a cela il faut rendra dans des maths vraiment très pousse.
Est-ce vraiment nécessaire ici ? je ne crois pas
Le 29/10/2019 à 03h18
un convoluted neural network est en effet assez con.
chaque node a une fonction mathématique d’activation et un poids (parametre).
Tu lui donnes une image, il sort un résultat. tu lui dit que c’est mauvais, il change ses poids pour avoir un resultat different, ainsi de suite des millions de fois jusqu’à ce que le résultat soit moins mauvais, et tada ! je te vend de l’AI
Le 29/10/2019 à 08h27
J’avais lu ou entendu que le terme d’origine pour notre - mauvaise - traduction “intelligence artificielle”, à savoir “artificial intelligence”, était déjà un terme marketing qui jouait sur le double sens de “intelligence” en anglais. En fait, les premiers à avoir travaillé sur le sujet ont plus ou moins essayé de faire croire qu’ils allaient faire un ordinateur “intelligent” pour récupérer des financements, alors que le mot “intelligence” était en fait plus à prendre dans le sens de “Central Intelligence Agency”, à savoir l’analyse de renseignements. Parce que c’est quand même beaucoup plus de ça qu’il s’agit: on a une masse de données existantes, et on essaie de faire rentrer de nouvelles données dans les cases identifiées avec les anciennes. Et il n’y a clairement rien de vraiment “intelligent” là-dedans…
Quand on sait vaguement comment ça marche et les limitations que ça a, les fantasmes que ça peut générer font quand même un peu doucement rigoler…
Le 29/10/2019 à 09h16
“Le Graal : un exaflops[…]elle peut être assimilée à la capacité de traitement de l’information d’un cerveau humain”
Sauf qu’on ne connait pas clairement le fonctionnement du cerveau, surtout sa capacité d’apprentissage.
Avec un exaflop on aurait peut-être la machine mais pas le logiciel.
On reproduit des réseaux de neurones en informatique qu’on arrive à rendre “intelligent” en les gavant de données sur un sujet particulier.
Sauf que mon cerveau il n’a pas été instruit par un data-scientist!
J’ai appris à parler tout seul en quelques années simplement en écoutant et observant mes parents, personne ne m’a balancé -façon Orange Mécanique- un million d’images d’éléphants avec électrochoc tant je ne disais pas éléphant :)
Le cerveau apprend tout seul parfois dans la douleur “aïe la porte du four est chaude”, parfois par répétition par exemple à l’école, et souvent tout seul par raisonnement. Et là le raisonnement c’est complètement de la science-fiction : on ne comprend pas ces mécanismes qu’on ne peut pas reproduire.
Penser qu’un exaflop permettra de donner Raison à nos algos pourquoi pas où alors ils seront simplement plus rapidement conplètement hors sujet, et nécessiteront encore plus de parents data-scientist.
Le 29/10/2019 à 09h42
peut être ça….
https://siecledigital.fr/2018/12/10/les-failles-des-algorithmes-sont-dangereuses…
Le 29/10/2019 à 10h16
Le 29/10/2019 à 10h33
Alors, petite précision : les “neurones” dans les réseaux de neurones artificiels ressemble autant à un vrai neurone humain que l’aile d’un avions ressemble à une aile d’oiseaux.
Pour faire simple, on utilise le terme neurone car ça ressemble dans son fonctionnement :
ça prend plein d’entrée, ça applique un poids individuellement, ça somme tout ça d’une certaine façon et après, ça applique une fonction d’activation (le neurone biologique par exemple va rester éteint sur la valeur est trop faible et ensuite je crois que l’activation est plutôt une courbe qui atteint un palier). Mais derrière, pour le réseau de neurone d’un point de vu mathématique, c’est une fonction linéaire suivie d’une fonction non linéaire : autrement dit, c’est surtout des outils mathématiques.
Pour l’apprentissage, il existe ce que l’on appelle l’apprentissage par renforcement : à chaque unité de temps, la machine reçoit une récompense (ou une punition) et son but est de maximiser sa récompense globalement. Un bon système d’apprentissage par récompense va même pouvoir volontairement passer par une phase de punition car derrière il y a une espérance de un gain plus importante (oui, une histoire de probabilité). Il me semble que c’est ce qu’il y a derrière AlphaGo (qui joue au jeu de Go) et AlphaStar (qui joue à starcraft)
J’avais même lu qu’on essaie de développer des algo qui apprennent à apprendre (meta-learning : meta apprentissage ?).
Le 29/10/2019 à 11h43
le Concorde est mort à partir du moment ou Kennedy a passé son coup de fil au patron de la PanAm pour lui interdire d’en acheter… Ensuite l’exploitation des rares avions construit était dépendante du rapport coût / bénéfice d’image dont Air France et British Airways bénéficiaient grâce au plus beau et rapide avion civil de l’histoire.
Le 29/10/2019 à 13h17
Le 29/10/2019 à 13h43
Le 29/10/2019 à 13h50
Pour les empreintes, je pense que l’on est sur un algo plus classique. Le principe de base, c’est une image noir est blanc de ton empreinte, retrouver des motifs particulier dans les tracés (les minuties) et ensuite, a partir d’une certain nombre déterminer si l’agencement de ces point de repère colle avec celui que l’on connais.
Le fait de passer plusieurs fois le doigt, je pense que c’est pour avoir une “plage acceptable”. En passant plusieurs fois ton doigt dessus, tu obtient une notion de variabilité, ça va permettre du coup de connaître la plage “acceptable” (et même potentiellement déterminer si elle est solide où qu’elle accepte n’importe quoi)
Les réseaux de neurones ne sont pas forcément nécessaire et serait sûrement un peu overkill.
Cependant, il pourrait permettre de repérer efficacement les points de repère (puis derrière le reste de l’algo classique)
Mais on peut aussi imaginer faire du réseau de neurones de bout en bout, en apprenant au réseau à encoder sur une centaine de valeur une empreinte digitale de tel sorte que ce code soit similaire pour 2 empreintes similaire, et différentes pour 2 empreintes différente, lui laissant trouver par lui même comment faire la distinction.
Le 29/10/2019 à 14h09
Le 29/10/2019 à 14h34
J’aime pas trop cette interprétation non plus. Autant pour un extérieur, cette simulation sera indiscernable de moi, donc un autre peut considérer qu’elle est moi. Par contre de mon point de vue, aussi parfaite soit-elle, il n’y a pas de continuité entre moi et cette simulation. Je ne pourrai jamais considérer qu’elle est moi.
Ce qui peut être dérangeant par contre, c’est que je n’ai aucun moyen de savoir si je ne suis pas déjà cette simulation " />
Le 29/10/2019 à 16h26
le premier article avait un peu plus de bio, donc pour compléter celui-ci je me lance dans quelques prédictions, à dans 10 ans donc ;) :
Le 29/10/2019 à 19h29
Le 28/10/2019 à 16h19
Petite critique sur l’article : ce que vous utilisé pour “intelligence artificielle” est généralement de l’apprentissage automatique. Je n’aime pas le terme “intelligence artificielle” qui est plus souvent utilisé pour faire du racolage que pour son vrai sens. En effet, cette expression est très difficile à définir et généralement on limite ça à un mécanisme qui donne une impression d’intelligence. Le mot “impression” est très important dans la définition.
On a donc de l’autre coté l’apprentissage automatique, aussi connu sous le nom d’apprentissage statistique (avec un tel mot, tu fais fuire le public) ou machine learning pour les anglophones. Là, ça fait référence a quelque chose de plus précis et définissable. Une machine qui fait de l’apprentissage automatique, c’est machine qui s’améliore dans la réalisation d’une tache à l’aide d’expériences.
Donc, bien souvent l’apprentissage automatique est inclus dans l’intelligence artificielle, cependant, une simple régression linéaire fait avec Excel (c’est la base d’une partie des algo dans scikit-learn) peut être assimilé à un apprentissage automatique, mais c’est plus difficile de se dire que c’est de l’intelligence artificielle, l’impression d’intelligence n’étant pas vraiment là.
Dans les type d’apprentissage automatique, celle qui est beaucoup médiatisé ces dernières années, c’est l’apprentissage profond (deep learning). Cette technique a pas mal d’intérêt et offre une certaine souplesse. Mais on reste sur un apprentissage qui nécessite un très grand nombre d’exemple pour réaliser une tache. Dans l’exemple classique, un enfant tu lui montre 2-3 images d’un éléphant, il sera reconnaître une éléphant, un machine, même après 1000 images, tu n’es pas sûr d’identifier une image d’éléphant et de toute façon il sera toujours incapable de faire autre chose d’autre. L’avenir sera sûrement un algo qui saura combiner les connaissances déjà acquise. Et ça, on ne l’a pas encore.
Le 28/10/2019 à 16h35
Sébastien, bien qu’il s’agisse nécessairement d’une chose un peu arbitraire, dans les trucs automatiques et qui sont doués d’une intelligence artificielle, tu as la chouette d’Aristote dans la Politique, te permettant de dater l’invention de l’IA à -320 av JC (cf. Héphaïstos)
Le 28/10/2019 à 16h42
Tiens d’ailleurs ça me fais penser à une réflexion que faisait un gars dans un documentaire (dont je ne me souviens plus du titre) à propos des taux de réussite pour reconnaitre une image, comme un éléphant par exemple (exemple totalement au hasard " />).
Le gars expliquait que les échecs ou succès de reconnaissance étaient totalement délirants, par exemple un éléphant en premier plan pouvait ne pas être reconnu par “l’IA”(alors que pour un humain ça lui sauterai au yeux) et dans d’autres cas ou l’éléphant était limite introuvable pour un être humain l’IA le trouvait.
Bon je sais pas si j’ai été bien clair ! tout ça pour dire qu’une “IA” ne “voit” pas comme nous (à méditer sur le succès ou l’échec de la reconnaissance faciale).
Le 28/10/2019 à 16h44
Ce n’est pas tout : en 1965, Joseph Weizenbaum présente ELIZA, un programme informatique capable de remplacer une personne pendant des entretiens thérapeutiques.
Non, il n’était pas capable de cela.
Il était juste capable de relancer sans cesse à partir de la dernière phrase du pseudo patient. Il était loin d’être un thérapeute.
Bref, c’était une farce.
Sinon, ça sert à quoi une phrase comme celle-là “Sans entrer dans les détails, ce n’est pas une mince affaire.” dans un article journalistique ?
Le 28/10/2019 à 16h51
Concernant la comparaison du Concorde et Apple… au-delà de l’illustration parfaite de l’impossibilité de prévoir l’avenir (le supersonique n’existe plus en 2020 mais l’ordinateur personnel s’est démocratisé), on peut également comparer Apple des années 2000 avec le Minitel car Apple aujourd’hui, c’est surtout l’iPhone, le terminal qui sert à obtenir de l’information sur un écran (tous les services que France Telecom et SFR ont essayer de transposer en vain sur mobile avec le wap avant l’avènement de l’UMTS, appelé maintenant 3G).
Et on peut se rappeler IBM qui n’a pas cru à l’essor de l’ordinateur personnel dans les années 1970 et qui a mangé son chapeau face à Microsoft avant de revenir dans la course au cloud maintenant que tout le monde court après l’Eldorado du Big Data.
Le 28/10/2019 à 16h58
Le 28/10/2019 à 17h03
[quote:6149940:joma74fr]Concernant la comparaison du Concorde et Apple… au-delà de l’illustration parfaite de l’impossibilité de prévoir l’avenir (le supersonique n’existe plus en 2020 mais l’ordinateur personnel s’est démocratisé),[quote]
Et pour le coup, on aurait très bien pu avoir le concorde qui fonctionne actuellement (sans avoir subi son premier accident si tôt) et Apple dans les choux à cause d’un incident personnel qu’aurait pu avoir Steve Jobs. Cela ne tient pas à grand chose.
Le 28/10/2019 à 17h10
En effet, les algo d’apprentissage profond ne voient pas vraiment comme nous.
La technique généralement utilisé pour les image s’appelle les couches de convolution, dont justement Yann LeCun est celui qui les as rendu célébre. Comme il dit, c’est autant inspiré des neurones de la vision qu’un avion est inspiré des oiseaux.
Je ne sais pas forcément très bien l’expliquer, mais un réseau de neurone va être assez brute dans sa façon de traiter une image et manque de souplesse qu’aurait un humain. Souvent, pour éviter ce genre de problème, il y a des astuce comme bruiter volontairement les images, redécouper, faire de rotation…
Cependant, ça a ces limite, ça reste une montagne de calculs derrière. Ainsi, telle l’effet papillion, en modifiant très légèrement une image de panda le faire dire que c’est un gibbon où à n’importe quoi d’autre que c’est une autruche.
Le 28/10/2019 à 17h12
Pour la partie éléphants, cela dépends du type d’algorithme. Si tu prends du few shot learning, ça fonctionnera vraiment très bien et à partir de 1-5 images.
Le 28/10/2019 à 17h16
Pour ajouter une référence bibliographique, cela me rappelle le livre d’Eric de Riedmatten, XXIème siècle, les innovations qui vont bouleverser votre vie, publié en 2006. Je n’avais lu que le début, mais je ne me souviens pas qu’il ait mentionné l’iPhone et le bitcoin.
Le 28/10/2019 à 19h15
Le 28/10/2019 à 21h49
L’accident a mis un point final à la carrière du Concorde mais il était voué à s’arrêter de toute façon, bien trop énergivore et trop peu rentable. A partir de la crise pétrolière de 73 son sort était scellé.
[quote=Wikipedia]
Avant le désastre, Air France et British Airways voulaient maintenir le Concorde en exploitation jusqu’en 2007 voire 2017, l’appareil n’étant néanmoins rentable qu’avec un faible coût du carburant et les subventions publiques
[/quote]
C’est ce même manque de rentabilité qui a fait que le Concorde n’était plus exploité que sur la seule ligne Paris-NY depuis 1983.
Edit: quote de porc…