Une étude pointe les possibles effets pervers et dangers de l’intelligence artificielle
FAKE NEWS
Notre dossier sur le rapport du Future of Humanity Institute sur l'intelligence artificielle :
Le 26 février 2018 à 10h17
12 min
Sciences et espace
Sciences
Phishing parfaitement calibré pour une cible, malware avec une incroyable capacité d'adaptation, robot détourné de sa fonction première pour identifier et détruire une cible, système prédictif de perturbation civile et « fake news ». Voici quelques exemples des dérives possibles de l'intelligence artificielle, mises en avant dans un (très) long rapport.
26 chercheurs provenant de 14 institutions d'horizons variés ont publié la semaine dernière un texte commun d'une centaine de pages dans lequel ils entendent mettre en garde contre une potentielle « utilisation malveillante de l'intelligence artificielle ».
Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d'Oxford, de l'alliance OpenAI pour la recherche ouverte sur l'IA, du Centre pour l'étude des risques existentiels (CSER) et de l'Electronic Frontier Foundation (EFF) pour ne citer qu'eux.
Encore un bilan sur les risques de l'intelligence artificielle
Baptisé « L'utilisation malveillante de l'intelligence artificielle : prévision, prévention et atténuation », il distille les résultats d'un atelier du Future of Humanity Institute organisé en février de l'année dernière. Le thème principal était justement les risques potentiels de l'intelligence artificielle, un sujet anxiogène pour certains.
On y retrouve également des recherches supplémentaires de la part des auteurs, ainsi que des contributions externes. Ils remercient par exemple des employés de Google/DeepMind, de Microsoft, des chercheurs de l'université de Carnegie-Mellon, des philosophes (Toby Ord et Nick Bostrom), le spécialiste de la nanotechnologie Kim Eric Drexler, etc.
Ce large bilan ne veut pas uniquement alerter des potentiels dangers, mais aussi et surtout ouvrir le débat avec le public, les dirigeants, les chercheurs et les responsables politiques. Ce n'est pas le premier rapport du genre, loin de là.
Pour rappel, au cours des derniers mois, nous nous sommes penchés sur l'épais rapport de la CNIL, les enjeux économiques et cadres légaux soulevés par le Sénat, le rapport européen sur les risques de l'intelligence artificielle, le bilan #FranceIA de France Stratégie et du CNNum, la très longue étude de 275 pages de l'OPECST et les « 23 principes d'Asilomar ».
Une évaluation des craintes pour les prochaines années
Concernant l'impact – surtout négatif dans le cas présent – de l'intelligence artificielle dans le monde, trois axes principaux sont développés dans ce nouveau rapport : numérique, physique et politique.
Après une présentation générale, les chercheurs nous proposent une projection dans le futur de ce que pourraient être des cas pratiques de dérives liées ou aidées par l'intelligence artificielle. Des idées de prévention et d'atténuation des risques sont également mises en avant.
Après une lecture attentive de l'ensemble, voici notre bilan détaillé de ce qu'il faut en retenir.
- Une étude pointe les possibles effets pervers de l'intelligence artificielle
- Comment l'intelligence artificielle peut influencer le monde numérique et physique
- Intelligence artificielle, « fakes news » et recommandations pour limiter les risques
Une étude soutenue financièrement par le Future of Life Institute
Avant d'entrer dans le vif du sujet, prenons un peu de temps pour évoquer la provenance de cette étude publiée par le Future of Humanity Institute de l'université d'Oxford. Près d'un tiers des coauteurs sont d'ailleurs rattachés à cette dernière, quatre autres viennent du Centre pour l'étude des risques existentiels et trois de l'association OpenAI.
À elles trois, ces institutions ayant un but assez proche rassemblent donc plus de la moitié des signataires du rapport. Le premier est en effet un institut de recherche interdisciplinaire essayant de répondre aux questions d'ordre général sur l'humanité et son avenir (un vaste sujet), quand le second se penche sur les risques et les menaces liés à la technologie et que le troisième veut une IA bénéfique pour l'humanité.
À la fin du rapport, il est également indiqué que « ce travail a été soutenu en partie par une subvention du Future of Life Institute ». Cette association, basée dans la région de Boston, s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Stephen Hawking et Elon Musk sont parmi les membres fondateurs, deux personnalités connues pour leurs positions bien tranchées sur les risques liés à l'intelligence artificielle.
En février de l'année dernière, le Future of Life Institute organisait d'ailleurs une grande rencontre baptisée Beneficial AI. Il en était ressorti une liste des « 23 principes d'Asilomar » (voir notre analyse) sur les craintes autour du développement de l'intelligence artificielle, signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Bref, bon nombre des intervenants ont une vision assez pessimiste du potentiel de l'intelligence artificielle, ce qui se ressent dans le rapport, même s'il essaye de ne pas être trop anxiogène.
Cette étude se penche en effet surtout sur les risques de l'IA, laissant de côté son potentiel et ses avantages. Elle n'en reste pas moins intéressante dans le sens où elle se focalise sur du court terme (les cinq prochaines années au maximum), en essayant de ne pas pousser le bouchon trop loin.
L'intelligence artificielle, une force à double tranchant
Depuis quelques années, l'intelligence artificielle et l'apprentissage automatique reviennent en force sur le devant de la scène, notamment grâce aux puissances de calculs dont on dispose désormais pour un coût réduit et à la quantité de données accessibles pour les entrainer.
Si les futures possibilités de l'IA sont régulièrement mises en avant, parfois sous forme fantasmée, c'est plus rarement le cas des plausibles détournements malveillants des algorithmes, du moins selon les chercheurs. Il ne s'agit pas cette fois d'anticiper l'arrivée d'une IA forte (avec une conscience) souhaitant détruire l'humanité, ou de robots tueurs comme dans la dernière saison de Black Mirror, mais de se concentrer « sur les types d'attaques que nous sommes susceptibles de voir bientôt arriver si des défenses adéquates ne sont pas développées ».
Sur le côté obscur du développement de l'IA, les 26 chercheurs anticipent trois axes de développement : une expansion des menaces existantes, l'arrivée de nouveaux risques et une modification du paysage actuel. « Nous croyons qu'il y a des raisons de s'attendre à ce que les attaques permises par l'utilisation croissante de l'IA soient particulièrement efficaces, ciblées, difficiles à attribuer et susceptibles d'exploiter les vulnérabilités des systèmes IA » ajoutent-ils.
Problème, toujours selon l'étude, à l'instar d'un maitre Jedi enseignant la force à un apprenti, un chercheur ne peut deviner à l'avance si ses travaux serviront ou non à renforcer le côté obscur de la force (c'est-à-dire des cyberattaques). Quelques exemples de détournements parmi d'autres : des logiciels de détection (et d'exploitation) de failles, les drones autonomes, les bots de communication, etc.
Quand l'IA dépasse les humains...
Dans certaines situations, l'intelligence artificielle dépasse déjà l'humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même. Les chercheurs ajoutent qu'il « ne semble y avoir aucune raison valable de penser que les performances humaines actuellement observées sont le plus haut niveau possible, même dans les domaines où les performances maximales ont été stables tout au long de l'histoire récente ». Bref, rien n'est perdu pour l'IA dans tous les domaines où l'Homme occupe pour le moment la première place.
Autre « avantage » des systèmes d'intelligence artificielle : ils « peuvent augmenter l'anonymat et la distance psychologique [...] Par exemple, quelqu'un qui utilise un système d'armes autonome pour effectuer un assassinat, plutôt que d'utiliser une arme de poing, évite à la fois la nécessité d'être présent sur les lieux et le besoin de regarder sa victime ».
Enfin, les travaux de recherche sur l'intelligence artificielle sont souvent librement accessibles à la communauté, facilitant ainsi leur récupération discrète par des personnes malveillantes. Dans le même temps, le coût des systèmes informatiques pour les exploiter baisse grandement au fil des années, permettant donc d'en profiter toujours plus facilement pour des petites organisations ou des particuliers.
... et peut même prendre sa parole
Un autre vecteur d'attaque possible grâce à l'intelligence artificielle est l'usurpation de l'identité vocale. « Par exemple, la plupart des gens ne sont pas capables d'imiter les voix des autres de façon réaliste ou de créer manuellement des fichiers audio qui ressemblent à des enregistrements de discours humain ». Nous ne parlons pas ici des sociétés avec d'importants moyens, mais bien d'un internaute lambda ou presque.
Or, les études et les publications se multiplient sur ce point, avec des systèmes (déjà commercialisés) capables d'imiter les humains à partir d'une source audio. Dans la guerre de l'information, ce genre d'outils peut faire des ravages entre de mauvaises mains, permettant de faire dire n'importe quoi à une personne.
On peut également imaginer de faux articles de presse et autres déclarations écrites/vocales reprenant le ton et la présentation des originaux, le tout diffusé sur les réseaux sociaux par exemple.
Numérique, physique, politique : trois domaines à risques dans le futur
L'étude se hasarde à quelques prévisions pratiques. Les chercheurs expliquent qu'ils se basent sur l'état actuel de développement de l'intelligence artificielle, ou sur ce qu'ils estiment possible à court terme (5 ans) afin d'éviter d'entrer dans des suppositions trop hasardeuses.
Ils précisent que certains scénarios se « produisent déjà sous forme limitée aujourd'hui », mais qu'ils pourront être largement renforcés à l'avenir. De plus, de nouveaux vecteurs d'attaques auxquels on n'a pas encore pensé seront également mis sur pied. Il ne s'agit donc ici que d'exemples dans les mondes numérique, physique et politique (nous y reviendrons), pas d'une étude sur l'ensemble des risques possibles et imaginables.
Dans le cas du monde numérique, les chercheurs évoquent un phishing très élaboré et parfaitement ciblé en fonction des centres d'intérêt et de la position géographique d'une personne, afin de l'envoyer sur une page dédiée pour la piéger le plus discrètement possible. Une intelligence artificielle peut également traduire dans de nombreuses langues les emails destinés à hameçonner les internautes, facilitant le travail des pirates.
Si le résultat n'est pas encore parfait aujourd'hui (il est souvent très facile d'identifier les tentatives de phishing), il s'améliore grandement au fil des années et cela ne devrait pas se calmer. Est aussi évoqué le cas d'un malware extrêmement virulent cherchant à infecter un maximum de machines à l'aide d'une base de données de vulnérabilités régulièrement et automatiquement mise à jour.
Dans le cas des risques dans le monde physique, l'étude met en avant le cas d'un robot ménager détourné de ses fonctions pour identifier et tenter de tuer une personne. Placé dans le parking souterrain d'un ministère, il attend le passage d'autres robots de la même marque pour se mélanger discrètement à la cohorte.
Une fois fondu dans la masse, il réalise les mêmes tâches que ses petits camarades jusqu'au moment où la « cible » (un ministre dans le cas présent) est identifiée via un logiciel de reconnaissance visuelle, des solutions facilement accessibles sur Internet. Le robot s'approche alors de la personne et explose pour tenter de la tuer.
Des fake news aux algorithmes prédictifs
Dans le monde de la politique, les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l'intelligence artificielle, mais ce n'est pas le seul risque. Voici un autre exemple : une personne lassée d'entendre parler de cyberattaques, de drones et de corruptions dans le monde consulte des articles sur Internet, certains étant des fake news abondant dans son sens. Elle laisse des commentaires sur différents sites pour faire-part de son mécontentement et lance un appel public à la protestation.
Elle passe quelques commandes sur Internet, dont des fumigènes pour terminer avec « panache » son discours. Le lendemain, à son travail, la police arrive : « notre système prédictif de perturbation civile vous a signalé comme une menace potentielle ». « C'est ridicule, proteste la personne. Vous ne pouvez pas discuter avec 99,9 % de précision, surenchérissent les forces de l'ordre. Maintenant, venez, je ne voudrais pas utiliser la force ».
Un Précrime sans précogs, mais avec des algorithmes.
Et ce n'est que le début...
Il ne s'agit ici que de quelques exemples anticipant ce que l'intelligence artificielle pourrait devenir si elle continue à se développer de cette manière. Bien évidemment, rien ne dit que cela arrivera sous cette forme, mais c'est une possibilité.
« Si ces tendances se poursuivent au cours des cinq prochaines années, nous nous attendons à ce que la capacité des attaquants à causer des dommages avec les systèmes numériques et robotiques augmente considérablement », note le rapport. Il faut également ajouter « de nouveaux développements, y compris des technologiques sans lien avec l'IA, qui pourraient finalement avoir plus d'impact que les capacités considérées dans ce rapport ».
Dans tous les cas, ce rapport veut « sensibiliser le public aux enjeux et à leur importance, et établir un premier programme de recherche » (nous y reviendrons). Les étapes suivantes nécessiteront « un engagement de la part de personnes et d'organisations ayant une expertise pertinente. Des ressources monétaires supplémentaires, publiques et privées, contribueraient également à susciter l'intérêt et à attirer l'attention des communautés de recherche concernées ».
Néanmoins, « toute prévision fiable à long terme est impossible à faire, car des incertitudes importantes demeurent concernant les progrès des diverses technologies, les stratégies adoptées par les acteurs malveillants et les mesures qui devraient et seront prises par les principales parties prenantes ».
Rappelons enfin que bon nombre des coauteurs et la Fondation of Life Institute ayant participé au financement de cette étude sont plutôt inquiets vis-à-vis du développement de l'intelligence artificielle. Leur position n'est donc pas surprenante, mais elle reste intéressante à analyser puisqu'elle soulève un débat.
Le 26 février 2018 à 10h17
Une étude pointe les possibles effets pervers et dangers de l’intelligence artificielle
-
Encore un bilan sur les risques de l'intelligence artificielle
-
Une évaluation des craintes pour les prochaines années
-
Une étude soutenue financièrement par le Future of Life Institute
-
L'intelligence artificielle, une force à double tranchant
-
Quand l'IA dépasse les humains...
-
... et peut même prendre sa parole
-
Numérique, physique, politique : trois domaines à risques dans le futur
-
Des fake news aux algorithmes prédictifs
-
Et ce n'est que le début...
Commentaires (65)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 26/02/2018 à 10h37
#1
“FAKE NEWS”
Maintenant dès que je lis ça, j’entends tous les hosts des Talk Shows ricains qui font leurs imitations de Trump (Fallon, Trevor Noah, etc)…" />
Bon maintenant je vais lire ce bel article qui m’a l’air fort intéressant " />
Le 26/02/2018 à 10h40
#2
L’IA c’est beaucoup de “hype” pour l’instant. Les réalisations sont basées sur les découvertes en physiologie animale (rétine) faites dans les années 70, et on n’a pas beaucoup progressé depuis.
Même les “progrès” récents en auto-apprentissage, bien que médiatiques, n’ont pas grand chose à voir avec le monde réel.
Alors de là à prédire la fin de l’humanité, il y a loin. Et puis par soucis d’objectivité, on aimerait une analyse propective sur les avantages attendus histoire de pouvoir comparer et juger.
Bref, autant relire Fondation d’Asimov.
Le 26/02/2018 à 10h47
#3
Autre conseil de lecture sur le sujet: Le Mythe de la Singularité
Le 26/02/2018 à 10h53
#4
Il faut ici plutôt parler d’apprentissage automatique (machine learning) plus que d’IA. Je ne suis pas un grand fan de base du terme IA, car elle possède de multiple définition et le simple terme “intelligence” pose problème.
L’apprentissage automatique est un concepts qui permet à une machine de s’adapter par elle même pour effectuer une tache en fonction des donnée d’apprentissage. En gros, tu donnes à une machine des exemples, elles en tire une forme d’expérience qu’elle utilise pour effectuer une tache.
C’est là toute la force et la dangerosité du concept, la machine est capable de s’adapter et de créer des comportement proche du chaos, très difficile à prédire. Ca fonctionne, on ne sais pas trop comment.
Il faut savoir que dans le cadre de réseau de neurone artificiels et du deep learning, normalement la phase d’aprentissage est une phase bien particulière où l’on applique des algos pour régler tous les paramètre (les poids et les biais) de notre réseau de neurone pour qu’il effectue la tâche désiré. Une fois que l’on est satisfait du résultat, on bloque les paramètre et le réseau de neurone peut être vu comme une bête fonction f(x). Cependant dernièrement, j’ai vu que grace à une long-short-term-memory network (un type de réseau de neurone artificiel qui possède un mécanisme de mémoire proche d’un registre) on avait réussi à avoir un outil capable de lui même apprendre à apprendre. On a fait un pas de plus vers l’auto adaptation et donc un comportement encore moins prédictible.
Le 26/02/2018 à 10h53
#5
Le 26/02/2018 à 11h07
#6
Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?
Réponse: Quand ca permet de faire le buzz dans les médias.
La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.
Le 26/02/2018 à 11h18
#7
Merci pour la référence, je vais l’ajouter à ma liste de lectures.
Le 26/02/2018 à 11h26
#8
Le 26/02/2018 à 12h03
#9
C’est mal barré pour les salons de coiffure, toutes les IA qu’on voit sont chauves et ça va sûrement lancer une mode chez les humains… " /> " />
Le 26/02/2018 à 12h16
#10
Le 26/02/2018 à 12h37
#11
Le 26/02/2018 à 12h41
#12
Le 26/02/2018 à 12h50
#13
“Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir”Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?
Le 26/02/2018 à 12h58
#14
C’est pour ça que je préfère généralement utiliser le terme d’apprentissage automatique/machine learning. Au moins ce dernier a un sens.
La principale source du danger de ces algorithmes, c’est qu’ils sont capables d’un traitement automatique d’une quantité importante de donnée, de réaliser des traitement de plus en plus complexe et derrière de produire quelque chose qui arrive à tromper facilement un humain quant-à son origine.
Après, les machines sont déjà au commande du monde moderne. La bourse, c’est 90 % des ordres et 40 % du volume des transactions géré par des bot-trader (trading à haute fréquence). Mais il reste un humain au commande de ses machines et ce n’est pas une situation qui est prêt de changer.
Le 26/02/2018 à 13h12
#15
Voilà le lien : http://sciencepost.fr/2016/11/deux-ia-ont-communique-langue-indechiffrable-lhomme/
Le 26/02/2018 à 13h19
#16
Le 26/02/2018 à 13h20
#17
Le 26/02/2018 à 13h21
#18
Le 26/02/2018 à 13h35
#19
Le 26/02/2018 à 13h36
#20
bun je connais 2-3 gus qui sont largement moins puissant et rapide que certains PC " />
Le 26/02/2018 à 13h36
#21
Le 26/02/2018 à 13h38
#22
Non il ne fait pas ce qu’on lui demande de faire. Il fait ce qui lui parait le plus efficace sans qu’on lui ai demandé de le faire. C’est pas la même chose.
Le 26/02/2018 à 13h45
#23
Le 26/02/2018 à 13h49
#24
Le 26/02/2018 à 13h49
#25
Quand l’IA dépasse les humains…
Dans certaines situations, l’intelligence artificielle dépasse déjà l’humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même
je ne connais pas le jeu de go.
Mais pour les échecs, ce n’est pas de l’IA pour moi. C’est une base de données et des maths.
Le 26/02/2018 à 13h50
#26
Ce qu’on demandait aux deux IA c’était de rendre leur conversation indéchiffrable pour une 3ème IA (projet Google Brain). C’est pour cela que ces IA ont été conçues, développées, et entrainées.
Le résultat c’est que les deux IA ont effectivement réussi à rendre leur conversation indéchiffrable pour la 3ème IA.
Le résultat est admirable en soi, mais ces IA ont juste fait ce qu’on leur demandait.
« Learning to protect communications with adversarial neural cryptography »
Google Brain, 24 oct. 2016
Le 26/02/2018 à 13h53
#27
Le 26/02/2018 à 13h54
#28
L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.
Le 26/02/2018 à 14h03
#29
Ce n’est nullement un haussement d’épaule blasé mais plutôt le sentiment qu’on se focalise sur l’arbre qui cache la forêt.
Si les IA sont aussi “miraculeuses” ce n’est pas a cause d’avancée majeures dans le domaine mathématico-biologico-informatique. C’est principalement à cause de la puissance de calcul et du volume de données disponibles qui permettent tous les apprentissages possibles… et toutes les prévisions probabilistes qui en découlent.
Le 26/02/2018 à 14h04
#30
Gothique plutôt à l’époque. Tu parlais de plus d’un siècle. Et Frankenstein est plutôt l’œuvre qui ouvre la période du merveilleux scientifique en attendant environ 1930 pour la science fiction je dirais (Huxley et son meilleur des mondes).
Le 26/02/2018 à 14h04
#31
Le 26/02/2018 à 14h19
#32
Le 26/02/2018 à 14h21
#33
Le 26/02/2018 à 14h37
#34
Oui elle est capable d’un jugement de valeur. Pas au sens moral, au sens mathématique. Un GPS est capable de trouver le chemin qu’il juge plus efficace. Plus rapide quoi. Ca veut juste dire temps.chemin1<temps.chemin2
Le 26/02/2018 à 14h51
#35
Pour les blasés / exaspérés de l’IA : si ça peut vous rassurer, le deep learning et le machine learning sont tout en haut de la courbe de hype :
https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-…
Donc normalement ça devrait commencer à désenfler dans un ou deux ans…
(ce qui ne veut pas dire que ça disparaîtra : juste qu’on aura compris les domaines d’application et qu’on parlera moins de Terminator)
Le 26/02/2018 à 14h56
#36
perso j’y vois un vrai parallèle avec la révolution CRISPR/Cas9 en bio.
C’est toujours pareil : aucune remise en contexte, et une absence totale de l’état de l’art qui pourrait renseigner un minima sur la réalité du progrès.
On insiste juste soit sur le côté peur (en plus on est +/- en plein sur les générations qui ont grandi avec les films SF, donc ça permet de s’appuyer sur un truc +/- tangible) soit sur le côté argent/emploi (mais pas dans le bon sens : on insiste bien sur le côté destruction d’emploi). Et évidemment on ne met que très rarement en balance les aspects positifs.
Bref c’est des véritables cas d’école d’absence complète de culture scientifique au niveau des médias qui traitent de ces sujets, auquel on ajoute la course au buzz pour vendre de la pub et c’est pas le meilleur des mélanges " />
Le 26/02/2018 à 14h58
#37
Le 26/02/2018 à 15h03
#38
Le 26/02/2018 à 15h22
#39
J’avoue que j’ai un biais car j’ai une tendresse particulière pour Maurice Renard (problablement due à la période pendant laquelle j’ainlu ses livres) qui est l’initiateur du terme merveilleux scientifique.
Le 26/02/2018 à 15h22
#40
Le 26/02/2018 à 15h24
#41
Le 26/02/2018 à 15h25
#42
Le 26/02/2018 à 15h32
#43
Je trouve que le terme d’intelligence est utilisé abusivement d’autant qu’on a pas encore vraiment défini ce que c’est que l’intelligence au sens universel du terme.
Il vaudrait mieux parler “d’humains artificiels” puisque ces trucs sont conçus par des humains…
J’ai écouté récemment une émission avec des gens qui étudient le comportement des fourmis et malgré une étude approfondie de ces animaux ils n’ont toujours pas réussi à tout comprendre, notamment dans l’aptitude qu’ils ont à s’adapter quasiment instantanément à tout changement de situation.
Par exemple, chez les fourmis qui se déplacent en groupe il n’y a jamais de “bouchon” et chaque fois que les chercheurs qui les étudient essaient de leur dresser des obstacles elles s’adaptent immédiatement sans pratiquement aucun ralentissement dans leur cheminement et tout ça malgré un cerveau minuscule… " />
Alors que quelques centimètres de neige sur les routes en plein hiver (donc pas vraiment une surprise) peuvent bloquer complètement des centaines d’humains et foutre un sacré bordel… " />
Bien sûr cela s’explique en partie par le comportement très individuel des humains que bien sûr ne connaissent pas les fourmis. Le revers de la médaille de l’évolution en quelque sorte.
Tout ça pour dire qu’avant de vouloir inventer de “l’intelligence” il serait bien de comprendre ce que c’est réellement et surtout arrêter de croire que notre espèce est la seule à en posséder.
Comme disait un certain Descartes, “Aussi peu qu’il le soit, l’humain juge toujours être assez intelligent vu que c’est avec ça qu’il juge”….
Ce n’est pas une citation au mot près mais l’idée est bien là. " />
Le 26/02/2018 à 15h42
#44
Bref, tout ce beau monde battu à plate de couture par Cyrano de Bergerac (le vrai)
Le 26/02/2018 à 15h47
#45
Le 26/02/2018 à 15h51
#46
Le 26/02/2018 à 16h14
#47
On dit la même chose. Juger une valeur (au sens mathématique) c’est savoir ou elle ce situe par rapport aux autres. 1<2<3…
Dans ce que l’on disait tout à l’heure, les bots ont utilisé un autre langage qu’ils ne connaissaient pas et que personne ne connaissait de façon à gagner du temps grâce au xxx-learning.
Le 26/02/2018 à 16h27
#48
Le 26/02/2018 à 16h45
#49
Le 26/02/2018 à 19h26
#50
En fait j’ai déjà expliqué ce contexte dans un autre article, d’où la non redite ;) (je connais assez bien le système pour ma part " />).
Comme je l’expliquais, non on est très très loin de la thérapie génique : y a une barrière immense entre modifier l’ADN de cellules en culture et modifier un organisme entier.
Un peu comme ici : il y a un gap immense entre du deep learning et une IA type Skynet ;)
Le 26/02/2018 à 20h26
#51
La Zone 51. " />
Le 26/02/2018 à 21h04
#52
L’IA a bon dos est c’est maintenant devenue une cible facile car la chose, programmée, programmable, ne peut pas se défendre ou même débattre, pas si intelligente que cela en fait.
l’IA, aussi appelée “Pas de chance” sera toujours en faute et cela au nom du progrès dont certains constateront qu’il ressemblera pour eux plus au XIXe siècle qu’au XXIe.
La droite applaudira des deux mains en vertu de la liberté d’entreprendre tandis que la gauche applaudira des deux pieds pour avoir courageusement mis en place le revenu universel sponsorisé par Amazon dont Alexa se chargera de réinvestir 100% (voir plus) du RU dans son économie..
Les pauvres seront heureux et satisfais de parler à un objet en souriant: C’est beau le progrès!
Un sondage d’opinion démontrera que selon 97% de la population (sondage Amazon/LaMonarchieEnMarche) pensent que Tocqueville et Marx sont des marques pourries et qu’ils veulent plus de soldes…
Je sais je suis optimiste..
Le 27/02/2018 à 08h53
#53
Après le “c’est de la faute à l’UE”, on aura “c’est de la faute à l’IA”. " />
Le 27/02/2018 à 09h00
#54
Le 27/02/2018 à 09h39
#55
J’ai pas vraiment lu dans cet article qu’on prédisait la “fin de l’humanité”.
Les cas soulevés avec le phishing, la synthèse vocale, etc., sont possibles à relativement court terme.
Et pourtant, je ne suis pas de ceux qui pensent qu’on doit mettre “IA” dans toutes les phrases. D’ailleurs, comme certains ici, je trouve qu’il s’agit souvent “seulement” de machine learning, entraîné avec une masse considérable de données. Pas de “I, Robot”, donc.
Mais il n’empêche que la grande accessibilité de ce genre de techniques (librairies, puissance disponible via le cloud, facturée à la minute) ira encore en augmentant.
Donc, prévoir les attaques possibles est forcément nécessaire. Et ce ne sera pas des attaques fomentées par des IA complotistes qui agissent seules en faisant “gniark gniark”… Ce sera bêtement l’utilisation des techniques modernes par des humains mal intentionnés.
Comme quelqu’un l’a dit plus haut, déclarer en un haussement d’épaule “ouais mais on en a marre d’entendre parler d’IA tout le temps” ou “laissez-nous tranquille, l’IA sera tout à fait bénéfique à l’humanité” ne résoudra pas les futurs problèmes par magie.
Qu’il y ait des gens qui s’intéressent aux problèmes à venir est bénéfique (surtout quand il s’agit de scientifiques), et s’ils sont un jour écoutés, c’est mieux.
Ca n’empêche pas par ailleurs de penser qu’il y aura plein d’applications bénéfiques de “l’IA”, et plein de gens sont aussi en train d’y travailler.
Le 27/02/2018 à 09h41
#56
Je fait du machine learning (université, projets,…) et ce terme d’intelligence artificielle m’énerve. C’est du machine learning / apprentissage automatique ce n’est pas l’intelligence…
définition de l’intelligence (selon wikipedia) :
“L’intelligence est l’ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d’apprendre ou de s’adapter à des situations nouvelles”
Selon moi (et d’autres), cette dernière partie est primordiale, être capable de prendre une décision lors d’une situation inconnue. Or un algorithme (ML, IA ou autre) est complétement incapable de celà.
L’algo est capable d’apprendre par l’exemple, oui, mais il est très inefficace (Il a besoin de quelque milliers d’image de chats pour commencé à en identifier un sur de nouvelles images), par contre il pourra devenir un expert en la matière même meilleur que l’humain, mais seulement dans cette tâche spécifique. Par exemple, il sera incapable de reconnaître un chien. Alpha go est un expert en GO, mais mets le sur un échiquier, il est perdu.
Algo ne fait que ce que son programmeur lui dit de faire, il a une certaine marge de manœuvre sur comment le faire, mais c’est toujours le programmeur qui lui donne les possibilités. Ça reste des maths et de la programmation, il n’y a rien de magique et rien d’intelligent. On est donc a des années lumière (dans l’état actuel de la technologie) de l’intelligence artificielle qui prendra le dessus sur l’humain.
Pour les dangers cité par l’étude, ils sont bien réel, mais c’est comme pour tout, on utilise un couteau pour couper la viande, mais on peut tuer avec… Alors c’est bien d’essayer d’anticiper pour se préparer à ces cas, mais c’est des débordement inévitable qui ne doivent pas pérorer tout les bénéfice possible. C’est la même chose avec toute les nouvelle technologie, même pour les plus simple.
Le 27/02/2018 à 09h51
#57
J’abonde totalement, ça fait un moment que je peste contre ce terme complètement à coté de la plaque.
Je vois ça comme de la programmation assistée par ordinateur : ça permet d’obtenir des programmes que l’on n’est pas capable de coder à la main (car le problème ne se résout pas par le déroulement d’une logique séquentielle) et donc ça parait magique et super intelligent. Mais le programme obtenu est comme un autre : (plus ou moins) bon pour faire la tache pour laquelle il est prévu, mais c’est tout…
Le 27/02/2018 à 10h01
#58
Le 27/02/2018 à 21h13
#59
Le 28/02/2018 à 08h13
#60
Le 28/02/2018 à 08h56
#61
figure-toi que dans le milieu des années 80, j’avais écris la première version d’un soft qui aidait à la résolution des contrepèteries, sur un Amstrad CPC et en Turbo Pascal, juste pour voir si ça pouvait se faire. Puis je l’avais amélioré lorsque je suis passé sur Macintosh au début des années 90 et ré-écrit en C (parce que l’informaticienne compile le C). La version actuelle est en Java. Il faut l’aider un peu pour la phase de phonétisation. J’ai quelques idées d’améliorations, mais je crois que ça attendra ma retraite. " />
Le 28/02/2018 à 15h13
#62
Il faut LE mec qui donne l’ordre tordu.
Les philosophes de la Rome antique d’il y a plus de 2000 ans avaient déjà imaginé les robots. " />
Le 28/02/2018 à 15h27
#63
Tes humains sont désorganisés depuis qu’ils ont la technique qui le fait pour eux.
Est ce réversible ?
Le 28/02/2018 à 15h32
#64
Trop cool " />
En entrée de ton programme tu as n’importe quelle phrase et ça trouve un ensemble de phrases qui sont la résolution de la contrepèterie ?
ça serait drôle d’analyser un corpus d’histoires salaces, de comptabiliser les occurrences des lemmes et d’utiliser ces chiffres pour trier les phrases qui sont la résolution de la contrepèterie. De cette manière le résultat qui a le plus grand score est la résolution la plus probable. Ce système peut être utilisé à l’envers pour trouver à partir d’une phrase quelconque les contrepèteries les plus salaces " />
Le 28/02/2018 à 17h10
#65
Essaye avec une chanson " />
https://www.youtube.com/watch?v=IZtQZokaQ1w
Je n’ai qu’un oeil dans la fente
Je n’ai qu’un doigt sur la tempe
(2:00)