Une étude pointe les possibles effets pervers et dangers de l'intelligence artificielle

Une étude pointe les possibles effets pervers et dangers de l’intelligence artificielle

FAKE NEWS

Avatar de l'auteur

Sébastien Gavois

Publié dansSciences et espace

26/02/2018
65
Une étude pointe les possibles effets pervers et dangers de l'intelligence artificielle

Phishing parfaitement calibré pour une cible, malware avec une incroyable capacité d'adaptation, robot détourné de sa fonction première pour identifier et détruire une cible, système prédictif de perturbation civile et « fake news ». Voici quelques exemples des dérives possibles de l'intelligence artificielle, mises en avant dans un (très) long rapport.

26 chercheurs provenant de 14 institutions d'horizons variés ont publié la semaine dernière un texte commun d'une centaine de pages dans lequel ils entendent mettre en garde contre une potentielle « utilisation malveillante de l'intelligence artificielle ».

Parmi les intervenants, on retrouve des membres de plusieurs universités, notamment celle d'Oxford, de l'alliance OpenAI pour la recherche ouverte sur l'IA, du Centre pour l'étude des risques existentiels (CSER) et de l'Electronic Frontier Foundation (EFF) pour ne citer qu'eux.

Encore un bilan sur les risques de l'intelligence artificielle

Baptisé « L'utilisation malveillante de l'intelligence artificielle : prévision, prévention et atténuation », il distille les résultats d'un atelier du Future of Humanity Institute organisé en février de l'année dernière. Le thème principal était justement les risques potentiels de l'intelligence artificielle, un sujet anxiogène pour certains.

On y retrouve également des recherches supplémentaires de la part des auteurs, ainsi que des contributions externes. Ils remercient par exemple des employés de Google/DeepMind, de Microsoft, des chercheurs de l'université de Carnegie-Mellon, des philosophes (Toby Ord et Nick Bostrom), le spécialiste de la nanotechnologie Kim Eric Drexler, etc.

Ce large bilan ne veut pas uniquement alerter des potentiels dangers, mais aussi et surtout ouvrir le débat avec le public, les dirigeants, les chercheurs et les responsables politiques. Ce n'est pas le premier rapport du genre, loin de là.

Pour rappel, au cours des derniers mois, nous nous sommes penchés sur l'épais rapport de la CNIL, les enjeux économiques et cadres légaux soulevés par le Sénat, le rapport européen sur les risques de l'intelligence artificielle, le bilan #FranceIA de France Stratégie et du CNNum, la très longue étude de 275 pages de l'OPECST et les « 23 principes d'Asilomar ».

Une évaluation des craintes pour les prochaines années

Concernant l'impact – surtout négatif dans le cas présent – de l'intelligence artificielle dans le monde, trois axes principaux sont développés dans ce nouveau rapport : numérique, physique et politique.

Après une présentation générale, les chercheurs nous proposent une projection dans le futur de ce que pourraient être des cas pratiques de dérives liées ou aidées par l'intelligence artificielle. Des idées de prévention et d'atténuation des risques sont également mises en avant. 

Après une lecture attentive de l'ensemble, voici notre bilan détaillé de ce qu'il faut en retenir.

Notre dossier sur le rapport du Future of Humanity Institute sur l'intelligence artificielle :

Une étude soutenue financièrement par le Future of Life Institute

Avant d'entrer dans le vif du sujet, prenons un peu de temps pour évoquer la provenance de cette étude publiée par le Future of Humanity Institute de l'université d'Oxford. Près d'un tiers des coauteurs sont d'ailleurs rattachés à cette dernière, quatre autres viennent du Centre pour l'étude des risques existentiels et trois de l'association OpenAI.

À elles trois, ces institutions ayant un but assez proche rassemblent donc plus de la moitié des signataires du rapport. Le premier est en effet un institut de recherche interdisciplinaire essayant de répondre aux questions d'ordre général sur l'humanité et son avenir (un vaste sujet), quand le second se penche sur les risques et les menaces liés à la technologie et que le troisième veut une IA bénéfique pour l'humanité.

À la fin du rapport, il est également indiqué que « ce travail a été soutenu en partie par une subvention du Future of Life Institute ». Cette association, basée dans la région de Boston, s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Stephen Hawking et Elon Musk sont parmi les membres fondateurs, deux personnalités connues pour leurs positions bien tranchées sur les risques liés à l'intelligence artificielle.

En février de l'année dernière, le Future of Life Institute organisait d'ailleurs une grande rencontre baptisée Beneficial AI. Il en était ressorti une liste des « 23 principes d'Asilomar » (voir notre analyse) sur les craintes autour du développement de l'intelligence artificielle, signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Bref, bon nombre des intervenants ont une vision assez pessimiste du potentiel de l'intelligence artificielle, ce qui se ressent dans le rapport, même s'il essaye de ne pas être trop anxiogène.

Cette étude se penche en effet surtout sur les risques de l'IA, laissant de côté son potentiel et ses avantages. Elle n'en reste pas moins intéressante dans le sens où elle se focalise sur du court terme (les cinq prochaines années au maximum), en essayant de ne pas pousser le bouchon trop loin.

L'intelligence artificielle, une force à double tranchant

Depuis quelques années, l'intelligence artificielle et l'apprentissage automatique reviennent en force sur le devant de la scène, notamment grâce aux puissances de calculs dont on dispose désormais pour un coût réduit et à la quantité de données accessibles pour les entrainer.

Si les futures possibilités de l'IA sont régulièrement mises en avant, parfois sous forme fantasmée, c'est plus rarement le cas des plausibles détournements malveillants des algorithmes, du moins selon les chercheurs. Il ne s'agit pas cette fois d'anticiper l'arrivée d'une IA forte (avec une conscience) souhaitant détruire l'humanité, ou de robots tueurs comme dans la dernière saison de Black Mirror, mais de se concentrer « sur les types d'attaques que nous sommes susceptibles de voir bientôt arriver si des défenses adéquates ne sont pas développées ».

Sur le côté obscur du développement de l'IA, les 26 chercheurs anticipent trois axes de développement : une expansion des menaces existantes, l'arrivée de nouveaux risques et une modification du paysage actuel. « Nous croyons qu'il y a des raisons de s'attendre à ce que les attaques permises par l'utilisation croissante de l'IA soient particulièrement efficaces, ciblées, difficiles à attribuer et susceptibles d'exploiter les vulnérabilités des systèmes IA » ajoutent-ils.

Problème, toujours selon l'étude, à l'instar d'un maitre Jedi enseignant la force à un apprenti, un chercheur ne peut deviner à l'avance si ses travaux serviront ou non à renforcer le côté obscur de la force (c'est-à-dire des cyberattaques). Quelques exemples de détournements parmi d'autres : des logiciels de détection (et d'exploitation) de failles, les drones autonomes, les bots de communication, etc.

Quand l'IA dépasse les humains...

Dans certaines situations, l'intelligence artificielle dépasse déjà l'humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même. Les chercheurs ajoutent qu'il « ne semble y avoir aucune raison valable de penser que les performances humaines actuellement observées sont le plus haut niveau possible, même dans les domaines où les performances maximales ont été stables tout au long de l'histoire récente ». Bref, rien n'est perdu pour l'IA dans tous les domaines où l'Homme occupe pour le moment la première place.

Autre « avantage » des systèmes d'intelligence artificielle : ils « peuvent augmenter l'anonymat et la distance psychologique [...] Par exemple, quelqu'un qui utilise un système d'armes autonome pour effectuer un assassinat, plutôt que d'utiliser une arme de poing, évite à la fois la nécessité d'être présent sur les lieux et le besoin de regarder sa victime ». 

Enfin, les travaux de recherche sur l'intelligence artificielle sont souvent librement accessibles à la communauté, facilitant ainsi leur récupération discrète par des personnes malveillantes. Dans le même temps, le coût des systèmes informatiques pour les exploiter baisse grandement au fil des années, permettant donc d'en profiter toujours plus facilement pour des petites organisations ou des particuliers.

Intelligence artificielle
Crédits : t.light/iStock

... et peut même prendre sa parole

Un autre vecteur d'attaque possible grâce à l'intelligence artificielle est l'usurpation de l'identité vocale. « Par exemple, la plupart des gens ne sont pas capables d'imiter les voix des autres de façon réaliste ou de créer manuellement des fichiers audio qui ressemblent à des enregistrements de discours humain ». Nous ne parlons pas ici des sociétés avec d'importants moyens, mais bien d'un internaute lambda ou presque. 

Or, les études et les publications se multiplient sur ce point, avec des systèmes (déjà commercialisés) capables d'imiter les humains à partir d'une source audio. Dans la guerre de l'information, ce genre d'outils peut faire des ravages entre de mauvaises mains, permettant de faire dire n'importe quoi à une personne.

On peut également imaginer de faux articles de presse et autres déclarations écrites/vocales reprenant le ton et la présentation des originaux, le tout diffusé sur les réseaux sociaux par exemple. 

Numérique, physique, politique : trois domaines à risques dans le futur

L'étude se hasarde à quelques prévisions pratiques. Les chercheurs expliquent qu'ils se basent sur l'état actuel de développement de l'intelligence artificielle, ou sur ce qu'ils estiment possible à court terme (5 ans) afin d'éviter d'entrer dans des suppositions trop hasardeuses.

Ils précisent que certains scénarios se « produisent déjà sous forme limitée aujourd'hui », mais qu'ils pourront être largement renforcés à l'avenir. De plus, de nouveaux vecteurs d'attaques auxquels on n'a pas encore pensé seront également mis sur pied. Il ne s'agit donc ici que d'exemples dans les mondes numérique, physique et politique (nous y reviendrons), pas d'une étude sur l'ensemble des risques possibles et imaginables.

Dans le cas du monde numérique, les chercheurs évoquent un phishing très élaboré et parfaitement ciblé en fonction des centres d'intérêt et de la position géographique d'une personne, afin de l'envoyer sur une page dédiée pour la piéger le plus discrètement possible. Une intelligence artificielle peut également traduire dans de nombreuses langues les emails destinés à hameçonner les internautes, facilitant le travail des pirates.

Si le résultat n'est pas encore parfait aujourd'hui (il est souvent très facile d'identifier les tentatives de phishing), il s'améliore grandement au fil des années et cela ne devrait pas se calmer. Est aussi évoqué le cas d'un malware extrêmement virulent cherchant à infecter un maximum de machines à l'aide d'une base de données de vulnérabilités régulièrement et automatiquement mise à jour. 

Dans le cas des risques dans le monde physique, l'étude met en avant le cas d'un robot ménager détourné de ses fonctions pour identifier et tenter de tuer une personne. Placé dans le parking souterrain d'un ministère, il attend le passage d'autres robots de la même marque pour se mélanger discrètement à la cohorte. 

Une fois fondu dans la masse, il réalise les mêmes tâches que ses petits camarades jusqu'au moment où la « cible » (un ministre dans le cas présent) est identifiée via un logiciel de reconnaissance visuelle, des solutions facilement accessibles sur Internet. Le robot s'approche alors de la personne et explose pour tenter de la tuer.

Des fake news aux algorithmes prédictifs

Dans le monde de la politique, les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l'intelligence artificielle, mais ce n'est pas le seul risque. Voici un autre exemple : une personne lassée d'entendre parler de cyberattaques, de drones et de corruptions dans le monde consulte des articles sur Internet, certains étant des fake news abondant dans son sens. Elle laisse des commentaires sur différents sites pour faire-part de son mécontentement et lance un appel public à la protestation.

Elle passe quelques commandes sur Internet, dont des fumigènes pour terminer avec « panache » son discours. Le lendemain, à son travail, la police arrive : « notre système prédictif de perturbation civile vous a signalé comme une menace potentielle ». « C'est ridicule, proteste la personne. Vous ne pouvez pas discuter avec 99,9 % de précision, surenchérissent les forces de l'ordre. Maintenant, venez, je ne voudrais pas utiliser la force ».

Un Précrime sans précogs, mais avec des algorithmes.

ia cerveau machine learning
Crédits : Henrik5000/iStock

Et ce n'est que le début...

Il ne s'agit ici que de quelques exemples anticipant ce que l'intelligence artificielle pourrait devenir si elle continue à se développer de cette manière. Bien évidemment, rien ne dit que cela arrivera sous cette forme, mais c'est une possibilité.

« Si ces tendances se poursuivent au cours des cinq prochaines années, nous nous attendons à ce que la capacité des attaquants à causer des dommages avec les systèmes numériques et robotiques augmente considérablement », note le rapport. Il faut également ajouter « de nouveaux développements, y compris des technologiques sans lien avec l'IA, qui pourraient finalement avoir plus d'impact que les capacités considérées dans ce rapport ».

Dans tous les cas, ce rapport veut « sensibiliser le public aux enjeux et à leur importance, et établir un premier programme de recherche » (nous y reviendrons). Les étapes suivantes nécessiteront « un engagement de la part de personnes et d'organisations ayant une expertise pertinente. Des ressources monétaires supplémentaires, publiques et privées, contribueraient également à susciter l'intérêt et à attirer l'attention des communautés de recherche concernées ».

Néanmoins, « toute prévision fiable à long terme est impossible à faire, car des incertitudes importantes demeurent concernant les progrès des diverses technologies, les stratégies adoptées par les acteurs malveillants et les mesures qui devraient et seront prises par les principales parties prenantes ».

Rappelons enfin que bon nombre des coauteurs et la Fondation of Life Institute ayant participé au financement de cette étude sont plutôt inquiets vis-à-vis du développement de l'intelligence artificielle. Leur position n'est donc pas surprenante, mais elle reste intéressante à analyser puisqu'elle soulève un débat.

65
Avatar de l'auteur

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Et bonne nuit les petits

00:04 Next 7
dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 34

Sommaire de l'article

Introduction

Encore un bilan sur les risques de l'intelligence artificielle

Une évaluation des craintes pour les prochaines années

Une étude soutenue financièrement par le Future of Life Institute

L'intelligence artificielle, une force à double tranchant

Quand l'IA dépasse les humains...

... et peut même prendre sa parole

Numérique, physique, politique : trois domaines à risques dans le futur

Des fake news aux algorithmes prédictifs

Et ce n'est que le début...

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Next 7
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 34
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 19

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 36
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 20
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 77

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 103
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 7

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (65)


_Quentin_
Le 26/02/2018 à 10h37

“FAKE NEWS”

Maintenant dès que je lis ça, j’entends tous les hosts des Talk Shows ricains qui font leurs imitations de Trump (Fallon, Trevor Noah, etc)…<img data-src=" />


Bon maintenant je vais lire ce bel article qui m’a l’air fort intéressant <img data-src=" />


tmtisfree
Le 26/02/2018 à 10h40

L’IA c’est beaucoup de “hype” pour l’instant. Les réalisations sont basées sur les découvertes en physiologie animale (rétine) faites dans les années 70, et on n’a pas beaucoup progressé depuis.

Même les “progrès” récents en auto-apprentissage, bien que médiatiques, n’ont pas grand chose à voir avec le monde réel.

Alors de là à prédire la fin de l’humanité, il y a loin. Et puis par soucis d’objectivité, on aimerait une analyse propective sur les avantages attendus histoire de pouvoir comparer et juger.

Bref, autant relire Fondation d’Asimov.


iston Abonné
Le 26/02/2018 à 10h47

Autre conseil de lecture sur le sujet: Le Mythe de la Singularité


tazvld Abonné
Le 26/02/2018 à 10h53

Il faut ici plutôt parler d’apprentissage automatique (machine learning) plus que d’IA. Je ne suis pas un grand fan de base du terme IA, car elle possède de multiple définition et le simple terme “intelligence” pose problème.
L’apprentissage automatique est un concepts qui permet à une machine de s’adapter par elle même pour effectuer une tache en fonction des donnée d’apprentissage. En gros, tu donnes à une machine des exemples, elles en tire une forme d’expérience qu’elle utilise pour effectuer une tache.
C’est là toute la force et la dangerosité du concept, la machine est capable de s’adapter et de créer des comportement proche du chaos, très difficile à prédire. Ca fonctionne, on ne sais pas trop comment.
Il faut savoir que dans le cadre de réseau de neurone artificiels et du deep learning, normalement la phase d’aprentissage est une phase bien particulière où l’on applique des algos pour régler tous les paramètre (les poids et les biais) de notre réseau de neurone pour qu’il effectue la tâche désiré. Une fois que l’on est satisfait du résultat, on bloque les paramètre et le réseau de neurone peut être vu comme une bête fonction f(x). Cependant dernièrement, j’ai vu que grace à une long-short-term-memory network (un type de réseau de neurone artificiel qui possède un mécanisme de mémoire proche d’un registre) on avait réussi à avoir un outil capable de lui même apprendre à apprendre. On a fait un pas de plus vers l’auto adaptation et donc un comportement encore moins prédictible.


boogieplayer
Le 26/02/2018 à 10h53






tmtisfree a écrit :

L’IA c’est beaucoup de “hype” pour l’instant. Les réalisations sont basées sur les découvertes en physiologie animale (rétine) faites dans les années 70, et on n’a pas beaucoup progressé depuis.

Même les “progrès” récents en auto-apprentissage, bien que médiatiques, n’ont pas grand chose à voir avec le monde réel.

Alors de là à prédire la fin de l’humanité, il y a loin. Et puis par soucis d’objectivité, on aimerait une analyse propective sur les avantages attendus histoire de pouvoir comparer et juger.

Bref, autant relire Fondation d’Asimov.



Asimov <img data-src=" />



iston a écrit :

Autre conseil de lecture sur le sujet: Le Mythe de la Singularité



très bon oui.

C’est le syndrome Skynet, le jour où les machines prendrons le contrôle. Le corpus documentaire sur les dérives de l’IA existe depuis plus d’un siècle si on compte la SF, il faut en prendre connaissance pour ne pas se faire couillonner. Après, il faut quand même mesurer tout ça et voir comment sa tourne et comment on le contrôlera. Je ne vois pas le monde finir comme dans Terminator, plus comme dans Wall-e…



127.0.0.1
Le 26/02/2018 à 11h07

Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?
Réponse: Quand ca permet de faire le buzz dans les médias.


La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.


Equilibrium
Le 26/02/2018 à 11h18

Merci pour la référence, je vais l’ajouter à ma liste de lectures.


Commentaire_supprime
Le 26/02/2018 à 11h26






iston a écrit :

Autre conseil de lecture sur le sujet: Le Mythe de la Singularité



Merci pour le conseil.

La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir.

Néanmoins, l’objet de l’étude présentée ici mérite réflexion. À suivre.



gavroche69 Abonné
Le 26/02/2018 à 12h03

C’est mal barré pour les salons de coiffure, toutes les IA qu’on voit sont chauves et ça va sûrement lancer une mode chez les humains… <img data-src=" /> <img data-src=" />


anonyme_8ce6f4774d9018fb0696aa6b7572a96b
Le 26/02/2018 à 12h16






127.0.0.1 a écrit :

Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?
Réponse: Quand ca permet de faire le buzz dans les médias.


Algorithme et intelligence artificielle, tu emploies deux mots-clefs à la mode, donc forcément ça buzze.

&nbsp;


127.0.0.1 a écrit :

La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.


… et traitement informatique à la place d’algorithme.
&nbsp;


iston a écrit :

Autre conseil de lecture sur le sujet: Le Mythe de la Singularité

Ah, ces mythes qui nous abusent !
Une intelligence artificielle serait-elle en mesure de découvrir le sens caché de la phrase juste au dessus ?&nbsp;<img data-src=" />



Z-os Abonné
Le 26/02/2018 à 12h37






boogieplayer a écrit :

Le corpus documentaire sur les dérives de l’IA existe depuis plus d’un siècle si on compte la SF, il faut en prendre connaissance pour ne pas se faire couillonner.


2 siècles tout juste cette année pour la bête de Frankenstein. <img data-src=" />



skankhunt42
Le 26/02/2018 à 12h41






Commentaire_supprime a écrit :

Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir. Néanmoins, l’objet de l’étude présentée ici mérite réflexion. À suivre.


La singularité arrivera le jours ou il sera possible d’avoir un pc aussi puissant et rapide qu’un cerveau humain.
&nbsp;


heret a écrit :

Algorithme et intelligence artificielle, tu emploies deux mots-clefs à la mode, donc forcément ça buzze.
&nbsp; … et traitement informatique à la place d’algorithme.&nbsp;


D’un côté c’est comme ça que nous fonctionnons aussi non ?



nikogaug
Le 26/02/2018 à 12h50

“Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir”Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?


tazvld Abonné
Le 26/02/2018 à 12h58

C’est pour ça que je préfère généralement utiliser le terme d’apprentissage automatique/machine learning. Au moins ce dernier a un sens.
La principale source du danger de ces algorithmes, c’est qu’ils sont capables d’un traitement automatique d’une quantité importante de donnée, de réaliser des traitement de plus en plus complexe et derrière de produire quelque chose qui arrive à tromper facilement un humain quant-à son origine.

Après, les machines sont déjà au commande du monde moderne. La bourse, c’est 90 % des ordres et 40 % du volume des transactions géré par des bot-trader (trading à haute fréquence). Mais il reste un humain au commande de ses machines et ce n’est pas une situation qui est prêt de changer.


nikogaug
Le 26/02/2018 à 13h12
skankhunt42
Le 26/02/2018 à 13h19






nikogaug a écrit :

Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?


C’est un peu le but de certains types de réseaux de neurones, faire des aller retour entre les couches pour optimiser le fonctionnement et il est clair qu’un humain n’y comprendra pas grand choses. Concernant la singularité j’en sais rien tout dépend de la définition.



skankhunt42
Le 26/02/2018 à 13h20






tazvld a écrit :

Mais il reste un humain au commande de ses machines et ce n’est pas une situation qui est prêt de changer.


Sauf que l’humain ne sert pas à grand chose vu la vitesse des traitements…



127.0.0.1
Le 26/02/2018 à 13h21






nikogaug a écrit :

Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?



Non, il n’y a pas de singularité car le programme a fait ce qu’on lui demandait de faire, ni plus ni moins. Le fait que le résultat ne soit pas “compréhensible” par les développeurs n’est pas une preuve d’intelligence de la machine.

Ce qu’on appelle actuellement IA se résume au “machine learning”, c’est à dire l’élaboration de modèles numériques basés sur une étude statistique. Et dés qu’on manipule des modèles statistiques - surtout sur des gros volumes - on tombe vite sur des résultats “contre-intuitifs” pour les humains (exemple simple: le “birthday paradox”).

Dans ces cas là, la supposée supériorité de l’intelligence artificielle n’est en fait que l’absence totale de préjugé (intuition) des ordinateurs qui ne “doutent” pas du résultat obtenu. Pour moi, on aura une singularité le jour un ordinateur sera capable de douter.



tazvld Abonné
Le 26/02/2018 à 13h35







skankhunt42 a écrit :

La singularité arrivera le jours ou il sera possible d’avoir un pc aussi puissant et rapide qu’un cerveau humain.


Et c’est quoi la puissance et la rapidité d’un cerveau humain ? Comment tu la calcule, sur quel base ?
Une machine, ça fait plusieurs siècle qu’elle te bas à plat de couture en calcule et terme de vitesse et de complexité.
Cette définition de la singularité est pas forcément bonne.




nikogaug a écrit :

“Merci pour le conseil. La singularité, ça doit bien faire vingt ans que j’en entends parler, et que je ne vois rien venir alors que c’est annoncé pour les cinq/dix ans à venir”Il m’a semblé lire un article je ne sais plus ou, qui disait qu’aujourd’hui on utilisait l’apprentissage automatique pour faire de la traduction. Et que les personnes qui avaient mi en place ces algorithmes n’arrivaient pas à comprendre le langage utilisé par ces algorithmes pour faire des traductions. Est-ce qu’à partir de ce moment là on n’approche pas un peu la singularité ?


Il existe même des modèles qui ont appris à traduire (très grossièrement) 2 langages sans avoir de “pierre de rosette”, cad de document liant les 2 langages, ils les créent d’eux même (en cherchant des similarité).

Pour faire simple, c’est surtout des math, les personnes qui l’utilisent savent ce qu’ils font. La question du “sens” du langage intermédiaire n’est pas vraiment un problème, c’est juste un produit des mathématiques. Mais il peut être effectivement intéressant de l’étudier pour peut être mieux comprendre ce que la machine extrait comme informations et même d’un point de vu purement linguistique, qu’elles sont les structures important d’un langage.

Pour travailler sur des mots, il faut convertir les mots en une valeurs ou plutôt un ensemble de valeur qui peut être utiliser (ici dans le cadre de réseau de neurone). Parmis les outils, il en existe un qui permet en quelque sorte de convertir un mots en une description de son contexte selon un ensemble de “feature”. Des ingénieurs de google ont ainsi proposé un outil, word2vec, qui permet (selon l’algo utilisé dans leur article) de décrire un mot selon 300 “features” (300 valeurs numériques). Derrière, ce n’est que des “simples” mathématiques, on s’en fout du sens de ces features. On ne peut même pas forcément donner un sens à ces feature.
Mais derrière, il apparait des phénomènes amusant avec ces vecteurs de 300 valeurs. Par exemple 2 mots ayant des sens proches vont posséder des vecteurs similaire. On peut appliquer même des math avec ainsi si l’on cherche X est au roi ce que la femme et à l’homme, il suffit de faire ce calcule X= roi+(homme-femme) et on trouve que X≈reine.



lanoux Abonné
Le 26/02/2018 à 13h36

bun je connais 2-3 gus qui sont largement moins puissant et rapide que certains PC <img data-src=" />


crocodudule
Le 26/02/2018 à 13h36






127.0.0.1 a écrit :

Question: A partir de quel moment un algorithme devient de l’intelligence artificielle ?
Réponse: Quand ca permet de faire le buzz dans les médias.


La même étude avec “programmation” au lieu de “intelligence artificielle” serait totalement passé inaperçue.


Mettre n’importe quoi à la place d’IA-AI et tu auras le même résultat qu’avec programmation au buzzomètre.

Néanmoins ça change régulièrement, y a quelques mois c’était blockchain.

De là à penser que le monde de l’informatique (et plus largement) que nous aimions est parasité depuis des années par les commerciaux et les conseillés en com., il n’y a qu’un pas que je franchis allégrement.



nikogaug
Le 26/02/2018 à 13h38

Non il ne fait pas ce qu’on lui demande de faire. Il fait ce qui lui parait le plus efficace sans qu’on lui ai demandé de le faire. C’est pas la même chose.


crocodudule
Le 26/02/2018 à 13h45






nikogaug a écrit :

Non il ne fait pas ce qu’on lui demande de faire. Il fait ce qui lui parait le plus efficace sans qu’on lui ai demandé de le faire. C’est pas la même chose.




 Je n'aime pas cette formulation, dire "ce qui lui parait le plus efficace" donne l'impression que la machine est capable de jugement de valeurs.      





Si j'ai bien compris, n'ayant pas la prétention d'être spécialiste en ce domaine, il faut pour que apprentissage fonctionne, donner les objectifs à la machine voire créer "des récompenses".      





On ne peut pas prétendre que la machine aime gagner au jeu de dames, on lui a nécessairement indiqué que l'objectif était de bouffer les pions de l'adversaire, à charge pour elle de trouver comme le faire en analysant les règles, des parties etc...      





Fondamentalement la machine n'est pas contente d'avoir gagné, "au mieux" elle trouve elle-même comment remplir l'objectif qu'on lui a fixé au regard de règles elles-mêmes fixées par l'humain (en schématisant, tu jumpes le pion c'est bon, tu le jumpes pas c'est pas bon recommences).


boogieplayer
Le 26/02/2018 à 13h49






Z-os a écrit :

2 siècles tout juste cette année pour la bête de Frankenstein. <img data-src=" />



alors si on inclus le fantastique <img data-src=" />



jeje07bis
Le 26/02/2018 à 13h49


Quand l’IA dépasse les humains…
Dans certaines situations, l’intelligence artificielle dépasse déjà l’humain (échec et jeux de Go par exemple), mais pas encore dans toutes, loin de là même


je ne connais pas le jeu de go.
Mais pour les échecs, ce n’est pas de l’IA pour moi. C’est une base de données et des maths.


127.0.0.1
Le 26/02/2018 à 13h50

Ce qu’on demandait aux deux IA c’était de rendre leur conversation indéchiffrable pour une 3ème IA (projet Google Brain). C’est pour cela que ces IA ont été conçues, développées, et entrainées.

Le résultat c’est que les deux IA ont effectivement réussi à rendre leur conversation indéchiffrable pour la 3ème IA.

Le résultat est admirable en soi, mais ces IA ont juste fait ce qu’on leur demandait.

« Learning to protect communications with adversarial neural cryptography »
Google Brain, 24 oct. 2016


crocodudule
Le 26/02/2018 à 13h53






boogieplayer a écrit :

alors si on inclus le fantastique <img data-src=" />


Tu peux aller jusqu’à Homère (pas le truc jaune, le gus qui s’est payer une croisière sur la méditerranée) qui croise des automates-robots, en passant par Aristote qui voit comment le monde sera changé par les machines.



le podoclaste
Le 26/02/2018 à 13h54

L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.


127.0.0.1
Le 26/02/2018 à 14h03

Ce n’est nullement un haussement d’épaule blasé mais plutôt le sentiment qu’on se focalise sur l’arbre qui cache la forêt.

Si les IA sont aussi “miraculeuses” ce n’est pas a cause d’avancée majeures dans le domaine mathématico-biologico-informatique. C’est principalement à cause de la puissance de calcul et du volume de données disponibles qui permettent tous les apprentissages possibles… et toutes les prévisions probabilistes qui en découlent.


Z-os Abonné
Le 26/02/2018 à 14h04

Gothique plutôt à l’époque. Tu parlais de plus d’un siècle. Et Frankenstein est plutôt l’œuvre qui ouvre la période du merveilleux scientifique en attendant environ 1930 pour la science fiction je dirais (Huxley et son meilleur des mondes).


Commentaire_supprime
Le 26/02/2018 à 14h04






le podoclaste a écrit :

L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.



Effectivement.

Il y a des potentialités, mais il me semble qu’on ne peut pas encore, à l’heure actuelle, prévoir sur quoi elles vont déboucher, et encore moins quand. Mais elles existent, et je ne doute pas que tout ou partie d’entre elles vont avoir à terme des applications pratiques.



skankhunt42
Le 26/02/2018 à 14h19






tazvld a écrit :

Et c’est quoi la puissance et la rapidité d’un cerveau humain ? Comment tu la calcule, sur quel base ?
Une machine, ça fait plusieurs siècle qu’elle te bas à plat de couture en calcule et terme de vitesse et de complexité. Cette définition de la singularité est pas forcément bonne.


Il y à différente interprétation de la singularité et je répondais à celle ou ça sera une machine aussi intelligente que nous et qui le sera bien plus en une fraction de seconde. Effectivement les machines nous battent sur certains domaines mais la plupart du temps c’est parce que notre cerveau est limité la ou les machines ne le sont pas vraiment.

Difficile pour un humain de traiter un large volume de données&nbsp; et d’enchainer des calculs complexes sans erreur mais ce ne ce sont que des algorithme mathématique à la con. Il faut toujours un mec pour entrer les données, la machine ne va pas les chercher toute seules, il faut les formater correctement puis écrire un code pour les traiter.

Par contre pour ce qui est de la reconnaissance visuelle ont est toujours pas capable d’avoir une représentation 3d d’un objet de manière précise alors qu’un designer avec seulement quelques photos pourra refaire l’objet en 3d les doigts dans le nez.



crocodudule
Le 26/02/2018 à 14h21






le podoclaste a écrit :

L’essor du domaine depuis 2 ou 3 ans lève de nouvelles opportunités et problématiques qui n’étaient pas tangibles auparavant. Ca mérite plus qu’un haussement d’épaule blasé, je pense, même si on peut être agacé par les buzzwords et les traitements légers sur le sujet par la presse.


Il n’y a pas que buzzwords ou le traitement d’une certaine presse qui agace.

Ce sujet est constamment mis en avant notamment dans le monde du travail:
. la “presse” économique en fait son nouvel eldorado,
. le MEDEF qui semble se réjouir des perspectives offertes, en faisant des colloques sur comment remplacer l’humain dans les entreprises (et oui ils en sont là),
. le tout accompagné du discours de nos politiques “startupnation” qui annoncent avec un sourire de figue éclatée qu’on va tout miser sur l’IA parce qu’on l’a pas fait s’agissant de l’automatisation dans les années 90 et que du coup on a plus de chômeurs que les autres (finalement ils se seraient plantés, le Code du travail y était pour rien…).

Donc je suis pas certain que 127.0.0.1 soit blasé, mais plutôt qu’il est exaspéré par un discours totalement hors réalité (et peut-être aussi préoccupé que les questions importantes sur l’IA soient éludées, au profit d’une dévotion béate du dieu IA).



nikogaug
Le 26/02/2018 à 14h37

Oui elle est capable d’un jugement de valeur. Pas au sens moral, au sens mathématique. Un GPS est capable de trouver le chemin qu’il juge plus efficace. Plus rapide quoi. Ca veut juste dire temps.chemin1&lt;temps.chemin2


Groupetto Abonné
Le 26/02/2018 à 14h51

Pour les blasés / exaspérés de l’IA : si ça peut vous rassurer, le deep learning et le machine learning sont tout en haut de la courbe de hype :
&nbsp;
https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-…

Donc normalement ça devrait commencer à désenfler dans un ou deux ans…

(ce qui ne veut pas dire que ça disparaîtra : juste qu’on aura compris les domaines d’application et qu’on parlera moins de Terminator)

&nbsp;
&nbsp;


odoc
Le 26/02/2018 à 14h56

perso j’y vois un vrai parallèle avec la révolution CRISPR/Cas9 en bio.
C’est toujours pareil : aucune remise en contexte, et une absence totale de l’état de l’art qui pourrait renseigner un minima sur la réalité du progrès.
On insiste juste soit sur le côté peur (en plus on est +/- en plein sur les générations qui ont grandi avec les films SF, donc ça permet de s’appuyer sur un truc +/- tangible) soit sur le côté argent/emploi (mais pas dans le bon sens : on insiste bien sur le côté destruction d’emploi). Et évidemment on ne met que très rarement en balance les aspects positifs.


Bref c’est des véritables cas d’école d’absence complète de culture scientifique au niveau des médias qui traitent de ces sujets, auquel on ajoute la course au buzz pour vendre de la pub et c’est pas le meilleur des mélanges <img data-src=" />


boogieplayer
Le 26/02/2018 à 14h58






crocodudule a écrit :

Tu peux aller jusqu’à Homère (pas le truc jaune, le gus qui s’est payer une croisière sur la méditerranée) qui croise des automates-robots, en passant par Aristote qui voit comment le monde sera changé par les machines.



Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />



Z-os a écrit :

Gothique plutôt à l’époque. Tu parlais de plus d’un siècle. Et Frankenstein est plutôt l’œuvre qui ouvre la période du merveilleux scientifique en attendant environ 1930 pour la science fiction je dirais (Huxley et son meilleur des mondes).



Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.

Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />



Commentaire_supprime
Le 26/02/2018 à 15h03






boogieplayer a écrit :

Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />



C’est Platon celui-là, et le concept est de Socrate, il ne fait que le reprendre.


Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.

Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />


+1. Grosso-modo, on peut considérer que la proto-SF a commencé à exister vers le début de la révolution industrielle, soit aux alentours de 1850, et que la SF à proprement parler a commencé au début des années 1920. Mais c’est arbitraire et discutable.



Z-os Abonné
Le 26/02/2018 à 15h22

J’avoue que j’ai un biais car j’ai une tendresse particulière pour Maurice Renard (problablement due à la période pendant laquelle j’ainlu ses livres) qui est l’initiateur du terme merveilleux scientifique.


boogieplayer
Le 26/02/2018 à 15h22






Commentaire_supprime a écrit :

C’est Platon celui-là, et le concept est de Socrate, il ne fait que le reprendre.



je crois qu’il avait publié en Creative Common s CC-0 <img data-src=" />



Commentaire_supprime a écrit :

+1. Grosso-modo, on peut considérer que la proto-SF a commencé à exister vers le début de la révolution industrielle, soit aux alentours de 1850, et que la SF à proprement parler a commencé au début des années 1920. Mais c’est arbitraire et discutable.



On pourrait presque dire que la SF à toujours existé, à toute époque, ce n’est qu’un genre littéraire qui extrapole l’état de la science à une époque donnée dans laquelle se trouve l’auteur de l’écrit. C’est même un “angle de vue”, Jésus marchant sur l’eau c’est de la SF ou du mystique, ce n’est qu’une façon de décrire la chose.



127.0.0.1
Le 26/02/2018 à 15h24






crocodudule a écrit :

Donc je suis pas certain que 127.0.0.1 soit blasé, mais plutôt qu’il est exaspéré par un discours totalement hors réalité (et peut-être aussi préoccupé que les questions importantes sur l’IA soient éludées, au profit d’une dévotion béate du dieu IA).



Tout a fait. Pour moi, le danger dans l’immédiat ce n’est pas émergence d’une singularité qui voudra dominer l’humanité. C’est plutôt l’acceptation par l’humanité de se soumettre aux décisions de la machine.




  • Google a dit: prends ton parapluie.

  • Meetic a dit: rencontre cette personne.

  • Facebook a dit: lis cette news.

  • Medefotron a dit: licencie cet employé



boogieplayer
Le 26/02/2018 à 15h25






Z-os a écrit :

J’avoue que j’ai un biais car j’ai une tendresse particulière pour Maurice Renard (problablement due à la période pendant laquelle j’ainlu ses livres) qui est l’initiateur du terme merveilleux scientifique.



ah oui c’est bien aussi Maurice Renard, j’avoue n’avoir lu qu’un ou deux livres de lui. Mon adolescence fut nourrie à la mamelle de la SF américaine surtout, ce qui déforme aussi mon analyse dans mon cas.



gavroche69 Abonné
Le 26/02/2018 à 15h32

Je trouve que le terme d’intelligence est utilisé abusivement d’autant qu’on a pas encore vraiment défini ce que c’est que l’intelligence au sens universel du terme.
Il vaudrait mieux parler “d’humains artificiels” puisque ces trucs sont conçus par des humains…

J’ai écouté récemment une émission avec des gens qui étudient le comportement des fourmis et malgré une étude approfondie de ces animaux ils n’ont toujours pas réussi à tout comprendre, notamment dans l’aptitude qu’ils ont à s’adapter quasiment instantanément à tout changement de situation.

Par exemple, chez les fourmis qui se déplacent en groupe il n’y a jamais de “bouchon” et chaque fois que les chercheurs qui les étudient essaient de leur dresser des obstacles elles s’adaptent immédiatement sans pratiquement aucun ralentissement dans leur cheminement et tout ça malgré un cerveau minuscule… <img data-src=" />

Alors que quelques centimètres de neige sur les routes en plein hiver (donc pas vraiment une surprise) peuvent bloquer complètement des centaines d’humains et foutre un sacré bordel… <img data-src=" />
Bien sûr cela s’explique en partie par le comportement très individuel des humains que bien sûr ne connaissent pas les fourmis. Le revers de la médaille de l’évolution en quelque sorte.

Tout ça pour dire qu’avant de vouloir inventer de “l’intelligence” il serait bien de comprendre ce que c’est réellement et surtout arrêter de croire que notre espèce est la seule à en posséder.

Comme disait un certain Descartes, “Aussi peu qu’il le soit, l’humain juge toujours être assez intelligent vu que c’est avec ça qu’il juge”….
Ce n’est pas une citation au mot près mais l’idée est bien là. <img data-src=" />


levhieu
Le 26/02/2018 à 15h42

Bref, tout ce beau monde battu à plate de couture par Cyrano de Bergerac (le vrai)


crocodudule
Le 26/02/2018 à 15h47






nikogaug a écrit :

Oui elle est capable d’un jugement de valeur. Pas au sens moral, au sens mathématique. Un GPS est capable de trouver le chemin qu’il juge plus efficace. Plus rapide quoi. Ca veut juste dire temps.chemin1&lt;temps.chemin2


Il fait pas un jugement de valeur, on lui a dit que dans tous les résultats qu’il calcule, il doit sélectionner le plus rapide ou le plus court. Il exécute, il se dit pas tien c’est cool j’ai gagné 10min.

Où alors ma casio collège fait des jugements de valeurs parce qu’elle sait que 9 &gt; 3 …



crocodudule
Le 26/02/2018 à 15h51






boogieplayer a écrit :

Dôh ! Rien à voir avec le gaillard qui voulait qu’on sorte de notre grotte ? <img data-src=" />



Pour moi le début de la SF c’est J.-H. Rosny, mais c’est à débattre.

Après ce qui est difficile, comme pour la musique, c’est qu’il y a rarement une date précise de la création d’un genre, c’est toujours l’aboutissement d’une modification lente et protéiforme dont on détecte mal les bord et les transitions. Jules Vernes, qui est antérieur à Huxley peut être considéré comme de la SF ou du merveilleux scientifique. <img data-src=" />


Sauf erreur c’est un autre bonhomme tout nu en toge, mais s’ils s’étaient connus ils auraient été super-potes je pense!



nikogaug
Le 26/02/2018 à 16h14

On dit la même chose. Juger une valeur (au sens mathématique) c’est savoir ou elle ce situe par rapport aux autres. 1&lt;2&lt;3…
Dans ce que l’on disait tout à l’heure, les bots ont utilisé un autre langage qu’ils ne connaissaient pas et que personne ne connaissait de façon à gagner du temps grâce au xxx-learning.&nbsp;


Ricard
Le 26/02/2018 à 16h27






127.0.0.1 a écrit :

Tout a fait. Pour moi, le danger dans l’immédiat ce n’est pas émergence d’une singularité qui voudra dominer l’humanité. C’est plutôt l’acceptation par l’humanité de se soumettre aux décisions de la machine.




  • Google a dit: prends ton parapluie.

  • Meetic a dit: rencontre cette personne.

  • Facebook a dit: lis cette news.

  • Medefotron a dit: licencie cet employé





  • L’OCDE a dit: Il y a du fric à faire avec l’IA, on emmerde ce rapport OSEF.



tazvld Abonné
Le 26/02/2018 à 16h45






crocodudule a écrit :

Je n’aime pas cette formulation, dire “ce qui lui parait le plus efficace” donne l’impression que la machine est capable de jugement de valeurs.



Si j'ai bien compris, n'ayant pas la prétention d'être spécialiste en ce domaine, il faut pour que apprentissage fonctionne, donner les objectifs à la machine voire créer "des récompenses".      





On ne peut pas prétendre que la machine aime gagner au jeu de dames, on lui a nécessairement indiqué que l'objectif était de bouffer les pions de l'adversaire, à charge pour elle de trouver comme le faire en analysant les règles, des parties etc...      





Fondamentalement la machine n'est pas contente d'avoir gagné, "au mieux" elle trouve elle-même comment remplir l'objectif qu'on lui a fixé au regard de règles elles-mêmes fixées par l'humain (en schématisant, tu jumpes le pion c'est bon, tu le jumpes pas c'est pas bon recommences).





C’est à peu prêt ça. Soit tu as des exemples avec leur résultat espéré à donner à manger à ta machine pour qu’elle apprennent de ces exemples (apprentissage supervisé), soit tu as des situations, la machine va tester des solutions et tu la “récompense” (tu renforce ce comportement) si cette solution donne de bon résultat ou à l’inverse tu lui tape sur les doigts si ça ne donne pas de bon résultat (apprentissage par renforcement). Mais tu as aussi la possibilité d’avoir des données que tu souhaites trier, mais tu ne sais pas comment, tu donnes ça à la machine et tu lui dit “démerdes toi, te voici des données, tu me les tries dans ces caisses” (apprentissage non supervisé). Après, il existe quelques variantes.

Après “ce qui lui parait le plus efficace” n’est pas totalement faux. En effet, le but de l’algo est souvent d’optimiser un score. Par exemple, dans le cas d’un apprentissage supervisé, on va chercher à réduire l’écart entre ce que la machine sort et ce que l’on souhaiterait qu’elle sorte. Ce jugement de valeur est ce score. Pour une machine qui apprend à jouer au dame, on va faire en sorte par exemple que son taux de victoire soit le plus élevé.



jeje07bis a écrit :

je ne connais pas le jeu de go.
Mais pour les échecs, ce n’est pas de l’IA pour moi. C’est une base de données et des maths.



C’est tout le problème de la définition d’IA. Dans la même ligné, un réseau de neurones artificiels, c’est que des calcules matriciels et des math, de la proba… Mais d’un autre coté, un cerveau, c’est que des cellules qui ne sont régie que par des réactions physico-chimiques. Il n’y a aucune intelligence dans la dépolarisation de la membrane.



skankhunt42 a écrit :

Il y à différente interprétation de la singularité et je répondais à celle ou ça sera une machine aussi intelligente que nous et qui le sera bien plus en une fraction de seconde. Effectivement les machines nous battent sur certains domaines mais la plupart du temps c’est parce que notre cerveau est limité la ou les machines ne le sont pas vraiment.

Difficile pour un humain de traiter un large volume de données  et d’enchainer des calculs complexes sans erreur mais ce ne ce sont que des algorithme mathématique à la con. Il faut toujours un mec pour entrer les données, la machine ne va pas les chercher toute seules, il faut les formater correctement puis écrire un code pour les traiter.

Par contre pour ce qui est de la reconnaissance visuelle ont est toujours pas capable d’avoir une représentation 3d d’un objet de manière précise alors qu’un designer avec seulement quelques photos pourra refaire l’objet en 3d les doigts dans le nez.



La singularité est un événement qui n’existe pas selon moi. Tout d’abord, c’est qu’elle n’a aucune définition qui permet de réellement créer une frontière net. Ensuite, et simplement, dans le cadre de la comparaison avec “l’intelligence humaine” quelque soit sa définition, on compare 2 choses totalement différents. A coté, la question “C’est qui le plus fort, l’hippopotame ou l’éléphant?” (cité de la peur) me parait presque pertinente.



odoc a écrit :

perso j’y vois un vrai parallèle avec la révolution CRISPR/Cas9 en bio.
C’est toujours pareil : aucune remise en contexte, et une absence totale de l’état de l’art qui pourrait renseigner un minima sur la réalité du progrès.


Alors, ça pourrait être pas mal d’expliquer le contexte de CRISPR/Cas9.
En soit, on s’en fout de CRISPR dans le cas présent, ce sont des régions dans l’ADN des bactéries et des archées qui possède une architecture bien particulière et qui fait partie d’un mécanisme dans leur système immunitaire (contre les bactériophages/virus). Mais ce qui est intéressant, c’est Cas9 qui fait aussi partie de ce mécanisme du système immunitaire. Cette protéine a pour propriété de pouvoir couper l’ADN, mais surtout elle est capable de cibler un endroit précis et ceux car elle est est associé à un brin d’ARN guide qui reconnait sa cible par complémentarité de séquence.
Il est très simple de générer des ARN guide, du coup il est possible d’utiliser Cas9 pour couper n’importe quelle ADN à une position précise. Cette propriété permet ainsi d’édité in vivo l’ADN avec une grande précision. Pour ainsi dire, Cas9 ouvre les portes de la thérapie génique. On peut enfin imaginer pouvoir soigner des personnes soufrant d’une maladie génétique. (j’imagine qu’il y a dû avoir des idées pour inséré un gène de suicide dans des cellules cancéreuses)



odoc
Le 26/02/2018 à 19h26

En fait j’ai déjà expliqué ce contexte dans un autre article, d’où la non redite ;) (je connais assez bien le système pour ma part <img data-src=" />).

Comme je l’expliquais, non on est très très loin de la thérapie génique : y a une barrière immense entre modifier l’ADN de cellules en culture et modifier un organisme entier.

Un peu comme ici : il y a un gap immense entre du deep learning et une IA type Skynet ;)


Ricard
Le 26/02/2018 à 20h26

La Zone 51. <img data-src=" />


Cetera
Le 26/02/2018 à 21h04

L’IA a bon dos est c’est maintenant devenue une cible facile car la chose, programmée, programmable, ne peut pas se défendre ou même débattre, pas si intelligente que cela en fait.
l’IA, aussi appelée “Pas de chance” sera toujours en faute et cela au nom du progrès dont certains constateront qu’il ressemblera pour eux plus au XIXe siècle qu’au XXIe.
La droite applaudira des deux mains en vertu de la liberté d’entreprendre tandis que la gauche applaudira des deux pieds pour avoir courageusement mis en place le revenu universel sponsorisé par Amazon dont Alexa se chargera de réinvestir 100% (voir plus) du RU dans son économie..
Les pauvres seront heureux et satisfais de parler à un objet en souriant: C’est beau le progrès!

Un sondage d’opinion démontrera que selon 97% de la population (sondage Amazon/LaMonarchieEnMarche) pensent que Tocqueville et Marx sont des marques pourries et qu’ils veulent plus de soldes…

Je sais je suis optimiste..


127.0.0.1
Le 27/02/2018 à 08h53

Après le “c’est de la faute à l’UE”, on aura “c’est de la faute à l’IA”. <img data-src=" />


WereWindle
Le 27/02/2018 à 09h00






tazvld a écrit :

“C’est qui le plus fort, l’hippopotame ou l’éléphant?”


l’éléphant (parce que toute la force est dans la trompe¹)

¹ même source



Ced-le-pingouin Abonné
Le 27/02/2018 à 09h39

J’ai pas vraiment lu dans cet article qu’on prédisait la “fin de l’humanité”.

Les cas soulevés avec le phishing, la synthèse vocale, etc., sont possibles à relativement court terme.

Et pourtant, je ne suis pas de ceux qui pensent qu’on doit mettre “IA” dans toutes les phrases. D’ailleurs, comme certains ici, je trouve qu’il s’agit souvent “seulement” de machine learning, entraîné avec une masse considérable de données. Pas de “I, Robot”, donc.

Mais il n’empêche que la grande accessibilité de ce genre de techniques (librairies, puissance disponible via le cloud, facturée à la minute) ira encore en augmentant.

Donc, prévoir les attaques possibles est forcément nécessaire. Et ce ne sera pas des attaques fomentées par des IA complotistes qui agissent seules en faisant “gniark gniark”… Ce sera bêtement l’utilisation des techniques modernes par des humains mal intentionnés.

Comme quelqu’un l’a dit plus haut, déclarer en un haussement d’épaule “ouais mais on en a marre d’entendre parler d’IA tout le temps” ou “laissez-nous tranquille, l’IA sera tout à fait bénéfique à l’humanité” ne résoudra pas les futurs problèmes par magie.

Qu’il y ait des gens qui s’intéressent aux problèmes à venir est bénéfique (surtout quand il s’agit de scientifiques), et s’ils sont un jour écoutés, c’est mieux.

Ca n’empêche pas par ailleurs de penser qu’il y aura plein d’applications bénéfiques de “l’IA”, et plein de gens sont aussi en train d’y travailler.


Xima Abonné
Le 27/02/2018 à 09h41

Je fait du machine learning (université, projets,…) et ce terme d’intelligence artificielle m’énerve. C’est du machine learning / apprentissage automatique ce n’est pas l’intelligence…



définition de l’intelligence (selon wikipedia) :
“L’intelligence est l’ensemble des processus retrouvés dans des systèmes, plus ou moins complexes, vivants ou non, qui permettent de comprendre, d’apprendre ou de s’adapter à des situations nouvelles”

Selon moi (et d’autres), cette dernière partie est primordiale, être capable de prendre une décision lors d’une situation inconnue. Or un algorithme (ML, IA ou autre) est complétement incapable de celà.

L’algo est capable d’apprendre par l’exemple, oui, mais il est très inefficace (Il a besoin de quelque milliers d’image de chats pour commencé à en identifier un sur de nouvelles images), par contre il pourra devenir un expert en la matière même meilleur que l’humain, mais seulement dans cette tâche spécifique. Par exemple, il sera incapable de reconnaître un chien. Alpha go est un expert en GO, mais mets le sur un échiquier, il est perdu.

Algo ne fait que ce que son programmeur lui dit de faire, il a une certaine marge de manœuvre sur comment le faire, mais c’est toujours le programmeur qui lui donne les possibilités. Ça reste des maths et de la programmation, il n’y a rien de magique et rien d’intelligent. On est donc a des années lumière (dans l’état actuel de la technologie) de l’intelligence artificielle qui prendra le dessus sur l’humain.

Pour les dangers cité par l’étude, ils sont bien réel, mais c’est comme pour tout, on utilise un couteau pour couper la viande, mais on peut tuer avec… Alors c’est bien d’essayer d’anticiper pour se préparer à ces cas, mais c’est des débordement inévitable qui ne doivent pas pérorer tout les bénéfice possible. C’est la même chose avec toute les nouvelle technologie, même pour les plus simple.


Mihashi Abonné
Le 27/02/2018 à 09h51

J’abonde totalement, ça fait un moment que je peste contre ce terme complètement à coté de la plaque.

Je vois ça comme de la programmation assistée par ordinateur : ça permet d’obtenir des programmes que l’on n’est pas capable de coder à la main (car le problème ne se résout pas par le déroulement d’une logique séquentielle) et donc ça parait magique et super intelligent. Mais le programme obtenu est comme un autre : (plus ou moins) bon pour faire la tache pour laquelle il est prévu, mais c’est tout…


tazvld Abonné
Le 27/02/2018 à 10h01






odoc a écrit :

En fait j’ai déjà expliqué ce contexte dans un autre article, d’où la non redite ;) (je connais assez bien le système pour ma part <img data-src=" />).

Comme je l’expliquais, non on est très très loin de la thérapie génique : y a une barrière immense entre modifier l’ADN de cellules en culture et modifier un organisme entier.

Un peu comme ici : il y a un gap immense entre du deep learning et une IA type Skynet ;)


A mes souvenirs, effectivement, je sais que tu bosses en bio, c’est surtout que dans cette discussion, il n’était pas rappelé le contexte de Cas9. Pour ma part, j’ai suivi ça d’assez loin, j’ai plus connu CRISPR que Cas9 et tant que c’était a priori plutôt un mécanisme du système immunitaire des bactéries et archées (même si on leur trouverait plein d’autre fonction).
Mais de ce que j’imagine, c’est un peu comme la transformation de bactéries, il faut plutôt compter sur un taux faible de cellules transformées. C’est plutôt envisageable de l’utiliser dans le cas où la modification d’un nombre réduit de cellules est suffisante.
En faite, j’imaginais que tu parlais plutôt de la peur du transhumanisme et de l’eugénisme qu’un tel outil pourrait laisser imaginer, et que l’on nous ressorte toutes les œuvres de SF sur le sujet.



odoc
Le 27/02/2018 à 21h13






tazvld a écrit :

A mes souvenirs, effectivement, je sais que tu bosses en bio,


oui je suis chercheur au CNRS (enfin en CDD mais passons), en biologie moléculaire.


tazvld a écrit :

c’est surtout que dans cette discussion, il n’était pas rappelé le contexte de Cas9.


d’habitude c’est vrai que j’évite de ne pas détailler mes propos, faut dire qu’en ce moment c’est un peu sport côté taf ^^


tazvld a écrit :

Pour ma part, j’ai suivi ça d’assez loin, j’ai plus connu CRISPR que Cas9 et tant que c’était a priori plutôt un mécanisme du système immunitaire des bactéries et archées (même si on leur trouverait plein d’autre fonction).



oui à la base c’est bien ça. Mais en fait il se trouve qu’à partir du moment où il y a une séquence précise dans le génome (humain par ex), on peut utiliser cette séquence (appelée PAM) pour cibler une région proche (et comme on utilise un guide, on peut cibler cette région proche au nucléotide (les fameux A/T/C/G) près).
Après au départ de cette technique, on coupait simplement l’ADN (via la Cas9) mais l’ingéniosité des chercheurs étant là (et le fait que le système coupe pas un rond ^^) on peut faire bien plus aujourd’hui (entre autre : insérer/réparer une mutation, insérer ce que l’on veut, utiliser une cas9 particulière pour ensuite cibler les protéines proches de la région ADN d’intérêt, etc). C’est un peu la beauté de ce système ;) (enfin quand on est biologiste quoi ^^).


tazvld a écrit :

Mais de ce que j’imagine, c’est un peu comme la transformation de bactéries, il faut plutôt compter sur un taux faible de cellules transformées. C’est plutôt envisageable de l’utiliser dans le cas où la modification d’un nombre réduit de cellules est suffisante.



oui, en pire ^^
en gros actuellement (donc dans un système simple ie dans une boite de pétri), on “modifie” 10 millions de cellule pour en isoler 1 au final. Ca prend au mieux 1 mois …



tazvld a écrit :

En faite, j’imaginais que tu parlais plutôt de la peur du transhumanisme et de l’eugénisme qu’un tel outil pourrait laisser imaginer, et que l’on nous ressorte toutes les œuvres de SF sur le sujet.



oui c’est ça en fait. La presse parle de ce système comme d’un risque important pour la santé (sa va de la modification du génome par le chercheur un peu fou au risque terrorisme …).
Dans l’autre thread j’indiquais que tout ça c’était du pur fantasme : non seulement il reste des gaps techniques importants pour un jour modifier le génome de tout un organisme déjà en place (c’est pas pour rien que pour le moment on se contente de modifier des embryons de souris par ex) mais en plus vu qu’on ne comprend toujours pas entièrement le fonctionnement du génome humain (sinon je serais surement au chomage ^^) c’est pas bien simple d’insérer une modification à dessein.
Enfin je laisse le cote terrorisme, qui montre à quel point ces “journalistes” ne font pas leur boulot : c’est bien plus simple de louer un camion que de créer une arme biologique (et si un groupe terro pouvait fabriquer de telle arme, c’est pas vers CRISPR/Cas9 qu’il irait mais un truc genre variole)

Bref c’est vraiment un parallèle avec l’IA ici : des gens qui fantasment sur un truc, qui n’y comprennent rien, qui surtout ne se renseignent absolument pas au près des personnes compétentes mais qui en parlent beaucoup (trop) …

Quand je vois qu’on parlait déjà d’un moratoire sur l’utilisation de cette technique alors que c’est un outils unique dans son genre, c’est juste hallucinant.

C’est un peu comme si on demandait aux chercheurs d’arrêter de faire des OGM. Pour un public lambda OGM c’est Mosanto et son mais, pour un biologiste c’est les milliards de bactérie que je modifie tout les jours pour produire toutes les molécules biologiques que j’utilise quotidiennement (ADN et protéines). C’est pas parce qu’on ne comprend pas un concept qu’on doit immédiatement l’interdire …



megabigbug
Le 28/02/2018 à 08h13






heret a écrit :

Ah, ces mythes qui nous abusent !
Une intelligence artificielle serait-elle en mesure de découvrir le sens caché de la phrase juste au dessus ?&nbsp;<img data-src=" />

Combien d’humains sont en mesure de découvrir par eux même le concept de contrepèterie ?
Cela ne me parait pas impossible de munir une IA d’un algorithme ad hoc capable de comprendre le sens de ta phrase.



anonyme_8ce6f4774d9018fb0696aa6b7572a96b
Le 28/02/2018 à 08h56

figure-toi que dans le milieu des années 80, j’avais écris la première version d’un soft qui aidait à la résolution des contrepèteries, sur un Amstrad CPC et en Turbo Pascal, juste pour voir si ça pouvait se faire. Puis je l’avais amélioré lorsque je suis passé sur Macintosh au début des années 90 et ré-écrit en C (parce que l’informaticienne compile le C). La version actuelle est en Java. Il faut l’aider un peu pour la phase de phonétisation. J’ai quelques idées d’améliorations, mais je crois que ça attendra ma retraite. <img data-src=" />


psn00ps Abonné
Le 28/02/2018 à 15h13

Il faut LE mec qui donne l’ordre tordu.

Les philosophes de la Rome antique d’il y a plus de 2000 ans avaient déjà imaginé les robots. <img data-src=" />


psn00ps Abonné
Le 28/02/2018 à 15h27

Tes humains sont désorganisés depuis qu’ils ont la technique qui le fait pour eux.
Est ce réversible ?


megabigbug
Le 28/02/2018 à 15h32

Trop cool&nbsp;<img data-src=" />

En entrée de ton programme tu as n’importe quelle phrase et ça trouve un ensemble de phrases qui sont la résolution de la contrepèterie ?

ça serait drôle d’analyser un corpus d’histoires salaces, de comptabiliser les occurrences des lemmes et d’utiliser ces chiffres pour trier les phrases qui sont la résolution de la contrepèterie. De cette manière le résultat qui a le plus grand score est la résolution la plus probable. Ce système peut être utilisé à l’envers pour trouver à partir d’une phrase quelconque les contrepèteries les plus salaces <img data-src=" />


psn00ps Abonné
Le 28/02/2018 à 17h10

Essaye avec une chanson <img data-src=" />
https://www.youtube.com/watch?v=IZtQZokaQ1w
Je n’ai qu’un oeil dans la fente
Je n’ai qu’un doigt sur la tempe
(2:00)