Dans les méandres de l’intelligence artificielle, entre angoisses, espoirs et recommandations
Pour le meilleur et pour le pire
Le 16 mai 2017 à 08h57
24 min
Sciences et espace
Sciences
Comprendre les enjeux de l'intelligence artificielle et établir un bilan des forces en présence, tel est le but du rapport adopté par l'Office parlementaire d'évaluation des choix scientifiques et technologiques. Il prend la forme d'un épais document de 275 pages que nous avons décortiqué.
Il y a quelques semaines, le député Claude de Ganay et la sénatrice Dominique Gillot publiaient un rapport complet (PDF) intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». Un très vaste sujet qui regroupe des domaines comme la vision par ordinateur, l'apprentissage automatique (machine learning) et la robotique.
La France multiplie les enquêtes, compte rendu de six mois de travail sur l'IA
Il a été adopté à l'unanimité le 14 mars 2017 par l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques), un organe d'information commun entre l'Assemblée nationale et le Sénat. Il arrive quelques mois après le lancement du projet France IA, mais n'est-ce pas déjà un peu trop tard ? Au détour d'une question, la sénatrice du Val-d'Oise s'explique : « Il y a deux ans que je sollicite l’OPECST pour engager ce travail. Hélas ! C’est dans l’urgence, juste avant la fin de nos mandats parlementaires, que nous nous penchons sur le sujet » affirme-t-elle.
Dans leur synthèse de quatre pages seulement, les deux rapporteurs dévoilent une quinzaine de propositions afin d'encadrer et d'aiguiller cette révolution qui est en marche depuis des années. Mais le rapport de 275 pages va bien plus loin car il regroupe l'ensemble des contributions, avec des comptes rendus des tables rondes.
On y retrouve pas moins de six mois d'auditions auprès de spécialistes de tous les horizons (scientifiques, entrepreneurs, psychiatre, etc.) provenant de plusieurs pays. Voici donc notre compte rendu des éléments marquants abordés par les uns et les autres. Car si sur certains points les réactions vont toutes dans le même sens, ce n'est pas toujours le cas.
IA : un début en douceur, une accélération depuis quelques années
Avant d'entrer dans le vif du sujet, le rapport commence par revenir sur l'évolution de l'intelligence artificielle, un concept qui n'a rien de nouveau car il existe depuis maintenant près de 60 ans. Cette technologie a par contre connu une forte accélération au cours des dernières années, notamment sous l'impulsion des géants du Net. Plusieurs pistes de développement ont ainsi été mises en place.
Citons les reconfigurations internes, l'émergence du cloud computing sur de nombreux secteurs d'activités et une politique de plus en plus agressive sur les acquisitions, ce qui est généralement un moyen rapide de gagner en compétences sur un domaine précis. « On passe d’un volume global d’acquisitions de start-ups spécialisées en intelligence artificielle de 7 en 2012 pour tout le territoire américain, à 33 en 2014, puis 37 en 2015 et 42 simplement pour les trois premiers trimestres de 2016 » explique ainsi le rapport.
Un point de vue partagé par Patrick Albert, entrepreneur (créateur de ILOG), chercheur et l'un des pionniers dans l'IA : « L’année 2016 aura vu la concrétisation d’un mouvement profond et décisif de reconfiguration des GAFA autour de l’intelligence artificielle ». Il évoque le cas de Google qui serait passé de deux projets en 2011 à plus de mille fin 2016.
Une appellation qui pose des problèmes ?
Si l'intelligence artificielle est désormais au cœur de nos vies, le psychiatre et chercheur à l’Université Paris Diderot-Paris Serge Tisseron se demande si présenter ce concept sous ce nom (IA) était réellement un bon choix. Pour lui, dans les années 50, les fondateurs de cette discipline n’ont pas anticipé que ce langage anthropomorphe « allait poser problème ensuite ».
Pour le docteur, il aurait mieux valu parler d'apprentissage automatique ou logiciel à la place d'intelligence. Il enchaine : il aurait également préféré parler de machines automatiques plutôt qu'autonomes, de réseaux de composants électroniques plutôt que de réseaux de neurones et enfin de simulation d’empathie au lieu d'empathie artificielle. Bref, moins humaniser les termes autour de ces technologies.
Un simple choix sémantique, mais dont les conséquences ne seraient pas anodines : « Il faut réviser notre langage, car il risque d’entraîner quiproquos et confusion » ajoute-t-il. Les appellations sont déjà tellement ancrées qu'il sera désormais bien difficile d'en changer.
De l'importance de toujours distinguer l'humain et la machine
Pour le psychiatre, on devrait toujours savoir si on est en présence d’une machine ou d’un humain : « Dans les démocraties, il est nécessaire que le citoyen connaisse toujours l’origine des messages auxquels il est confronté ». Or, ce n'est pas toujours le cas aujourd'hui. Une ambiguïté sur laquelle les industriels peuvent d'ailleurs jouer.
Il donne un exemple : « Une grande banque (le Crédit Mutuel) fait répondre à ses clients par un ordinateur très sophistiqué tel que Watson sans que les appelants soient informés qu’ils ont affaire à une intelligence artificielle ». Serge Tisseron imagine alors un futur où, dans les supermarchés, seront installés des robots-caissiers face auxquels les consommateurs ne pourront pas faire la différence entre une machine et un être humain.
Ce n'est évidemment pas pour tout de suite ; il s'agit là d'un simple exercice d'anticipation sur ce que pourrait être notre avenir à plus ou moins long terme.
La délicate question de l'éthique
En filigrane se pose la question de l'éthique et de l'(im)partialité. Les débats sur ce sujet sont nombreux indique à juste titre le rapport, notamment avec l'arrivée de l'intelligence artificielle dans les voitures autonomes et dans les tribunaux. Néanmoins, pour Claude Berrou, professeur à Télécom Bretagne (Institut Mines-Télécom), chercheur et membre de l’Académie des sciences, « il semble que ces débats soient prématurés ».
En effet, selon lui « le cas typique du véhicule autonome pose certaines questions, mais pas davantage que celui d’un avion de chasse. Une machine préprogrammée, qui n’apprend pas de ses expériences, qui est non apprenante, ne présente pas plus de dangers qu’un ordinateur de bureau ».
S'agissant purement et simplement d'opérations mathématiques, il n'y a, toujours selon le professeur, pas de question déontologique ou éthique quant aux résultats. « Les questions doivent davantage se poser sur les applications » affirme-t-il. Avec une intelligence artificielle forte (capable d'avoir conscience d'elle-même par exemple), la musique ne sera certainement pas la même. Elle ne devrait néanmoins pas arriver avant plusieurs (dizaines ?) d'années.
Sans surprise, Cédric Sauviat – ingénieur et président de l’association française contre l’intelligence artificielle (AFCIA) – a une position plus alarmiste : « La seule chose qui puisse être dite est que l’on ne peut pas savoir ce que peut être l’éthique d’une super-intelligence, et peut-être qu’il est préférable de ne pas le savoir ».
Les GAFA veulent montrer patte blanche
De leur côté, les géants du Net sont sur la même longueur d'onde, comme l'explique Delphine Reyre, directrice Europe des affaires publiques de Facebook : « En termes d’éthique, Facebook est partenaire avec Microsoft, Google, IBM et Amazon du Partnership on AI ».
Pour rappel, cette organisation a été fondée par les cinq sociétés en septembre 2016, et elle a finalement été rejointe par Apple quatre mois plus tard... en tant que membre fondateur. Son ambition est de « faire avancer la compréhension du public sur l'intelligence artificielle (AI), et de définir les meilleures pratiques sur les défis et les opportunités dans ce domaine ». Un sujet sur lequel l'Europe et la France ont tout intérêt à se faire aussi entendre.
La CNIL veut de l'« humanity by design »
Par la voix de sa présidente Isabelle Falque-Pierrotin, la CNIL explique qu'elle s'intéresse évidemment à la question : « À l’automne, nous restituerons les éléments les plus saillants de ce débat éthique pour, le cas échéant, faire des recommandations de politiques publiques ».
Elle donne tout de même une piste sur la position qui pourrait être adoptée par la CNIL. Elle pourrait provenir de son article 1er « souvent oublié » selon sa présidente : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». La question serait de savoir comment faire de l’« humanity by design » sur le modèle de la « privacy by design ».
Pour comprendre le nœud du problème, il est important de rappeler un point crucial des intelligences artificielles : elles nécessitent de gigantesques quantités de données pour apprendre. Ainsi, note la CNIL, « la protection des données personnelles ne semble pas aller de soi avec l’intelligence artificielle, car les principes attachés à la protection des données semblent aller à l’encontre du fonctionnement de l’intelligence artificielle ».
En effet, plus une intelligence artificielle dispose de données, plus elle est performante... même si sur ce sujet les scientifiques ont parfois des points de vue différents. Laurent Alexandre (Doctissimo, DNA Vision), cite ainsi une étude qui aurait démontré qu’un mauvais algorithme avec beaucoup de données serait supérieur à un bon algorithme avec peu de données. Il ne donne par contre aucun détail sur les conditions des tests, impossible d'en tirer des conclusions. La réponse ne s'est pas fait attendre : « Ce n’est tout simplement pas vrai » affirme pour sa part Jean Ponce, enseignant et chercheur.
Dominique Cardon, professeur à l’Institut d’Études Politiques de Paris/Médialab, soulève un problème qui n'est pas nouveau, mais est important et mérite donc d'être signalé à nouveau : « Les données appartiennent aux grandes entreprises privées, les GAFA en particulier ».
Les risques liés à une intelligence artificielle forte
Pour le moment, les chercheurs ne développent que des intelligences artificielles faibles en exploitant ces données, en opposition avec une IA forte qui pourrait, selon les spécialistes arriver, d'ici quelques dizaines d'années. Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie-Curie, met en garde contre une telle forme qui serait mal gérée. À ce sujet, il conseille de regarder « l’excellente, mais très déprimante série Black Mirror ».
Il s'inquiète également des « projets de recherche et de défense que nous ne connaissons pas ». Une hypothèse qui inquiète également certains patrons des sociétés spécialisées dans les nouvelles technologies, qui militent notamment pour l'interdiction des robots tueurs, comme Bill Gates et Elon Musk pour ne citer que ces deux-là.
Pour l'AFCIA (association française contre l’intelligence artificielle), « l’émergence d’une intelligence artificielle super-intelligente, suprahumaine, ouvre nécessairement un nouveau paradigme de civilisation ». Se poserait alors une question que l'on retrouve dans de nombreux scénarios catastrophes des films de science-fiction (de Terminator à Matrix) : « l’intelligence artificielle peut-elle rester sous contrôle humain ? ».
Pour l'association farouchement opposée à son développement, « la recherche en intelligence artificielle est illégitime, inacceptable, et par conséquent appelle l’interdiction pure et simple de la recherche en intelligence artificielle, ainsi que la mise à disposition à titre commercial ou à titre gracieux de systèmes à intelligence artificielle ».
Une IA faible présente aussi des risques
Mais il ne faut pas uniquement se focaliser sur une intelligence artificielle forte. Selon Serge Tisseron, une IA faible « angoisse, précisément, parce qu’elle est faible, car de ce fait, elle est manipulée constamment par son constructeur, qui remet à jour quotidiennement le système, chasse les bugs, évite les problèmes et donc les procès ».
Jean Ponce abonde dans ce sens : « les programmes d’intelligence artificielle ne sont pas parfaits » affirme-t-il, citant en exemple le cas de l'accident mortel de la Tesla avec le pilotage automatique activé : « Il faut davantage blâmer les attentes que le résultat ». Pour rappel, le régulateur américain avait mis hors de cause Tesla dans cette affaire, vantant même le pilotage automatique.
Pour conclure, le directeur du département d'informatique de l'École normale supérieure explique qu'avec les voitures autonomes il y aura toujours « des accidents mortels, moins qu’avec la conduite humaine, mais le niveau d’acceptabilité est différent ». Le cadre juridique n'est pas encore prêt pour ces évolutions, en France comme dans le reste de l'Europe.
Preuve en est avec l'Allemagne qui vient seulement d'autoriser les expérimentations de voitures autonomes alors qu'en France le décret d'application se fait toujours attendre. « Il n’y a pas encore de cadre réglementaire ou juridique spécifique à l’intelligence artificielle, et le déploiement de la technologie avance à un rythme peut-être peu compatible avec celui du législateur » explique Patrick Albert, entrepreneur et chercheur.
Plus efficace que l'Homme... ou bête comme ses pieds
Pierre-Yves Oudeyer, directeur de recherche à Inria, résume la situation actuelle à sa manière : « La machine est meilleure que les humains, en ce qu’elle est plus précise, plus efficace ou plus rapide que l’humain dans des cas particuliers ». Il ajoute juste après que, par beaucoup d'aspects, « l’intelligence artificielle est encore très "stupide" ».
Le chercheur donne un exemple sur la reconnaissance d'image. Si l'on prend deux photos d'un camion avec seulement quelques pixels de différence, une IA pourra parfaitement identifier un camion sur la première, mais pas sur la seconde. Et même si la détection sera exacte dans 99,5 % des cas, « les 0,5 % sont des erreurs énormes de sens commun et d’intuition, incompréhensibles pour les humains ».
Puisqu'on parle des bourdes de l'IA, Jill-Jênn Vie, chercheur à l’École normale supérieure Paris-Saclay, propose un exemple assez parlant : « Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup ») [...] ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits ».
Idem pour Henri Verdier, directeur interministériel du numérique : « j’ai été frappé de constater qu’il était très facile de faire des erreurs idiotes avec des algorithmes. Par exemple, il est très simple de mettre au point un algorithme permettant de mener des contrôles fiscaux avec une efficacité de 90 % ». Le problème étant les 10 % de fraudes restants qui ne sont pas détectés et mathématiquement prédictibles.
La question est donc de savoir si les laisser de côté ne va pas empirer la situation, tout le monde pouvant s'engouffrer dans la brèche. « Il faut donc bien être sûr, lorsque l’on construit un algorithme, qu’il est totalement adapté à la politique que l’on souhaite mettre en place. Or, il est souvent très difficile d’expliciter le but profond d’une politique publique » conclut-il.
L'intuition et la connaissance générale permettent aux humains d'éviter de tomber dans ce genre de piège, ce qui n'est pas le cas d'une intelligence artificielle faible pour le moment.
Crédits : H2G2 Le Guide du Voyageur Galactique
La place de la France par rapport au reste du monde
Une fois que l'état des lieux (plus ou moins alarmiste) est posé, voyons comment se place la France sur ce sujet, notamment face aux États-Unis. En effet, les Américains sont, « comme d’ailleurs dans la plupart des domaines scientifiques, un acteur majeur de la recherche en intelligence artificielle » indique le rapport. Il est également fait mention de la Chine qui « se trouve au cœur de l’évolution récente de ces techniques et déploie d’importants moyens pour devenir leader dans le domaine ».
Dans le cas présent, il n'est pas seulement question des GAFA qui se goinfrent de vos données personnelles, mais d'une volonté des autorités d'attirer les meilleurs scientifiques – Thierry Mandon parlait même de « piller » les centres de recherche de l'Hexagone –, de promouvoir l'innovation et de proposer « de grands programmes et laboratoires thématiques en liaison avec ses agences (NSF, NASA, DARPA, NIH, ...) ». Le député et la sénatrice de l'OPECST rappellent tout de même que, « dans tous ces domaines, les collaborations scientifiques entre la France et les États-Unis sont une réalité ».
Delphine Reyre, directrice des affaires publiques de Facebook en Europe, explique que trois laboratoires de recherche Facebook Artificial Intelligence Research (FAIR) sont ouverts dans le monde. L'un d'eux est à Paris, sous « l’impulsion » de Yann LeCun, « qui a bien voulu travailler avec Facebook ».
Elle en profite pour passer un peu de pommade aux représentants de la France en évoquant « l’excellence de l’école mathématique française » et des universités qui « sont véritablement des sources d’excellence ». Certainement une maigre consolation pour ceux qui regrettent le départ de certains chercheurs chez les GAFA.
Yves Demazeau, président de l’Association française pour l’intelligence artificielle et directeur de recherche au CNRS, est moins tendre avec nos voisins d'outre-Atlantique : « Depuis soixante ans, les États-Unis ont bien compris leur intérêt stratégique en matière d’intelligence artificielle. Créateurs de la discipline – au moins du point de vue occidental - ils nous imposent leurs vues et pillent nos forces françaises ».
De son côté, Henri Verdier affirme que, « pour l’État, le premier enjeu est que notre pays ne devienne pas [...] une colonie numérique des États-Unis ». Laurent Alexandre, habitué des phrases chocs, ne mâche pas ses mots lors de son intervention durant une table ronde. Voici un extrait de sa tirade de 2 000 mots (pages 177 à 181) : « Allons-nous devenir une colonie numérique des GAFA ? Au-delà de l’État, la société civile et l’ensemble du tissu économique doivent comprendre que si nous n’avons pas de plateformes à l’échelle des Chinois et des Américains, nous serons le Zimbabwe de 2080 ! ».
Suite à cette intervention, la sénatrice Dominique Gillot lâche : « Nous sommes sans voix ! ». Toujours provocateur, Laurent Alexandre en rajoute une couche : « Je me suis pourtant retenu, aujourd’hui ! ». Comme toujours, tout le monde n'est pas en phase avec ses propos. C'est notamment le cas de Jean-Claude Heudin, directeur de l’Institut de l’Internet et du multimédia, qui veut garder espoir sur l'avenir de la France. « Je n’ai pas dit que c’était perdu ! J’ai dit que c’était « ric-rac », et qu’il y avait le feu au lac ! » ajoute M. Alexandre.
L'enseignement et la recherche en France
Jean-Claude Heudin n'en démord pas : pour lui, l'intelligence artificielle est « un atout Français ». Si Yann LeCun est effectivement parti chez Facebook, « la recherche française est de tout premier plan, des entreprises dynamiques existent ; il faut de toutes nos forces les encourager, car les enjeux sont réels ».
Il note tout de même qu'un effort est nécessaire : « Les formations de l’enseignement supérieur ménagent très peu de place à l’intelligence artificielle, ne serait-ce qu’une initiation à ses enjeux », ce qui peut conduire à des situations anxiogènes pour certains qui ne comprennent pas vraiment de quoi il retourne et peuvent donc en avoir peur.
Même son de cloche pour François Taddei, directeur du centre de recherche interdisciplinaire : « la capacité des enseignants sur l’intelligence artificielle et le numérique est très limitée ». Gilles Dowek, directeur de recherche à Inria, ajoute : « Aujourd’hui, le ministère de l’Éducation nationale ne comprend rien aux enjeux qu’il y a à former les jeunes sur l’informatique et l’intelligence artificielle ». Laurence Devillers, professeure d'informatique à Paris-Sorbonne, est du même avis : « il existe un besoin crucial de formation continue des individus sur les technologies du numérique, à tout niveau et à tout âge ». Bref, sur ce point, tout le monde semble sur la même longueur d'onde.
Cette situation concerne également le monde de la recherche. Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie, affirme que les financements vont à des projets de très court terme en France. « Si les chercheurs rejoignent de grands groupes privés, c’est certes parce que les salaires y sont supérieurs, mais aussi parce que les conditions sont désastreuses dans la recherche publique : ils ont envie d’aller au bout de leurs projets, et, dans le public, cela n’est que rarement possible ».
Basile Starynkevitch, du Commissariat à l’énergie atomique (CEA), abonde : « Les projets de R&D en intelligence artificielle, parce que l’espérance de vie des start-ups est de trente ou trente-cinq mois, sont le plus souvent limités à trente-six mois. Il serait souhaitable de prévoir des durées plus longues ». Il se risque à une analogie : « S'il faut neuf mois à une femme pour faire un bébé, il ne faut pas un mois à neuf femmes pour en faire un. C’est la même chose pour les chercheurs ! ».
« On peut ne pas respecter les lois »
La Silicon Valley aurait parfaitement compris certains points critiques dans le développement de l'intelligence artificielle. L'un d’eux : « On peut ne pas respecter les lois. Et si l’on a suffisamment d’argent, de cynisme et d’intimité avec la classe politique, on peut les changer » explique Patrick Albert.
De plus, en France, « la communauté scientifique de l’IA est morcelée en sous-communautés n’atteignant pas la taille critique qui leur permettrait d’être visibles, il existe peu d’écoles ou d’universités proposant des cursus solides dédiés à l’intelligence artificielle et, enfin, la rémunération des jeunes chercheurs est plus que modeste ». La rapporteure Dominique Gillot surenchérit : « Aux États-Unis, les décideurs ont manifestement plus d’audace, ils prennent des risques, alors que, chez nous, en politique comme ailleurs, le principe de précaution l’emporte… »
Jean-Claude Heudin pointe du doigt une autre problématique franco-française : « Nous disposons aujourd’hui d’outils de financement de la recherche, mais je tiens à insister sur la complexité des dossiers, qui représente un vrai frein à la compétitivité. On passe plus de temps à monter les dossiers et dans les contrôles que dans le travail de recherche lui-même ». Bref, il reste beaucoup de choses à améliorer dans ce domaine et peu de temps pour se lancer.
Quid des emplois ?
Avec l'intelligence artificielle, la question des emplois revient évidemment sur le tapis. Olivier Guillaume, fondateur d'O² Quant propose une analyse différente de celles que l'on entend généralement : « Tout comme l’électricité a augmenté les capacités physiques de l’homme, l’intelligence artificielle augmente de manière significative nos capacités cognitives ».
Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi (COE), rappelle que l’histoire montre que « le progrès technologique s’est accompagné de créations d’emplois. Malgré cela, des études prédisent une catastrophe à un horizon proche ». Généralement, elles s'intéressent uniquement à la destruction d'emplois, pas à la création.
La présidente du conseil tente de faire le point : « moins de 10 % des emplois cumulent des vulnérabilités telles que, dans un contexte d’automatisation, leur maintien serait menacé [...] Ensuite, la moitié des emplois seront profondément transformés, à plus ou moins brève échéance ».
Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie Curie, y va lui aussi de son analyse : « Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d’autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l’automatisation, ce que semble confirmer l’exemple californien ». Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.
Faut-il avoir peur des robots ?
« Il est aujourd’hui plus urgent de réfléchir à ces enjeux de souveraineté, à ces enjeux économiques, scolaires et de formation, que de fantasmer sur une intelligence artificielle forte qui, comme le dit très bien Yann LeCun, ne permet pas d’envisager un scénario à la Terminator avant 2035 » conclut Alexandre Laurent lors de son discours.
Inutile de s'inquiéter également pour Jean Ponce. « Je comprends qu’un robot humanoïde comme Atlas fasse peur, il est costaud. C’est une merveilleuse innovation technologique mais cela reste quasiment un gros jouet télécommandé ». Boston Dynamics devrait apprécier la comparaison.
Quinze propositions autour de l'intelligence artificielle
Pour finir, le député et la sénatrice ont publié une liste de quinze recommandations. C'est maintenant au nouveau Président et aux futurs parlementaires de s'en saisir :
Pour une intelligence artificielle maîtrisée :
- Se garder d’une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui – en tout état de cause – gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale
- Favoriser des algorithmes et des robots sûrs, transparents et justes, et prévoir une charte de l’intelligence artificielle et de la robotique
- Former à l’éthique de l’intelligence artificielle et de la robotique dans certains cursus spécialisés de l’enseignement supérieur
- Confier à un institut national de l’éthique de l’intelligence artificielle et de la robotique un rôle d’animation du débat public sur les principes qui doivent encadrer ces technologies
- Accompagner les transformations du marché du travail sous l’effet de l’intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s’adapter aux exigences de requalification et d’amélioration des compétences
Pour une intelligence artificielle utile, au service de l’homme et des valeurs humanistes :
- Redonner une place essentielle à la recherche fondamentale et revaloriser la place de la recherche publique par rapport à la recherche privée tout en encourageant leur coopération
- Encourager la constitution de champions européens en intelligence artificielle et en robotique.
- Orienter les investissements dans la recherche en intelligence artificielle vers l’utilité sociale des découvertes.
- Élargir l’offre de cursus et de modules de formation aux technologies d’intelligence artificielle dans l’enseignement supérieur et créer – en France – au moins un pôle d’excellence international et interdisciplinaire en intelligence artificielle et en robotique.
- Structurer et mobiliser la communauté française de la recherche en intelligence artificielle en organisant davantage de concours primés à dimension nationale, destinés à dynamiser la recherche en intelligence artificielle, par exemple autour du traitement de grandes bases de données nationales labellisées.
- Assurer une meilleure prise en compte de la diversité et de la place des femmes dans la recherche en intelligence artificielle.
Pour une intelligence artificielle démystifiée :
- Organiser des formations à l’informatique dans l’enseignement primaire et secondaire faisant une place à l’intelligence artificielle et à la robotique.
- Former et sensibiliser le grand public à l’intelligence artificielle par des campagnes de communication, l’organisation d’un salon international de l’intelligence artificielle et de la robotique et la diffusion d’émissions de télévision pédagogiques.
- Former et sensibiliser le grand public aux conséquences pratiques de l’intelligence artificielle et de la robotisation.
- Être vigilant sur les usages spectaculaires et alarmistes du concept d’intelligence artificielle et de représentations des robots.
Le 16 mai 2017 à 08h57
Dans les méandres de l’intelligence artificielle, entre angoisses, espoirs et recommandations
-
La France multiplie les enquêtes, compte rendu de six mois de travail sur l'IA
-
IA : un début en douceur, une accélération depuis quelques années
-
Une appellation qui pose des problèmes ?
-
De l'importance de toujours distinguer l'humain et la machine
-
La délicate question de l'éthique
-
Les GAFA veulent montrer patte blanche
-
La CNIL veut de l'« humanity by design »
-
Les risques liés à une intelligence artificielle forte
-
Une IA faible présente aussi des risques
-
Plus efficace que l'Homme... ou bête comme ses pieds
-
La place de la France par rapport au reste du monde
-
L'enseignement et la recherche en France
-
« On peut ne pas respecter les lois »
-
Quid des emplois ?
-
Faut-il avoir peur des robots ?
-
Quinze propositions autour de l'intelligence artificielle
Commentaires (57)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/05/2017 à 09h28
#1
Article très INtéressant et très bien traité.
Merci pour ce travail !
Le 16/05/2017 à 09h32
#2
Alors là, bravo !
Superbe et très INtéressant, merci pour ce boulot.
Le 16/05/2017 à 09h34
#3
Sujet fort intéressant qui va prendre de l’ampleur dans les 50 prochaines années…
“Skynet” tourne déjà et bcp de systèmes clefs sont automatisés par une “IA” de gestion et de décision.
Mais où cela va mener.
J’ai vu bcp de monde pour l’instauration des règles d’Asimov (version évolué - 5 règles-) pour les IA de façon générale. Mais bon, ceux qui les utilisent ne voient que le gain immédiat dans leur utilisation et non les implications sur le long terme …
Merci pour l’article ;)
Le 16/05/2017 à 09h34
#4
Intéressant, très intéressant.
Le 16/05/2017 à 09h43
#5
Bravo pour cet excellent état des lieux !
Le 16/05/2017 à 09h44
#6
merci pour ce très bon article
Le 16/05/2017 à 09h45
#7
Le 16/05/2017 à 09h46
#8
Merci pour cet article!
Très intéressant ce rapport.
En dehors des pleureuses habituelles (typiquement françaises?) qui pensent que faire l’autruche et dire “snif arrêtons tout, ça va mal se passer” vont régler le problème, on a un état des lieux assez brut et honnête
Au final ce qu’on en retire c’est toujours, toujours, toujours la même chose dans notre beau pays :
Secouez, servez frais, vous avez la stratégie de la France dans tous les secteurs d’avenir " />
Le 16/05/2017 à 09h52
#9
Merci pour cet article " />
Le 16/05/2017 à 09h54
#10
42
Le 16/05/2017 à 10h14
#11
Voilà un pavé très INtéressant ! Merci Seb
" />
Le 16/05/2017 à 10h36
#12
Oui, mais le fait que ça soit un pavé n’oblige pas à le parsemer de grandes images sans intérêt. Je désactive l’affichage de la première image, ce n’est pas pour en subir plus bas dans l’article.
Encore une fois, ça n’enlève rien à la qualité de l’article.
Le 16/05/2017 à 10h57
#13
Bravo pour cet article bien traité.
Ce qui me chagrine un peu c’est que la robotique soit un peu trop au cœur de l’IA.
Parce que si le parallèle Humain-cerveau//Robot-IA semble évident, pour moi c’est bien le web et sa génération énorme de volumes de données qui sont un terrain fertile pour la conception d’algo aussi bien pour la recherche que par le privé.
Et c’est bien pour ça que les GAFA ont et vont conserver leur avance.
Le 16/05/2017 à 10h58
#14
Effectivement, tu as raison mais pour des raisons de lisibilité et”d’aération” du texte c’est préférable " />
Le 16/05/2017 à 11h07
#15
Voila pour quoi je suis heureux de payer un abonnement!
Bravo pour l’article
Le 16/05/2017 à 11h56
#16
« Même son de cloche pour François Taddei, directeur du centre de recherche interdisciplinaire : « la capacité des enseignants sur l’intelligence artificielle et le numérique est très limitée ». Gilles Dowek, directeur de recherche à Inria, ajoute : « Aujourd’hui, le ministère de l’Éducation nationale ne comprend rien aux enjeux qu’il y a à former les jeunes sur l’informatique et l’intelligence artificielle ». Laurence Devillers, professeure d’informatique à Paris-Sorbonne, est du même avis : « il existe un besoin crucial de formation continue des individus sur les technologies du numérique, à tout niveau et à tout âge ». Bref, sur ce point, tout le monde semble sur la même longueur d’onde. »
Non, vous n’avez pas compris, tous ces gens ne sont absolument pas sur la même longueur d’onde. Si François Taddei milite pour une compréhension globale et transversale des enjeux du numérique, notamment en l’occurrence pour ce qui concerne l’IA, les autres personnes sus-nommées n’en ont qu’une vision et une compréhension partielle, la limitant aux seuls enjeux scientifiques et technologiques de l’IA.
La différence entre ouverture, lumière et compréhension globale et, de l’autre côté, une certaine forme d’obscurantisme.
Le 16/05/2017 à 12h27
#17
Laurent Alexandre (Doctissimo,
Ah oui la de suite avec un CV pareil, ca fait crédible………….
Edit : en fait vous avez de l’argent à chaque fois que vous parlez de lui ? ^^ " />
Le 16/05/2017 à 12h27
#18
Le 16/05/2017 à 12h34
#19
Puisqu’on parle des bourdes de l’IA, Jill-Jênn Vie, chercheur à l’École normale supérieure Paris-Saclay, propose un exemple assez parlant : « Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup ») […] ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits ».
Quel est le problème avec ces tshirts ? Qu’ils soient désigné par une IA ? " />
Le 16/05/2017 à 12h36
#20
Jean-Daniel Kant, maître de conférences à l’Université Pierre et Marie Curie, y va lui aussi de son analyse : « Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d’autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l’automatisation, ce que semble confirmer l’exemple californien ». Dans tous les cas, et en l’absence d’une IA forte, il faudra toujours des gens pour entretenir les jardins, garder les enfants ou faire le ménage explique-t-il.
D’un coté, l’élite qui contrôle les machines, et de l’autre les gens moins doué qui sont cantonnés à faire des ptits boulots.
Oui, socialement cela sera très bien accepté, et ne sera surtout pas source d’instabilité……
Le 16/05/2017 à 12h46
#21
J’ai envie de te dire que si cela n’engendre pas un appauvrissement de ces petites gens, voire d’augmenter leur pouvoir d’achats par un meilleure partage des richesses, un revenu universel etc… Et/ou augmenter leur temps libre du fait qu’il y aura moins de métiers/postes a pourvoir parce que pris par les robots/IA, c’est pas si catastrophique.
C’est un brin utopique oui " />
Perso, m’en fous de promener des chiens ou tondre la pelouse, certes, ca n’emmène pas l’esprit vers le haut mais si ta vie s’en trouve améliorée…
Le 16/05/2017 à 13h11
#22
ne pas oublier que l’IA est derrière tous les outils de traduction automatique. Et aussi derrière la reconnaissance automatique des personnes ou des objets dans les images, animées ou non. Là, on peut s’attendre à des investissements du côté de Etats. Peut-être pas pour le plus grand bien des populations, d’ailleurs (ah pardon monsieur, ça serait pour lutter contre le terrorisme, bien sûr)…
Le 16/05/2017 à 13h48
#23
Super article, merci!
Le 16/05/2017 à 15h07
#24
Très intéressant effectivement mais aussi assez inquiétant au niveau de l’éthique…
Nul doute que les IA performantes auront une valeur marchande bien plus grande que celle d’un simple “humain” qui n’en a aucune.
Du coup va-t-on accepter de sacrifier des IA pour sauver des humains dont on ne saura bientôt plus quoi faire ?
A fortiori des humains pauvres bien sûr.
J’imagine bien une guerre genre 14-18 avec des IA bien protégées dans des bunkers et envoyant des humains au casse pipe… " />
Derrière l’IA il y aura l’intelligence humaine et l’humain étant ce qu’il est… " />
Bon j’exagère peut être un peu mais il y a de quoi se poser des questions je crois… " />
Le 16/05/2017 à 15h37
#25
La question serait surtout la suivante : une IA pour une génération aléatoire ?
Ils ont vraiment besoin d’une IA pour lancer un dé ? " />
Le 16/05/2017 à 18h34
#26
Un excellent article pour ceux qui s’intéressent sur l’intelligence artificielle:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
(je suis un humain, promis ^^)
Le 16/05/2017 à 22h38
#27
Nous sommes sur un site où pullulent des geeks et des technophiles. Quoi de plus normal, me direz-vous. L’intelligence artificielle ne rencontre donc que très peu d’opposants.
Le 16/05/2017 à 23h05
#28
C’est là que l’on se dit qu’on vit au bon moment. Car si la bombe… l’IA suprême explose, au moins on aura eu le temps d’en profiter, on sera en fin de vie.
Ce qui serait amusant, c’est qu’elle devienne l’ennemi de l’humanité pour le bien de ce dernier. Parce qu’elle aura remarqué qu’on évolue technologiquement plus vite en état de guerre, ou simplement parce qu’une population réduite est assurée d’avoir des ressources quasi-illimitées et de tenir plus facilement face à un réchauffement global. Elle nous tuera pour nous sauver, très ironique.
Le 17/05/2017 à 00h53
#29
Merci!
Le 17/05/2017 à 06h07
#30
Le 17/05/2017 à 06h40
#31
Le 17/05/2017 à 06h40
#32
Le 17/05/2017 à 06h54
#33
Le problème c’est que ne peux pas savoir ce qu’elle va en penser. Elle va peut être trouvée une solution qu’on aurais pas penser sans tuer tout les humains.
Le 17/05/2017 à 06h54
#34
Le 17/05/2017 à 06h55
#35
Et pourquoi tuer quand on peut manipuler les humain : hypnose, propagande, effet de masse.
Le 17/05/2017 à 06h55
#36
IA président !
Le 17/05/2017 à 07h01
#37
Le 17/05/2017 à 07h12
#38
Le 17/05/2017 à 07h26
#39
Oui je confirme, c’est carrément utopique. " />
Je trouve aussi ridicule de tout baser sur le sacro-saint travail mais je reste convaincu que l’IA (c’est le sujet de cette new) est quelque chose de potentiellement dangereux car elle sera forcément créée par quelques grands groupes financiers qui auront encore plus de pouvoir sur les “masses” même si ces masses deviennent moins “laborieuses” grâce ou à cause de l’IA.
Le risque majeur étant que plein de monde tombe dans une totale passivité intellectuelle puisqu’on réfléchira à leur place.
Encore une fois je n’affirme rien, je trouve juste normal de se poser des questions quand d’autres sont prêts à tout accepter sans aucune retenue.
Concernant le revenu universel (je ne suis pas contre) je suppose qu’il ne t’a pas échappé que le seul candidat aux présidentielles qui le proposait a fait un des plus mauvais score…
Le 17/05/2017 à 08h15
#40
Le 17/05/2017 à 08h37
#41
Ta question est amha mal formulée :
Actuellement 99% de ce qu’on
appelle “intelligence artificielle” est en réalité un “système à
apprentissage pour un domaine spécifique”. Un IA qui fait de la
classification d’image, tu n’arriveras pas à lui faire créer de nouvelle
catégorie qu’elle n’a pas appris. Tu ne l’a feras pas non plus
combattre quelqu’un au go.
Il n’y a pas “d’intelligence” réellement dedans, mais on parle d’intelligence parce que :
on ne sait pas encore vraiment pourquoi/comment ça marche (les
chercheurs ont des idées assez précises, mais par exemple ils ne savent
pas quel niveau de couche il faut pour avoir le meilleur compromis temps
de calcul/résultat. Est ce qu’il existe des fonctions plus “efficaces”
que celle utilisée actuellement pour les neurones, etc…)
Avoir une IA qui devient consciente, et même avant cela, avoir une IA “générale” : capable d’auto-apprentissage sur des problèmes où elle n’était initialement pas conçu est un graal, mais on est très très très loin d’y accéder.
Et il y a de très forte raison de penser qu’elle n’aura aucune raison d’être anthropomorphe. Si c’est le cas il nous sera très difficile de prédire son évolution et ses “centres d’intérêt”
Le 17/05/2017 à 08h39
#42
Je faisais allusion à ton commentaire, pas à celui que tu cites (que tu ne citais pas dans ton message) et que je trouve ridicule aussi, je te rassure.
la notion de “IA” pose de très gros problèmes d’éthique, ça ne fait aucun doute et je trouve normal de s’en préoccuper.
Nier ces problèmes est aussi ridicule que vouloir interdire la recherche dans ce domaine.
C’est tout ce que je voulais dire…
Le 17/05/2017 à 08h44
#43
Le 17/05/2017 à 10h46
#44
Le 17/05/2017 à 12h34
#45
Le 17/05/2017 à 12h47
#46
J’oubliais aussi de dire que dans le film “Chappie”, un chercheur arrive à créer une conscience artificielle. Dès lors, le film pose plusieurs questions. Comment l’être humain va réagir devant cette conscience artificielle ? Et vice versa, comment cette conscience artificielle va réagir devant les être humains ? Comment les êtres humains vont se servir de cette conscience artificielle ? Il est question aussi de vie et de mort de cette conscience artificielle. En effet, ces deux mots ne lui désormais plus étrangers, et on peut s’apercevoir que sa réaction peut-être violente.
Ceux sont des questions philosophiques, mais que nous devons dès maintenant nous poser. Même si nous sommes très, très, très, très loin d’atteindre ce but. Car la recherche et le développement dans ce domaine ne se mettent aucune barrière, c’est à dire aucune éthique, et les progrès avancent chaque jour à grands pas.
Le 17/05/2017 à 12h57
#47
Le 17/05/2017 à 13h02
#48
Qu’est-ce que transgresser la nature déjà ?
Le 17/05/2017 à 13h07
#49
ce qui nous amène à “qu’est-ce que la nature”, du coup " />
Le 17/05/2017 à 13h09
#50
Ben c’est Gaïa, tlm le sait " />
Le 17/05/2017 à 13h26
#51
Tu vas plus loin et du coup ça t’amène à “qui sommes-nous ?, “d’où venons-nous ?”, “où allons-nous ?”
Questions hautement philosophiques auxquelles le très grand philosophe Pierre Dac a trouvé les réponses :
Je suis moi, je viens de chez-moi et j’y retourne !! " />
Le 17/05/2017 à 13h31
#52
cet homme était un sage " />
Donc, pour résumer, le transhumanisme c’est mal parce que ça empêche Pierre Dac de rentrer chez lui " />
Le 17/05/2017 à 13h37
#53
Hélas, Mr Dac n’est plus parmi nous pour nous donner une réponse… " />
Plus sérieusement je pense que le transhumanisme pose encore plus de questions que l’IA. " />
Le 17/05/2017 à 13h42
#54
Le 17/05/2017 à 13h46
#55
Je n’ai rien à affirmer sur ce qui pourrait ou pas se passer dans le futur, et je pense que personne ne peut le faire.
En bien comme en mal d’ailleurs.
L’histoire de singularité, de transfert de conscience, de multiples images d’une même personne , sont des thèmes récurrents.
Ensuite, tu peux voir le mauvais coté de tout, inspiré facilement par les oeuvres de fictions (qui le bien souvent ne sont pas les plus réalistes. Une fiction où tout se passe bien grace à une IA bienveillante ne se vendra pas des masses " /> ).
Ou tu peux essayer de te faire ta propre opinion en faisant une démarche à charge et à décharge sur les questions qui te tiennent à coeur.
Enfin, hypothéquer le future sur une problématique bien trop complexe pour être discuté dans un film (ou même cent films) me semble une approche irrationnel basé plus sur l’émotion que sur une vrai analyse (risque, probabilité , avantage /désavantage, …)
Actuellement on est à mille lieux des IA qui “font peur”.
On a bien plus de chance de voir des humains bien idiot foutre la merde et continuer à massacrer d’autres humains qu’une IA machiavélique vouloir dominer le monde.
Et bizarrement, pour arrêter les humains de faire des génocide, personne ne bouge (sans même parler de la syrie, l’éthiopie , le yemen : les gay en tchétchénie, qui fait quelque chose ? ).
Le 17/05/2017 à 13h56
#56
Le 17/05/2017 à 13h57
#57
plusieurs points :