#FranceIA : les enjeux de l’intelligence artificielle, entre fantasmes et craintes
Entre aliénation et humains augmentés
Le 27 mars 2017 à 13h46
14 min
Sciences et espace
Sciences
Derrière la notion d'intelligence artificielle se cachent de nombreux fantasmes et craintes. France Stratégie et le CNNum ont mis en ligne un rapport qui se penche sur les impacts économiques et sociaux. Il se compose d'une analyse de la situation et de sept recommandations.
Il y a un peu plus de deux mois, le gouvernement organisait une conférence de presse afin de lancer officiellement le projet « France IA ». Son but était alors de définir « les orientations stratégiques de la France dans le domaine de l’intelligence artificielle ».
Sept groupes de travail étaient présentés, chacun centré sur un sujet précis. Le calendrier était serré puisque le premier rapport devait être dévoilé mi-mars. Il est désormais en ligne et nous l'avons analysé.
Mises en bouche et en garde
Dans un premier temps, il commence par définir quelques notions et faire un point d'étape de l'intelligence artificielle (IA). Celle-ci « s'inscrit dans la continuité des transformations numériques à l’œuvre depuis des années », mais « les transformations à venir sont profondes, les incertitudes aussi » et « tout n’est pas rose ».
Pour le moment, « nous sommes loin d’une IA "générale" » ou IA forte note le rapport. Ce n'est pas une surprise puisque nous avons déjà eu l'occasion de l'évoquer à plusieurs reprises. Si « les logiciels actuels ne sont capables de réaliser que des tâches très spécifiques », que se passera-t-il lorsqu'une telle intelligence sera disponible ? Impossible à dire pour l'instant, et ce n'est pas l'objet de ce rapport qui se concentrer davantage sur les enjeux sociaux dans un avenir proche.
Le premier point abordé concerne la délicate question des emplois. Il faut dire que l'intelligence artificielle se déploie sur un nombre toujours plus important de domaines, avec une pertinence et une efficacité parfois redoutable, comme peuvent en attester les quelques victoires récentes sur l'Homme, notamment au jeu de Go et au poker. Sont donnés en exemple les cas suivants : reconnaissance d’images, filtre anti-spam, système de recommandation de contenus, traduction automatique dans de nombreuses langues, intelligence des personnages dans les jeux vidéo, conduite autonome, gestion du trafic, etc.
De la destruction d'emplois...
Les risques sur le plan social sont réels et plus ou moins importants suivant les domaines : « l’absence d’anticipation, la pauvreté des solutions d’accompagnement, des approches en silo et un pilotage assis sur la seule réduction des coûts auraient les effets dramatiques de destruction d’emploi que nous annoncent les cassandres » explique le rapport.
S'il est inévitable que certains emplois seront remplacés par des ordinateurs, d'autres resteront par contre le propre de l'homme, car une IA sera considérée « inacceptable, inefficace ou non bénéfique pour la société ». Le rapport cite l'Allemagne en exemple : « très robotisée, mais avec plus de salariés dans l’industrie que la France », afin de mettre en avant le fait que les destructions d'emplois « peuvent être plus que compensées par l’amélioration de la compétitivité de certains secteurs, qui augmente leur potentiel à l’exportation ».
Mais attention, « ce scénario rose doit bien entendu être nuancé » tempère rapidement le rapport. Tout d'abord, les emplois automatisables seraient en nombre limité : une dizaine de pourcents selon plusieurs rapports cités. Par contre, près de la moitié des tâches sont « susceptibles d’être transformées » par l'IA et la robotisation ; ce qui inquiète bien souvent. Reste maintenant à savoir à quel point on parle de transformation.
Bien évidemment, plus l'IA prendra une place importante, plus il faudra des techniciens (au sens très large du terme) pour les concevoir, entrainer, superviser et réparer, du moins tant que cette tâche ne sera pas non plus remplacée par un robot ou une IA forte. Ce qui n'arrivera probablement pas avant « plusieurs décennies », mais c'est un autre problème.
... aux travailleurs « augmentés »
La situation doit donc être appréhendée de manière globale et pas uniquement secteur par secteur. France Stratégie et le CNNum se concentrent ainsi sur la « nécessaire transformation des métiers, notamment la complémentarité homme-machine ».
Cette coopération se mettrait en place « dans des environnements de travail où les IA seront des partenaires, des assistants plutôt que des remplaçants ». Il est ainsi question d'« "augmenter" les travailleurs », pas au sens du salaire, mais des performances.
Cela soulève une nouvelle question : « le risque de transformer le travailleur en un simple exécutant déqualifié, suivant les prescriptions de la machine ». Un futur déjà exploré par de nombreux films de science-fiction.
Le rapport propose un exemple pratique mettant en parallèle deux scénarios dans un centre d'appel. Dans le premier cas, le travailleur est « augmenté », dans le second l'humain est subordonné à l'IA. Finalement, il ne manque que le cas où le travailleur est purement est simplement remplacé par l'IA... ce qui arriverait très rapidement avec le second scénario :
Éviter l'aliénation de l'humain, l'importance de la formation
Afin d'éviter « l’aliénation et la prolétarisation » de l'humain, le rapport explique qu'il ne faut pas « mettre en place de dispositif automatique exerçant un contrôle complet sur l’humain : l’humain doit garder la capacité de reprendre la main ». Là encore, la voiture autonome est un domaine précurseur des enjeux.
Pour France IA il faut « organiser une gouvernance en vue d’anticiper ces transformations », c'est d'ailleurs la première des sept recommandations du rapport. Il faut également mettre en place une plateforme numérique, et « sous forme de concertation nationale », afin de regrouper toutes les parties liées à l’emploi : Pôle emploi, AFPA, acteurs régionaux, nationaux, européens, syndicats, etc.
La formation qui « joue un rôle incontournable » doit être mise en avant. De son côté, la formation continue, qui « fait régulièrement l’objet de nombre de critiques concernant ses modes de fonctionnement et son efficacité », doit gagner en importance pour que les travailleurs ne se laissent pas distancer par les évolutions de l'IA.
Au final, « le lien entre le fait d’avoir suivi une formation initiale et celui d’exercer le métier correspondant toute sa vie est clairement à remettre en cause ». Problème, le temps de formation continue n'est pour le moment pas à la hauteur.
Connaissez-vous les sous-domaines de recherche en #IA ? Réponse en image ⤵ #FranceIA pic.twitter.com/Z7B23Wzojm
— Ministères de Bercy (@_Bercy_) 21 mars 2017
Des algorithmes capables de gagner en compétence
Si la formation permet de préparer les métiers du futur, l'IA apprend également et développe ses réseaux de neurones. Ses capacités sont ainsi en perpétuelle amélioration et tendent à « s’horizontaliser », c'est-à-dire à conquérir de manière quasi automatique des compétences sur des domaines proches.
Le rapport donne un exemple concret, déjà en place chez Google : « DQN, un algorithme développé par DeepMind parvient à comprendre par lui-même les règles de différents jeux auxquels il n’a jamais été entraîné à partir de son entraînement sur un jeu spécifique ».
Quid du cadre juridique ?
Alors que les questions du revenu universel, de la personnalité juridique des robots et d’une éventuelle taxe sont entrées dans le débat politique pour la présidentielle, ce rapport ne souhaite pas se positionner « sur leur pertinence » et se contente de poser un diagnostic.
En se basant sur les conclusions d'un sous-groupe de travail, le rapport indique qu'à « ce stade de l’évolution de l’IA, il n’existe pas de nécessité impérieuse de repenser le dispositif législatif et règlementaire en vigueur ». Notons qu'il faudra néanmoins se pencher rapidement sur certaines problématiques, dont celle de la responsabilité en cas d'accident d'une voiture entièrement autonome.
Actuellement, selon le code la route, « tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur ». De plus, celui-ci « doit se tenir constamment en état et en position d'exécuter commodément et sans délai toutes les manœuvres qui lui incombent ». Il faudra s'adapter et prévoir les véhicules où il n'y aura plus de volant devant le conducteur.
La Belgique et les Etats-Unis ont déjà mis en place de nouvelles règles afin d'ouvrir la voie à des expérimentations, alors qu'en France on attend toujours un décret d'application.
Le retard de la France et de l'Europe
De manière générale, la situation, telle que présentée dans le rapport, n'est d'ailleurs pas glorieuse pour le vieux continent : « l’IA est largement développée et commercialisée par les grandes plateformes du numérique (américaines et asiatiques), ce qui repose la question du retard français et européen dans le numérique ».
Un point sur lequel s'était déjà épanché Thierry Mandon, le secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Pour lui, la recherche en France « est en grand danger » aujourd'hui, car les centres français « sont pillés » : « leurs chercheurs sont débauchés par des sociétés qui ne sont pas françaises et qui ont le bon goût de ne pas payer d'impôt en France ».
Une situation regrettable pour la France, d'autant que l'intégration de l'IA « au sein de nos économies est vectrice de gains de productivité importants » affirme le rapport. Les sociétés ne peuvent donc pas passer à côté au risque d'une perte de compétitivité majeure, comme cela a déjà été le cas par le passé :
La France risque de se trouver confrontée à un conflit de transition, avec de grandes entreprises qui n’ont pas les moyens (stratégiques, logistiques, organisationnels) d’intégrer efficacement les innovations et qui utilisent des verrous institutionnels pour ralentir le développement de nouvelles entreprises plus innovantes.
In fine, ce sont les entreprises qui ont pu se développer dans un cadre propice qui, en entrant sur le marché français, apportent les innovations et la disruption. La transition peut alors être assez brutale avec une conquête massive de la part des clients grâce à des démarches dématérialisées peu contraignantes, comme ce fut le cas avec Uber.
Afin d'éviter que cela ne se reproduise trop souvent, le rapport veut « inciter les entreprises, grandes ou petites, à développer et intégrer des briques d’intelligence artificielle ». Dans la pratique, peu de pistes sont évoquées, si ce n'est la mise en place d'un réseau thématique afin de fédérer les différents acteurs. Le but étant de faciliter l'accès à l'expérimentation et aux données, qui sont le fondement même de l'intelligence artificielle.
La guerre de la compétitivité
Comme nous l'avons déjà expliqué à plusieurs reprises, de nombreuses sociétés proposent leurs algorithmes liés à l'IA (apprentissage machine et apprentissage profond par exemple) en open source. C'est le cas de géants du Net comme Apple, Facebook, Google, IBM et Microsoft, pour ne citer qu'eux. De fait, tout le monde peut en profiter... et surtout les améliorer.
Néanmoins, seuls certains acteurs (américains ou asiatiques) avec une capacité de calcul suffisante sont en mesure de proposer aux entreprises des services d'IA. Cette dépendance « à des solutions d’intelligence artificielle développées à l’étranger peut également conduire à une perte de souveraineté ».
De plus, « ces entreprises ont donc la capacité de se placer au cœur d’une activité et en interface entre une entreprise et ses clients. Elles peuvent ainsi reproduire le modèle des plateformes numériques comme Booking, Airbnb ou Uber » note le rapport.
Dans le cas des voitures autonomes, le risque est quasi immédiat et ne doit pas être pris à la légère. Les constructeurs qui misent sur le design et les performances du moteur seront-ils en mesure de développer leur propre IA, ou bien seront-ils dépendants de sociétés tierces ?
Dans ce cas, le client sera-t-il plus enclin à acheter un véhicule de telle ou telle marque avec un logiciel de navigation en marque blanche, ou bien se rendra-t-il directement chez le concepteur original ? Les véhicules autonomes étant déjà une réalité, la réponse devrait arriver rapidement.
Quoi qu'il en soit, l'ensemble du secteur est en évolution et les annonces partenariat autour des systèmes autonomes se multiplient ces derniers mois, chacun essayant de développer sa solution maison pour ne pas se laisser distancer.
Le choc des données
Afin d'entrainer une intelligence artificielle, il faut disposer d'une quantité astronomique de données. À titre d'exemple, Yann LeCun, patron de l'intelligence artificielle chez Facebook, expliquait que « pour de la reconnaissance d'images ou de la parole, on a quelques centaines de millions de boutons à ajuster, ce sont vraiment des systèmes de grandes tailles. On a quelques millions ou quelques milliards mêmes d'exemples pour s'entrainer, des milliers de catégories et reconnaitre chaque objet prend quelques milliards d'opérations ».
De par les marchés où ils sont implantés, les acteurs américains et asiatiques touchent un nombre bien plus important de personnes et donc captent d'autant plus de données qu'ils gardent évidemment bien précieusement. « Les géants du numérique ont alors tout intérêt à ouvrir les algorithmes de machine learning, pour capitaliser sur les logiques de l’innovation ouverte, tout en gardant la main sur les actifs qui en constituent la clé » note à juste titre le rapport.
Au-delà des données en elles-mêmes, le rapport revient rapidement sur les questions d’éthique et d’acceptabilité qui en découlent : « il y a une responsabilité du concepteur de l’algorithme, mais également un impact des données utilisées pour réaliser l’apprentissage ».
Des jeux de données différents peuvent conduire à des apprentissages différents de l'IA, qui peut être influencée d'une manière ou d'une autre. Après la neutralité du Net, va-t-il être question de la neutralité d'un jeu de données ? Dans tous les cas, augmenter l'échantillon permet de limiter ce phénomène. On en revient donc à la question de la quantité, qui peut cette fois-ci rimer avec qualité finale.
Jouer la carte de l'ouverture des données en Europe
En France et en Europe, on n'a peut-être pas de réseaux sociaux avec des milliards de membres, mais on a des idées : exploiter « les bases médico-administratives de santé sont alimentées chaque année par 1,2 milliard de feuilles de soin, 500 millions d’actes médicaux et 11 millions d’hospitalisations », ainsi que « d’autres données, comme les données juridiques, pourraient gagner à être ouvertes de manière plus large ».
Encore faut-il voir dans quelle mesure et sous quelle forme elles pourraient être disponibles, celles-ci comportant souvent des informations personnelles, elles devront être anonymisées, mais resteront-elles alors pertinentes ? Ce n'est pas le seul robinet que souhaite ouvrir France IA, qui veut également « engager une réflexion sur les modes de partage de la valeur entre acteurs privés ».
Pour lutter contre les géants américains et asiatiques, les acteurs européens auraient donc intérêt à se regrouper et à mutualiser leurs données. Reste à voir si cela pourrait être mis en place dans la pratique, ces informations étant justement si précieuses.
Sept recommandations sur l'intelligence artificielle
Quoi qu'il en soit, sept recommandations sont mises en avant par le rapport (toutes en rapport avec les problématiques que nous venons de souligner) :
- Organiser une concertation pour anticiper les impacts économiques et sociaux de l’IA
- Transformer la formation tout au long de la vie
- Penser la complémentarité humain-machine
- Sensibiliser à la valeur des données pour entraîner l’IA
- Intégrer l’IA dans les entreprises
- Donner accès aux données publiques
- Faire circuler les données
#FranceIA : les enjeux de l’intelligence artificielle, entre fantasmes et craintes
-
Mises en bouche et en garde
-
De la destruction d'emplois...
-
... aux travailleurs « augmentés »
-
Éviter l'aliénation de l'humain, l'importance de la formation
-
Des algorithmes capables de gagner en compétence
-
Quid du cadre juridique ?
-
Le retard de la France et de l'Europe
-
La guerre de la compétitivité
-
Le choc des données
-
Jouer la carte de l'ouverture des données en Europe
-
Sept recommandations sur l'intelligence artificielle
Commentaires (9)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/03/2017 à 14h31
Quoi qu’il en soit, sept recommandations sont mises en avant par le rapport (toutes en rapport avec les problématiques que nous venons de souligner) :
Organiser une concertation pour anticiper les impacts économiques et sociaux de l’IA
Transformer la formation tout au long de la vie
Penser la complémentarité humain-machine
Sensibiliser à la valeur des données pour entraîner l’IA
Intégrer l’IA dans les entreprises
Donner accès aux données publiques
Faire circuler les données
Si c’est pour faire comme le 2ème exemple qu’ils donnent pour le centre d’appel, autant ne pas s’embêter avec ce point… L’opérateur est simplement relégué au simple périphérique brancher en USB à la machine en tant que synthétiseur vocal : belle complémentarité ! Je sait que c’est pour montrer l’absurdité, mais l’exemple du remplacement quasi total aurait pût être plus pertinent pour la comparaison.
D’ailleurs la solution 1 propose la prise en charge de 80% en automatique par l’IA, et dans un centre d’appel qui court après l’économie, grande chance que ça se traduise par une grosse diminution de l’effectif… Et une fois cette réduction faite, il vont chercher a remplacer 80% des restant par une IA plus efficace " />
Bon, j’ai zieuté un tout petit le début du documents, il part du postula que l’IA serait plus utiliser comme un outils que comme un remplacement pour l’employé (” Une telle analyse [remplacement de l’homme] a jusqu’à présent empêché de mettre en avant les perspectives positives réelles “) , d’où l’exemple un peu absurde du centre d’appel (la 2ème proposition surtout, la 1 est pas mal).
Le 27/03/2017 à 14h54
“Pour le moment, « nous sommes loin d’une IA “générale” » ou IA forte note le rapport”
Même d’une faible, parlons sérieusement.
“De la destruction d’emplois…aux travailleurs « augmentés »”
Je pense que le mieux serait de lever le pied sur “l’inovation”, en 40 ans on c’est retrouvé avec des vieux largués et des jeunes lobotomisés. Même pour les geeks c’est dur à suivre, met en 10 autour d’une table et chacun peut aborder un sujet que les 9 autres ne comprendront pas.
Si on laissait le temps aux utilisateurs finaux de s’habituer aux nouvelles technos, les mentalités et l’emploi bougerait doucement avec. Plutôt que de déclarer de nouveaux emplois “obsolète” tous les 10 ans, et de créer du chômedu derrière parce que les gars ont perdu le fil. Et je ne parle pas de nos chers politiciens qui ne comprennent absolument rien de quoi ils parlent.
Un des seuls points positifs à remplacer les humains par des robots dans l’industrie aujourd’hui c’est que se sont les jobs les plus rébarbatifs qui disparaisse. Même si du coup ça pénalise l’employé peu qualifié.
L’autre solution c’est d’assumer pleinement que les progrès d’aujourd’hui permettent de passer sans transition a une nouvelle forme de société, comme the venus project par exemple, mais alors la va falloir sortir le stock de popcorn pour les débats à venir.
Très bon article. Mais je pense qu’actuellement le problème c’est que cette course a l’algo le plus mastock-and-what-you-want ce fait part des multi-nationnal qui bien qu’elles disent le contraire, ne font pas ça pour “améliorer les choses”. Nous sommes informatiquement du bétail, littéralement. Tout comme dans le domaine politique, les citoyens devraient être au coeur du projet, sans la moindre opacité.
Le 27/03/2017 à 15h57
J’ajouterais une 8 recommendation connaissant mon ancien pays.
Le 27/03/2017 à 16h14
la taxation vaut bien l’opt-out (les individus ont besoin de faire une demande pour se désinscrire d’une base de donnée qui collecte les données personnelles sans autorisation préalable) qui optimise les Big Data (l’or noir du XXIe Siècle).
Le 27/03/2017 à 16h19
d’ailleurs qui dit création de revenus, dit impôt/taxe et ce peu ou prou dans n’importe quel pays.
Le 27/03/2017 à 17h11
Le 27/03/2017 à 17h44
C’est ce que je trouve étonnant :que ça n’ait pas encore été mis en place. On a déjà des bots qui “discutent” comme des humains pour faire office de “réceptionniste”, j’arrive pas à trouver le bon terme mais Microsoft et/ou Facebook à sorti une API pour faire des bots sur Skype /messenger => tu couple va avec du centre d’appel et tu peut déjà en parti réduire ton effectif dans un centre d’appel
EDIT :
Un framework de microsoft pour ça :
https://dev.botframework.com/
Le 27/03/2017 à 18h26
Le 29/03/2017 à 14h30
A une lettre près, ton pseudo est un anagramme de Hamon.
Benoit, on t’a reconnu " />