Un rapport européen épingle les risques de l’intelligence artificielle

Un rapport européen épingle les risques de l’intelligence artificielle

Davantage s'inspirer de Wall-E que de Terminator

Avatar de l'auteur

Sébastien Gavois

Publié dansSciences et espace

06/06/2017
20
Un rapport européen épingle les risques de l’intelligence artificielle

L'intelligence artificielle va être un bouleversement important pour les travailleurs explique le Comité économique et social européen. Dans un rapport, il dévoile ses recommandations sur le sujet, avec un accent mis sur le côté social évidemment. Emplois, éthique, influence sur nos décisions et éducation sont autant de points abordés. 

Depuis plusieurs années, l'intelligence artificielle – au sens large du terme – connait des progressions fulgurantes dans de nombreux domaines. Dernier exemple en date, la victoire sans appel 3 à 0 d'Alpha Go (créé par DeepMind, une filiale de Google) sur Ke Jie, qui est considéré comme le numéro un mondial au jeu de Go. Mais l'intelligence artificielle soulève aussi de nombreuses questions, aussi bien éthiques, technologiques que sociétales. 

En 2017, les institutions françaises découvrent-elles l'Intelligence artificielle ? 

L'année 2017 semble être synonyme de réveil pour la France sur ces sujets, enfin diront certains. Avec le projet France IA au début de l'année, le gouvernement a ainsi dévoilé son plan de bataille sur l'intelligence artificielle, avec pour but de recenser les forces en présence. Fin mars le premier rapport était publié (voir notre compte rendu), avec sept recommandations à la clé.

Il y a trois semaines, c'était au tour de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), un organe d'information mixte entre l'Assemblée nationale et le Sénat, de faire le point sur l'intelligence artificielle, là encore avec une série de recommandations. Le document de pas moins de 275 pages est intéressant, car il regorge de contributions des géants du secteur, de start-ups et d'organes de régulation (dont la CNIL), comme nous l'avons détaillé dans notre compte rendu.

Il y a quelques jours, c'est le Comité économique et social européen (CESE) qui est entré dans la danse avec un avis intitulé Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société. Celui-ci a été adopté en session plénière le 31 mai et aborde les différentes facettes de l'IA, avec un accent sur les changements qu'elle apportera à notre société.

En plus de faire un énième point de situation, le CESE explique en effet qu'en tant que représentant de la société civile, il souhaite lancer et centraliser un débat de société sur l'intelligence artificielle et « promouvoir le développement de l’IA au bénéfice de l’humanité ». Comment ? Avec là encore une série de recommandations.

Le Comité économique et social européen fait le point sur ses avantages et... ses risques

Comme souvent en pareille situation, le rapport commence par faire le tour des bienfaits que pourrait apporter l'intelligence artificielle au quotidien : « rendre l’agriculture plus durable et les processus de production moins polluants, améliorer la sécurité des transports et sur le lieu de travail, rendre le système financier plus stable, fournir des soins médicaux d’une meilleure qualité » et ainsi de suite. Dans sa synthèse, l'organe consultatif de l'Union européenne va jusqu'à supposer que l'intelligence artificielle « pourrait même contribuer à éradiquer les maladies et la pauvreté ». Tout un programme...

Mais avant d'en arriver là, le chemin est long et semé d'embuches. Le CESE pointe du doigt onze domaines où il faut définir un cadre : l’éthique, la sécurité, la vie privée, la transparence et l’obligation de rendre des comptes, le travail, l’éducation et les compétences, l’(in)égalité et l’inclusion, la législation et la réglementation, la gouvernance et la démocratie, la guerre, et enfin la superintelligence.

Essayer de placer l'Europe au cœur des débats et définir des normes

Pour y arriver, il souhaite que le vieux continent joue « un rôle moteur » et définisse des normes. « Nous avons besoin d'un code éthique paneuropéen garantissant que les systèmes d’IA restent compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux » explique Catelijne Muller, rapporteure de cet avis. Il s'agirait donc de mettre en place une « infrastructure d'IA européenne », permettant d'obtenir plus de poids que chaque pays individuellement.

Une intention louable, mais qu'adviendra-t-elle avec les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) qui sont parmi les plus gros pourvoyeurs de solutions autour de l'intelligence artificielle ? Ces derniers ne sont en effet pas européens et les règles sur les autres continents ne sont pas vraiment les mêmes.

Afin d'avoir une position globale sur le sujet, le CESE souhaite également voir « l’élaboration et l’établissement d’un code éthique uniforme applicable à l’échelle mondiale pour le développement, le déploiement et l’utilisation de l’IA ». Néanmoins, cette proposition risque d'avoir du mal à trouver un écho au niveau de la planète entière, notamment en cette période où certains ont plutôt tendance à tirer la couverture à eux plutôt qu'à ajouter la carte de l'ouverture à la communauté.

Encore et toujours la délicate question des données, avec l'éthique en trame de fond

Si le CESE note à juste titre qu'une bonne partie des entreprises spécialisées dans l'IA (notamment les GAFAM) proposent en open-source leurs plateformes et algorithmes, il ne précise en revanche pas que ce n'est pas le cas des jeux de données. Problème, sans données, un algorithme ne sert pas à grand-chose puisqu'on ne peut pas l'entrainer efficacement à réaliser sa tâche.

Comme nous n'avons de cesse de le répéter au sujet de l'intelligence artificielle, cette dernière va en effet de pair avec des jeux de données en très grosses quantités (on parle de milliards de clichés pour de la reconnaissance d'images par exemple). Or, le choix des données peut introduire des biais suivant leurs provenances et leur « diversité », comme le rappelle le CESE :

Le développement de l’IA se déroule dans un environnement homogène, composé principalement de jeunes hommes blancs, ce qui contribue à ancrer (sciemment ou non) les disparités culturelles et de genre dans l’IA, notamment du fait que les systèmes d’IA apprennent sur la base de données de formation. Il importe que celles-ci soient correctes, mais également de qualité, diversifiées, suffisamment approfondies et objectives.

L’on croit généralement que les données sont objectives par définition, mais il s’agit là d’une erreur. Elles sont faciles à manipuler et peuvent être tendancieuses, influencées par des préférences et préjugés culturels, de genre ou autres, ou encore être erronées.

De quoi relancer le débat sur la quantité des données versus leur qualité : quel critère faut-il privilégier en premier ? De plus, l'intelligence artificielle n'intègre pas la notion d'éthique par défaut, c'est donc à l'homme de l'implémenter correctement, ajoute le comité.

L'humain en haut de la pyramide, une collaboration possible avec la machine

Afin d'éviter que l'humain soit relégué au second plan, le Comité économique et social européen souhaite que le développement de l'IA se fasse de manière « responsable, sûr et utile [...] dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains ». Même son de cloche à la CNIL qui veut mettre en avant un modèle de type « humanity by design ».

Si pour le moment le problème du contrôle ne se pose pas vraiment, il arrivera certainement avec une IA forte capable d'avoir conscience d'elle-même. Le comité plaide aussi pour un système de normalisation permettant de vérifier, valider et contrôler les IA, justement dans l'idée d'anticiper une telle évolution (elle ne devrait pas arriver avant plusieurs dizaines d'années au moins selon les experts).

Comme le projet France IA l'avait expliqué il y a quelques mois, le CESE estime qu'il est possible de mettre en place un travail conjoint entre l'humain et l'intelligence artificielle, de quoi donner au final un travailleur « augmenté ».

Si pratiquement tout le monde sera touché par l'automatisation d'une partie de ses tâches, le risque qu'un robot ou une IA reprenne l'ensemble des fonctions d'un humain serait assez faible si l'on en croit le rapport. Il n'est pour autant pas inexistant avec le cas des chauffeurs de taxis ou de VTC par exemple. Ils subiront certainement de plein fouet l'arrivée des véhicules entièrement autonomes.

IA cerveau homme
Crédits : Jirsak/iStock

Des risques sur l'emploi qu'il faut anticiper 

Concernant la mise en place de nouveaux emplois liés à l'intelligence artificielle, le CESE explique « que personne ne peut encore prédire en quoi ils consisteront, quel sera leur nombre, ni à quelle vitesse cela se produira ». Mais il ne s'agira pas toujours « d'emplois de qualité », le Comité reste donc prudent sur ce point. « On peut se demander avec inquiétude s’il ne restera bientôt plus que des minitâches faiblement rémunérées pour un groupe de travailleurs flexibles de plus en plus important » note le rapport.

En plus de pouvoir surveiller les travailleurs, les systèmes d'IA « peuvent également entraîner un risque d’appauvrissement des activités et de perte de compétences majeures ». Bref, pour le CESE les robots et algorithmes peuvent venir aider les humains, au prix d'une supervision risquant de porter atteinte à leur autonomie et vie privée, tout en diminuant leurs compétences. 

Pour le Comité, il faut que les pouvoirs publics se demandent ce que les humains sont en mesure de faire (pour le moment) et surtout définir les tâches que nous, l'espèce humaine, voulons continuer à réaliser nous-même, y compris si une IA était en mesure de la faire.

« Après tout, c’est à nous qu’il appartient de décider si nous voulons que certains emplois soient confiés à l’IA, qu’elle soit chargée de donner des soins ou de prendre des décisions médicales, et si nous voulons accepter qu’elle mette en péril notre sécurité, notre vie privée ou notre autonomie » explique Catelijne Muller.

Adapter l'éducation aux métiers du futur

Une conséquence directe de cet état des lieux est l'importance de l'éducation. Il faut effectivement anticiper les métiers qui seront remplacés par des intelligences artificielles à court terme afin de mettre en place des filières où l'humain gardera sa place – par nécessité ou choix politique – et ceux avec une interaction personne-machine.

Dans tous les cas, il faudra prévoir d'enseigner à tout le monde la définition et la portée de l'intelligence artificielle, dès le plus jeune âge. Les enfants d'aujourd'hui baigneront encore plus que nous dans un monde rempli d'algorithmes, et il ne faudrait pas qu'une autre fracture numérique arrive, après celle d'Internet pour certains ainés.

Le CESE souhaite que les notions d'éthique et de vie privée soient également abordées dans les écoles, mais cela aurait pu (dû ?) être le cas bien avant l'arrivée de l'intelligence artificielle.

La délicate question des armes autonomes et de la cyberguerre

Comme bon nombre d'autres organisations, le CESE soutient l'appel à l’interdiction des systèmes d’armes autonomes, mais estime que la question devrait se poser plus largement à la cyberguerre.

L'idée est séduisante sur le papier, mais il n'y a malheureusement que peu de chance que tous les gouvernements et sociétés privées d'armement laissent de côté l'intelligence artificielle pour le développement de leurs armes, numériques ou non. C'est de toute façon déjà plus ou moins trop tard avec les drones et l'interception automatique de messages sur Internet.

Selon ce rapport, il « convient d’éviter que l’IA ne parvienne entre les mains de personnes ou de régimes susceptibles de l’utiliser à des fins terroristes »... certainement plus facile à dire qu'à faire.

Quid de la sécurité ?

Le rapport soulève ensuite plusieurs questions concernant la sécurité des machines. Il souhaite que des exigences spécifiques soient mises en place afin de répondre et d'anticiper les questions suivantes : l'algorithme est-il fiable et efficace, y compris dans une situation inconnue ou imprévisible ? Peut-il cesser de fonctionner ou être piraté ? Les réponses ne devant pas être prises à la légère.

Comme nous avons régulièrement l'occasion de le voir en matière de sécurité informatique, le risque zéro n'existe pas. Les conséquences d'une défaillance pourraient néanmoins être bien différentes entre une IA chargée de filtrer des sites pour un contrôle parental et celle d'une voiture autonome.

Se pose également la question de la personnalité juridique des robots. Le CESE a d'ailleurs un avis bien tranché sur le sujet : la reconnaitre représenterait un « risque moral inacceptable ».

Autant de transparence qu'une épaisse boîte noire

Le comité explique ensuite que, bien trop souvent, les systèmes exploitant de l'IA sont difficiles à comprendre pour l'utilisateur... lorsqu'ils sont au courant qu'ils ont affaire à une intelligence artificielle.

Pour rappel, dans le bilan de l'OPECST, le psychiatre et chercheur à l’Université Paris Diderot-Paris Serge Tisseron militait pour que les humains soient toujours informés de la situation lorsqu'ils interagissent avec une IA, certains n'en ayant pas forcément conscience (nous parlons bien des humains, pas des machines).

Pire, on retrouverait ce manque de compréhension chez un nombre croissant de concepteurs de ces systèmes. « En particulier, les réseaux neuronaux sont souvent des boîtes noires (black boxes) dans lesquelles se déroulent des processus (de prise de décision) qui sont devenus incompréhensibles et pour lesquels aucun manuel explicatif n’est fourni ».

Pour le comité, il faut donc plus de transparence et la mise en place de systèmes d'IA dont on peut expliquer le fonctionnement (et donc les décisions) a posteriori.

La vie privée, l'influence de l'IA sur nos décisions

À son tour, ce rapport s'inquiète des données personnelles mises à disposition des intelligences artificielles et des conclusions qu'elles peuvent en tirer sur les individus.

Les réseaux sociaux et les moteurs de recherches sont directement visés : « L'IA est en mesure [...] d'influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums) ». Pour bien préciser les choses et ne laisser aucune place au doute, le rapport indique qu'il « s’agit d’une menace pour une démocratie ouverte et équitable ».

Le comité s'attarde plus particulièrement sur le cas des enfants, présenté comme étant un groupe « particulièrement vulnérable ». Il exprime en effet « sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants ».

Pour ne pas se retrouver dans cette situation, il convient donc « d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus ». Bon point, la protection des données personnelles lors d'une transmission par voie numérique sera prochainement renforcée par le règlement général de l'UE.

Une conclusion en deux points : garder le contrôle, regrouper les acteurs européens 

Pour résumer, le CESE dresse un bilan principalement axé sur l'impact que l'intelligence artificielle aura sur la vie des personnes, que ce soit au travail ou dans leur vie privée. Ils seront plus ou moins importants, mais tout le monde sera à priori concerné, il faut donc s'y préparer. Dans tous les cas, le Comité plaide pour que l'humain garde la maitrise de l'IA en toute circonstance, et se prépare à l'arrivée d'une intelligence artificielle forte.

Il recommande aussi à l'Europe de se placer au cœur des débats, mais ce ne sera pas un combat facile étant donné que la grande majorité des sociétés à la pointe sur ce domaine se trouve en dehors de nos frontières. Certes les start-ups et les centres de recherches sont nombreux dans l'Hexagone (avec une bonne réputation en général), mais ceux disposant et exploitant massivement les données se trouvent en dehors de l'Europe.

20
Avatar de l'auteur

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 16
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

On est déjà à la V2 de Next ?

11:55 34
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 16

Sommaire de l'article

Introduction

En 2017, les institutions françaises découvrent-elles l'Intelligence artificielle ? 

Le Comité économique et social européen fait le point sur ses avantages et... ses risques

Essayer de placer l'Europe au cœur des débats et définir des normes

Encore et toujours la délicate question des données, avec l'éthique en trame de fond

L'humain en haut de la pyramide, une collaboration possible avec la machine

Des risques sur l'emploi qu'il faut anticiper 

Adapter l'éducation aux métiers du futur

La délicate question des armes autonomes et de la cyberguerre

Quid de la sécurité ?

Autant de transparence qu'une épaisse boîte noire

La vie privée, l'influence de l'IA sur nos décisions

Une conclusion en deux points : garder le contrôle, regrouper les acteurs européens 

#Flock a sa propre vision de l’inclusion

Flock 16
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

34
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 16
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 18
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 4

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 52
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 10

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 38
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 151

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (20)


127.0.0.1
Il y a 6 ans


Si pour le moment le problème du contrôle ne se pose pas vraiment, il arrivera certainement avec une IA forte capable d’avoir conscience d’elle-même.


Pas besoin de l’émergence d’une conscience…

Un simple lien de subordination dans le travail quotidien et l’IA sera le supérieur hiérarchique de (certains) humains.

On n’en est pas loin avec certaines tâches (genre planning) pour lesquelles le “responsable” ne fait que cliquer sur “ok” sans même regarder ce que l’ERP/GPAO a construit.


WereWindle
Il y a 6 ans






le sous titre a écrit :

Davantage s’inspirer de Wall-E que de Terminator


Je veux pas faire mon chieur mais les IA “gentilles” dans Wall-E, ce sont celles qui sont défaillantes <img data-src=" />



tmtisfree
Il y a 6 ans


personne ne peut encore prédire en quoi ils consisteront, quel sera leur nombre, ni à quelle vitesse cela se produira ». Mais il ne s’agira pas toujours « d’emplois de qualité

Ou comment affirmer en 2 lignes qu’on ne sait pas mais qu’on sait quand même.

Quand on observe le niveau moyen d’intelligence dite « naturelle », le rapport n’est peut-être pas assez alarmiste finalement. Enfin, une bonne taxe et tout rentrera dans l’ordre.


alex.d. Abonné
Il y a 6 ans






127.0.0.1 a écrit :

Un simple lien de subordination dans le travail quotidien et l’IA sera le supérieur hiérarchique de (certains) humains.


&nbsp;N’est-ce pas déjà plus ou moins le cas pour les livreurs de chez Foodora/Deliveroo, pilotés par un algorithme ?
(pareil chez Uber, en fait)
&nbsp;



Ricard
Il y a 6 ans


Essayer de placer l’Europe au cœur des débats et définir des normes


haha.


Ricard
Il y a 6 ans






alex.d. a écrit :

&nbsp;N’est-ce pas déjà plus ou moins le cas pour les livreurs de chez Foodora/Deliveroo, pilotés par un algorithme ?
(pareil chez Uber, en fait)
&nbsp;


La Police de Los Angeles fait ses patrouilles avec des itinéraires décidés par…. une IA. Et ce depuis des années et avec un certain succès.
Plusieurs études ont montré que l’IA est plus efficiente qu’un homme en tant que manager. (pas de soucis d’égo, de sexisme ou de syndrome du petit chef casse-couilles) Que du pragmatisme à suivre les objectifs.



alex.d. Abonné
Il y a 6 ans

Oui mais eux gardent un supérieur hiérarchique humain, l’IA ne fait office que de “consultant” pour optimiser les patrouilles.&nbsp;
Alors que chez Foodora/Deliveroo, c’est l’IA qui trouve que tel ou tel livreur est trop lent et qu’il faut le renvoyer, ou chez Uber c’est l’IA qui décide du prix. Ça me semble aller plus loin.
&nbsp;


jackjack2
Il y a 6 ans






Ricard a écrit :

La Police de Los Angeles fait ses patrouilles avec des itinéraires décidés par…. une IA. Et ce depuis des années et avec un certain succès.
Plusieurs études ont montré que l’IA est plus efficiente qu’un homme en tant que manager. (pas de soucis d’égo, de sexisme ou de syndrome du petit chef casse-couilles) Que du pragmatisme à suivre les objectifs.


Efficace



jackjack2
Il y a 6 ans


Selon ce rapport, il « convient d’éviter que l’IA ne parvienne entre les mains de personnes ou de régimes susceptibles de l’utiliser à des fins terroristes »

Ou comment confirmer en une phrase qu’on sait pas de quoi on parle <img data-src=" />
L’IA c’est un objet? <img data-src=" />


jeje07bis
Il y a 6 ans






jackjack2 a écrit :

Ou comment confirmer en une phrase qu’on sait pas de quoi on parle <img data-src=" />
L’IA c’est un objet? <img data-src=" />


mets ton cerveau sur on avant de jouer les donneurs de leçon



TexMex
Il y a 6 ans

Il est vrai que c’est un danger pour l’équilibre économique actuel. Tant que dans ce système on aura toujours la loi du plus fort L’IA sera une menace pour les plus remplaçables.

&nbsp;Dans un système ou on a des garanties (ex: Friot et son salaire à vie, ou Eau, nourriture, logis) tout de suite les IA ne sont plus tant des ennemis.

Le véritable problème n’est donc pas l’IA (ou le robot en place depuis 20ans dans une usine PSA) mais tout simplement les règles du système économique actuel. En changeant cela d’abord on élimine pas mal de problème dont l’IA, mais pas que…


Mihashi Abonné
Il y a 6 ans

Que de bruit et d’énergie dépensée pour rien…


lateo
Il y a 6 ans






jeje07bis a écrit :

mets ton cerveau sur on avant de jouer les donneurs de leçon


N’empêche que c’est vrai que ça n’a pas de sens ; ce discours a une drôle d’odeur que je ne suis pas certain de bien saisir.

Ça n’a pas de sens parce que concrètement, s’il y a du pognon à se faire, ça se vend. Donc voilà, si le groupe terroriste a assez de pognon il aura son IA. Ou on lui fournira parce que ce groupe est censément moins méchant que le «régime» auquel il s’oppose.
Oui, je transpose directement ce qu’on observe avec la vente d’armes ; j’assume.



lateo
Il y a 6 ans






Mihashi a écrit :

Que de bruit et d’énergie dépensée pour rien…


Il en sortira peut-être quelques trucs utiles.
Sinon se référer au com de la sympathique libérale libertaire libertine


tmtisfree a écrit :

Ou comment affirmer en 2 lignes qu’on ne sait pas mais qu’on sait quand même.
[…]
Enfin, une bonne taxe et tout rentrera dans l’ordre.


Il y a manifestement du vrai là-dedans aussi.



MoonRa
Il y a 6 ans

Je me demande ce qu’on vas faire des migrants que l’ont receuillent par millions, on était censé leurs données du travail que l’Européen ne veut plus soit disant faire, grand chevalier que nous sommes. Avec l’automatisation et l’IA je me demande quelle occupation ces gens peu qualifié pourront occupés. Lorsque l’ont sait que le secteur représente une incroyable source d’emploi directe et indirecte, je me demande ce que l’avenir apportera.


Alderic
Il y a 6 ans

Je suis sur le cul que vous ayez réussi à faire un tel article sans mentionner une fois Skynet <img data-src=" />


DownThemAll
Il y a 6 ans

Comme quoi même avec un rapport sur l’IA ils arrivent à nous parler de terrorisme…


Z-os Abonné
Il y a 6 ans

Ben avec CRISPRaussi on parle maintenant de terrorisme.


jackjack2
Il y a 6 ans






jeje07bis a écrit :

mets ton cerveau sur on avant de jouer les donneurs de leçon


Je l’ai fait bien avant le tien apparemment
Tu veux interdire la vente d’ordinateurs ou de cartes graphiques dans tout le moyen-Orient? <img data-src=" />



psn00ps Abonné
Il y a 6 ans






jackjack2 a écrit :

Ou comment confirmer en une phrase qu’on sait pas de quoi on parle <img data-src=" />
L’IA c’est un objet? <img data-src=" />


Tu es tombé bien bas <img data-src=" />