Intelligence artificielle : entre « opportunités et risques »
Le 30 septembre 2020 à 08h25
2 min
Sciences et espace
Sciences
C’est le Parlement européen qui se penche cette fois sur le sujet. L’institution rappelle que l’IA « peut amener de grands bouleversements (positifs ou négatifs) dans nos vies ». C’est ce qui l’a poussé « à fonder une commission qui examinera l’impact de cette technologie ».
Dans son communiqué, elle détaille les avantages pour les citoyens (santé, voitures, modes de transport plus sûrs, services moins coûteux, etc.), les entreprises (nouvelle génération de produits et service), les services publics, la démocratie (lutte contre la désinformation et les cyberattaques), etc.
De l’autre côté du miroir, « la sous-exploitation de l’IA est perçue comme un risque majeur » pour l’Europe. Il en est de même pour la sur-exploitation qui consisterait à « investir dans des applications IA qui n’ont pas d’utilité ou avoir recours à l’IA là où elle n’a pas sa place ».
« Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA », rappelle le Parlement. La question se pose notamment pour les voitures autonomes.
- Accidents mortels : la délicate question du choix des victimes pour les voitures autonomes
- Éthique des voitures autonomes : « premières lignes directrices au monde » en Allemagne
Il y a également les risques liés « aux droits fondamentaux et à la démocratie », ainsi que l’influence sur l’emploi. Dernier point et pas des moindres, des « défis du point de vue de la transparence ».
Le 30 septembre 2020 à 08h25
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 30/09/2020 à 09h28
Je propose de faire des statistiques pour optimiser l’exploitation de l’IA… ho wait ?!
Le 30/09/2020 à 09h35
Mais l’IA au départ elle est bien conçue par l’Humain non ? Un peu comme les algorithmes non ?
Le 30/09/2020 à 10h19
Souvent, ce que l’on appelle IA aujourd’hui, c’est des algo de “machine learning” (apprentissage automatique). Ces algo ont la propriété de tirer avantage de l’expérience (d’une base de donnée) pour optimiser son comportement. Ces algo peuvent être aussi vu comme un truc qui fait des statistiques. En gros une “IA” va faire “D’après ma base de donnée (ou ce que j’en ai retenu), je prédis que ça devrait plutôt être ça”.
Après, dans IA, on inclus d’autre type d’algo, plus classique mais qui n’est plus trop à la mode.Par exemple il y a les IA qui vont être mises dans les jeux (l’IA d’un jeu d’échec electronique par exemple), qui ne fait que suivre un algo classique (algo minmax avec élagage alpha-beta et simplifié avec un algo de Monte-Carlo pour un jeu d’echec), mais qui donne une impression d’intelligence (“houa ! elle a prédis mon coup!”).
Le 30/09/2020 à 10h03
Pour moi oui.
C’est parce que le dit algo est capable de modifier son comportement qu’il est intelligent.
Le 30/09/2020 à 10h03
Le 30/09/2020 à 11h19
Donc la responsabilité reste bien à la charge de celui qui a produit le code d’origine…
C’est une façon pour les constructeurs de se dédouaner de leur responsabilité pénale en mettant à cause leur machine alors qu’elle est produite par leur usine ?
Mouarf.
Avec une arme à feu on se pose pas la question de savoir si c’est l’arme qui est responsable ou le tireur… Si c’est la voiture qui cause l’accident, c’est donc bien de la responsabilité de celui qui a implémenté l’autonomie dans le véhicule. A moins qu’ils veulent reporter sur le conducteur parce qu’au final, c’est lui qui a acheté un véhicule autonome et que donc il en devient responsable même s’il ne peut pas toucher au code ?
Le 30/09/2020 à 12h00
Pour le cas de la voiture autonome, on est encore au niveau d’une “aide à la conduite”, comme l’ABS, le régulateur de vitesse ou le park assist, il y a toujours un conducteur et le code de la route stipule que le conducteur est responsable de son véhicule. Je ne pense pas que l’on verra des voiture autonome entièrement sans conducteur (niveau 5) justement car personne ne veut en prendre la responsabilité.
A l’heure actuelle, à par pour faire des truc plutôt “innoçant”, les algo d’apprentissage automatique sont surtout utiliser comme un outils d’aide à la décision. Par exemple, l’outil sera capable, en fonction des symptômes d’un patient d’établir des suggestions de diagnostique, mais ça sera toujours à un médecin de prendre la décision finale.
Sachant que ce n’est que des statistiques, le choix proposé est statistiquement le plus probable (selon l’algo), mais pas forcément le bon (99% de chance, ce n’est pas 100%). Intrinsèquement, on sait donc qu’un algo d’apprentissage automatique va faire des erreurs. Même si taux d’erreur réel est plus faible que celui d’un être humain, on ne veut pas prendre ce risque.
Le 30/09/2020 à 12h42
Donc c’est l’utilisateur final le responsable alors…
Au fond ça parait logique, il signe un contrat qui décharge la société etc…
Dans ce cas pourquoi cette question alors ? « Un défi majeur est de déterminer qui est responsable lors de dégâts causés par un service ou un appareil employant l’IA ».
Le 30/09/2020 à 13h50
Ce n’est pas vraiment un contrat (il n’a pas forcément signé), mais en gros oui, c’est ça.
Disons que cette histoire de responsabilité il y a plusieurs raison. Je vois par exemple que l’on est typiquement dans le cas de la responsabilité de ce que fait le code en particulier lorsque celui-ci va piocher dans une base de connaissance que l’on ne maîtrise pas forcément. Par exemple dans le cas d’un google bombing, est-ce que c’est google qui est responsable de l’association de Iznogood avec Sarkozy ? (oui, techniquement, l’algo de recherche est une IA qui va chercher à te proposer statistiquement les pages qui correspondent à la suite de mots recherché). Plus récemment, il y a eu l’IA de discussion de MS qui en à peine quelque heures sur Twitter a complètement dérapé.
Le 30/09/2020 à 12h54
Pour le niveau 5 justement.
Actuellement, on ne sait pas qui serait désigné responsable d’un accident : le conducteur? Le constructeur? L’assureur? Autre? Et comme tout le monde se renvoie la balle pour ne pas l’être…
Le 30/09/2020 à 13h03
OK, pour moi ça englobait tous les niveaux.
A une époque, c’était la faute à pas de chance, au destin, à l’heure qui était venue… Maintenant il y a tellement d’assurances et de pognons en jeu que tout le monde se bat pour être celui qui va recevoir le magot et pas celui qui le paye…
Le 30/09/2020 à 13h27
Et comme tout ce petit monde risque de réclamer que nos routes respectent certaines normes suffisamment strictes pour pallier les aléas des IA… Qui c’est qui va y
gagnerperdre ?Le 30/09/2020 à 13h28
Il y aussi la grande question des drones militaires… ça se déchire sur le sujet depuis 2 ans.
Doit on donner la possibilité à un drone militaire d’exécuter une cible sans validation d’un opérateur?
Le 30/09/2020 à 13h48
On a déjà des voitures autonomes de niveau 1 et 2, et le niveau 3 n’est pas loin chez certains constructeurs (même si pas encore autorisé au moins en France).
Donc heureusement qu’on n’a pas attendu ca pour les autoriser sur nos routes
Le 30/09/2020 à 20h34
Quelle question franchement, 2 ans pour ça… bien-sur que dans un salon d’expo le drone ne doit pas tirer sans la validation d’un opérateur.