[Édito] Quand la réalité dépasse la fiction
I, deadbot
Des choses qualifiées de pure fiction il y a quelques décennies (ou dans un passé proche), sont pourtant une réalité aujourd’hui. De la loi sur les robots à la gestion des réseaux sociaux et vos données après la mort, les sujets sont nombreux et inquiétants ; ils méritent que l’on s’y attarde dès à présent.
Le 14 octobre à 17h30
12 min
Sciences et espace
Sciences
La réalité dépasse la fiction, rien de neuf me direz-vous ? C’est un fait depuis bien longtemps maintenant, bien que cela dépende de la réalité et de la fiction dont nous parlons. La fiction d’il y a 100 ans (dans les années 20, après la Première Guerre mondiale) n’a rien à voir avec celle d’aujourd’hui.
Les trois lois d’Asimov…
C’est à cette époque que de grands noms de la littérature de science-fiction sont nés. C’est notamment le cas d’Isaac Asimov (1920 - 1992), largement connu pour son Cycle des robots et ses fameuses « trois lois » qui ont tant inspiré d’autres auteurs/réalisateurs par la suite :
- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi ;
- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la Première ou la Deuxième Loi ;
Formulées dans les années 40, ces lois n’avaient aucune application pratique à l’époque. Avec l’arrivée des robots (sous toutes leurs formes) et le galop effréné ces dernières années de l’intelligence artificielle générative, on peut dire que la réalité est en passe de rattraper la fiction.
Mais nous sommes encore loin pour le moment d’une intelligence artificielle générale, c’est-à-dire capable de réaliser toutes sortes de tâches, y compris cognitives, à la place des humains. Une telle IA serait douée d’une forme de sensibilité ou de volonté… et c’est précisément ici que la réalité se heurte à la fiction, ou vice-versa.
Les intelligences artificielles qui animent les robots sont programmées par des humains pour effectuer des tâches précises. Si un drone doit larguer des bombes pour tuer des personnes, il le fera une fois la cible atteinte, sans « réfléchir » ou être bloqué par les lois de la robotique.
Partons du principe qu’une intelligence artificielle générale arrivera un jour. Quelles devraient alors être les « lois » à mettre en place ? Et, comment s’assurer de leur fiabilité ? Le film I, Robot montre comment des règles en apparences simples (celles d’Azimov) peuvent être détournées.
De Terminator à Matrix en passant par Tron, les réalisateurs s’en donnent à cœur joie sur les « dérives » des intelligences artificielles. Parfois pour assurer leur survie, parfois pour répondre de manière trop stricte aux règles en prenant le contrôle sur la vie des humains, incapables de la gérer correctement avec leur environnement. Dominer et asservir pour assurer la survie de l’espèce.
…doivent être mises à jour pour entrer dans le XXIe siècle
Dans un article publié début 2023, le service communautaire d’information sur la recherche et le développement (CORDIS) de la Commission européenne n’y allait pas par quatre chemins. Il expliquait « pourquoi le XXIe siècle exige de mettre à jour les lois de la robotique formulées par Asimov ».
Le service de la Commission européenne s’appuyait sur les travaux du professeur Tom Sorell (Université de Warwick au Royaume-Uni) qui expliquait que, « si les lois d'Asimov s'organisent autour de la valeur morale consistant à préserver les humains des dangers, elles ne sont pas faciles à interpréter ».
En effet, « nous vivons également à une époque où des robots de plus en plus sophistiqués sont utilisés pour exécuter des tâches de plus en plus complexes, conçues pour protéger et prendre soin des humains ». Il donne un exemple de contradiction avec une application dans le domaine militaire : « Si un robot est dirigé par un humain pour sauver les vies de ses concitoyens en tuant les humains qui les attaquent, on peut paradoxalement dire qu'il respecte et viole à la fois la première loi d'Asimov ».
Dilemme du tramway, le retour
Dans le cas présent, un humain est à la manœuvre, mais qu’en serait-il avec un robot doté d’une IA générale et d’une conscience ? Quelle règle devrait-on mettre en place ? De manière plus terre à terre, comment doit se faire le choix des victimes dans le cas des voitures autonomes ?
Certains ont déjà répondu à la question, Mercedes-Benz préfère sauver le conducteur, même si cela se fait au détriment de plusieurs autres vies. Une version moderne du « dilemme du tramway ».
L’enfer est pavé de bonnes intentions
« À l'autre extrême, les lois d'Asimov sont appropriées si le principal objectif du robot est d'assurer la sécurité d'une personne âgée ». Plus facile comme approche ? On pourrait penser que oui, mais ce n’est pas toujours le cas : « Un robot qui a laissé son humain prendre des décisions indépendantes susceptibles de lui causer des blessures dues à une chute enfreindrait la première loi, car il n'est pas intervenu pour empêcher ces blessures ».
Pour Tom Sorell, « l'autonomie de l'humain doit être respectée, aussi bien par les autres humains que par les robots. Les personnes âgées dont les choix sont les garants de leur autonomie, mais qui peuvent les exposer à des blessures, doivent également être respectées ».
Surveillance de masse : de George Orwell aux agences gouvernementales
Changeons de registre avec un autre grand nom de la science-fiction : George Orwell (1903 - 1951), et son livre 1984 publié en 1949. Pour ceux qui n’auraient pas les bases, Audible rappelle que « L’ouvrage dépeint une société totalitaire au sein de laquelle chaque aspect de la vie est surveillé et contrôlé par un régime oppressif. Ce roman de George Orwell a non seulement marqué la littérature, mais il a également façonné notre compréhension moderne des concepts tels que la surveillance de masse, la manipulation de l'information et la suppression des libertés individuelles ».
Si l’année 1984 était une anticipation un peu trop importante, le XXIe siècle est sans nul doute celui de la surveillance de masse. Alors non, il ne s'agit pas d’affirmer que les smartphones nous écoutent tous. Par contre, les applications nous surveillent bel et bien pour nous refourguer toujours plus de publicités ciblées. Les gouvernements quant à eux « jouent » avec d’autres moyens pour de plus gros poissons : interception des conversations, surveillance satellitaire, piratage ciblé (Pegasus de NSO Group par exemple), etc.
Et on ne parle même pas de la vidéosurveillance algorithmique qui mélange « le meilleur » des deux mondes (vidéosurveillance et algorithmie, donc l’intelligence artificielle indirectement), enfin si l’on en croit les prestataires choisis par le ministère de l’Intérieur. Elle a été testée pendant les Jeux olympiques et, comme souvent en pareille situation, le gouvernement veut maintenant la généraliser.
La surveillance de masse est une réalité, mais dans l’immense majorité des cas, cela ne vous concerne pas directement. Les débauches de moyens financiers et logistiques nécessaires pour obtenir des données sur vous (que bon nombre partagent finalement sur les réseaux sociaux) ne valent parfois même pas le prix de la bande passante nécessaire pour les récupérer.
De l’intelligence artificielle générative aux deadbots
Nous pouvons citer plusieurs épisodes de la série Black Mirror comme des exemples où la fiction s’est fait rattraper par la réalité. Il y a évidemment l’épisode Chute libre (saison 3, épisode 1) où la note sur les réseaux sociaux est d’une importance capitale, à l’instar du système de note sociale instauré en Chine.
Nous allons plutôt nous pencher sur Bientôt de retour (saison 2, épisode 1). On y suit un couple, Ash et Martha, vivant paisiblement en campagne. Mais le monde de Martha va s’effondrer avec la mort d’Ash. Voici le synopsis : « Martha apprend par son amie Sara qu'il existe un service expérimental qui exploite les données enregistrées sur Internet par les personnes décédées pour simuler des relations entre morts et vivants ».
Et bien là encore, ce n’est plus que de la fiction : « Les chatbots IA connus sous le nom de "deadbots" ou "griefbots", qui simulent des personnes décédées, existent déjà. Ils ont été créés grâce à l’IA qui imite le langage et la personnalité d’un proche décédé en se basant sur son "empreinte numérique" », explique le CORDIS. Avec l’IA générative et l’amélioration des algorithmes, « simuler » une personne réelle devient de plus en plus facile. On est encore loin d’un résultat parfait, mais c’est déjà suffisant pour berner des parents/proches pour des arnaques téléphoniques qui passent des SMS à la voix.
Revenons à nos deadbots. Cela ne fait pas de doute : « Les rapides progrès de l’IA générative impliquent que presque toute personne ayant accès à Internet et disposant de quelques connaissances de base peut ranimer un proche défunt », explique Katarzyna Nowaczyk-Basińska (co-auteure de l’étude Philosophy & Technology et chercheuse au Leverhulme Centre for the Future of Intelligence de Cambridge) à The Guardian.
« Un champ de mines éthique »
« Ce domaine de l’IA est un champ de mines éthique. La dignité du défunt est de la plus haute importance et il convient de veiller à ce qu’elle ne soit pas bafouée par les motivations financières des services numériques d’après-vie, par exemple », ajoute-t-elle.
Cela soulève de nouvelles questions. Imaginons qu’une personne souhaite laisser un deadbot en guise de cadeau/souvenir à ses proches, rien ne l’interdirait pour l’instant. Les proches pourraient alors développer des « liens émotionnels forts » et pourraient alors être « particulièrement vulnérables à la manipulation ».
Pour Tomasz Hollanek (un autre co-auteur de l’étude Philosophy & Technology), « des méthodes, voire des rituels, permettant de désactiver les deadbots dans la dignité devraient être envisagés. Il peut s’agir d’une forme d’enterrement numérique, par exemple, ou tout autre type de cérémonies dicté par le contexte social ».
Papi décédé ne fait plus de la résistance… mais de la pub ?
Vous pensiez avoir atteint le fond du trou, préparez-vous à creuser : « Nous recommandons des protocoles de conception qui empêchent que les deadbots soient utilisés de manière irrespectueuse, par exemple pour faire de la publicité ou avoir une présence active sur les réseaux sociaux ». On ne l’avait pas vu venir, mais ce type de dérive est finalement presque une évidence.
D’autant que c’est déjà le cas. Le Point en parlait en 2013 dans un article intitulé Les stars défuntes, un filon publicitaire. « Moins coûteuses et moins gaffeuses que leurs homologues vivantes, les stars défuntes sont partout », expliquaient nos confrères. Rebelote en 2019 chez Ouest France avec Le business florissant des célébrités décédées : « Même mortes, les célébrités continuent à rapporter beaucoup d’argent, Michael Jackson restant le roi en la matière, avec plus de 400 millions de dollars générés en 2018 ». Deux exemples parmi tant d’autres.
Les deadbots se placent dans un registre différent, mais on se dit qu’on n’aimerait vraiment pas vivre dans un monde ou le deadbot d’un parent décédé viendrait nous vanter les mérites d’une marque de lessive où d’une voiture…
Sans même parler de deadbots, la connexion émotionnelle forte est un sujet développé dans certaines œuvres telles que le film Her, la série Battlestar Galactica ou encore le manga Chobits.
Upload serait-elle une réalité dans un avenir lointain ?
La science-fiction reprend une longueur d’avance avec la série Upload. Elle se passe « dans un futur où l'on peut "uploader" sa conscience pour rejoindre un au-delà virtuel de luxe », avec des anges gardiens (des sortes de petites mains bien réelles de l’intelligence artificielle) pour répondre à vos moindres désirs (si vous avez de l’argent) et vous proposer des « options » supplémentaires. La série soulève plusieurs questions, avec une bonne dose d’humour sur les aléas de la vie numérique.
Un deadbot 2.0 avec un avatar et une conscience reprenant très exactement celle de l’humain avant sa mort, le tout saupoudré d’une relation très longue distance, est-ce que cela vous vend du rêve ? Faut-il que la réalité rejoigne, voire dépasse la fiction ? À vouloir vivre entouré des défunts, vivons-nous réellement l’instant présent ? Vous avez deux heures.
[Édito] Quand la réalité dépasse la fiction
-
Les trois lois d’Asimov…
-
…doivent être mises à jour pour entrer dans le XXIe siècle
-
Dilemme du tramway, le retour
-
L’enfer est pavé de bonnes intentions
-
Surveillance de masse : de George Orwell aux agences gouvernementales
-
De l’intelligence artificielle générative aux deadbots
-
« Un champ de mines éthique »
-
Papi décédé ne fait plus de la résistance… mais de la pub ?
-
Upload serait-elle une réalité dans un avenir lointain ?
Commentaires (34)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousModifié le 14/10/2024 à 17h58
Et si on devait payer pour passer d'un comportement à l'autre, comme sacrifier les passager ou les autres ? qui serait prêt à payer ? et combien...
Le 14/10/2024 à 17h54
Le 14/10/2024 à 17h51
mais ça délire grave dans le coin ...
faut arrêter certaines substances.
Si on veux parler du réel, on va juste dire qu'un robot ne sera jamais qu'un outil ou une arme, du moins tant qu'il y aura des humains pour s'en servir, quand il n'y en aura plus, une autre espèce biologique plus adaptée prendra la place, ouf.
Le 14/10/2024 à 21h14
N'importe qui ayant deja développé des fonctionnalités un peu complexe s'est retrouvé un jour avec un comportement inattendu (enfin surtout non anticipé).
Un peu comme les caractères spéciaux qui font planter iOS régulièrement, le gars qui avait fait immatriculer sa voiture NULL ou les trolls qui s'amusent à faire lire de fausses limitations de vitesse aux véhicules avec lecture par caméra.
Modifié le 14/10/2024 à 23h42
Le 15/10/2024 à 11h15
Le 15/10/2024 à 18h00
Mais pourquoi « l'espèce » qui nous remplace ne pourrait pas être ces robots justement. L'IA peut très bien prendre le dessus sur l'être humain, si elle devient plus intelligente que lui…
Le 15/10/2024 à 20h49
Les milliards de milliards d'insectes terrestres sont sans doute mieux adaptés que nous, bien qu'ils ne voyageront sans doute jamais bien loin dans l'espace, contrairement à ce peuvent faire des robots (pas des hommes).
En fait, oui, les robots que nous construisons aujourd'hui et qui s'auto produiront plus tard, peuvent être un prolongement de l'espèce mais ailleurs que sur notre vieux volcan mouillé.
Si tout se passe bien, que nous ne pourrissons pas trop le décor, nos descendants resteront peinards ici et les bots iront voir ailleurs pour nous raconter, c'est ce qu'ils font déjà.
Le 18/10/2024 à 16h47
Justement une "news" très intéressante aujourd'hui sur le sujet : des trombones à la destruction de l’Univers en passant par des super IA
Le 15/10/2024 à 11h14
En tant qu'humain, on ne comprend pas souvent les systèmes. Système financier? Tous des pourris, ils gagnent trop. Système politique? C'est pas normal, tel parti a fait plus de voix mais a moins de siège. Système éducatif? Les profs sont nuls, ça avance pas (collège), les profs sont nuls, ils saquent (lycée).
Actuellement, on se focalise surtout sur l'objet IA, robot, en interaction limitée. Mais que se passera-t'il quand ils vont évoluer en masse, chacun avec leurs différences (limite leur "tempérament")?
Le sujet est réellement très intéressant. Exemple: j'utilise une IA pour m'aider à rédiger un rapport. J'envoie le rapport. Humainement, on "compense" les légères dérives/marque de l'IA. Mais si en face c'est d'abord une IA qui lit le rapport et en fait une synthèse: n'y a t'il pas une double dérive qui risque de dénaturer le contenu?
Nos IA sont entraînées à repérer des humains, des véhicules. Que se passera-t'il quand un robot désigné sur Robby apparaîtra dans les rues? Sera-t'il identifié à temps comme un obstacle potentiellement mouvant?
Le 14/10/2024 à 18h05
Et hop. Pb résolu. Mais il n'y aurait pas eu de roman de Asimov, ce qui serait un crime grave.
Le 14/10/2024 à 18h08
Par exemple, un robot va inférer la loi 0, en plaçant la préservation de l'Humanité plus haut dans la hierarchie que la vie d'un être humain.
Il va également se poser la question sur la succession de tâches, où chacune prise indépendamment ne présente pas de danger en soi, mais où toutes les tâches mis bout à bout (et parfois par des robots différents) vont engendrer une situation pouvant nuire à un être humain.
De même, dans un monde où plusieurs planètes ont été colonisées, Asimov revient sur le "flou" autour de la notion d'Humanité, lorsque des peuples peuvent évoluer indépendamment les uns des autres sur des siècles. Un robot se retrouve donc apte à faire du mal à un être humain, car il ne reconnait pas la personne en face de lui comme étant un être humain !
Asimov, c'est vraiment une lecture très riche à ce sujet :)
Le 14/10/2024 à 21h19
Dans ce cas, dans l'article fallait il mettre "Les trois lois d’Asimov" ou "Les quatre lois d’Asimov" ?
Le 14/10/2024 à 21h25
La 4e par contre n'ai connu principalement que des lecteurs d'Asimov.
C'est un peu comme les accords Toltèques. On parle toujours des 4 accords, alors qu'il y en a 5 ^^
Le 14/10/2024 à 22h17
Le 15/10/2024 à 16h10
Et bien justement, ces lois n'ont jamais été fiables, alors pourquoi s'y référer? et pourquoi seulement maintenant, Asimov nous prouvait à cette époque là qu'elles seront toujours imparfaites.
Le 14/10/2024 à 18h17
Modifié le 14/10/2024 à 19h25
Le 15/10/2024 à 08h52
Le 15/10/2024 à 09h46
Le 15/10/2024 à 13h22
Le 15/10/2024 à 13h32
Mais le déclamer comme un message de pub en mode "nos clients témoignent" fait vraiment pas naturel.
Donc soit t'es un bot, soit t'es apprenti marketeux chez Quantic Dreams.
Le 15/10/2024 à 13h46
Le 15/10/2024 à 10h19
Papi il dit que c'est un affront à HAL9000 de 2001 l'odyssée de l'espace. (Et même à Robby le robot de la planète interdite).
Le 15/10/2024 à 10h54
Le 15/10/2024 à 10h56
je connais pas Robby, donc je ne sais pas pour lui
Le 15/10/2024 à 11h39
C'est dans 2010 qu'on révèle le dilemme, mais c'est une entourloupette scénaristique.
Le 15/10/2024 à 12h07
mais là où les T(800/1000/X ...) sont des évolutions d'armes humaines (la première version "à chenilles" présente dans le 3 est construite par des humains mais est contrôlée par skynet) construites par une IA (skynet), dans matrix je ne sais plus trop comment / à quel moment l'IA s'émancipe de l'humain (puis utilise les humains comme des "piles")
dans ces 2 cas "l'IA" / les robots n'ont plus aucun lien avec les humains, ni d'obéissance, ni de mission "pour le bien de l'humanité"
pour HAL9000, même si c'est une entourloupette, il a été construit par des humains, pour une mission "pour l'espèce humaine", et s'y tient, tant pis si des individus doivent y passer, et étant lui-même nécessaire à la mission, un humain tentant de le débrancher est une menace pour la mission
pour moi HAL9000 ne fait clairement pas partie des IA/robots dont on a perdu le contrôle
Le 15/10/2024 à 12h51
HAL-9000 a sombré dans la névrose à causes d'ordres contradictoire. Il devait garantir le succès de la mission, il devait conserver le secret de celle-ci, et il n'a pas la droit de mentir aux humains.
En gros, le problème n'est pas HAL mais ses concepteurs.
Le 15/10/2024 à 14h17
Le 15/10/2024 à 14h41
par contre je suis pas certain si j'ai vu le film ou lu le bouquin d'abord, probablement le bouquin mais sans certitude.
(bon choix pour gunnm, que j'ai découvert bien 5 ans plus tard mais que j'ai dévoré, par contre zéro IA là-dedans, que des humains "augmentés" tous plus cinglés les uns que les autres, pas besoin d'IA qui pète les plombs pour détruire l'humanité, elle se débrouille très bien toute seule, mais je m'écarte du sujet )
Le 15/10/2024 à 14h34
Le 15/10/2024 à 11h12
La France contre les Robots – Georges Bernanos (1947)
Modifié le 15/10/2024 à 19h06