Connexion
Abonnez-vous

Deepfakes : la victime d’une agression routière recréée par IA pour le procès de l’agresseur

Le 07 mai à 10h40

En 2021, en Arizona, Christopher Pelkey est mort sous les balles de Gabriel Paul Horcasitas.

Pour le procès du meurtrier, la sœur et le beau-frère de la victime ont utilisé de l’intelligence artificielle pour créer une vidéo de lui « racontant » à la Cour sa vie et le jour de sa rencontre avec Gabriel Paul Horcasitas.

« Dans une autre vie, nous aurions probablement pu être amis », ont-ils fait dire à la représentation de Christopher Pelkey, à l'adresse de l'agresseur. « Je crois au pardon… »

Alors qu’elle réunissait plus de 40 déclarations de la famille et d’amis de son frère, Stacey Wales explique à ABC15 : « je n’arrêtais pas de me demander ce que Christopher aurait dit ».

Elle a donc créé ce clip vidéo, auquel sont intégrées des images prises du vivant de la victime.

Image by Sang Hyun Cho from Pixabay

Le juge Todd Lang, qui a condamné Gabriel Paul Horcasitas à 10,5 ans de réclusion criminelle, a réagi positivement à l’usage de la technologie.

Début mai, un groupe de juges états-uniens proposait de demander l’avis du public dans le processus d’élaboration d’une régulation sur l’usage de l’IA au sein des tribunaux.

Le 07 mai à 10h40

Commentaires (27)

votre avatar
"Le juge Todd Lang a réagi positivement à l’usage de la technologie."

oskour
votre avatar
La source montre la vidéo (vers 1:50). C'est black-mirroresque. Et assez fou que ça soit utilisé/utilisable dans une cour de justice.
Ils font littéralement parler les morts.
votre avatar
quelle horreur
votre avatar
J'espère que ce genre de faux témoignage (car c'en est un : il est inventé de toute pièce) n'a pas influencé le verdict. Auquel cas, la justice perdrait de sa crédibilité, ce qui puerait violemment.
votre avatar
L'avocate semble dire que c'est le témoignage d'un proche mais qu'elle a le droit d'utiliser n'importe quel médium, et c'est le sien. Ce qui me gêne, au delà de la manipulation émotionnelle évidente, c'est que la vidéo s'exprime à la première personne. Donc oui, en effet, pour moi aussi on est dans du faux témoignage.
votre avatar
La manipulation émotionnelle, ce n'est pas la compétence de base d'un avocat ?
D'accord, Il y a aussi le droit.
votre avatar
C'est pas la première fois que je vois des montages vidéos en mode manipulation émotionnelle utilisés dans la justice américaine.

Je trouve l'idée répugnante, mais ils ont l'air de trouver ça normal.
Je sais pas si on a un équivalent chez nous.
Mais il me semble que dans leur plaidoiries, les avocats font quelque chose de similaire. C'est juste que ça me choque plus en mode vidéo.
votre avatar
Pour moi il y a quand même une grosse différence.

Un montage de séquences vidéo réelles pour faire pleurer dans les chaumières, why not.

Un témoignage généré par un algorithme qui prête des propos qu'une personne n'a pas tenu de son vivant, je trouve ça un peu next fucking level en matière de manipulation.
votre avatar
Ils n'ont pas le même type de justice, c'est des procédure contradictoire.

Chaque partie présente ses "preuves" et ses arguments pour essayer de convaincre le juge/jury que sa version est la bonne.
D'où les "objections votre honneur" dans les séries US pour les arguments qu'une des parties ne veut pas se voir opposer car jugée tendancieuse etc

Si un juge ne voit pas d'objection a une interview d'une IA, c'est son choix
votre avatar
Les objections sont aussi nécessaires car en appel tu ne peux réviser que ce qui a été objecté.

Si l'avocat dormait durant l'audience et a laissé filé des objections réelles, en appel il ne pourra rien faire.

C'est en effet un autre monde.
votre avatar
Weirrrrd
votre avatar
Dans les commentaires, quand le deepfake est un deepfake porno, c'est pas forcément un problème. Mais dans une audience judiciaire, c'est insupportable. Je suis rassuré que les lecteurs de Next réalisent enfin ce qu'est un deepfake : même si on sait que c'est faux, c'est bien la personne qu'on voit agir et c'est pour le moins dérangeant.

Édit: les gens qui témoignent de leur agacement avec des émojis sur mon commentaire, je n'ai rien dit de méchant, vous pouvez continuer une vie normale. Aucune obligation, aucune interdiction. Au plus, je vous invite au débat. Faut pas qu'il y ait de malaise ou d'incompréhension, c'est comme la pizza à l'ananas, y a pas de blasphème.
votre avatar
Hmmm, il ne me semble pas avoir lu dans les commentaires sous les articles parlant de deepfakes porno que ce n'était pas un problème, non ?
votre avatar
J'ai dû mal interpréter les discussions que j'ai eu dans les commentaires de Next, je suppose. Ma mémoire est parfois défaillante.
votre avatar
La Bataille de Trafalgar illustrée en deepfake serait utile à des fins historiques. [ Même si on sait bien, dans les milieux autorisés à le dire, quel mort va nous enculer. :fr: ]
votre avatar
Si on parle de la même chose, la bataille de Trafalgar a eu lieu en 1805. Il me semble qu'il n'y a pas de photographie de cette époque, donc ce serait plus une création qu'un deepfake (trucage).

Thierry Ardisson a produit une émission en faisant revivre des personnalités décédées. Ça n'a pas emporté l'enthousiasme du public et cette expérience montre que l'exploitation du deepfake est très délicate, voire à la limite de l'acceptable (pour notre époque, peut-être serait-ce différent dans le futur?).
votre avatar
J'y repensais bien, et en particulier au VICE-amiral. :D
Au delà de 2 siècles, je pense que cela ne pose pas question. Le droit d'auteur post-mortem n'est pas illimité et c'est certainement un problème de timing qui explique le problème de cette émission.
Bon après, avec un certain mouvement d'extrème droite élu au Royaume-Uni il y a très peu de temps, on devrait faire deux versions d'export.
Les Anglais auraient par exemple Napoléon en String et nous aurions Nelson en Bikini.
votre avatar
Bof, ça me choque pas plus que s'ils avaient embauché un sosie et un imitateur de voix pour faire le doublage.

C'est le concept de la vidéo qui me dérange, pas les moyens technologiques utilisés pour produire le résultat.

Ces vidéos larmoyantes qui cherchent à faire pleurer le juge pour qu'il allège/alourdisse la peine, ça avantage clairement les familles aisées qui ont les moyens de financer ça.
Il y a déjà bien assez de déséquilibre dans la justice avec la question du talent des avocats vis à vis de leurs tarifs, c'est pas la peine de rajouter ça par dessus.
votre avatar
Je me doute que tous les lecteurs (et toutes les lectrices) de Next ne se sentent pas dérangés par les deepfakes, j'aurais dû préciser : « pas tous les lecteurs de Next » "not all men". Tous le monde n'a pas le même niveau d'empathie et, d'ailleurs, on connait véritablement une souffrance, un traumatisme, seulement lorsqu'on l'a déjà vécu par soi-même.

NB: dans toutes les audiences judiciaires (même en France), les victimes témoignent et communiquent avec les accusé·es. C'est pas larmoyant. En revanche, ce sont des témoignages très difficiles à entendre. Ça permet à tout le monde de comprendre les enjeux de l'affaire et ça permet même le pardon ou la réconciliation parfois.
votre avatar
Comme le dit kikoo26, ce qu'on va reprocher à un deepfake, ce n'est pas que c'est un deepfake, c'est son usage.
Voilà pourquoi tu peux avoir l'impression qu'il y aurait une différence de "défense" pour le porno: sur les autres sujets, il s'agit en général de juste dire "les deepfake c'est caca", alors qu'ici tous les commentaires sont d'accord pour pointer du doigt son CAS d'utilisation, pas son existence.

exemple: la famille a le droit de créer ce deepfake pour son usage personnel, je n'y vois absolument rien à redire. En revanche, dans en cas d'une mise à disposition du public, ça devient plus complexe à "juger".
Dans le cas d'un jugement, j'y vois carrément de la manipulation.
votre avatar
Vous avez le droit de trouver l'usage des deepfakes utiles et acceptables. J'ai le droit de dire que c'est troublant de faire parler et agir des personnes sans obtention de leur acceptation personnelle « libre, spécifique, éclairée et univoque ».

C'est pas parce que vous êtes plus nombreux que ça vous donne raison (quand bien même je doute que votre avis soit majoritaire parmi les lecteurs et les lectrices de Next). Ça n'engage pas non plus l'idée qu'à l'avenir, la Société ne changera pas de perception à l'égard des deepfakes (même chose pour moi).
votre avatar
« Dans le cas d'un jugement, j'y vois carrément de la manipulation. »

Pas plus de manipulation que toute plaidoirie dans le cadre d'une audience judiciaire. Par exemple, quand les avocats de Gérard Depardieu ou les avocats des accusés au procès de Mazan ont tenté de déstabiliser les plaignantes. Il faut entendre la souffrance et l'expérience des protagonistes d'une affaire, c'est tout l'intérêt d'une audience judiciaire, d'un procès. Sinon on jugerait sur dossier.
votre avatar
Le juge Todd Lang (...) a réagi positivement à l’usage de la technologie.
A quel point ce n'est pas un faux témoignage ou un ouï-dire (hearsay) étant donné que ce n'est pas la vraie personne qui rapporte le témoignage. Dis autrement, à quel point on pourrait faire témoigner un acteur qui viendrait déguisé pour imiter la victime ?

Sur un plan purement légal, ca me parait une pente dangereuse.

Pour le coté moral, c'est à chacun de voir.
votre avatar
HÉ! HÉ! REGARDEZ! C'EST BIEN L'IA, ON PEUT MÊME FAIRE PARLER LES MORTS! HÉ! ACHETEZ! ACHETEZ!
votre avatar
Mais c'est basé sur quoi ? Sur ce que connaît l'IA ? Ou elle a gobé des infos sur la personne ?
votre avatar
texte écrit par sa sœur
votre avatar
Nostradamus, sans click-bait :

"The law of cyberspace will be how cyberspace codes it, but we will have lost our role in setting that law."


https://www.harvardmagazine.com/2000/01/code-is-law-html

Deepfakes : la victime d’une agression routière recréée par IA pour le procès de l’agresseur

Fermer