Fantasmes et vrais dangers de l’intelligence artificielle sur la cybersécurité

Fantasmes et vrais dangers de l’intelligence artificielle sur la cybersécurité

Deep Fear

Avatar de l'auteur

Sébastien Gavois

Publié dansSciences et espace

17/10/2023
5
Fantasmes et vrais dangers de l’intelligence artificielle sur la cybersécurité

L’intelligence artificielle et les grands modèles de langage sont-ils les messagers d’une révolution à venir dans le monde de la cybersécurité ou seulement d’une évolution ? La seconde, si l'on en croit plusieurs sociétés spécialisées. L’IA fait tout de même face à plusieurs risques, notamment sur la question des données.

L’intelligence artificielle était omniprésente aux Assises de la cybersécurité, notamment car elle touche de nombreux domaines. Durant la conférence d’ouverture menée par Thales, Éric Brier en a dressé un portrait inquiétant.

« Les grands modèles de langage sont arrivés à maturité et, peut-être à part quelques experts, tout le monde a été pris un petit peu de court ». La question est maintenant de savoir si on va aller au-delà de l’effet « wahoou » qu’ils ont provoqué auprès du grand public.

Le surentrainement, l’embarqué et l’open source

Pour le directeur technique de Cyber Defence Solutions chez Thales, la question est liée à celle du surentrainement des intelligences artificielles afin de « faire des choses très concrètes », comme « générer du code, des fichiers de configuration, des règles et les traduire quand on veut passer d'un système à un autre ».

Autre point important : la capacité pour l’IA de prendre place dans des systèmes embarqués. Contrairement à l’entrainement des IA qui demande de très grosses puissances de calcul, il est possible ensuite de les exploiter sur des configurations bien plus modestes, notamment si on a utilisé « un modèle pas trop gourmand ».

Vient enfin le sujet de l'open source : « Au-delà de la simple question du coût des licences, c'est aussi un vecteur de confiance et de contribution de toute une industrie ».

Si ces trois éléments (surentrainement, embarqué et open source) sont réunis, on peut s’attendre à un déploiement massif des IA « dans tous les systèmes d'informations de toutes les entreprises ». Et ce ne sera pas sans conséquences.

« Le vrai danger » de l’IA

Pour Éric Brier, « le vrai danger, c'est résolument un déploiement massif de l'IA sans avoir pris la peine de déployer les protections adéquates ». Dans le même temps, l'IA pose des problèmes cybers (au sens large), car elle peut faire l'objet d'attaques inédites :

« L'empoisonnement des données d'entraînement, faisant qu'on a un modèle qui ne se comporte pas comme souhaité. L'extraction des données d'entraînement par une forme de reverse engineering. On a pu prouver qu'à partir du modèle, on peut reconstituer partiellement les données qui ont servi à l'entraîner. Ça pose des questions dans le domaine des données personnelles. Ça peut poser des soucis de protection de la propriété intellectuelle […]

On a la corruption des modèles, en particulier les modèles qui restent auto-apprenants sur le terrain. On peut mener des attaques qui vont petit à petit modifier des choses, qui vont amener le modèle à dériver et à la fin avoir un comportement qui n'est pas du tout celui voulu. Et peut-être que le plus spectaculaire, ce sont les données spécialement conçues pour tromper l’IA ».

Durant la conférence, un exemple de panneau Stop était présenté, avec quelques marquages spécialement étudiés pour tromper une intelligence artificielle, alors qu’un être humain ne pourrait pas se laisser berner. On imagine facilement les conséquences pour une voiture autonome.

Le côté boite noire est aussi un problème : il n'est pas toujours simple de savoir si l’intelligence artificielle donne un mauvais résultat ou si elle a été leurrée. La différence est subtile, mais cruciale.

Pour Thales, « c'est l'ensemble du pipeline de données qui amène au résultat de l'intelligence artificielle qu’il va falloir sécuriser », en rappelant à juste titre que l’on juge toujours la sécurité d’un système à son maillon le plus faible.

Chez Carrefour, un « petit changement a tout changé »

Durant les Assises, Guillaume Cécile (RSSI du Groupe Carrefour) proposait un retour d’expérience sur l’utilisation de l’intelligence artificielle dans un chatbot pour répondre à des questions de clients, rien d’exceptionnel en soi.

Dans les fonctions proposées aux utilisateurs, il y a la possibilité de donner la liste des magasins se trouvant à proximité. Supermarchés et hypermarchés sont mélangés, le tri se faisant uniquement de manière alphabétique. Mais, d’un coup, le bot s’est mis à proposer les hypermarchés en premier, puis les supermarchés ensuite.

Après enquête, la raison a été trouvée : « Dans le nouveau fichier, il y avait les hypers au début et les supermarchés qui suivent ». L’intelligence artificielle a reproduit trop fidèlement cette présentation : « Ce petit changement a tout changé pour nous », affirme Guillaume Cécile. Un exemple qui montre à quel point le moindre paramètre peut avoir de l’importance.

Révolution ou évolution dans la cybersécurité ?

Autre question posée durant la conférence d’ouverture : va-t-on vers une révolution ou une évolution dans la cybersécurité ? Éric Brier à sa réponse :

« On a ce mythe de l’IA qui trouve toute seule la cyberattaque qui casse tout. Moi, je serais plutôt dans le domaine de l’évolution. Ce qui génère cette crainte, on peut l'attribuer aux réseaux adversaires génératifs. Et pour simplifier un petit peu, c'est comme si en cyber, on remplaçait l'équipe rouge et l'équipe bleue par deux IA qui se battent ».

Il fait un parallèle avec les jeux vidéos, où l’IA anime des PNJ et/ou des adversaires. On a alors deux types de résultats : « Soit l’IA fait ce que fait l'être humain, mais elle le fait mieux et plus vite. Ou alors l’IA trouve dans les jeux un glitch, ce qu'on appelle en cyber une vulnérabilité. Si je pense qu'on ne va pas assister à quelque chose d'absolument dramatique, c’est que l’IA est entraînée souvent à partir de modèles humains et donc elle va jouer dans le même bac à sable ».

Quand l’IA va chercher ce que personne n'a vu, elle fait le même travail que les « pentesteurs », des experts qui cherchent des vulnérabilités dans des systèmes : « Ils mettent des années d'expérience, leurs connaissances de la cyber et des systèmes qui protègent. Donc le vrai apport de l'IA c'est d'accélérer et d'optimiser les processus utilisés dans les attaques ». Un avis partagé par plusieurs acteurs.

Yogosha, Yes We Hack, NBS : « all-in » sur les pentesteurs (l’IA en support)

Nous avons profité des Assises pour interroger des sociétés menant justement des attaques (à la demande de clients) pour tester la robustesse de leurs systèmes ; ce qu’on appelle généralement les bugs bounty.

Chez Yogosha, on nous explique que les équipes R&D « commencent à intégrer des fonctionnalités d’IA dans les règles d’attaques », mais rien de plus. Chaque pentesteur a sa propre manière de faire – ils peuvent évidemment s’appuyer sur l’IA et ne s’en privent pas – mais le modèle de Yogosha repose uniquement sur l’humain qu’elle met en relation avec ses clients, pas l’intelligence artificielle.

Même position chez Yes We Hack, qui nous confirme que l’IA est utilisée par ses hunters – que ce soit pour les attaques ou les rapports. Là encore, la société ne propose que des mises en relations avec des humains, pas avec des outils d’intelligence artificielle.

NBS System (qui appartient à l’opérateur Celeste) est sur la même ligne : l’humain au centre des propositions. Contrairement à Yogosha et Yes we Hack, ce n’est pas une plateforme de mise en relation, mais une société qui dispose d’une dizaine de pentesteurs en interne.

Si les entreprises disent miser sur les humains pour la recherche de faille, elles confirment toutes les trois que leurs chasseurs de prime utilisent l’intelligence artificielle et que cette dernière prend de l’importante.

Deep fake et quantique s’invitent

Éric Brier termine sa présentation avec quelques craintes pour la suite des événements. Le deep fake pour commencer, « qui je pense va nous poser quelques soucis à l'avenir ». C’est déjà le cas, mais il va devenir de plus en plus difficile de repérer les faux. Bien souvent, un démenti ne permet pas de rétablir la vérité auprès de tout le monde, ce que l'on appelle le principe d'asymétrie des baratins ou loi de Brandolini.

Le mélange avec l’informatique quantique arrive en deuxième position. En effet, des chercheurs ont démontré qu'on pouvait encore améliorer les performances et la vitesse des intelligences artificielles en mélangeant les deux technologies. Voilà qui promet un futur (quand les calculateurs quantiques seront présents)… intéressant et/ou inquiétant. 

5
Avatar de l'auteur

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 17
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

On est déjà à la V2 de Next ?

11:55 35
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 16

Sommaire de l'article

Introduction

Le surentrainement, l’embarqué et l’open source

« Le vrai danger » de l’IA

Chez Carrefour, un « petit changement a tout changé »

Révolution ou évolution dans la cybersécurité ?

Yogosha, Yes We Hack, NBS : « all-in » sur les pentesteurs (l’IA en support)

Deep fake et quantique s’invitent

#Flock a sa propre vision de l’inclusion

Flock 17
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

35
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 16
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 18
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 4

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 52
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 10

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 39
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (5)


RuMaRoCO Abonné
Il y a 2 mois

La fin me rappelle le scenario d’un film avec un certain Skynet je crois.


deathscythe0666 Abonné
Il y a 2 mois

Éric Brier termine sa présentation avec quelques craintes pour la suite des événements. Le deep fake pour commencer, « qui je pense va nous poser quelques soucis à l’avenir ». C’est déjà le cas, mais il va devenir de plus en plus difficile de repérer les faux. Bien souvent, un démenti ne permet pas de rétablir la vérité auprès de tout le monde, ce que l’on appelle le principe d’asymétrie des baratins ou loi de Brandolini.




Je ne sais pas si c’est si problématique que ça : les fakes (plus ou moins bons) existent déjà, et ceux qui se précipitent pour y croire (même quand c’est énorme) ne changeront pas. Et il restera toujours la technique qui permet de vérifier les images : recherche de la première occurrence de l’image puis de sa source.


BlueSquirrel Abonné
Il y a 2 mois

La nouveauté c’est la simplicité de génération de fakes de plus en plus poussés (ou “bons”, comme tu dis) par quelqu’un sans compétences particulières. Ce qui risque de les faire pulluler.



Rechercher la première occurence c’est bon pour les images publiques.
Quid par exemple de la photo pornographique d’une personnalité politique à quelques semaines ou mois d’une élection ? Par définition ce genre de photo provient de l’intimité et n’est donc pas vérifiable. La cible pourra bien nier autant qu’elle veut, elle l’aurait aussi fait si la photo n’était pas un fake : le doute et le buzz des médias suffiront à salir sa réputation, et quand tu vois que les élections en général ça se joue à très peu de voix…



L’IA va être un outil effroyablement efficace pour décribiliser publiquement des gens en prétendant qu’ils ont fait telles choses ou tenu tels propos dans leur intimité. Propos racistes, nudes, apparition discrète avec telle personnalité controversée soit disant prise en photo par un paparazzi (la cible et la personnalité nieront, comme elles l’auraient fait si ce n’était pas un fake)…


deathscythe0666 Abonné
Il y a 2 mois

BlueSquirrel a dit:


La nouveauté c’est la simplicité de génération de fakes de plus en plus poussés (ou “bons”, comme tu dis) par quelqu’un sans compétences particulières. Ce qui risque de les faire pulluler.



Rechercher la première occurence c’est bon pour les images publiques. Quid par exemple de la photo pornographique d’une personnalité politique à quelques semaines ou mois d’une élection ? Par définition ce genre de photo provient de l’intimité et n’est donc pas vérifiable. La cible pourra bien nier autant qu’elle veut, elle l’aurait aussi fait si la photo n’était pas un fake : le doute et le buzz des médias suffiront à salir sa réputation, et quand tu vois que les élections en général ça se joue à très peu de voix…



L’IA va être un outil effroyablement efficace pour décribiliser publiquement des gens en prétendant qu’ils ont fait telles choses ou tenu tels propos dans leur intimité. Propos racistes, nudes, apparition discrète avec telle personnalité controversée soit disant prise en photo par un paparazzi (la cible et la personnalité nieront, comme elles l’auraient fait si ce n’était pas un fake)…




Ça peut être vrai, mais encore une fois, il me semble que ceux prêts à croire à n’importe quoi en seront les cibles, et ils y croiraient même avec un faux grossier. Ça aura probablement un impact, mais je doute qu’il soit aussi massif qu’on peut l’imaginer.


OB Abonné
Il y a 1 mois

deathscythe0666 a dit:


Ça peut être vrai, mais encore une fois, il me semble que ceux prêts à croire à n’importe quoi en seront les cibles, et ils y croiraient même avec un faux grossier. Ça aura probablement un impact, mais je doute qu’il soit aussi massif qu’on peut l’imaginer.




Il n’y a même pas besoin que les gens y croient ou pas - les médias fonctionnent en vase clos, et se citent les un les autres quelque soit la véracité de la source.
(Le traitement actuel dans les média de l’actualité est édifiant à ce niveau).



Tout ça créé un “bruit” , un écran de fumée. Ensuite, “il n’y a pas de fumée sans feu….” , et hop, l’influence massive est faite. Le tout avec des fake news et des citations tronqués voire fausse.



Le but d’une élection est de la gagner, pas d’être honnête.