Connexion
Abonnez-vous

Intelligence artificielle : l’explicabilité, cette notion « chiante »

Paf, amende

Intelligence artificielle : l’explicabilité, cette notion « chiante »

Flock

Dans un précédent article, nous nous sommes intéressés aux gains de productivité permis par l’intelligence artificielle chez les développeurs. Cette fois, nous nous penchons sur les notions d’explicabilité et d’interprétabilité. Liées à l’éthique et peu considérées jusqu’à présent, elles ont soudain été remises en avant par l’AI Act en Europe.

Le 22 novembre à 17h30

Lors de la BDX I/O, qui s’est tenue le 8 novembre au Palais des Congrès de Bordeaux, nous avons discuté avec bon nombre de développeurs. Il ressortait de leurs usages un recours massif de l’IA, sous forme d’assistants divers (principalement GitHub Copilot et Claude) pour gagner du temps, particulièrement sur les tâches rébarbatives.

Le même jour se tenait, parmi les présentations auxquelles nous avons assisté, une conférence de 45 min portant sur l’explicabilité et l’interprétabilité, par Cécile Hannotte, data scientist et ingénieure en mathématiques chez OnePoint. Une thématique « iceberg », car posant de nombreuses questions sur l’IA et les usages que l’on en fait.

Une question de confiance

De quoi parle-t-on ? Pour résumer, l’interprétabilité permet de comprendre ce que fait une IA, tandis que l’explicabilité consiste à savoir pourquoi elle a pris une décision spécifique. Ces deux thèmes étaient l’objet de la conférence et sont liés à de nombreux aspects pratiques de l’IA.

Il reste 85% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (14)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Fascinantes et effrayantes à la fois, telles sont ces IA à "boites noires" ! 😅
votre avatar
Il ressortait de leurs usages un recours massif de l’IA
Impossible, j'ai pu lire ici même qu'il s'agissait d'une bulle.
votre avatar
J'ai ouï-dire que des milliards de gens avaient un logement en dépit des bulles immobilières :craint:
votre avatar
Actuellement, la course à la puissance et aux performances masque les autres facettes : il faut produire plus, plus vite, impressionner et être le premier, estime-t-elle
Comment promouvoir l’explicabilité face à l’explosion des modèles actuels ? N’est-elle pas considérée comme un frein à l’innovation pour des entreprises comme OpenAI, Anthropic ou Mistral ?
Les entreprises de la Tech considèrent que toute volonté de les responsabiliser est un frein à l'innovation. Donc à partir de là...

Il faut aller vite, maintenant, tout de suite. Et c'est un mouvement qu'on rencontre partout en entreprise.

Petit feedback personnel : dans une organisation A en entreprise, plein de monde se plaint que c'est lent et lourd parce qu'il y a des process de qualité à respecter (surtout quand tu viens la fleur au fusil en espérant tout outrepasser sans rien préparer). Un scandale pour les PO car Saint TTM est impacté par tout une bureaucratie inefficace. Dans l'organisation B, on donne l'outil et l'autonomie aux projets pour qu'ils délivrent rapidement.

Constat réalisé par mon expérience sur ce genre d'organisation :

Dans A : on avait un minimum de documentation sur les produits, car le process qualité exigeait un doc d'architecture, une liste de critères de sécu, et des workflows de delivery qui intègrent des tests unitaires, qualité et sécurité (sans oublier la revue de code). Ca demandait juste un peu de préparation côté projet, mais quand on maîtrise son sujet (ce qui est rarement le cas des projets métier, hélas), ça va vite.

Dans B : pas de doc, pas de test unitaire, pas de check sécurité, un test rapide sur un bac à sable de dev et go prod. Ça délivre de la feature à tout va et dès qu'on parle de sécurité ou qu'on commence à demander comment ça marche, y'a plus personne. Dès qu'on creuse un peu sur comment ça a été fait, on hurle. Et, évidemment, quand Jean Michel Dev est parti, la boîte a perdu sa connaissance métier.

Bref, on est dans la mouvance standard du moment. Généralement, quand l'entreprise se prend un mur (souvent financier) parce que le YOLO a engendré un piratage ou un crash métier, ça fait revoir les priorités.

La thématique est d’autant plus vaste que de nombreux modèles d’IA aujourd’hui sont « auto-entraînés ».
C'est effectivement l'une des trois méthodes de machine learning : le supervisé, le non supervisé (celui cité ici), et le renforcement. Dans le premier, on lui donne un jeu de données déjà qualifié et il apprend dessus. Dans le second, il apprend à étiqueter par lui-même. Dans le troisième, il se trouve dans l'environnement (cas des véhicules autonomes) et apprend par l'expérience avec récompense / pénalité.
En 2017 par exemple, des chercheurs avaient créé un algorithme d’apprentissage profond capable de déterminer l’orientation sexuelle d’une personne à partir d’une photo de visage
Pourquoi j'y vois de la physiognomonie 2.0 ?

En tous cas, merci pour ce compte rendu. Les propos sont super intéressants :)
votre avatar
Effectivement, on constate bien cette tendance à la précipitation dans la tech.

Je retiens cette phrase frapante d'un client : "peu importe que l'on ai crée de la dette technique inextricable si dans un mois on est plus là car on a pas avancé assez vite".
votre avatar
Je me rappelle d'une expression une fois sur un projet : le mur d'accélération.
votre avatar
Notre tout nouveau responsable logiciel (qui parle de lui comme étant le DSI) nous a expliqué son mantra : aller vite. Donc ne pas faire de recette et factuellement aussi changer tout le temps d'avis pour suivre le sens du vent du moment. Bien sûr des études poussées ne sont pas nécessaires, on corrigera plus tard au cas où.
J'ai réactualisé mon CV, un bon quart du service est déjà parti.
votre avatar
Ça m'étonne pas.
votre avatar
ce besoin d'explicabilité est un projet de la DARPA pour le compte du DoD (le Departement de la Defense Americain) depuis au moins 2018:


https://www.darpa.mil/program/explainable-artificial-intelligence
"Explainable Artificial Intelligence (XAI) (Archived)"



https://onlinelibrary.wiley.com/doi/10.1002/ail2.61
"DARPA's explainable AI (XAI) program: A retrospective"
---------------
"Defense Advanced Research Projects Agency (DARPA) formulated the explainable artificial intelligence (XAI) program in 2015 with the goal to enable end users to better understand, trust, and effectively manage artificially intelligent systems. In 2017, the 4-year XAI research program began. Now, as XAI comes to an end in 2021, it is time to reflect on what succeeded, what failed, and what was learned. This article summarizes the goals, organization, and research progress of the XAI program."
----------------

Et la raison est simple:
il est hors de question de payer des milliards de $ pour envoyer des systèmes autonomes (i.e non contrôlés par un être humain) faire des conneries sur un champs de bataille sans pouvoir comprendre pourquoi = la capacité de 'débriefer' une IA comme on debrieferai n'importe quel soldat ayant fait une operation speciale en ukraine par exemple :)

Donc effectivement, le besoin de précipitation et d'innovation pour briller dans les salons se heurte toujours aux exigences de personnes responsables qui n'ont pas le même sens de l'humour que les (grand ?) patrons de la tech :)
votre avatar
Plusieurs points me font tiquer:
1 - Une IA sera toujours une boîte noire selon moi, sinon il faut tester tous les scénarios possibles et les réponses obtenues, ce qui est rapidement impossible.

2 - Lire qu'une décision peut être prise par une IA me fait bondir. Une IA peut apporter de l'aide à décision mais il ne faut pas la laisser avoir le dernier mot.
votre avatar
2 - Lire qu'une décision peut être prise par une IA me fait bondir. Une IA peut apporter de l'aide à décision mais il ne faut pas la laisser avoir le dernier mot.
C'est effectivement un élément de langage qui a son importance. D'ailleurs c'est même souvent répété par les acteurs économiques du domaine : l'outil suggère ou propose.

La décision doit rester chez l'humain de mon point de vue.

Pour faire un parallèle, c'est comme porter un projet devant un comité. Les chefs n'auront pas forcément la capacité de comprendre tous les détails, et c'est pas ce qu'on leur demande. Ce qu'ils attendent, c'est une explication sur les enjeux, le coût, le ROI attendu, le risque à faire, à ne pas faire, etc, pour prendre une décision. Ici, le rôle de l'IA est de fournir ces éléments de prise de décision, pas de donner le "go projet".

Hélas, il y a encore trop de fantasmes dans le domaine pour utiliser ces outils de manière intelligence. Et quand je vois le nombre de personnes dans l'IT qui boivent les paroles de ChatGPT sans comprendre le fonctionnement ou les limites de l'outil, je me dis qu'on a pas le cul sorti des ronces.
votre avatar
2 - Lire qu'une décision peut être prise par une IA me fait bondir. Une IA peut apporter de l'aide à décision mais il ne faut pas la laisser avoir le dernier mot.
Ça dépend du cadre de ton IA. Pour rester dans le cadre d'application de la DARPA, prends l'exemple d'un drone qui peut finaliser sa mission (par exemple, se jeter sur un tank pour y faire détonner sa charge) seul parce la liaison avec son opérateur a été brouillée : déjà, il y a peu de chances pour qu'un tel système soit utilisé dans une zone grise (où les deux camps ont des assets); ensuite, soit le drone réussit, soit il se crashe et détonne au sol. Est-ce que ce n'est pas largement mieux que de tapisser le sol de mines qui "décideront" d'exploser sur n'importe quelle cible (amie, ennemie, civile), parfois des années plus tard ?
votre avatar
On s’en doute, les deux notions sont vectrices de confiance. L’ingénieure donnait un exemple. IBM avait présenté par exemple en 2016 une IA capable de détecter de manière efficace les cancers. L’IA ne s’est pas révélée par la suite à la hauteur des attentes.
Vu ce matin, une étude indiquerait que l'IA serait désormais plus efficace pour analyser les biopsies. Je n'ai pas lu l'étude source, mais ici ils indiquent que le gain est surtout fait en matière de temps d'observation, discussion, et manipulation et que le système propose un examen plutôt approfondi pour aider les médecins. Par contre, cela nécessite une énorme base d'imagerie médicale pour qu'il soit pertinent, comme toujours.
votre avatar
merci pour l'article

Intelligence artificielle : l’explicabilité, cette notion « chiante »

  • Une question de confiance

  • Un calcul « simple », des décisions lourdes

  • Des barrières tangibles

  • Le mur de la complexité

Fermer