L’IA par Luc Julia (Siri) : « beaucoup de n’importe quoi », des gens « pas respectables »
Il est « ingénieur informaticien » (ne me dites pas merci)

Lors d’une audition au Sénat, Luc Julia est venu distribuer les mauvais points et remettre les pendules à l’heure, enfin, à son heure. Tout y passe, la « révolution » générative, l’IA générale, la recherche en France, la voiture autonome, les enregistrements sans consentements de Siri pour finir par des tacles contre des « gens qui ne sont absolument pas respectables d'un point de vue purement politique ».
Le 20 juin à 15h27
13 min
IA et algorithmes
IA
Luc Julia est informaticien franco-américain principalement connu pour être le co-créateur de Siri, mais il n’a passé qu’un an chez Apple. Il est ensuite passé pendant huit ans chez Samsung comme directeur technique. Il est depuis quatre ans directeur scientifique du Groupe Renault et donne des dizaines de conférences par an. Il est aussi membre du conseil d'administration de Radio France, nommé par l’Arcom fin 2021 pour un mandat de cinq ans.
Il est auteur de deux livres : L'intelligence artificielle n'existe pas (2019) et IA génératives, pas créatives - L'intelligence artificielle n'existe (toujours) pas (2025). Le « concepteur de Siri » était invité par la commission des affaires économiques du Sénat pour une audition sur l’intelligence artificielle. Son discours est dans la veine de ces précédentes déclarations. Il en profite pour tacler à tout-va et revient sur l’affaire des écoutes abusives de l'assistant vocal Siri.
Pour commencer, « on va se calmer »
Il attaque bille en tête sa présentation en remettant à sa manière l’église au centre du village : « Pour être clair, déjà les IA, ce ne sont que des mathématiques. Donc on va se calmer ». Une manière de tacler le mot « intelligence » dans l’acronyme IA.
Il reste 89% de l'article à découvrir.
Déjà abonné ? Se connecter

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousL’IA par Luc Julia (Siri) : « beaucoup de n’importe quoi », des gens « pas respectables »
-
Pour commencer, « on va se calmer »
-
La révolution du prompt, l’explosion du n’importe quoi
-
L’Intelligence artificielle générale c’est… « impossible »
-
La voiture autonome en prend pour son grade
-
La consommation des ressources
-
En France, « on est les meilleurs »
-
Siri : « C'est absolument impossible d'écouter tout, tout le temps »
-
Aux commandes des IA, « des gens qui ne sont absolument pas respectables »
Commentaires (61)
Le 20/06/2025 à 16h07
Bien sûr, en ayant converti l'audio en texte.
C'est pas impossible impossible, mais c'est tout de même très proche de l'impossibilité technique... Et surtout, pour quoi faire ?
Le 20/06/2025 à 16h11
Le 23/06/2025 à 19h22
Le 20/06/2025 à 18h31
- Près d'un tiers des personnes dans le monde n'ont même pas accès à internet. Alors Siri, l'IA et Big Brother...
- On estime à 7,1 milliards le nombre de smartphones utilisés dans le monde (oui, vu que certains en ont plusieurs...)
- Suivant tes données (que j'ai évidemment pas vérifiées), ramené à la personne chaque smartphone devrait donc analyser 18 000 mots en 2h . Or, rien que l'actu ci-dessus contient 2 423 mots, donc ça ferait l'équivalent de 9 actus à analyser toutes les 2h, ça semble toujours impossible qu'une IA fasse un résumé de 9 actus sur un laps de 2h et transmette 10Ko de données à un serveur ?
Les outils qui écoutent et font des par IA, ça existe déjà et ça fonctionne pas trop mal (j'ai fait le test avec un client sur une réu Teams).
Si on prend la fonction "Recall" de Windows, c'est déjà aussi un peu l'enjeu, avec le visuel cette fois-ci : à chaque nouvelle action, on l'enregistre (stockage de screenshots), on l'analyse (OCR+IA) et on en tire une conclusion pour permettre une recherche ultérieure. La différence c'est que c'est conçu pour aider l'utilisateur, mais ça pourrait très bien envoyer un récap quotidien pour dire qu'aujourd'hui t'as passé beaucoup de temps à parler d'IA sur Next, donc qu'une petite pub pour un moteur d'IA serait pertinent.
Avec les NPU embarqués et des puissances d'analyse "on device" en pleine explosion, on pourrait donc à peu près imaginer que ça va devenir largement possible qu'une IA écoute toute une journée et génère une synthèse qu'il transmet à un serveur.
En revanche, à date clairement non, en tout cas pas de façon secrète : trop énergivore pour la batterie (si traitement IA on device) et trop peu discret pour le volume data pour un traitement externe (sans parler de l'impact batterie de la sollicitation permanente du modem, qui reboucle avec le premier point).
Et comme tu l'as dit : pour quoi faire ? Les données déjà disponibles sont déjà tellement exploitables que ça n'a pas grand intérêt que d'aller exploiter la dernière blague de la machine à café.
Quand t'as cherché spontanément sur Gemini Live en mode vidéo "c'est quoi ce gros bouton sur mon schtroumpf" il y a deux semaines, je vois pas pourquoi ils iraient s'embêter à t'écouter frauduleusement en parler avec ton médecin.
Le 21/06/2025 à 09h53
Il n'y a rien de rationnel dans ce comportement à vouloir tout écouter/stocker. Le comportement est simplement d'avoir le max de données est ensuite on voit comme on peut en faire quelque chose, surtout du profilage marketing. La raison est simple, s'il ne le font pas un autre le fera et ils se feront distancé. On est dans une fuite basé sur de la spéculation. Mais ça fait vendre, et ça ramène de l'argent. Donc c'est bon pour le business.
En outre, tout enregistré est aussi utile pour récupérer des informations sensibles à usage d'espionnage économique et industrielle.
Le 20/06/2025 à 21h27
L'algo consistait en grosso modo à découper le signal, calculer son spectre, faire une décomposition "chromatique", à l'encodé d'une certaine manière pour le rendre compatible avec le calcul de la distance Hamming par rapport à des patterns de référence. On stockait le tout dans des structures probabilistes type filtre de Bloom. ça tournait en continu sur un petit Intel Atom et ça traiter s'en broncher ~20 Mo/s.
Alors avec les SoCs d'aujourd'hui qui ont des GPU integrées voir des DSP, je pense sincèrement que c'est largement possible de tout écouter. Pas de tout stocker, mais de stocker l'essentiel.
Le 21/06/2025 à 08h15
Est-ce possible d'écouter tout tout le temps ? Non, il y a plein de choses qui arrivent trop loin d'un dispositif de capatation.
Pour ce qui est de celles qui arrivent à proximiter, c'est possible d'écouter tout tout le temps (le principal "soucis" étant la batterie, mais en est-ce vraiment un ?).
Ensuite il y a l'analyse et la transmission, si l'analyse se fait avant la transmission, c'est plus facile de transmettre, moins de volume.
Est-ce que, dans le cas d'Apple, ça a un intérêt ? Je ne sais pas.
Est-ce qu'il est "possible" de stocker "tout" ? Je ne sais pas. Par exemple, une transcription pure et simple, il lui manque au moins le ton. Une transcription pure et simple est peut-être trop grosse (volume de stockage) pour valoir le coup d'être stockée à l'échelle de la population. Un enregistrement pur et simple, encore plus.
Si on prend les chiffres de potn (que je n'ai pas vérifiés), on parle de stocker 5.5 Eo. Je viens de copier grossièrement le texte de cet article, ça me donne 15127 octets. Je suis étonné, il se compresse "seulement" à 6085 octets avec 7zip.
Après on peut faire résumer par IA. On peut même voir à faire résumer sur le dispositif de captation. Est-ce que ça permet de faire une étude de l'évoution du champ lexical chez les Français ? Sûrement pas. Est-ce que ça permet d'autres choses, comme connaître la popularité d'une personne, sûrement.
Et on peut faire compresser les résumés (même si d'après ma compréhension de la théorie de l'information, un résumé devrait moins bien se compresser que l'original).
Ceci dit, écouter tout le monde, tout le temps (en secret), et stocker, ça requiert quand même un minimum de travail, avec du coup un minimum de gens impliqués, plus ce nombre grandit, plus les chances de fuites augmentent.
Le 21/06/2025 à 10h31
L'information perdue l'est pendant l'écriture du résumé qui supprime les informations peu utiles ou inutiles pour garder celles importantes.
Le 21/06/2025 à 15h07
Modifié le 21/06/2025 à 17h32
Pour une compression sans perte traditionnelle ça ne changerait rien ou presque, mais pour une compression avec perte de qualité (par ex avec un llm) si.
Le 22/06/2025 à 10h36
Le ratio de compression (zip) d'un texte et celui de son résumé devraient donc être équivalents (sauf à travailler sur des petits textes/résumés).
Le 22/06/2025 à 19h02
Les LLMs et d'autres techniques permettent des compressions de texte avec perte, incluant le résumé.
Modifié le 23/06/2025 à 00h51
J'ai refait le calcul du coup, je trouve :
150 mots 5 oct 60j 2h 365j = 33 Mo par personne par an (ca me semble pas énorme en stockage, et traitement à étaler sur une année, potentiellement sur chaque device).
Soit pour l'ensemble * 8e9 = 262.8 Po (20 fois moins que ton estimation. Ça reste énorme)
Façon de le voir/comparer :
- avec une estimation du coût de traitement/stockage annuelle de 100€ pour un To donne environ 0.5 c€ par personne par année.
Ca me semble vraiment très faible ! Combien on estime pouvoir gagner ? en pouvoir/argent/pubs ...
Ou pour l'ensemble environ 25 millions € (pour une grosse boîte, ca ne me semble pas beaucoup...)
- le stockage pour youtube est estimé à 15 Eo, et aujourd'hui de l'ordre de 1 Eo supplémentaire par an
Ce sont des estimations a la louche ! Mais ça me semble clairement envisageable pour beaucoup de boîtes/ états ...
Le 25/06/2025 à 09h43
Impossible de retrouver la citation exacte, mais c'était de mémoire dans un vieux reportage (arte?), où Barlow était interrogé dans le cadre de sa venu à Paris pour un sommet organisé par Sarko ... Sommet où au vu des conneries dites par certains se demandait bien pourquoi il était invité.
Le 20/06/2025 à 16h11
https://shurkin.substack.com/p/why-that-atlantic-scoop-is-big-f
On accepte de placer chez soi l'outil technique qui rend cette pratique quasi gratuite.
Le 20/06/2025 à 16h22
Modifié le 21/06/2025 à 17h12
L'idéalisation de la pensée humaine lui fait dire de grosses bêtises. La pensée humaine est aussi fondé sur l'interaction d'un nombre fini d'atomes sur la base de règles physiques.
Il est évidemment possible qu'une intelligence qui serait meilleure que les humains existe, qu'elle soit fondée sur une simulation ou pas ne change rien.
Le 20/06/2025 à 17h40
Tout semble possible, à l'echelle temps d'un homme, beaucoup moins !
Modifié le 21/06/2025 à 17h22
Le cerveau humain a environ 10 000 milliards de connexions synaptiques, les modèles actuels environ 100 milliards de poids, cet à dire "seulement" 100x moins.
Il n'y a pas si longtemps, un modèle d'un milliard de poids était considéré comme énorme et l'idée qu'un modèle puisse interpréter correctement des instructions arbitraires dans n'importe quelle langue était de la science fiction.
Le 22/06/2025 à 11h57
Modifié le 22/06/2025 à 14h43
Les cellules gliales, globalement autant présentes dans le système nerveux central (SNC) des humains que les neurones, ont été ignorées pendant longtemps.
Mais des découvertes récentes convergent vers un rôle primordial des cellules gliales dans le développement et le fonctionnement du SNC y compris pour l’accomplissement de fonctions cognitives complexes.
Les IA actuelles ne sont basées que sur le neurone formel inventé il y plus de 80 ans et font l'impasse sur l'autre moitié du cerveau humain considérée à l'époque comme un simple échafaudage (de la « colle ») pour les neurones.
Qui peut donc croire qu'on arrivera à une IA générale avec un modèle aussi limité ?
Source : Pas d’IA générale ou forte avant plusieurs dizaines d’années
Le 20/06/2025 à 17h18
L'expression de Luc JULIA pendant l'audition est cohérente avec ce reportage.
Le 20/06/2025 à 17h25
Le 20/06/2025 à 17h41
Le 20/06/2025 à 18h02
Le 20/06/2025 à 18h13
Le 21/06/2025 à 12h28
Et direct, j'ai pensé à ça : https://www.youtube.com/watch?v=ZVT-EjMGyAc
Le 21/06/2025 à 14h32
pour reprendre l'exemple plus bas avec les jeux de réflexion:
- les outils comme deep blue (qui a niqué kasparov et qui n'est pas une IA), avant de donner la réponse, vont tester ABSOLUMENT TOUT les mouvements possibles, extrapoler les mouvements suivants avant de donner la "meilleure" réponse.
- les IA spécifiques vont faire pareil, mais vont en plus récupérer l'historique du joueur, créer une base de probabilités de son style de jeu avec un poids pour chaque coup selon sa fréquence, extrapoler des parties entières selon chaque possibilité au dessus d'un seuil, et enfin régurgiter le meilleur coup probable...
perso j'appelle pas ça de l’intelligence...
Le 21/06/2025 à 17h11
Déjà que pour les échecs, les meilleurs IA n'explorent pas tous les coups possibles depuis longtemps. Pour le Go c'est encore moins possible.
Le 22/06/2025 à 12h02
Si l'IAG était à portée de main comme le prétendent ses promoteurs, ChatGPT donnerait du fil à retordre à Stockfish aux échecs au lieu de se faire poutrer par un Atari 2600 de 50 ans.
Modifié le 24/06/2025 à 16h43
- Luc Julia: "Les IA sont plus intelligentes pour des taches spécifiques"
- "Non: elles testent toutes les possibilités, et elles s'entrainent sur la manière de jouer de l'adversaire, perso j'appelle pas ça de l’intelligence"
- "C'est inexact, elle apprend en jouant contre elle même, et ne teste qu'une toute petite partie des possibilités"
- "qu'est-ce que c'est censé prouver ? qui voudrait d'une pelleteuse moins efficace qu'un type avec une pelle ?"
En revanche, dès qu'on parle de vivant on va insister pour qualifier d'intelligent le comportement de la moindre bactérie, alors que cette intelligence ne vient pas de la bactérie mais émerge du processus évolutionnaire.
Le 24/06/2025 à 17h09
Personne n'ayant parlé de l'intelligence des bactéries, c'est surtout ta suite de commentaires qui donne l'impression de se rattraper aux branches.
Modifié le 24/06/2025 à 17h43
La suite de commentaire illustre bien l'évolution des réactions face à l'augmentation progressive de la complexité et de la qualité des IA. Le but n'était pas de "disqualifier les critiques" mais de provoquer une réflexion sur l'origine de cette mécanique défensive.
C'est totologique : cela existe donc cela existe. Oui, avant cela n'existait pas, et c'est possible aujourd'hui grâce aux évolutions technologiques, comme tous les outils. Et demain d'autres outils encore plus performants existeront certainement. Cela n'a pas vraiment de rapport avec le fait qu'on puisse qualifier certains de ces outils d'intelligents.
Le 24/06/2025 à 18h42
Tu fais comme si c'était une réaction de déni alors que c'est avant tout un ras le bol de la désinformation promotionnelle permanente de l'IA à base d'opinions fondées sur absolument rien pour juger de l'intelligence de ces systèmes (qui, encore une fois, ne font que ce pour quoi ils sont conçus, ce qui nécessite donc un système par classe de problème, merci le théorème du no free lunch).
Un peu quand même, que l'outil devienne très performant, très complexe et difficile à comprendre n'est pas pour autant une preuve d'intelligence.
Le 24/06/2025 à 19h23
Entièrement d'accord que le hype et la bulle d'investissements, et la promo et toutes les promesses parfois ridicules sur l'IA et les LLMs sont pénibles et nuisibles, pour la discussion comme dans la réalité. Cela polarise les positions sur le sujet, dans les deux sens.
Tout à fait, c'est ce que je voulais dire : le fait que l'outil soit performant est indépendant du fait qu'on puisse le qualifier d'intelligent.
Modifié le 21/06/2025 à 21h54
Autre chose : comme il le dit en introduction de son audition, les IA sont seulement des mathématiques (l'intelligence ne se réduit pas aux mathématiques).
Le 24/06/2025 à 17h11
Le 24/06/2025 à 19h55
Le 24/06/2025 à 23h07
Je me base sur l'intelligence humaine car le débat tourne quasi toujours (implicitement le plus souvent) sur l'IA générale, qui est loin d'être concrète en admettant qu'elle soit possible.
Le 25/06/2025 à 11h31
Parmi les cas d'usage de la discipline, il y a le fait de construire un système capable de traiter une problématique avec peu d'entrants. Dans ce genre de cas, je considère le système comme intelligent car il va se "démerder" pour produire un résultat. On le voit même plus récemment avecl es modèles dit de raisonnement qui génère d'abord une série de points clés avant de considérer ce contexte pour produire la réponse.
Tout comme j'ai souvent entendu parler d'intelligence dans un système informatique quand on prévoit une certaine adaptabilité dans celui-ci. En opposition avec un système bête et méchant qui déroulera son script et se plantera en cas d'imprévu. L'adaptabilité à une situation fait partie des critères tentant de définir l'intelligence.
Pour moi, ce qui manque à l'IA dans sa version actuelle (rappelons que la techno du deep learning encore jeune comparée au reste de la discipline et c'est notamment grâce à elle que ce progrès a été fait), c'est l'instinct et l'expérience qu'on a en tant qu'humains. Le truc indéfinissable du pifomètre et l'intuition qui vient nous dire "attention y'a un truc". C'est pas demain la veille qu'on verra ça arriver à mon sens, par contre ça ne retire en rien le fait que les systèmes actuels ont déjà fait un bond impressionnant en matière de capacité d'interaction humain machine (le NLP étant une des cibles de l'IA) et de compréhension sémantique.
Tout comme la perception, là aussi une discipline de l'IA, a énormément progressé ces dernières années avec des systèmes qui sont capables de décrire le contexte d'une image (enfin, ce qu'ils en ont "compris").
Si je devais résumer ma perception des débats relatifs à "l'IA n'est pas intelligente", je dirais que c'est du même niveau que les gens disant qu'un animal ne l'est pas. Le premier pas, c'est d'enlever ses œillères et mettre ses dogmes de côté pour observer, expérimenter et dresser des échelles de valeur pour mesurer la maturité du système d'une façon objective.
Le 25/06/2025 à 11h57
Le 25/06/2025 à 15h33
Le 25/06/2025 à 17h36
Elle s'est construit, par son entrainement, une représentation du plateau et de la position des pions auxquelles elle n'a jamais eu accès.
Le 25/06/2025 à 17h58
Le 25/06/2025 à 19h46
Durant l'utilisation, je ne sais pas si le modèle retient un historique de la partie en cours, mais il avait une représentation de l'état actuel après chaque coup.
Modifié le 21/06/2025 à 15h14
"paralysé en arrivant... des voitures de partout et dans "tous les sens" (mais dans le même sens quand même, sens inverse des aiguilles d'une montre), comme dans une foire avec des auto tamponneuses. Je m'arrête , et en plus là c'est priorité à droite, cad à l'entrant - comme sur le Périph" et cela contrairement à 99,9 % des ronds-points ou des voies d'accélération en France."
Un policier qui (essayait) faisait la circulation est rapidement venu me voir, a vu ma plaque "44" et m'a immédiatement ordonné: "Allez, allez, roulez, ne vous arrêtez surtout pas ..."
Franchement, si on arrive à passer la place de l'Etoile un soir de semaine durant sa formation au permis de conduire et sans une seule égratignure de peinture sur la carrosserie à la sortie... moi, je serai inspecteur au permis de conduire :
FELICITATIONS !!
Le 21/06/2025 à 17h26
Le 21/06/2025 à 21h32
Et quel sacré choc pour le petit provincial qui monte à Paris...
Le 23/06/2025 à 09h46
Et il faut comprendre qu'il faut faire abstraction complète des autres usager.
Il n'y a pas "bon sens" ou "civisme" et vu la densité si on commence à s'occuper des autres, on fini par ne plus pouvoir soit même circuler
Modifié le 23/06/2025 à 10h18
Modifié le 21/06/2025 à 21h52
Le 21/06/2025 à 22h45
Mais quand même la priorité à droite aux entrants n'est pas du tout naturel maintenant que l'on a l'habitude de tous ces ronds points en France.
Le 23/06/2025 à 14h56
Modifié le 24/06/2025 à 04h17
Il y a bien longtemps, on parlait de "rond-point à l'anglaise" car justement on ne laissait plus la priorité à droite mais la priorité à gauche cad qu'on laisse passer ceux sur le rond-point, qui sont sur notre gauche.
Et comme les Anglais roulent à gauche...
L'expression s'est perdue depuis le temps, aussi depuis que la France est devenue la championne des carrefours à sens giratoire (comme on dit maintenant) et aussi championne du monde en plus...
Il faut bien réussir à être 1er quelque part...
Le 24/06/2025 à 09h13
Le 24/06/2025 à 10h48
Le 23/06/2025 à 12h16
Modifié le 24/06/2025 à 04h18
Le 21/06/2025 à 20h35
Le 22/06/2025 à 14h12
Modifié le 23/06/2025 à 09h20
Ça fait un mal fou de voir des commentateurs affubler les propos de ce monsieur de "grosses bêtises".
L'expertise ne sert plus à rien quand il y a 70 millions d'experts arrogants & obtus.