Face à de faux résumés d’informations, Apple sommée de « réagir rapidement » sur son IA
Une information ptet vraie, ptet pas
Apple compte déployer une mise à jour sur iOS pour corriger un problème lié à son bouquet de services IA : les résumés des actualités évoquent parfois des informations fantaisistes. Priée de désactiver la fonction, la société n’en a rien fait jusqu’à présent. Elle insiste sur le caractère bêta du service.
Le 08 janvier à 12h17
8 min
IA et algorithmes
IA
Fin octobre, Apple diffuse les mises à jour iOS 18.1 et macOS 15.1. Ces versions activent pour la première des fonctions Apple Intelligence sur ces systèmes, débloquant le premier tronçon d’un lot s’étalant sur quatre moutures. iOS 18.4 et macOS 15.4, attendus pour avril, devraient signaler pour l’Europe la disponibilité d’Apple Intelligence, la société s’étant plainte à de multiples reprises du DMA et des lourdeurs réglementaires de l’Union. Rappelons que le bouquet de services n’est disponible que sur les iPhone 15 Pro et ultérieurs, ainsi que sur les iPad et Mac dotés d’au moins une puce M1, limitant fortement le nombre de personnes concernées.
Parmi les premières fonctions déployées, les résumés des notifications. Quand le système détecte qu’un nombre important de notifications d’une même application s’accumulent, il en affiche un résumé. Malheureusement, ces résumés fonctionnent assez mal. Ars Technica avait épinglé le service, décrivant par le menu tout ce qui clochait. Ton peu adapté, mauvaise compréhension des sarcasmes et autres expressions, perte de contexte, surcharge ou erreur flagrante étaient cités comme les cinq sources principales de frustration.
Du manque de précision à l’erreur flagrante
En décembre, alors qu’Apple Intelligence est disponible au Royaume-Uni depuis une semaine, la BBC met le feu aux poudres : la fonction résumé est accusée de publier de fausses informations.
Le média vient de constater que sur la base de notifications envoyées par son application BBC News, Apple Intelligence a déclaré en résumé : « Luigi Mangione s’est tiré une balle ». Mangione, pour rappel, a été arrêté pour le meurtre à New York de Brian Thompson, PDG de UnitedHealthcare. Une affaire retentissante, la vidéo de l’exécution par arme à feu en pleine rue ayant largement circulé sur les réseaux sociaux.
Or, la BBC n'a jamais affirmé que Mangione avait tenté de se suicider. Il s’agit d’une erreur grossière du service IA d’Apple, qui avait mal « compris » les informations brassées dans son modèle local. La BBC indique avoir contacté Apple pour résoudre ce problème au plus vite.
Les notifications résumées contiennent bien une signalétique spécifique, mais l’icône ajoutée juste avant que le texte commence est discrète et peut aisément être ratée. Ajoutons que le symbole ne sera pas forcément compris par tout le monde, ajoutant à la confusion.
L’erreur est jugée « embarrassante » par Petros Iosifidis, professeur de politique des médias à la City University de Londres. La BBC rappelle également d’autres cas ayant eu lieu aux États-Unis, notamment avec l’application du New York Times. Le résumé, confondant les informations sur le mandat d’arrêt lancé contre Benyamin Netanyahou par la Cour pénale internationale, affichait « Netanyahou a été arrêté ».
Une mise à jour sur la présentation
Ces erreurs sont d’autant plus regrettables que la lutte contre les fake news bat toujours son plein et qu’une défiance croissante envers la fiabilité des médias alimente de nombreuses conversations.
Depuis le contact de la BBC, on n’avait cependant aucune nouvelle de la manière dont Apple allait se dépêtrer de ce problème. Contactée par plusieurs médias à ce sujet, dont Ars Technica, la société a tenu à rappeler deux éléments : les résumés sont optionnels et en bêta. Traduction, ils ne sont fournis qu’à titre indicatif et les informations qu’ils véhiculent ne doivent pas être prises pour argent comptant.
« Ces résumés sont identifiés par une icône de résumé, et le contenu original est accessible d'un simple clic. Les fonctionnalités d'Apple Intelligence sont en version bêta et nous les améliorons en permanence grâce aux commentaires des utilisateurs. Une mise à jour logicielle, prévue dans les semaines à venir, permettra de préciser si le texte affiché est un résumé fourni par Apple Intelligence. Nous encourageons les utilisateurs à nous faire part de leurs inquiétudes s'ils voient un résumé de notification inattendu », a ajouté Apple.
La mise à jour n’interviendra donc pas directement sur la fiabilité des informations, mais sur leur présentation, pour mieux indiquer que le texte présenté a été généré par une IA.
Un problème difficile à résoudre
L’affaire illustre tout le problème de positionnement actuel sur l’intelligence artificielle. On le connait depuis des années, dès lors que des entreprises ont commencé à proposer des suggestions basées sur les habitudes : les résultats ne sont ni prévisibles ni fiables dans la totalité des cas.
Bien que ce type de fonction puisse faire gagner beaucoup de temps, on ne peut pas savoir si l’information présentée est réellement pertinente, ou même si elle est fiable. Les suggestions de contenus peuvent être efficaces 80 % du temps, elles n’en seront pas moins inutiles le reste du temps. On perd alors du temps.
Le problème de la fiabilité est autrement plus grave : les résultats fournis par l’IA doivent être contrôlés. Il y a gain de temps d’un côté et perte de l’autre, car la supervision réclame des moyens. Ne pas prendre les informations générées par les LLM au pied de la lettre est un conseil constamment répété aux utilisateurs, l’omniprésence croissante de ces fonctions nécessite autant de piqures de rappel. C’était le cas par exemple à Arcachon, où la mairie offre ChatGPT à ses habitants, tout en devant rappeler que les résultats peuvent comporter des erreurs.
Le critère de fiabilité monte encore d’un cran sur l’échelle de l’importance dès lors qu’il s’applique à des médias et, plus généralement, des informations importantes. Les résumés erronés sur Luigi Mangione et Benyamin Netanyahou relatent ainsi des faits erronés et tombent directement dans la catégorie des fake news.
Que l’information relatée ait été sciemment conçue ou générée par erreur ne change pas la finalité : elle est fausse. Les personnes les recevant se sentiront immanquablement trahies, soit par le média dont elles penseront qu’il n’est pas fiable, soit par l’intermédiaire technique – ici Apple. Dès lors, la question de la confiance se pose pleinement, de même que l’utilité d’une fonction dont on ne peut pas être sûr de la fiabilité.
Colère à la BBC
Dans un nouvel article publié hier, la BBC ne cache pas sa colère et évoque justement le problème de la confiance. Le média anglais rappelle qu’il s’était plaint auprès d’Apple en décembre, mais que l’entreprise n’avait pas répondu avant lundi. Une réponse jugée insuffisante.
Alan Rusbridger, ancien rédacteur en chef du Guardian et membre du comité de surveillance de Meta (qui examine les recours contre ses décisions de modération), a ainsi déclaré sur la radio BBC Radio Four que la technologie d’Apple était « incontrôlable » et « clairement pas prête ». « La confiance dans l'information est déjà assez faible sans que des sociétés américaines géantes ne viennent l'utiliser comme une sorte de produit test », a-t-il ajouté.
La BBC cite d’autres exemples de fausses informations publiées depuis : Luke Littler annoncé comme champion du monde de fléchettes PDC, ou encore le coming out gay de Rafael Nadal. Le média se dit contraint de communiquer pour infirmer les messages générés par Apple. Il demande instamment la suspension de la fonction résumé, comme l’ont fait Reporters sans Frontières en décembre et la National Union of Journalist hier.
Face à de faux résumés d’informations, Apple sommée de « réagir rapidement » sur son IA
-
Du manque de précision à l’erreur flagrante
-
Une mise à jour sur la présentation
-
Un problème difficile à résoudre
-
Colère à la BBC
Commentaires (13)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousHier à 13h24
Modifié le 08/01/2025 à 13h48
Même quelqu'un qui le fait manuellement devrait avoir du mal à réussir
Hier à 13h50
Hier à 16h09
Hier à 14h14
Hier à 14h47
Mais déjà que l'utilisateur moyen (tout media/marque confondus) a du mal à brancher le neurone pour prendre du recul, on reste dans le mode "C'est internet qui le dit, donc c'est vrai".
Moi le premier, je tombe dans ce travers. Mais si d'autres sources disent le contraire, je branche le neurone à ce moment là.
Combien dans les utilisateurs de ce genre de "gadget" s'abreuvent à plusieurs sources ?
Et si les différentes sources font la même erreurs (toute ressemblance avec des recopieurs de dépêches AFP est purement fortuit), comment feront-ils ?
Hier à 14h59
Et tfaçon, la vraie source d'info elle est sur les médias sociaux. La presse est aux ordres du pouvoir, elle n'est pas fiable. Un vendeur de VPN a forcément plus d'impartialité et de clairvoyance !
Et dire qu'on a conçu et déployé à l'échelle mondial un réseau de télécommunications, pour au final revenir à l'information racontée par Dédé au PMU entre deux pintes.
Hier à 16h11
Modifié le 08/01/2025 à 16h37
Hier à 16h49
Hier à 18h47
Une bonne partie de ces problèmes n'existeraient pas si Apple pouvait copier coller directement les infos sans devoir tout reformuler pour ne rien devoir à personne.
Aujourd'hui à 02h33
Modifié le 09/01/2025 à 13h58
Bon, c'est vendredi, presque, je peux hein ?