Comment reconnaître les sites (d’infos) générés par des IA ?
IA là !
Illustration : Flock
Le 06 février 2025 à 09h08
L’enquête nous ayant permis de découvrir plus de 1 000 sites d’actualité alimentés au moyen d’intelligences artificielles génératives (GenAI) montre que leurs articles n’ont vraisemblablement pas été écrits par des journalistes ou rédacteurs, ni même relus ou corrigés avant publication. Notre méthodologie a par ailleurs été challengée et vérifiée par deux contributeurs expérimentés de l’encyclopédie Wikipédia, et deux journalistes du service de fact-checking CheckNews de Libération.
Comment reconnaître les sites (d’infos) générés par des IA ?
IA là !
Illustration : Flock
L’enquête nous ayant permis de découvrir plus de 1 000 sites d’actualité alimentés au moyen d’intelligences artificielles génératives (GenAI) montre que leurs articles n’ont vraisemblablement pas été écrits par des journalistes ou rédacteurs, ni même relus ou corrigés avant publication. Notre méthodologie a par ailleurs été challengée et vérifiée par deux contributeurs expérimentés de l’encyclopédie Wikipédia, et deux journalistes du service de fact-checking CheckNews de Libération.
Le 06 février 2025 à 09h08
Droit
Droit
20 min
Le fait d’avoir passé des mois à identifier plus de 1 000 sites d’information générés par IA nous a permis de visualiser des milliers d’images souvent, elles aussi, GenAI, mais aussi et surtout de nous familiariser avec les caractéristiques partagées par ces contenus synthétiques.
Si leurs articles ont pu tromper des « contributeurs expérimentés, voire très expérimentés » de Wikipédia, comme nous le relevions dans le premier article consacré à cette enquête au long cours, c’est qu’ils n’avaient pas été entraînés ni sensibilisés au fait de les reconnaître d’une part, d’autre part parce qu’ils ne s’attendaient pas à voir ces sites d’information, auparavant considérés comme fiables, être désormais alimentés par IA.
Ce pourquoi il nous a semblé important de consacrer un article expliquant comment nous avons procédé, et donc comment identifier les sites et articles générés par IA. À toutes fins utiles, Next a aussi développé une extension web (pour Firefox et les navigateurs basés sur Chrome) afin d’afficher un message d’alerte sur les sites que nous avons d’ores et déjà identifiés comme GenAI parce que leurs articles nous semblent avoir, en tout ou partie, été générés par IA.
Au printemps 2023, nous avions de notre part consacré deux articles aux moyens d’identifier les textes et images générés au moyen d’intelligences artificielles. Nous avions alors constaté que les outils de détection des contenus GenAI généraient eux-mêmes de nombreux « faux positifs » (contenus créés par des humains, mais identifiés à tort comme GenAI), et « faux négatifs » (contenus GenAI, mais non reconnus comme tels).
Ceux que nous avions alors testés avaient pour la plupart failli à identifier le texte généré par ChatGPT, en français, que nous leur avions soumis. Certains détecteurs affirmaient que la probabilité qu’il ait été écrit par une IA était de 1 à 25,6 %. D’autres considéraient probable à 97 % et même 100 % qu’il ait été écrit par un humain.
De plus, cette façon de présenter les résultats, avec des « X % » surlignés de vert ou de rouge, relève de « dark patterns » (ou « interfaces truquées ») cherchant à faire croire que leurs calculs de probabilité seraient (quasi-)infaillibles.
Cette forme de « solutionnisme technologique » est une façon biaisée de traiter le problème. Comme l’a résumé le psychologue Abraham Maslow, aussi connu pour sa « Pyramide des besoins » : « J’imagine qu’il est tentant, si le seul outil dont vous disposiez est un marteau, de tout considérer comme un clou » (cette proposition est quelquefois nommée loi de l’instrument, ou « marteau de Maslow »).
De plus, les professionnels du « black hat SEO » (pour « Search Engine Optimization »), connus pour développer des techniques susceptibles de « pirater » les algorithmes des moteurs de recherches, se sont eux aussi rués sur ces IA génératives pour développer des générateurs d’articles « en vrac », optimisés pour déjouer ces détecteurs de contenus GenAI (nous y reviendrons dans un prochain article).
Une méthodologie challengée et validée par des pairs
Ces différentes limites expliquent pourquoi nous n’avons pas utilisé de tels outils, reposant eux-même sur des IA, dans le cadre de notre enquête. Nous avons, a contrario, opté pour une méthodologie, basée sur l’identification et la reconnaissance (humaine, à l’œil nu) de leurs techniques, tactiques et procédures (TTP).
Cette méthodologie a été challengée par un administrateur et une contributrice chevronnés de Wikipédia, qui avaient déjà enquêté sur de précédentes affaires de « faux nez » ayant pollué l’encyclopédie collaborative.
Comme précisé dans notre précédent article, et comme ceux-ci l’indiquent sur Wikipedia, nous leur avions confié, en novembre, une liste des 327 sites que nous avions alors identifiés comme GenAI, afin qu’ils vérifient combien étaient mentionnés dans l’encyclopédie.
Après avoir examiné les 148 sites qui y figuraient, ils n’en ont identifié que deux susceptibles d’avoir été sélectionnés à tort comme utilisant des contenus générés par IA (« faux positifs »). Ils ont donc été retirés de notre base de données.
A contrario, 105 recouraient à l’IA pour la rédaction de textes, 65 au plagiat (avec ou sans traduction, ou reformulation par IA), 81 n’avaient pas de mentions légales, ou des mentions mensongères, avec des auteurs fictifs, 51 avaient été « vampirisés » après le rachat de leur nom de domaine (alors qu’ils constituaient jusque-là des sources acceptables), 18 avaient servi à effectuer des « modifications promotionnelles » sur Wikipédia, et 7 du spam.
Vu l’ampleur des problèmes posés par ces sites GenAI, nous avons par ailleurs proposé à des journalistes de CheckNews (la rubrique de fact-checking de Libération) de nous aider à enquêter à leurs sujets. Ils nous ont, eux aussi, challengé sur quelques sites qu’ils peinaient à identifier comme GenAI, sans pour autant identifier d’autres « faux positifs » potentiels.
L’identification est d’autant plus complexe que de plus en plus de professionnels de la rédaction optimisée pour le SEO se présentent désormais comme des « rédacteurs hybrides ». Ils confient la production de leurs articles à des IA via des « prompts » personnalisés, tout en étant censés les vérifier avant publication.
Or, nous avons constaté que nombre de ces « rédacteurs hybrides » ne vérifient pas toujours leurs contenus avant que de les publier. Au point, pour certains, de mettre en ligne des informations « hallucinées » par leurs IA, et relayant donc des informations biaisées, voire erronées (nous y reviendrons).
Comment reconnaître les sites générés par des IA (GenAI) ?
Les médias et contenus synthétiques, ou « GenAI », partagent généralement tout ou partie de ces traits caractéristiques :
- ChatGPT est connu pour certains « tics de langage » et le recours abusif à certains termes, tels que : « crucial », « fondamental », « captivant », « troublant », « fascinant », « besoin urgent », « il est essentiel », « il est impératif », « nous devons », « au cœur de », « dans un monde », « dans le monde », « dans l’univers », « à l’ère de », « à l’heure de », « en conclusion », « en résumé »…
- Les contenus et articles GenAI s’apparentent souvent plus à des « rédactions » génériques voire quasi-« scolaires » qu’à des « articles » journalistiques, qui privilégient a contrario des « angles » originaux, pour se démarquer de ce qui a déjà été écrit. Ils sont souvent bardés de propos lénifiants (alors que les journalistes cherchent plutôt à « incarner » leurs articles avec des exemples précis et humains). Les fins sont marquées par des considérations générales tentant de résumer ce dont il est question, ou des « conclusions » moralisantes (typiques des contenus générés par ChatGPT et ses avatars) ;
- Leurs images d’illustration sont souvent copiées-collées des articles qu’ils plagient (sans mentionner de crédit, contrairement aux usages dans la profession, ou en les retournant à 180° pour tenter d’enrayer une recherche image inversée) ou générées par IA. Certaines, également générées par IA, sont particulièrement grossières et caricaturales, ou n’ont pas grand-chose à voir avec le sujet ;
- Les articles GenAI sont généralement signés par des initiales, prénoms ou noms ne correspondant à aucun journaliste identifiable sur les réseaux sociaux (ne serait-ce que LinkedIn). Ils disposent au mieux d’une photo de profil (souvent générée par une IA) et parfois d’un identifiant (dans l’URL) n’ayant rien ou peu à voir avec leurs (pré)noms. D’autres, a contrario, en rajoutent dans la grandiloquence et les clichés associés aux journalistes, à l’instar de ce « journaliste indépendant renommé pour ses reportages courageux, son engagement inébranlable envers la liberté d’expression et sa quête sans fin de la vérité », mais associé à une photo générée par IA ;
- Le nombre d’articles publiés dépasse souvent de beaucoup ce qu’un être humain serait capable de produire par jour (jusqu’à continuer à en publier tout au long de la nuit, week-ends et jours fériés compris). Certains tentent d’« humaniser » leurs productions, en n’en publiant que quelques-uns par jour, mais à intervalles parfois trop réguliers pour être honnêtes ;
- Les articles GenAI proposent souvent une table des matières répertoriant leurs nombreux intertitres (optimisés pour le référencement SEO), ainsi que des listes à puces ou numérotées (souvent les deux), des tableaux récapitulatifs, une FAQ et/ou un quizz en guise de conclusion, s’apparentant plus à des modes d’emploi qu’à des articles journalistiques. D’autre part, les articles GenAI débutent souvent par un « résumé » bardés d’émojis, et finissent souvent par une « conclusion » lénifiante et moralisatrice ;
- Les sites GenAI ne proposent souvent pas de page « À propos », ou arborent une version générique et bâclée ne correspondant guère aux standards journalistiques en vigueur dans la profession. Ils alignent poncifs et objectifs éditoriaux bas de gamme ou, a contrario, surjoués et accumulant les clichés au sujet des motivations des médias et des journalistes ;
- Leurs « mentions légales » renvoient généralement (pour les trois quarts des 80 sites que nous avons identifiés) à des professionnels du SEO et non à des professionnels des médias. Les autres ne mentionnent, au mieux, que leurs seuls hébergeurs, mais pas le nom de leur directeur de publication, dont la mention est pourtant obligatoire ;
- Leurs pages « contact » se bornent souvent à proposer un formulaire, ou une simple adresse mail, permettant au mieux de contacter leurs régies publicitaires, mais pas leur rédaction ni journalistes ;
- On retrouve dans certains de leurs articles des messages d’erreur indiquant que leurs textes ont été générés par des IA (tels que « je suis désolé, mais »), des Titres Dont L’initiale De Chacun Des Mots Figure En Majuscule (typiques de la presse anglophone, ET des articles GenAI), de grossières erreurs de traduction leur faisant « halluciner » des informations erronées (au point d’avancer qu’un « moteur à eau » aurait fonctionné, « pour la première fois de l’histoire », par exemple), ou encore des articles traduits dans des langues qui n’existent pas ;
- Enfin, la quasi-totalité de ces sites ne mentionne pas que leurs articles ont été générés par des IA. Quant aux articles publiés par des « rédacteurs hybrides » (à savoir des rédacteurs humains ayant recours à des IA), notre enquête a constaté que, s’ils sont censés relire leurs articles avant de les mettre en ligne, une bonne (la majeure ?) partie ne le fait pas. Ils sont en effet souvent truffés d’erreurs ou d’approximations, laissant entendre qu’ils ne sont pas non plus relus par un autre membre de leur « rédaction », contrairement aux usages en vigueur dans la profession. Les articles émanant de journalistes (humains) professionnels ne sont jamais publiés sans avoir au préalable été relus, corrigés voire (re)vérifiés par leur rédaction (théoriquement par leur secrétaire de rédaction, chargé(e) de la correction orthographique et grammaticale, ainsi que par leur rédacteur en chef, même si les organisations exactes varient).
En tout état de cause, cette banalisation des contenus GenAI montre qu’on ne peut plus « croire » ce que l’on voit, ni lit. Non content de devoir faire montre d’une vigilance accrue, au vu des torrents de désinformation auquel nous pouvons être confrontés, cette déferlante de contenus GenAI devrait nous inciter à adopter un point de vue « contrarien » ou suspicieux envers tout nouveau média apparaissant dans nos fils d’infos, et chercher à identifier s’il ne s’agirait pas d’un site GenAI.
Formateur en fact-checking depuis plus d’une dizaine d’années, l’auteur de ces lignes a pu vérifier que le meilleur moyen d’identifier les informations biaisées, voire erronées, en termes de contenus GenAI (notamment), est d’y chercher les « petits détails » et défauts susceptibles d’émaner de contenus générés. Ou, au contraire, qui ne peuvent a priori émaner que d’êtres (et journalistes) humains.
« Le web est à nous ! »
L’examen du site Lesnews.ca en est une parfaite illustration. Ayant pour devise « Le Web est à Nous ! », le site se présente comme un « média collaboratif d’information indépendant et gratuit » qui « s’engage à respecter et promouvoir des valeurs essentielles telles que la transparence, les principes démocratiques et l’humanisme ».
Une bonne partie des 1 000 et quelques sites GenAI que nous avons identifiés se drapent, eux aussi, derrière de telles présentations. Mais contrairement à ce que son extension en .ca laisse entendre, Lesnews n’est pas un site d’information canadien.
Après avoir été administré par des professionnels français du référencement (SEO), il serait géré depuis août 2024 par un « employé marketing » tunisien, assisté par une « journaliste indépendante », dont la photo de profil LinkedIn semble avoir été générée par une IA.
Son visage semble « parfait », ce qui est somme toute logique : les IA de génération de visages ont avant tout été entraînées à reconnaître et reproduire des visages, mais pas les détails afférents.
Or, ses yeux figurent au beau milieu de la photo (une caractéristique typique des visages des sites du type thispersondoesnotexist), ses cheveux sont filandreux, ses lunettes prêtent à caution, l’arrière-plan est flou (autre caractéristique des visages générés par GenAI), elle ne mentionne aucune expérience professionnelle, et son seul commentaire a trait au SEO.
Lesnews.ca est aussi le seul des 1 000 sites GenAI identifiés à préciser, en bas de chaque article, que « Nos rédacteurs utilisent l’IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs ». C’est aussi l’un des rares à mentionner l’adresse des articles qu’il paraphrase, ce pourquoi nous le prenons en exemple… de ce qui pose problème.
Car, c’est une chose que d’être transparent sur le recours à l’IA, via des articles paraphrasés. C’en est une autre de constater que cela n’empêche nullement de produire des articles bas de gamme, voire erronés, faute d’avoir été relus, corrigés et validés par un être humain dont c’est le métier.
Une absence de relecture et de validation humaine
Ce dimanche 12 janvier, à 10h45 et 16 secondes, l’un de ses contributeurs, Serge Jérôme, publiait un article intitulé « Gagnez 6 prix Infosys Science pour votre recherche ! ». Or, les six prix avaient été décernés le 14 novembre dernier, d’une part, et ne sont attribués qu’à des chercheurs indiens, d’autre part, ce que ne précise pas l’article.
Serge Jérôme se borne en outre à (mal) traduire l’article indien dont il fournit pourtant l’adresse URL. Il avance, par exemple, que les recherches de Mahmood Kooria, l’un des six lauréats, « soulignent le rôle transformateur du droit islamique dans la configuration des rivages de l’océan Indien ». Une phrase incompréhensible.
Circonstance aggravante : à la même seconde, Serge Jérôme publiait une seconde version de la traduction de ce même article indien, cette fois sous le titre « Six prix Infosys Science pour l’innovation en recherche ». Il ne précise toujours pas que le prix a été attribué à des chercheurs, même s’il reprend la même photo d’illustration.
Il souligne cette fois que les recherches de Mahmood Kooria « mettent en lumière le rôle transformateur du droit islamique dans l’élaboration des littoraux de l’océan Indien ». Sans que l’on comprenne mieux comment le droit islamique aurait pu contribuer à « configurer » ou « élaborer » un littoral quelconque.
Le site du prix Infosys précise quant à lui que les études de ce professeur « ont révélé le rôle de la loi islamique dans l’élaboration des transformations économiques, politiques et culturelles sur le littoral de l’océan Indien ». Ce qui, pour le coup, se comprend bien mieux.
De plus, l’article de Lesnews.ca se conclut par : « Article original rédigé par : Prénom Nom ». Serge Jérôme (s’il existe) n’avait donc pas donné le contexte de son article, ni vérifié la formulation de la source primaire pour rendre son article compréhensible, ni même relu ses deux articles, qui n’avaient pas non plus été relus par un tiers.
Et personne, au sein de Lesnews.ca, ne semble non plus avoir remarqué que Serge Jérôme avait publié deux versions du même article à la même seconde. Il avait aussi publié, ce même dimanche 12 janvier 2025, entre 2h10 (du matin) et 12h50, la bagatelle de huit articles.
Un robot chargé de paraphraser des articles bâclés de façon industrialisée
Depuis le 15 octobre 2024, date à laquelle il a commencé à écrire pour Lesnews.ca, Serge Jérôme a signé plus de 600 articles. Soit près de 7 articles par jour, la plupart du temps mis en ligne en pleine nuit, sans jamais s’arrêter. Pas même les week-ends ou les 24, 25, 31 décembre et 1ᵉʳ janvier.
Depuis le 9 août 2024, date à laquelle le fondateur (français) du site publiait pas moins de 21 articles en une seule journée, les contributeurs (« hybrides » ou fictifs) du site ont publié de leur côté plus de 14 000 articles paraphrasés de façon automatisée, soit 75 par jour en moyenne.
Avec, parfois, des ratés. Les messages d’erreurs publiés en guise d’articles confirment en effet que le site repose sur une IA chargée de traduire et reformuler les articles qui lui sont soumis (sans que l’on sache si ces soumissions émanent de rédacteurs humains ou d’un processus automatisé) :
« Je suis désolé, mais il semble que je n’ai pas reçu le texte à traduire et reformuler. Pourriez-vous me fournir le texte d’origine ou précisez ce que vous aimeriez que je traduise et reformule ? Cela m’aidera à vous donner la meilleure réponse possible. Merci ! »
Lesnews.ca est assez emblématique des sites d’infos GenAI : un robot chargé de paraphraser des articles de façon industrialisée, bâclée, sans personne pour relire, corriger ni valider, et donc susceptible de (re)publier des informations non vérifiées.
Des citations « hallucinées »
Sandrine Dubois, la (soi-disant) « journaliste indépendante » de Lesnews.ca, est également la responsable de publication et rédactrice en chef d’un autre site (soi-disant) participatif, ellecitoyenne.com.
Les deux sites semblent partager le même système de publication et ellecitoyenne.com repose lui aussi sur du plagiat d’articles paraphrasés. Sa rubrique faits divers comporte par exemple un article racontant comment un livreur de journaux a découvert le cadavre d’un homme d’une trentaine d’années à Alénya, une commune de 3 700 habitants dans les Pyrénées-Orientales.
Or, le journal local L’Indépendant, avait lui aussi publié la veille un article à ce sujet, illustré par la même photo que celle d’ellecitoyenne.com, qui en a retiré la mention « Abonnés » et le crédit du photographe qui l’avait prise.
Ellecitoyenne.com dénature également les propos tenus par le livreur et recueillis par la journaliste de L’Indépendant. Or, jamais un être humain, au surplus journaliste, ne saurait dénaturer une « citation » en modifiant les mots prononcés par la personne interviewée (en orange).
| « À ce moment-là, il fait vraiment noir, il n’y a pas d’éclairage public. J’effectue un aller. Et sur le retour, je sors d’un rond-point, je regarde droit devant moi et les phares de mon scooter éclairent un corps au sol. Il y a une mare de sang. Malheureusement, je ne peux pas donner de suite l’alerte, j’ai oublié mon téléphone portable. Et je suis extrêmement choqué. » | « Il faisait très noir sans éclairage public. J’ai fait un premier passage, puis au retour, en quittant un rond-point, j’ai aperçu un corps illuminé par les phares de mon scooter. Il y avait une mare de sang… et j’ai oublié de prendre mon portable pour appeler les secours. Je suis resté sous le choc. » |
A contrario, les logiciels de GenAI ont été conçus par des professionnels du SEO pour paraphraser les articles qu’ils plagient, en modifier les termes et éviter de mettre en ligne du « contenu dupliqué », pénalisé par Google qui refuse d’y apposer des publicités.
Là où cela devient gênant, c’est quand on retrouve ce type d’articles GenAI et plagiés sur Google ou, pire, sur Google Actualités, qui ne semble plus être en capacité d’identifier les articles écrits par des humains de ceux générés par des IA.
Si ellecitoyenne.com ne semble pas (ou plus ?) indexé sur Google Actualités, le moteur de recherche n’en a pas moins référencé « environ 2 340 » de ses pages (et donc articles), ainsi qu’« environ 23 400 » des pages de lesnews.ca, dont « environ 3 710 » articles sur Google Actualités.
Comme indiqué dans notre précédent article, nous avons par ailleurs développé une extension web (pour Firefox et les navigateurs basés sur Chrome) affichant un message d’alerte sur les sites dont les articles nous semblent avoir, en tout ou partie, été générés par IA.
Notre extension permet également à ses utilisateurs de nous alerter, d’un simple clic, au sujet des sites GenAI, de désinformation ou frauduleux que ses utilisateurs auraient identifiés, afin de « crowdsourcer » la mise à jour de notre base de données.
Nous serions par ailleurs preneurs de toute autre technique, tactique ou procédure susceptible d’améliorer l’identification des contenus et sites GenAI, et nous nous réservons la possibilité de mettre à jour cet article au regard de vos commentaires.
Comment reconnaître les sites (d’infos) générés par des IA ?
-
Une méthodologie challengée et validée par des pairs
-
Comment reconnaître les sites générés par des IA (GenAI) ?
-
« Le web est à nous ! »
-
Une absence de relecture et de validation humaine
-
Un robot chargé de paraphraser des articles bâclés de façon industrialisée
-
Des citations « hallucinées »
Commentaires (15)
Le 06/02/2025 à 09h33
Le 06/02/2025 à 09h33
Le 06/02/2025 à 09h54
Le 06/02/2025 à 14h14
Le 06/02/2025 à 10h02
(et pour l'extension que je vais installer de ce pas)
Le 06/02/2025 à 10h30
Le 06/02/2025 à 11h07
Le 06/02/2025 à 12h05
Le 06/02/2025 à 16h16
Oh bordel, les articles sur lesnews.ca
Ça va être infecte le web si on continue à être infesté de ce genre de sites...
Concernant les rédacteurs hybrides, je pense à un certain blog fr k*.info... bon, il ne s'en cache pas, fait des "efforts" pour retoucher ses articles, mais bon...
Modifié le 07/02/2025 à 15h20
Merci pour cette extension !
J'ai une question annexe, concernant plus précisément le plagiat.
Depuis plusieurs années, le site "https://www.malekal.com" (les
vieuxanciens connaissent) se plaint d'être plagié régulièrement de certains de ses articles (notamment ceux qui lui demandent souvent beaucoup de temps à rédiger) par le site "https://lecrabeinfo.net".Voir ici : "https://www.malekal.com/lecrabeinfo-net-recopie-t-il-et-plagiat-malekal-com"
Malheureusement, le site du crabe est mieux référencé, d'une esthétique plus agréable (quoique Malekal se soit modernisé), et comprend moins de fautes d'orthographe/grammaire.
Quelles sont les éventuelles parades ou actions possibles dans ce genre de cas ?
Le 07/02/2025 à 11h30
Modifié le 07/02/2025 à 15h36
Par contre, je ne l'ai pas rangé parmi les sites GenAI. Je n'en sais pas plus que ça.
J'ai bien précisé qu'il s'agissait d'une « question annexe, concernant plus précisément le plagiat ».
Le 08/02/2025 à 05h31
Les sites d'actu GenAI me rappellent très fortement ce que l'on appelait dans les années 2010 "les fermes de contenus", ces sites inutiles qui parcouraient le web et dupliquait n'importe comment des articles légitimes.
Le 10/02/2025 à 13h51
Modifié le 14/02/2025 à 15h49
Exemple avec ces gros bouchons de valves pour pneus de voiture en forme de "tête de mort" :
Texte original :
"Gros et lourds, c’est un coup à flinguer l’équilibrage de la roue ou à infliger une tension sur la valve à haute vitesse. Ce second point est bête quand la valve est associée à un coûteux système de surveillance de la pression du pneu. De plus, vous n’avez aucune garantie quant à la position des yeux une fois le bouchon vissé. Éventuellement pour un vélo, mais clairement pas pour une voiture !"
(c'est mon commentaire original car on me demande une expérience personnelle, ici je m'adapte à la cible plus "tuning" que lecteurs de prix Goncourt bien que l'un n'empêche pas l'autre)
C'est parti pour m'auto-plagier avec Mistral :
On remarque au passage que Mistral associe plusieurs bouchons à un seul pneu.
Reformulation 1 :
J'ai trouvé que ces bouchons de valve étaient vraiment gros et lourds. À cause de ça, ils ont complètement déséquilibré ma roue et mis une tension sur la valve quand je roulais à haute vitesse. Le pire, c'est que ma valve était connectée à un système de surveillance de la pression des pneus super coûteux. En plus, une fois le bouchon vissé, les yeux n'étaient même pas bien positionnés. Franchement, ça pourrait peut-être passer sur un vélo, mais clairement pas sur une voiture !
Reformulation 2 (soutenu):
J'ai constaté que ces bouchons de valve étaient particulièrement volumineux et pesants. En conséquence, ils ont perturbé l'équilibrage de ma roue et exercé une tension sur la valve lorsque je roulais à grande vitesse. Ce désagrément est d'autant plus regrettable que ma valve était équipée d'un coûteux système de surveillance de la pression des pneus. De surcroît, une fois le bouchon vissé, la position des yeux n'était pas garantie. À la rigueur, cela pourrait convenir pour un vélo, mais certainement pas pour une voiture !
Reformulation 3 en version "journalistique":
Lors de l'utilisation de ces bouchons de valve, on remarque rapidement leur taille imposante et leur poids conséquent. Ces caractéristiques ont pour effet de déséquilibrer la roue et d'exercer une tension sur la valve à haute vitesse. Ce problème est d'autant plus fâcheux lorsque la valve est associée à un coûteux système de surveillance de la pression des pneus. De plus, une fois le bouchon vissé, la position des yeux n'est pas garantie, ce qui ajoute une frustration supplémentaire. En somme, ces bouchons pourraient éventuellement convenir à un vélo, mais ils ne sont clairement pas adaptés à une utilisation automobile.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?