votre avatar

Liam

est avec nous depuis le 25 août 2003 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

2125 commentaires

Le 30/05/2024 à 17h 42

Et au delà de ça, il faudrait aussi voir quels sont les besoins d'un humain qui bosse, en la matière.
Bout à bout, ça chiffre aussi, pour que quelqu'un bosse... Rien que le PC pro, en matière d'eau et énergie fossile pour sa fabrication, c'est colossal. Et je ne parle même pas de tous les besoins de base, de déplacement, nourriture (même au repos, il faut manger) et son origine, vêtements de travail, et j'en passe... Ne parlons même pas des moyens de transport...
La mutualisation par la dématérialisation sera toujours la solution la plus économique en matière de dépenses énergétiques carbonées, plus le dénominateur commun est petit, plus c'est intéressant.

Pour le PC Pro, certes. Pour le déplacement vers un lieu professionnel, aussi (s'il est pas en télétravail). Pour le reste pas vraiment : à moins de considérer qu'on doit tuer ou s'abstenir de faire naître toute personne susceptible d'être improductive, les besoins de base de l'humain restent, qu'il bosse sur du code ou qu'il passe la journée à se gratter le bide.

Le 30/05/2024 à 17h 40

Comme d'hab avec l'IA, c'est chouette pour jouer dans son coin, se simplifier la vie pour des projets persos... mais si une grosse boîte se met à compter là-dessus en oubliant l'expertise humaine, à mon avis elle va au devant de sérieuses emmerdes. Ne serait-ce que parce que du code écrit par quelqu'un qui ne le comprend pas, c'est du code non-maintenable, non-débuggable, non-corrigible en cas de faille de sécurité trouvée.

Faudra payer un expert capable de relire une base de code sur laquelle il a pas travaillé en amont et c'est le genre de prestation qui va se vendre très cher sur le marché. D'autant plus cher si les experts se font rares parce qu'on n'a jamais donné l'occasion à une nouvelle génération de se faire la main en tant que junior vu que "nan mais c'est bon, l'IA s'en occupe".

Le 30/05/2024 à 17h 33

Mea cupla, à force de faire l'intelligent on (je) passe pour un con. :D:yes:

C'est une contamination de l'anglais (en anglais c'est bien decade pour décennie). Malheureusement on en est tous plus ou moins victime à des degrés divers. C'est inévitable vu comme on baigne dans un monde de plus en plus anglophone.

Le 29/05/2024 à 17h 56

SFR a été pendant plusieurs années ( voir décades) une excelente vache à lait - machine à cash.
La fiscalité Française (voir mondiale) favorisant les emprunts plutôt que le capital propre.
Cela ne posait aucun problème.
Par contre quand la source se tari, des centaines de milliers d'emplois directs indirects sont sur la selette...

Décennies plutôt. Une décade en français c'est plutôt une période de 10 jours.

GeoComix

Le 29/05/2024 à 03h 45

Donc on va multiplier les investissements, on va multiplier les acteurs, on va multiplier les cas d'usage, multiplier les DC, mais vous avez raison, ça va stagner encore très longtemps parce que ça existe depuis 18 ans, donc forcément, rien de nouveau.

Personne ne dit que ça va "stagner encore très longtemps", on n'en sait rien. Les progrès ne sont pas linéaires de toute façon. On peut avoir des progrès fulgurants en l'espace de trois mois puis 10 ans de stagnation. Comme on peut avoir des progrès plus graduels pendant 5 ans, puis 3 ans de pause, puis un nouveau breakthrough, puis... bien malin qui peut prédire l'avenir.

Moi, je répondais juste à ton "on est au début". Non, dans le domaine de la traduction, on n'est pas spécialement "au début". Dans la génération de vidéos ou de modèles 3D par IA générative, là oui on est au début. Dans la traduction, on est sur 35 ans de recherche et quasi 10 ans de solutions commerciales basées sur les CNN et RNN (Baidu propose la sienne au public depuis 2015). Des mastodontes comme Google, Microsoft, Baidu y travaillent depuis une décennie. Des startups plus agiles comme DeepL aussi. DeepL qui a développé son modèle - toujours en usage - en 2016, et a commencé la constitution d'une base de données pour l'apprentissage dès 2007, à une époque où la grande majorité des PC tournaient encore sous Windows XP.

Alors oui, à l'échelle de l'humanité on est certainement au début. Mais à l'échelle de l'informatique pas vraiment.

Le 28/05/2024 à 19h 09

Je pense que tu sais très bien ce que je veux dire et tu sais très bien qu'on est en plein dans l'explosion de l'IA donc que cela va évoluer très vite. Après, si tu veux te donner raison parce qu'il y avait un petit poil d'IA dans un outil y a 18, ok, si ca peut te faire plaisir ! :)

On est certes dans l'explosion de l'IA et les investissements sont beaucoup plus élevés qu'avant, mais je maintiens que non, l'IA dans la traduction c'est vraiment pas neuf. Même en limitant l'IA aux réseaux de neurones récurrents, c'est un des premiers domaines - peut-être le premier domaine - à avoir mis des réseaux de neurones dans ses applis. Bien avant stable-diffusion et Midjourney, et bien-sûr bien avant ChatGPT.

Toi tu as peut-être découvert les transformers, les réseaux de neurones, les IA génératives et tout le toutim il y a deux ans quand OpenAI a présenté ChatGPT. Mais dans la traduction ça fait 10 ans que c'est en place commercialement. Et j'insiste : c'est la même technologie que celle utilisée aujourd'hui (attention-based RNNs). Je parle pas de traduction statistique là.

Le 28/05/2024 à 01h 46

Pour l'instant on voit surtout les résultats produits par des IA généralistes. Faudrait voir ce que donne une IA entrainée spécifiquement pour la traduction de bouquins selon le type, l'époque, l'auteur...

C'est certain qu'on ne traduit pareil du William Shakespeare et du Terry Pratchett.

On n'en est même pas à se questionner sur traduction de Shakespeare vs. Pratchett. On en est pour l'instant encore à essayer de faire comprendre à DeepL que non, "largely" au sens de "en grande partie" ou de "fortement" ne se traduit pas par "largement" quand on est sérieux. Ou à GPT4o que oui, bien sûr, littéralement "to posture" c'est se positionner, mais qu'au sein d'une phrase pour signifier que quelqu'un prend une position publique pas tout à fait sincère, il vaut mieux reformuler. Ou que oui, "current" signifie "actuel", mais que dans une phrase exprimée au futur ça colle pas trop et que là encore il vaut mieux reformuler.

Franchement, faut pas les laisser traduire sans surveillance même des textes simples, actuels et écrits dans un langage neutre, si on veut un résultat pro et publiable sans honte. Faut systématiquement qu'une personne réellement bilingue et avec de vraies compétences en traductologie repasse derrière, et c'est long.

Après pour un usage interne et comprendre le sens général d'un texte, oui ça fait l'affaire. Mais pour l'instant ça s'arrête là. Pour moi, une boîte qui publie des bouquins traduits par l'IA ne mérite pas le titre d'éditeur.

Le 28/05/2024 à 01h 03

Bah pour moi ça confirme juste que c'est le début 🙂

Ça dépend à quelle échelle tu te situes. Mais 18 ans dans le domaine de l'informatique c'est pas exactement une petite période.

Le 27/05/2024 à 18h 34

Même chose dans la traduction. Il y a une forte demande pour de la MTPE (machine translation post-edition, repasser derrière la machine quoi) où il faudrait tout reprendre, mais c'est payé au prix d'une relecture.

La plupart des traducteurs font dans ce cas savoir au client qu'il faudrait tout reprendre mais que comme ils sont pas payés au tarif d'une traduction (et que souvent ils ont pas la deadline appropriée non plus), ils vont juste corriger le plus gros, mais que le texte restera très mal écrit. Hélas, comme tout le monde a besoin de bouffer, les agences finissent parfois par tomber sur le mec un peu plus désespéré que les autres, qui va accepter de tout refaire pour un tiers du prix normal.

Le 27/05/2024 à 18h 29

Ça me paraît dingue d'utiliser l'IA aujourd'hui pour traduire des bouquins, faut avoir aucune espèce de respect pour la qualité (et pour ses lecteurs). Non seulement il y a régulièrement des erreurs grossières - bon, ça encore, tu peux le rattraper in-extremis en faisant relire. Le plus souvent, l'IA ne respecte même pas les normes typographiques de base qui ont normalement court dans l'édition (guillemets français, espaces insécables avant les double-signes de ponctuation, espaces fines le cas échéant, crochets à l'intérieur des parenthèses, etc.). Bon, ça encore, tu peux le faire corriger presque automatiquement avec un bon logiciel (faut quand-même un humain pour vérifier qu'il y a pas de problème de guillemets imbriqués ou autres)

Mais plus globalement les traductions par l'IA ont un problème plus large de style. Toutes les traductions sonnent... ben... traduites, justement. Ça ressemble au genre de traduction qu'on fait en 1ère année d'études de langues, ou quand un texte est traduit en français par une personne dont le français n'est pas la langue maternelle.

C'est plein d'anglicismes, de tournures bizarres, d'expressions idiomatiques traduites littéralement, l'adaptation culturelle est inexistante, tout humour ou trait d'esprit se perd en chemin (et ne parlons pas des jeux de mots)... De plus, l'IA est globalement incapable de garder une cohérence de long terme, que ce soit en terme de glossaire, de choix des temps, de respect des genres ou de style. Et ça c'est pas le genre de trucs qui se corrige en vitesse. Repasser derrière l'IA et réécrire proprement, c'est souvent autant voire plus long que de traduire directement. Non parce que le premier brouillon "naïf", un traducteur expérimenté le fait à peu près en temps réel à mesure qu'il lit. Ce qui prend du temps, c'est les "finitions" justement.

Alors, je comprends que les bouquins de développement personnel c'est pas de la grande littérature, mais tout de même... quand je pense que les traductions de simples articles de journaux par l'IA sont souvent loin d'être parfaites (c'est généralement très compréhensible, mais "pas pro"), j'ose pas imaginer la gueule du bouquin entier traduit de la sorte.

Le 27/05/2024 à 18h 05

Oh ben de toute façon pour les traducteurs le système social, même avant Macron, il était pas glorieux : la plupart des traducteurs sont freelance, donc pas de chômage, quasiment pas d'indemnités journalières, etc.

Le 27/05/2024 à 18h 03

Soit l'IA va s'améliorer, et fera le job de mieux en mieux. Ce qui me semble réellement à sa portée pour le coup, il ne faut pas oublier qu'on est qu'au début...

On n'est pas vraiment aux débuts de la traduction via l'IA. Google Traduction est en ligne depuis 18 ans et utilise des réseaux de neurones depuis 2016. DeepL est en ligne depuis 2017 et continue à faire des erreurs grossières (rien que dans le précédent article de NXI sur la pétition des comédiens de doublage, il avait traduit "voice talents" par "chanteurs").

Sur fond bleu, les lettres "IA" écrites en blanc sont barrées d'un signe interdit, en rouge. Devant, une main tient un micro. Sous l'image, le hashtag #TouchePasMaVF.

Le 27/05/2024 à 01h 42

Je pense aussi qu'un bilan serait utile avant de définir une politique générale de l'emploi (car oui cela relèvera d'une planification, un concept devenu étrange en politique).

Personnellement, plutôt que de mettre au chômage un ingénieur ou un tourneur-fraiseur, peut être qu'il serait plus sain pour la société dans son ensemble de questionner les bullshit job, les consultants de tous poils, les experts de tous horizons, le management excessif et assimilé, etc etc.
Bref tous ces fonctions qui ne produisent rien, qui infectent les entreprises et les services publics ou de l'Etat et qui sont parfois à l'origine de bien de maux mais qui ne rendent jamais compte de leurs actions.


L'IA pourrait les remplacer aisément ces nuisibles sans qu'ils manquent à la société.

Si on a besoin de l'IA pour les remplacer, c'est probablement qu'ils font un truc. Il faut se méfier du réflexe de se dire "je comprends pas ce qu'ils font, donc c'est que ça doit servir à rien." Un paquet de mauvais dirigeants d'entreprise ont coulé leur boîte en virant des gens dont ils ne comprenaient pas l'utilité, mais qui en pratique étaient vitaux pour que les travailleurs "directement productifs" puissent bosser correctement.

Le 24/05/2024 à 19h 32

Je comprends mais cela participe du même principe et de la même intention que pour les personnes peu diplômées.
Les personnes peu ou pas diplômées représentent un volume important de la société, sans commune mesure avec des diplômés bac +5 et >.
Qui plus est, on peut estimer raisonnablement que la reconversion d'un ingé ( par son réseau, ses capacités personnelles, ..) est plus simple que celle d'un télégraphiste ( réseau limité, formation trop spécialisée,..).

Au final, la destruction de métiers et d'emplois impacterait beaucoup plus les peu qualifiées que les diplômés.

C'est vrai et ça a posé son lot de problèmes, les régions très industrialisées ne s'en sont pas totalement remises. Mais on a plus ou moins géré le truc, au moins pour les générations d'après, en massifiant l'enseignement supérieur. Le truc c'est que maintenant que l'enseignement supérieur est déjà massifié, je vois pas bien quelle pourrait être la nouvelle étape pour créer de nouveaux jobs.

En très résumé, on a dit aux gens "ok, les machines feront les objets ou feront du service à votre place, mais vous pouvez encore diriger les machines". Ça a plus ou moins bien marché, on s'en est sorti avec de la casse. Maintenant, si les machines se dirigent toutes seules, non seulement dans l'industrie mais aussi dans le service, je sais pas trop où on va.

Quand l'automatisation est arrivée dans le secteur primaire, l'agriculture, ça a été l'explosion du secondaire, l'industrie. Et quand l'automatisation est arrivée dans l'industrie, ça a été l'explosion du secteur tertiaire. Une fois le tertiaire automatisé, c'est quoi le quaternaire vers lequel on est censés aller ?

Avant de poser la question de "comment on forme des millions de personnes qui perdent leur boulot", il me semble que la question à se poser c'est déjà "à quoi on les forme ? Quels sont les métiers non-automatisables qui sont prêts à accueillir des millions de nouvelles mains ? Est-ce qu'un tel secteur existe seulement ?"

Le 23/05/2024 à 22h 57

Mais je ne parle pas de la qualité ni du jeu d'acteur. Je parle de la personnalité de la voix. Une Brigitte Lecordier, un Christophe Lemoine, un Frédéric Souterelle, une Dorothée Pousséo, un Éric Legrand... ce sont des Voix. Ce sont des personnes qui ont quelque chose qui leur est propre, qui se démarque (même si certain ont une large gamme de jeu),

La voix de Benoît Allemane, c'est du bonheur à écouter. Il a une vibration, dans sa voix qui est magnifique.

Et aujourd'hui, ce genre de voix avec une forte personnalité, ça disparait.

Je le redis mais je pense que c'est en partie une question de traitement qui donne une couleur semblable à toutes les voix. Si tu entendais les voix "brutes" tu les distinguerais sans doute davantage.

Mais je trouve qu'il reste de bonnes voix. Et au risque de commettre un blasphème envers toute la génération Y, je trouve qu'il y a aujourd'hui des voix d'enfants plus talentueuses que Brigitte Lecordier, qui a l'air d'être une personne absolument géniale et adorable, mais qui, soyons honnête, a donné exactement la même voix à tous ses personnages, de Oui-Oui à Goku.

Une Cécile Gatto n'a rien à envier à une Brigitte Lecordier à mon sens. Geneviève Doang est également excellente. Et la génération d'après la nôtre te parlera avec nostalgie et un tremblement dans la voix de Donald Reignoux. Un point à pas négliger, c'est qu'une partie des voix que tu cites (tu aurais pu citer Féodor Atkine aussi), tu as grandi avec. Alors que la jeune génération tu avais déjà un certain âge, ça te touche forcément moins.

Le 23/05/2024 à 20h 42

J'ai signé la pétition, mais je trouve que ça aurait été bien de voir plus large que ça. A minima, c'est toute l'industrie artistique qui est aujourd'hui concernée. Alors oui, je trouve qu'il n'est ni juste de cloner les voix des comédiens pour les remplacer, ni souhaitable en tant que consommateur d'œuvres de perdre l'aspect "connexion humaine" par la voix. Donc je suis d'accord avec la pétition. Donc j'ai signé.

Mais au delà des voix, j'aurais aimé un mot pour les graphistes, les animateurs, les artistes 3D, les traducteurs, les musiciens, tous menacés à toute aussi brève échéance. Là, ça fait un peu tirage de couverture à soi et "après nous le déluge".

Le 23/05/2024 à 20h 37

"Avant c'était principalement les métiers peu diplomant qui étaient impactés par l'automatisation.
Si maintenant on ajoute énormément d'autres métiers remplacés par des IA, il va falloir apporter des réponses sociétales car tout le monde ne pourra pas se reconvertir."

Si j'ai bien saisi ton propos, auparavant l'avenir des gens peu qualifiés était, disons, peu intéressant au point souvent d'éluder la question et d'abandonner ces populations plutôt à leur sort.
Mais maintenant que ce 'progrès' impactera aussi des individus diplômés (donc beaucoup de lecteur ici), ils conviendraient de s'en préoccuper.

Sans vouloir polémiquer plus que ça, je trouve ta phrase intéressante.

C'est surtout qu'avant, on disait que la solution au fait que les métiers peu diplomants disparaissent, c'était de faire monter en compétence toute la société. D'où la démultiplication des études longues, la massification de l'enseignement et même de l'enseignement supérieur, etc.

Ça posait déjà quelques problèmes, comme le fait que certains n'étaient pas trop à l'aise avec les études longues, ou le fait que les gens commençaient à travailler de plus en plus tard et restaient dépendants de leurs parents ou de la collectivité plus longtemps. Mais bon an mal an, on s'en sortait plus ou moins.

Si maintenant même les bac+5 et les bac+8 se font remplacer, on voit pas trop ce que les nouvelles générations vont pouvoir faire à la place. Ni même comment motiver les gosses à travailler à l'école.

Le 23/05/2024 à 20h 32

Je suis d'accord avec toi. C'est un énorme problème de société à résoudre et cela ne concerne pas que l'IA mais la robotisation, l'automatisation au sens large.

Il va falloir arrêter de parler de la "valeur travail". Il va falloir dissocier revenu et travail. Les efforts pour diminuer le chômage vont être réduits à néant.

Le revenu universel (relativement élevé puisqu'il sera difficile d'améliorer ce revenu avec du travail) est forcément une piste et il va falloir l'alimenter avec les revenus générés par tous ces automatismes.
Il va falloir que les gens s'occupent d'une façon ou d'une autre;

Et j'oublie probablement plein de choses.

Par contre, pour l'IA, je ne sais pas trop quand ça va se passer, mais c'est important d'y réfléchir maintenant.

Le revenu universel, moui, mais c'est quand-même un peu un pis aller.

Je préfère vivre de mon métier, que je fais avec une certaine dose d'amour, que de l’aumône que me verseront de plus ou moins bon gré les techbros milliardaires qui possèderont toutes les IA.

Accessoirement j'ai la faiblesse de croire que pour les métiers un tant soit peu artistiques, le fait que ce soit fait par un humain est une qualité en soi. Que même si l'IA donnait exactement le même résultat, ce sera jamais aussi bien juste parce qu'il n'y a plus cette connexion entre deux humains, celui qui crée et celui qui reçoit.

Le 23/05/2024 à 20h 27

Pour toi, peut-être mais en fait : Doubleur voix.

Je sais pas si le CIDJ est une source très solide. Tous les comédiens de doublage te diront "je ne suis pas doubleur", ils détestent même qu'on les appelle des doubleurs. Ceci dit, il semble que ton voisin du dessus se fourvoie également.

Selon le glossaire de l'Association des Traducteurs/Adaptateurs de l'Audiovisuel, "Contrairement à une idée répandue, le terme ne désigne ni un auteur* de doublage, ni un comédien de doublage (que l’on désigne sous le simple terme de « comédien »), mais l’entreprise de postproduction chargée du doublage d’une œuvre audiovisuelle."

(Source)

Le 23/05/2024 à 20h 22

Ce n'est pas la qualité du doublage ici que je fais remarquer, c'est la standardisation des voix. Je trouve que les voix n'ont plus de personnalité, c'est "random doubleur n#15, voix masculine, suave" qui a fait la voix d'untel. Et a priori, ça vient du fait que parier sur une voix très marquée, ce serait prendre un risque de ne pas plaire. Du coup, les doublages privilégieraient des voix passe-partout.

Je pense que ce n'est pas qu'une question de voix mais aussi une question de traitement du son. Les voix ne sont pas conservées brutes mais sont fortement traitées (equalisées, compressées, nettoyées...), à la fois pour des raisons techniques et pour leur donner une "couleur" et je pense que ça joue aussi pas mal dans cette ressemblance des timbres.

Reste le jeu d'acteur. Il y a parfois des fulgurances. J'ai été bluffé par le jeu d'acteur dans la VF d'A Plague Tale, par moments tu sentais une détresse dans la voix qui paraissait carrément sincère, limite à te demander si c'était uniquement de l'acting. Par contre les guests dans le 2 sont en dessous de tout. J'ai connu des meilleurs jeux d'acteur au club théâtre de mon lycée de petite bourgarde de province que chez certains guests.

Le 23/05/2024 à 20h 17

Je trouve que les comédiens de doublages FR "lip sync" sont rudement doués.

Mais dans le jeux video, c'est pas du lip sync. On leur donne des pages de répliques à lire devant un micro, et l'enregistrement sera découpé/édité et intégré plus tard. Donc c'est des bouts de dialogue qui sont prononcés hors-contexte de l'animation. Difficile pour un comédien de faire un travail d'interprétation.

Le pire reste tout de même le doublage pour les films, où les producteurs préfèrent sélectionner des gens connus (car ils pourront faire la promotion sur les plateaux TV) mais sans réelle expérience de doublage.

Exemple récent "Mars Express". Le doublage m'a fait plusieurs fois sortir de l'histoire tellement il ne colle pas aux images.

Et spoiler : c'est très probablement pareil en anglais mais on s'en rend moins compte parce que c'est pas notre langue maternelle.

Winamp

Le 24/05/2024 à 02h 38

VLC en audio je le trouve vraiment pas top. Assez lourd, assez lent, et à ma connaissance ne gère toujours pas le gapless correctement.

En comparaison Winamp est tellement léger et rapide que je ne cherche même plus à gérer des playlists. Je met à la suite et il enregistre au fur et à mesure. Ma "playlist" actuelle fait plus de 6000 titres et charge instantanément.

TikTok

Le 24/05/2024 à 02h 21

Je pense que tu confonds la GenY/Millenial avec la GenZ, voire peut-être les premiers de la génération suivante. Aujourd'hui la GenY a, dans sa quasi-totalité, la trentaine voire un début de quarantaine. Les plus jeunes ont 28 ans (on considère généralement qu'elle va de 1980 à 1996). Elle a grandi avec un PC de bureau, sous Windows 9x voire sous MS-DOS, a joué à Duke Nukem 3D et pour ce faire a dû se faire un autoexec.bat et un config.sys custom. Elle a fait son site perso avec Frontpage Express ou Namo Web Editor qu'elle a hébergé sur multimania.com/kikir0x0rdu39 ou sur kikir0x0rdu39.free.fr, ou à la limite pour les derniers elle a participé à la génération blogs (skyblog, canalblog, overblog...).

Ce n'est plus franchement la jeunesse et elle n'est pas née avec un smartphone et des réseaux sociaux dans les mains.

Eh oui... on se fait vieux. :pleure:

Le 20/04/2024 à 01h 13

Toujours la méthode habituelle: dire qu'ils l'ont bien cherché et renverser les roles de victimisation.

Si les filles se font harceler dans la rue, c'est de leur faute parcequ'elles s'habillent trop sexy.
Si les internautes se font cyber-harceler, c'est de leur faute car ils ont osé donner leur avis.

Selon le point de vue, on peut se demander de quel côté est l'inversion accusatoire... On pourrait te rétorquer que l'inversion accusatoire, elle commence peut-être quand les employés d'une entreprise décident de harceler le représentant d'un mouvement de consommateurs légitime (car quelles que soient leurs raisons, bonnes ou mauvaises, des consommateurs ont droit de refuser de faire affaire avec une entreprise et de s'informer mutuellement des produits dans lesquels elle est présente), avant de se mettre à crier au harcèlement quand ils reçoivent un retour de flamme pour ce comportement.

La technique typique des cry-bullies.

Pour être clair, je pense que faire de Sweet Baby un genre de croque-mitaine du jeu vidéo est puéril, passablement délu, probablement l'action d'un post-ado avec beaucoup trop de temps à perdre, et que le boycott est totalement risible. N'empêche que c'est leur problème, s'ils ont envie de boycotter les jeux auxquels Sweet Baby ont participé, d'expliquer pourquoi ils le font, et de faire la liste des jeux à boycotter, ils ont le droit de le faire sans que la boîte ou ses employés tente de prendre des mesures de rétorsion du type "faire sauter son compte Steam via un mass-report non justifié". Je trouve que la mesure de rétorsion envers un particulier relève beaucoup plus du harcèlement ciblé que le groupe Steam qui a entraîné cette réaction rageuse.

Et franchement, défendre le droit d'une boîte à utiliser des techniques de mafieux contre un mouvement de consommateurs et contre un particulier sous prétexte que ladite boîte se la joue Grands Chevaliers du Progressisme™, c'est vraiment pas la hot take de gauche que tu crois que c'est.

logo apple en devanture de boutique

Le 15/04/2024 à 18h 06

La citation complète est :

The GBA4iOS codebase is distributed under the GNU GPLv2 license. That being said, I explicitly give permission for anyone to use, modify, and distribute my original code for this project without fear of legal consequences — unless you plan to submit your app to Apple’s App Store, in which case written permission from me is explicitly required.


Et c'est là que les problèmes commencent ! Le texte en plus de celui que tu as cité est mal foutu.

1) il commence par autoriser ce que la GPL V2 autorise déjà : utilisation, modification et distribution.

2) il met une limite à la distribution sur l'Apple App Store qui est d'avoir son autorisation écrite.

Mais la GPL V2 est plus permissive que cette restriction et il a dit que son code était distribué sous GPL V2. Donc sa restriction est en contradiction avec la première phrase. Cette restriction me semble inefficace. Elle l'aurait été s'il avait faite dans la même phrase et encore, je n'en suis pas sûr. Voilà ce que c'est quand un développeur, lycéen qui plus est, joue avec les licences logicielles, il se plante.

C'est effectivement mal rédigé, mais sur le principe, il me semble que le principe de double-licence ne pose pas de problème.

La GPL interdit les restrictions, mais encore faut-il que tu possèdes une licence sous GPL du code source. Or, si tu prévois de mettre sur l'App Store, il ne t'octroie pas de licence GPL. Trolltech fait ça avec Qt depuis une éternité par exemple.

Fibre optique

Le 18/03/2024 à 00h 56

Non, non, au début de free mobile il y avait vraiment certains sites mobiles qui étaient en souffrance (j’imagine que le but était uniquement de couvrir).
Le truc c’est que ça date d’il y a tellement longtemps que je ne retrouve plus d’articles.

Si ma mémoire est bonne ce n'était pas de l'ADSL mais du SDSL (et ils n'étaient pas les seuls à le faire). Je sais pas pourquoi mais je crois me souvenir d'une histoire de 4 liens SDSL 5Mbps par antenne (soit un débit de 20Mbps symétrique). Et côté radio c'était de la 3G, pas de la 4G.

Le 18/03/2024 à 00h 47

Les 300, c'est juste une limitation commerciale bas prix pour Orange, pas du tout une limitation technique de l'infrastructure, pareil pour les 400 chez Bouygues et les 500 chez Drahi.

C'est vrai mais pas vraiment un argument. L'ADSL était du haut-débit à 512kbps en son temps alors que la technologie permettait de monter jusqu'à 8Mbps, la limite à 512 était une limitation commerciale (et avant le dégroupage, il fallait payer quasiment le double pour du 1024).

Je pense qu'il est plus pertinent de regarder les usages. Qu'est-ce qu'on peut faire avec une connexion 512kbps ? 5Mbps ? 10Mbps ? 30Mbps, 100Mbps, 1Gbps, 8Gbps ?

Le 07/02/2024 à 20h 48

C'est justement là que le dosage va avoir son importance. Il faut effectivement oublier tout de suite un remplacement entier ou de le faire sur des éléments trop "critiques" du scénario, mais des petits placements bien sentis peuvent s'avérer judicieux. On verra bien ce qu'ils nous sortent avec ça...

Oui s'il s'agit d'avoir des variations de "Que puis-je faire pour vous ?" de la part du marchand d'armes, ça peut faire l'affaire, ce serait sans doute mieux que le truc répétitif du PNJ marchand qui répète la même phrase à l'identique sur le même ton chaque fois que tu vas lui parler. Mais pour des dialogues susceptibles d'avoir une quelconque importance scénaristique, je pense que ce serait un recul plutôt qu'un progrès par rapport à des dialogues bien écrits.

Le 07/02/2024 à 18h 15

L'exemple que tu donnes dans ton deuxième paragraphe ça me semble au contraire vraiment pas terrible. Parce que tu vas remplacer des dialogues bien écrits et mémorables par des trucs génériques, souvent écrits avec le cul (franchement GPT est un très mauvais auteur de fiction, tout ce qu'il écrit est tarte au possible), je suis pas sûr que l'immersion y gagne. Les PNJ vont perdre en personnalité et la narration s'en trouvera affaiblie plutôt que renforcée.

Le jeu vidéo d'aventure ou le RPG, c'est, à mon sens, profondément une œuvre littéraire. Et pour l'instant les IA n'ont pas démontré du tout leur capacité à écrire de meilleures œuvres littéraires que les humains dotés d'un minimum de talent.

Le 07/02/2024 à 18h 09

C'est le problème d'une gigahype, tout le monde veut coller de l'IA partout, même quand c'est pas pertinent et avec des technos pas mûres.

illustration d'une personne manipulée comme une marionnette par une IA

Le 23/01/2024 à 02h 26

En fait la problématique est bien plus à rapprocher des anciens "made for adsense".

Pour rappel, il s'agissait de sites conçus exclusivement pour générer du trafic pour afficher des pubs adsense en faisant un minimum d'effort. Une solution courante était de pomper allègrement des articles d'un peu partout et, pour berner l'algo anti-duplication de contenu de Google, utiliser un algo qui remplaçait des mots à l'aide d'un dictionnaire des synonymes.

Ça faisait du contenu qui n'avait aucun sens pour un humain (car les synonymes ne sont que rarement des correspondances parfaites, par ex. "les clients dénoncent une pratique honteuse" pouvait devenir "les prospects mouchardent une routine embarrassée") mais ce n'était pas vraiment le but de toute façon. Il s'agissait juste de générer beaucoup de trafic très vite, d'imprimer beaucoup de pubs, puis de disparaître et d'être remplacé par un autre site bidon. D'où le terme "made for adsense" (par opposition à "made for humans").

Ce qu'on voit là c'est une resurgence un peu modernisée et un peu plus subtile de ces pratiques.

L'ennui c'est qu'avec suffisamment de subtilité, ces sites bidons sans valeur ajoutée peuvent devenir plus difficiles à distinguer d'un site ayant une vraie démarche journalistique pour un œil non averti. Il y a donc un "vol de valeur" qui peut effectivement mettre en péril la santé financière déjà fragile (NXI en sait quelque chose) des organes de presse en ligne, en détournant du trafic.Car il suffit pas de grand chose pour couler la presse en ligne en ce moment. La rentabilité se joue souvent à quelques pourcents de CA de plus ou de moins.

Logo de Google sur un ordinateur portable

Le 18/01/2024 à 19h 15

L'entreprise va devoir y intégrer les résultats d'autres sites de comparaisons de prix :


Le retour du Prixdunet ? :D

un caddie dans un supermarché.

Le 18/01/2024 à 19h 14

Le terme de caisse auto est de base une arnaque... ces caisses ne sont pas tellement plus automatiques qu'une caisse standard. C'est juste que vous faites le boulot à la place de la caissière. En France, les seules caisses qui peuvent se vanter d'une certaine automaticité sont celles de Décathlon, et encore. Sinon, il faut scanner les articles manuellement, valider le total manuellement, payer manuellement... comme sur une caisse normale. La seule raison pour laquelle ça permet d'économiser des salaires de caissière, c'est que c'est le consommateur qui devient la caissière.

Et du coup c'est pas plus rapide, parce que vous êtes bien moins entraîné qu'elle à scanner vite. Elle en voit tellement passer qu'elle sait exactement où trouver le code barre de chaque objet, elle a même pas besoin d'y réfléchir, c'est un automatisme. Vous retournez 5 fois le produit pour retrouver le code barre. Donc non, on gagne pas de temps. Par contre la grande surface y gagne un peu de marge, mais probablement même pas tant que ça vu que ça favorise pas mal certains types de vols.

Le 17/01/2024 à 06h 09

Même avis. L'article précise bien que la crispation n'est pas aussi élevée côté droit des marques que côté artistique mais passe un peu vite sur le point, alors que la distinction est majeure à mon sens. Une photo de sac à main n'est pas une contrefaçon de sac à main. Au pire elle peut servir à vendre des contrefaçons, mais jveux dire... prendre une photo d'un sac Hermès pour vendre des imitations aussi. Alors qu'une image peut être une contrefaçon d'une autre image.

Le 17/01/2024 à 06h 06

"les deux juristes estiment peu probable"

Pas vraiment la même connotation. "Peu probable" insiste sur la fait que la probabilité est faible, alors que "pas improbable" insiste sur le fait que la probabilité, sans être ultra élevée, reste quand même significative.

La proposition de GruntZ "estiment possible" me semble meilleure. Ou "estiment plausible".

Le 17/01/2024 à 06h 05

Parce qu'il y a une différence entre une chose pas improbable (=elle peut arriver même si la probabilité peut être faible voire quasi nulle) et une chose probable (=elle a de fortes chances d'arriver).

Le terme "improbable" exprime déjà une probabilité faible ou quasi nulle (sinon on utilisera plutôt le terme "impossible"). "Pas improbable" signifie une probabilité un peu plus élevée que juste faible, mais pas non plus nécessairement une probabilité élevée. C'est un terme un peu flou pour dire "je sais pas trop jusqu'à quel point c'est plausible, c'est loin d'être certain mais c'est loin d'être négligeable aussi" je dirais.

Le 17/01/2024 à 05h 32

C'est différent : iStockPhoto met des œuvres à disposition du public, pas Midjourney (ou quand il le fait, c’est sous le statut d'hébergeur).

En plus, je ne suis pas sûr de ce que tu affirmes. S'ils ont le statut d'hébergeur (je ne sais pas dire si c'est le cas), ils ne sont responsable pénalement que s'ils ne réagissent pas quand on leur indique que l'œuvre appartient à quelqu'un d'autre que celui qui leur a soumise.

Je pense que ni l'un ni l'autre n'ont le statut d'hébergeur. Les hébergeurs sont des intermédiaires techniques ayant pour seule mission le stockage de données fournies par des tiers utilisateurs. Ce n'est a priori ni le rôle (principal) d'iStockPhoto, ni celui de Midjourney. Ils seront au maximum hébergeur de leur propre site "boutique" ou vitrine, mais ça s'arrêtera là.

Le 10/01/2024 à 18h 53

La ressemblance imparfaite avec l'original, c'est un problème vieux comme la contrefaçon. Mais globalement, le fait qu'il y ait des différences à la marge ne suffit pas à échapper à la contrefaçon. Si le produit supposé contrefait reprend les principales caractéristiques de l'original, c'est généralement considéré comme de la contrefaçon même s'il y a des différences. C'est pas parce que tu changes le sens de la moustache de Mario et que tu lui mets une salopette jaune que tu as le droit de vendre des peluches "Super Ramio Bros".

Voir, dans un domaine tangent, ce jugement de la cour de cassation : https://www.nomosparis.com/la-contrefacon-sapprecie-au-regard-des-ressemblances-entre-les-oeuvres-et-non-des-differences/

EDIT: Help comment on fait des liens dans le nouvel éditeur.

Le 10/01/2024 à 18h 47

Cela n'empêche pas qu'ils vendent un service et pas des œuvres.

iStockPhoto dit pareil mais ça n'empêche que si les photos proposées sont volées, ils seront responsables pénalement.

Le 10/01/2024 à 18h 45

Quid des SaaS ? Vu que ton office ou photoshop va tourner dans le cloud, tu ne fais alors que donner des ordres à une machine distante (ex: dessiner une vague blanche sur un fond rouge), donc les machines d'Adobe ou crosoft vont te générer ce contenue qui peut enfreindre le copyright, et tu paye bien ce service... Je ne vois pas de grandes différences, des cliques souris pour ton outils ou du texte pour ton IA ça reste des directives...

A priori, tu exécutes, seul, les manipulations arrivant au résultat final.

Si tu fais toi-même les calculs statistiques/probabilistes de débruitage de l'image sur une machine distante, la machine distante ne sera vraisemblablement pas coupable de contrefaçon juste parce qu'elle t'a fourni une calculatrice en ligne. Mais là, c'est bien Midjourney qui choisit, seul, de faire les calculs aboutissant au résultat. A priori sans même que tu lui ais donné l'ordre d'arriver à un résultat contrefait (le prompt utilisé étant beaucoup plus générique que cela). Ça va être difficile d'invoquer une "jurisprudence SaaS" dans ce contexte àmha.

Le 05/01/2024 à 20h 54

Comme je l'ai dit plus haut (#12), pour bien comprendre ce qu'il s'est passé, il faudrait avoir les prompts ayant généré ces images. Je les ai demandés mais je n'ai pas (encore) eu de réponse. C'est pourtant facile de les fournir ici puisque c'est Next qui a fait générer les images.

J'ai demandé à Google image "animated toy" et la 17 ème image est une image correspondant à Toy Story : https://resize-europe1.lanmedia.fr/r/622,311,forcex,center-middle/img/var/europe1/storage/images/europe1/culture/trois-raisons-qui-prouvent-que-toy-story-a-revolutionne-le-film-danimation-3471521/44791538-1-fre-FR/Trois-raisons-qui-prouvent-que-Toy-Story-a-revolutionne-le-film-d-animation.jpg

Les images précédentes sont pour beaucoup des images de jouets de cartoon (dessins animés). Comme animated correspond aussi au sens animé de film d'animation, c'est assez cohérent.

J'en conclus que sans connaissance précise du prompt, il est difficile de conclure, mais avec un prompt très court, on peut probablement tomber sur des jouets de dessin animés ou des jouets animés.

Le créateur de l'image est normalement celui qui fournit le prompt. Mais avec un prompt trop court, on ne maîtrise plus la sortie et il ne sort que des trucs proches des plus "vus" lors de l'entraînement.

Le créateur de l'image est normalement celui qui fournit le promp


C'est peut-être ce que dit Midjourney pour se défendre, mais en droit ça me paraît archi-contestable. C'est pas parce que tu donnes les ordres que c'est pas leurs machines qui produisent l'image en faisant les calculs. Le prompt, c'est juste une consigne. Un producteur de contrefaçon peut difficilement se défausser sur le commanditaire au motif que c'est le commanditaire qui a donné la consigne de produire le truc. A fortiori si commanditaire a juste demandé "une peluche mignonne" et que tu as produit un pikachu de ta propre initiative.

Le 05/01/2024 à 20h 47

Midjourney ne vend pas l'image qui viole le copyright, juste l'outil. Encore une fois, aucune violation de droit de la part de midjourney, c'est seulement rendu possible à l'utilisateur.
C'est un outil.

Une usine aussi est un outil, n'empêche que si une usine se met à fabriquer des casquettes pikachu sans licence Nintendo, même si c'est toi qui les a commandées, et même si tu as fourni le design, elle risque de menus ennuis, et c'est bien normal.

À part pour stable-diffusion exécuté en local sur ton PC, faut pas oublier que c'est pas toi qui possède l'outil et fabrique les contrefaçons : c'est Midjourney, Stability AI et OpenAI qui les fabriquent sur leurs machines, et ensuite te les transmettent. Ce qui en soi représente d'ailleurs probablement une contrefaçon, en tant que "reproduction, représentation ou diffusion, par quelque moyen que ce soit, d'une oeuvre de l'esprit en violation des droits de l'auteur".

Le 05/01/2024 à 20h 39

Je ne cherche pas à défendre midjourney ou consort, mais il s'agit d'outil ni plus ni moins, Si je copie chez moi Pikachu avec un stilo "bic" et que je vends mon "oeuvre" la Pokemon m'attaquera moi pas "BIC".

Si tu fais tourner l'algo en local sur ta machine, la comparaison est pertinente. C'est possible avec stable-diffusion. Mais pour Midjourney et Dall-E c'est pas vraiment toi qui produit le truc avec ton outil, tu te contentes de donner une consigne et ce sont OpenAI et Midjourney qui produisent le truc pour toi, avec leur outil.

Si tu veux faire une comparaison, qui sera toujours imparfaite mais se rapprochera déjà un peu plus de la situation, c'est comme si tu faisais fabriquer des casquettes Pikachu par une usine, qui sait pertinemment que ni elle, ni toi ne possédez la licence pour faire des casquettes Pikachu. Est-ce que l'usine est au moins complice de la contrefaçon ? À vue de nez je dirais oui, en tout cas en France ce serait a priori de la complicité par fourniture de moyens.

Le 04/01/2024 à 20h 56

Midjourney ne vend pas le résultat. Il vend un service (ou l'offre pour certains). En terme commercial, c'est assez différent.

C'est très clair dans leurs ToS : https://docs.midjourney.com/docs/terms-of-service

Ils disent clairement que les créations que tu as générées t'appartiennent.
Ils sont très clairs aussi sur le fait que c'est à toi de faire attention à certains points dans leur guidelines. En particulier, c'est à toi de voir si tu utilises une image pour toi-même (usage privé du copiste) ou si tu peux la diffuser au public (ce qui signifie que tu as des droits dessus).

Ce que je dis n'est pas incompatible avec le fait qu'ils aient peut-être eux-mêmes violés une propriété intellectuelle dans leur processus d'entraînement si les images sorties sont trop proches d'images appartenant à d'autres, mais cela reste à démontrer. Ce sera probablement un juge qui tranchera ce sujet et suivant le pays, la décision ne sera pas forcément la même. Et il y a des cas où l'utilisation d'une œuvre dont on n'a pas les droits est licite, là encore, c'est variable suivant le pays.
Par exemple, Next a le droit de publier des images potentiellement sous droit d'auteur comme ici pour illustrer son information.

Même si elle ne vend pas directement chaque image individuellement, elle vend bien un service de fourniture d'images. Images que soit dit en passant elle produit, donc possède en interne à un instant T, et envoie (voir diffuse publiquement sur son Discord, selon le choix du commanditaire).

Pas sûr que le disclaimer "non mais l'image appartient au commanditaire" suffise à convaincre un juge, d'autant qu'en pratique, aux US au moins, il semble que l'image n'appartienne en fait à personne : d'après la jurisprudence américaine, une image générée par IA ne peut pas être copyrightée.

Le 04/01/2024 à 18h 24

Les fanarts sont techniquement illégaux mais, soyons francs, tant que ça reste bon enfant et non-commercial, un truc de "fans" justement, les propriétaires de droits d'auteur s'en cognent généralement, et c'est tant mieux. Par contre dès que ça commence à vouloir devenir commercial, c'est surtout là qu'on rentre dans d'autres bails et que ça commence à montrer les dents.

Nintendo s'en fiche que j'aie généré Mario qui joue du trombone sous stable-diffusion pour rigoler et mettre sur mon blog "J'aime les chiptunes". Mais si je commence à vouloir en faire des magnets que je vends sur un stand à Japan-Expo là ça va potentiellement gueuler.

Midjourney et cie. sont par nature commerciaux. Leur utilisation est payante. Pour stable-diffusion je pense que c'est surtout la crainte que certains s'en servent pour des plagiats à usage commercial.

Le 04/01/2024 à 17h 58

Pour la canette de coca je sais pas, mais pour les personnages de Toy Story, bah désolé mais ça a beau être populaire, tu peux pas vendre des produits qui réutilisent l'œuvre de quelqu'un d'autre.

De la même manière que tu as pas le droit de vendre des casquettes Pikachu sans autorisation de la Pokémon Company, tu as pas le droit de vendre des images de personnages de Toy Story, même si c'est un algo qui a produit l'image plutôt qu'un copiste humain. Or, c'est exactement ce que fait Midjourney, qui est je le rappelle un service commercial.

Je veux bien qu'on soit critique d'une extension excessive du droit d'auteur mais faut pas charrier : s'agissant d'un service commercial, c'est quand même plus que limite de faire du pez avec le travail des autres.

L'inspiration n'est pas la question : ce qui est reproché à Midjourney ici n'est pas de "générer des nouveaux personnages en 3D, dans le style de Pixar" (ça, ce serait de l'inspiration). Il lui est reproché de générer des copies conformes de personnages existants. Ça, c'est du plagiat.

Les seuls qui ont un argument à faire valoir pour moi, c'est Stability AI parce que le modèle est téléchargeable et peut être exécuté en local : on pourrait estimer que c'est celui qui fait tourner le modèle sur sa machine qui est responsable de la contrefaçon. Mais Midjourney, vu qu'ils font tourner eux-même leur modèle, ils ont pas d'excuse. Dall-E non plus.

Le 04/01/2024 à 17h 49

Y a une différence entre "dessiner dans le style de Peyo" et "dessiner des Schtroumpfs".

Dessiner dans le style de Peyo, ça peut se considérer comme une simple inspiration, jusqu'à un certain stade du moins. Dessiner des Schtroumpfs, c'est du plagiat. Alors si tu le fais pour toi pour l'accrocher dans ta chambre ça pose pas de soucis, mais si tu le fais dans un contexte commercial pour vendre le résultat tu vas te faire taper sur les doigts et c'est compréhensible.

Visage flouté

Le 04/01/2024 à 20h 41

Où est le revirement du Conseil d'État concrètement ? J'ai peut-être loupé quelque-chose.
Le droit à l'oubli n'est pas un droit absolu, c'est clairement expliqué dans l'article. Quelqu'un peut avoir honte de son passé, ça ne constitue pas un harcèlement ou une diffamation de traiter le sujet si ça favorise l'information du public. Chacun est responsable de sa propre réputation, ce serait malheureux de rendre responsable le messager.

Disons que jusqu'à maintenant, le CE était très protecteur du droit à l'oubli. La jurisprudence en reconnaissait une vision assez large, surtout du droit au déréférencement. Il reconnaissait que le fait de vouloir se réinsérer sans être poursuivi par son passé, aussi critiquables qu'il fut, était en soi un motif suffisant pour faire valoir le déréférencement d'articles de journaux, même s'agissant de condamnations pénales. Je trouve donc un peu étonnant que pour des faits même pas illégaux, il ne fasse pas droit au souhait évoqué par le plaignant de tourner la page et d'être laissé tranquille avec son passé.

Le 04/01/2024 à 18h 38

Après, le mec semble avoir cessé ses activités politiques, qu'il veuille tourner la page sur ce passé et se faire oublier se conçoit. On a inventé le "droit à l'oubli" un peu pour ça. De mémoire le Conseil d'État avait jusqu'à maintenant été beaucoup plus favorable au droit à l'oubli que ça (y compris pour les articles de presse relatant d'anciennes condamnations judiciaires, alors que là le type est apparemment accusé de rien d'illégal). Je suis un peu surpris du revirement du CE sur ce plan.

Je trouve d'ailleurs un peu dommage que Next choisisse de jouer la carte de l'effet Streisand sur ce monsieur, quelle que soit l'antipathie que j'ai pour son bord politique (a priori je suis pas le seul).

Next, un pacte : nos changements et engagements pour la suite

Le 24/10/2023 à 23h 00


Ferdi a dit:


J’ai l’impression qu’il y a plein de moyens de parler de la société dans la presse par exemple, sous l’angle des inégalités (et pas seulement hommes/femmes), de l’environnement, de l’éducation, et j’en oublie probablement quelques-uns.




Il y aurait, mais en pratique, la grille de lecture que je qualifierais, pour résumer, de “inégalités selon un angle intersectionnel” est ultra-hégémonique dans la presse non seulement française mais occidentale au sens large, chez les généralistes comme chez les spécialisés. Soit que l’organe de presse en question s’en serve allègrement, soit, chez les généralistes, qu’elle fasse de sa dénonciation une part importante de sa ligne éditoriale (Le Point, Marianne…). L’adhésion ou non à une grille intersectionnelle d’analyse de la société est devenu LA frontière de “culture war” sur tous les sujets de société. Et ce même quand on parle d’éducation ou d’environnement.



Il n’y a donc rien de particulièrement original ou audacieux à adopter cette grille de lecture aujourd’hui contrairement à ce que sous-entend carbier.



Et oui, ça existe aussi dans la tech, même si c’est moins systématique tout simplement parce qu’une partie de la presse tech ne parle pas de sujets de société. Mais quand elle en parle, la grille a tendance à arriver sur le tapis.



Il semble que NXI ne fasse plus tout à fait exception depuis quelques mois, même si je le redis, le sujet est pas rabaché jusqu’à l’indigestion pour le moment.




D’ici là, vous êtes tout à fait libre de ne pas renouveler, je le déplore, mais je ne peux que m’incliner. Là où je suis moins consentant, c’est quand vous me prêtez un agenda ou des intentions prosélytiques cachées. Je ne souhaite qu’une chose, que Next soit un lieu où l’on parle de choses variablement intéressantes mais intéressantes tout de même, et que ce soit dans le respect. Oui, votre post manquait aussi un peu de respect, mais je ne suis que l’actionnaire après tout, mes sentiments ne comptent guère, n’est-ce pas ?




Je ne t’accuse pas d’avoir un agenda prosélyte, le changement de ligne éditoriale a commencé avant même que Teuf commence à parler de vendre NXI. Nous avions été quelques uns d’ailleurs à avoir déjà fait l’essentiel de ces remarques à l’époque de ses posts, lorsqu’il a commencé à parler de la situation critique de NXI et de l’éventualité de trouver un repreneur. Ce n’est donc pas toi qui a apporté cette ligne éditoriale.



Maintenant, je t’avoue franchement que quand Lyzz exprime sa détestation des gens qui “ne voient pas les couleurs” (un point de vue qui pourtant est pas d’une subversion ou d’une inconvenance démesurée il me semble) et que tu lui réponds “tiens bon, la cavalerie arrive”, après avoir annoncé de manière tonitruante que la modération allait changer significativement en la matière, je m’attends à ce qu’on arrive dans une situation que j’ai déjà vu ailleurs, où les tenants de la ligne intersectionnelle pourront se lâcher et exprimer avec des mots crus leur détestation des non-tenants de cette ligne, tandis que les non-tenants devront faire preuve d’une infinie diplomatie et de mille précautions dans l’expression pour échapper à la modération.



Non parce que si l’idée c’est d’interdire les insultes et les attaques personnelles, honnêtement le boulot était déjà fait et quoi qu’on en dise, les débats sur ces sujets dans les commentaires de NXI étaient globalement de très bonne tenue. Je ne vois donc pas quels changements il pourrait y avoir qui ne suppose pas, en pratique, un parti pris. Et tes réponses ici même me confortent dans cette crainte.



J’ai déjà vu ce genre d’ambiance ailleurs, et c’est pas pour moi.