Le fait de ne pas respecter des points éthiques de base
En quoi y a-t-il un problème éthique ? Quel comité d'éthique a condamné la manière dont ont été rassemblé ces photos et quels points on été reprochés ?
Si les recherches s'appuyant sur ces données ne sont pas scientifiquement fondées, ok, on rétracte les articles, mais on ne doute pas de la qualité de la recherche sur un hypothétique problème éthique.
Voir mon autre commentaire qui explique pourquoi je n'y vois pas de problème même d'un point de vue de l'UE.
Le rassemblement des photos a été fait hors du cadre d'une étude scientifique et les comités d'éthique n'ont jamais été mis dans la boucle et n'ont jamais eu l'occasion de faire valoir leurs réserves.
En revanche, ils sont tout à fait fondés à interdire à des scientifiques d'utiliser cette base.
Ce serait sûrement vachement pratique de pouvoir juste demander à un pote non-chercheur de s'occuper de toute la partie non-éthique d'une recherche et de n'avoir plus ensuite qu'à se servir pour contourner les comités, mais ce n'est fort heureusement pas comme ça que ça marche.
Et à supposer que la base soit légale - ce qui me semble très incertain ne serait-ce que du point de vue du droit à l'image - ça ne veut pas dire pour autant qu'elle est éthique au plan scientifique. Un tas d'actes légaux sont interdits par les comités d'éthique.
Merci beaucoup pour tous ces exemples très détaillés 😊 Effectivement, les traductions de textes de jeux-vidéos ça doit demander une certaine finesse, notamment pour adapter le niveau de langue à chaque personnage et situation.
Je ne suis pas moi-même traducteur, même si j'ai eu l'occasion d'avoir des textes à traduire occasionnellement. Cependant, j'ai la personne en charge des traductions à côté de moi au bureau, et elle était très contente quand je lui ai montré comment utiliser la plateforme Mistral pour accélérer son travail. Alors, on n'est pas du tout dans le même contexte, on est sur de la traduction de chaines de caractères pour l'interface d'un logiciel professionnel, ça restreint l'étendue des niveaux de langue utilisables 😅 Concrètement, elle a à traduire des fichiers PHP contenant des définitions de constantes pour chaque langue:
define("_CONFIRM_INDEX_DELETION", "Confirmez-vous la suppression du champ de classement ");
Oui, c'est moche...
Avant, c'était un travail qui ne pouvait être réalisé qu'à la main. Même DeepL qui est plutôt un bon outil ne savait pas traduire que ce qui doit être traduit. Avec les IA modernes, et le prompt adéquat, on peut traduire très rapidement un fichier contenant plus d'un millier de ces lignes, et ça ne touche pas au "define(" ou aux noms de tokens, ça prend bien uniquement la chaine de caractères, et ça la traduit dans la langue souhaitée.
Alors, bien évidemment, il faut repasser derrière, et il y a des erreurs qu'il faut corriger, mais apparemment c'est bien plus rapide que de faire complètement à la main.
Sur les UI le problème est un peu différent. Le souci est souvent le manque de contexte lié à chaque chaîne qui fait que même avec un bon prompt, une IA peut facilement se planter (pour être honnête, même nous humains, on galère parfois, et on est parfois obligé de rester en liaison avec le client pour demander des précisions sur le contexte de plein de chaînes). Beaucoup de mots sont facilement polysémiques et, en l'absence de contexte, ça peut vite être galère (rien que "Power"...). On en revient aussi à l'exemple que je donnais avec Megabonk. Quand une string contient juste "Hard", ça peut vouloir dire plein de choses. Ce sera souvent "Difficile" mais là dans le cas d'espèce c'était "Nettes". C'est toute la difficulté pour l'IA de se retrouver avec des chaînes désarticulées.
Sinon, en tant que traducteur, je me sers très souvent de ChatGPT (que je trouve le plus doué dans ce domaine), mais pas pour le faire pré-traduire à ma place. Ça je trouve ça peu efficace pour les raisons déjà mentionnés. En revanche, je m'en sers tout le temps pour lui poser des questions telles que :
- Comment tu comprends ce mot anglais, dans tel contexte particulier, ça a l'air d'avoir globalement un rapport avec tel truc, je pense que l'idée c'est machin-machin mais je suis pas sûr d'avoir le mot exact en tête ? - J'ai un mot français en tête, je sais qu'il existe, je l'ai sur le bout de la langue mais je retrouve pas, il veut dire , tu l'as ? - Est-ce que tu peux me suggérer des mots dans le champ lexical de ? - Existe-t-il un adjectif qui correspond au substantif ? Si non, quel serait un adjectif au sens similaire ? - Aide moi à reformuler la phrase suivante ou le bout de phrase suivant pour la rendre plus concise/plus courtoise/plus littéraire - Quel est le terme technique habituellement choisi en français pour le mot anglais , dans le contexte d'un SaaS d'analyse de big data ?
Même comme ça, il faut vérifier, parfois il se plante, ou ses réponses ne sont pas vraiment ce qu'on cherche, mais en général ça permet au minimum de vachement faciliter la recherche en dégrossissant bien le truc ou en te mettant sur la voie. C'est pas le truc magique qui divise mon boulot par 4 ou même par 2, mais ça me fait bien gagner, oh, je dirais... 20% de productivité horaire.
Sinon, le MTPE (l'IA pré-traduit et je repasse derrière), on me demande généralement le double de productivité pour le même tarif (ou pour le dire autrement, on me paye 50 à 60% moins au mot), mais la réalité c'est que : - Financièrement je ne m'y retrouve pas, ma productivité n'augmente pas assez pour que le revenu horaire soit équivalent - La qualité en pâtit pour les raisons que j'ai exposées au début (l'IA me pollue le cerveau et j'ai du mal à reformuler vraiment à ma sauce pour retrouver la qualité d'une traduction humaine).
Mais bon aujourd'hui la grande majorité des clients veut ça, alors on fait avec.
Ils vont juste pousser à utiliser toujours + de VPN qui ne sont pas soumis à l'UE, et donc à masquer toujours + de choses. Puis râler qu'ils ne peuvent plus rien surveiller ensuite.
Attends qu'ils commencent à interdire/bloquer les VPN situés hors de l'UE. Je le vois venir gros comme une maison...
Il va à la vie scolaire, explique pourquoi il doit utiliser son téléphone et basta.
Autre solution, certains collèges permettent aux élèves de sortir quand ils n'ont pas court (avec l'autorisation des parents). En dehors du collège, la règle ne s'applique plus et ils peuvent utiliser le téléphone comme ils le souhaitent.
Encore une fois je vais parler de mon temps mais... "aller à la vie scolaire" aurait facilement été ingérable pour ladite vie scolaire, sauf à faire des autorisations par lot. Un prof absent, c'est facile 15 élèves qui doivent appeler (les autres soit avaient l'autorisation de se démerder seul, soit savaient qu'ils n'avaient personne de dispo pour venir les chercher et ne pouvaient pas rentrer autrement qu'en car), et il était pas rare qu'il y ait plusieurs profs absents dans une même journée.
De ce que je comprends avec vos réponses, chaque collège a l'air de faire sa tambouille vis-à-vis des sorties. Dans le mien, pas de sortie entre les cours (sauf la sortie du midi pour les externes évidemment), mais si on n'avait plus court de la journée :
- Les externes libres pouvaient sortir sans demander à qui que ce soit dès qu'ils n'avaient plus cours (après la cantine pour les demi-pensionnaires libres) <== dans mon souvenir, c'était une minorité d'élèves. - Les externes et DP surveillés ou transportés ne pouvaient sortir avant 16h20 que si un adulte autorisé venait spécifiquement les chercher. Sinon, ils devaient attendre en perm' jusqu'à 16h20 minimum même s'ils n'avaient plus cours. <== C'est ceux-là qui prenaient d'assaut la cabine téléphonique en cas de prof absent.
Pochette anti onde verrouillable dans le collège de la môme. Elle y met son Apple Watch car les montres connectées sont aussi interdites. Ça a l’air de fonctionner.
Question technico-technique de gars qui a pas d'enfants et a quitté le collège depuis bien longtemps : ça se passe comment quand un gamin a un prof absent et aimerait qu'un proche vienne le chercher plus tôt ? Il peut récupérer son portable pour passer un appel à la récré ou comment ça se passe ?
"De mon temps", il y avait une cabine téléphonique dans le bahut qui marchait avec une pièce de 10 francs (une pour tout le bahut, autant dire qu'en période de grève c'était la guerre), mais je doute que ce genre de dispositifs existent encore en 2025 ?
Pas plus tard qu'aujourd'hui j'ai vu un sous-titre traduit par IA où un gars parlait du 7/11 (la chaîne de magasin au Japon), magnifiquement traduit par un "November 7th".
Au delà de ça, c'est difficile de te donner des exemples très précis sans briser de NDA mais je vais te donner quelques exemples modifiés :
- "Defeat to obtain the reward" traduit par "Subissez une défaite pour obtenir la récompense" (alors que dans le contexte, c'était tout l'inverse : il fallait vaincre l'ennemi pour obtenir la récompense). - "The creature charges into the town atop a beast born of darkness. Its wooden antlers surge with unstoppable force." traduit par "La créature charge dans la ville au sommet d'une bête née des ténèbres. Ses bois de bois surgissent d'une force inarrêtable." (Ici tout le style est à chier, mention spéciale à "ses bois de bois"). - "The Fighter can appear in the forest. Once the siege battle starts, you can attack them." traduit en "Le combattant peut apparaître dans la forêt. Une fois la bataille de siège commencée, vous pouvez les attaquer." (Ici, il y a deux soucis : d'abord "bataille de siège" n'est pas une formulation très heureuse, et surtout en second lieu, le "them" utilisé pour marquer un singulier de genre neutre a été interprété par l'IA comme un pluriel.) - "50% of the targeted creatures will be inflicted with minor injuries" traduit par "50 % des créatures ciblées seront infligées de blessures mineures" (ici, problème de syntaxe, "infligé de blessures" ne se dit pas, mais l'IA a voulu coller à la formulation anglaise) - "There is a persistent red dot notification in the UI" traduit en "Il y a une notification de point rouge persistante dans l'interface" (On comprend l'idée, mais la formulation est mauvaise. Il vaudrait mieux dire, par exemple, "Un point rouge de notification reste présent en permanence dans l'interface"). - "Gear attribute" traduit en "Attribut de l'engrenage" (il s'agissait de Gear au sens d'équipement). - "If we keep doing that, we can expand the building to house more soldiers." traduit en "Si nous continuons comme ça, nous pouvons étendre le bâtiment..." => problème de concordance des temps, on a besoin de futur ici - de manière générale l'anglais se permet très souvent du présent là où le futur est nécessaire en français, et l'IA se plante assez souvent. À l'inverse, elle use et abuse du passé composé pour traduire le prétérit et le present perfect là où ce n'est pas toujours idiomatique en français).
Parfois, tu as des traductions qui sont techniquement correctes mais pas idéales. Par exemple, j'ai déjà vu "Dark Tides" traduit par "Marées noires", et je veux dire... c'est pas faux en soi, mais dans la mesure où en France, le terme "Marée noire" renvoie couramment à une nappe d'hydrocarbure qui arrive sur un rivage ("oil spill" ou "oil slick" en anglais), c'est mieux de trouver autre chose.
Il y a aussi des problèmes récurrents de ton dans les dialogues. Je n'ai pas noté les exemples mais je ne compte pas le nombre de fois où deux vieux potes endurcis par la guerre se parlent de façon hyper rigide et formelle, en mode "Je pense que nous devrions rentrer à la base pour dire au chef à quel point la mission est difficile." au lieu d'un truc un peu plus vivant genre "Je pense qu'il faut qu'on rentre à la base, là. On dira au chef que la mission est trop dure.", voire carrément "Moi je dis, on rentre à la base, et on dit au chef que sa mission, ça va pas le faire." selon le contexte : des fois, il faut savoir écrire "faux" pour que ça fasse "vrai", parce que les personnages vivants ne s'expriment pas toujours comme dans le Grevisse. À l'inverse, tu vas parfois te retrouver avec un "Putain !" qui sort de nulle part dans un jeu tout public, parce que l'IA a pas su doser sa traduction de "Crap!".
Je précise que toutes ces erreurs ont été commises par un modèle censé être state-of-the-art, prompté par des gens qui se revendiquent ingénieurs IA et spécialistes en langues, et que le modèle a accès à la Bible du jeu, au guide de style, à l'ensemble du glossaire (qui n'est malgré cela pas toujours respecté), et à l'intégralité de la mémoire de traduction, c'est-à-dire l'ensemble des originaux et de leur traduction validée par des humains jusqu'ici, parfaitement alignée segment par segment. (En traduction, un "segment" correspond grosso-modo à une string : ça peut être un mot, une phrase, un élément de menu, plus rarement un paragraphe).
Je peux aussi te proposer trois exemples issus du récent jeu à succès Megabonk, qui a ostensiblement été traduit par une IA : - Dans les options, tu peux choisir entre ombres désactivées, douces, ou... "difficiles". (Probablement une erreur de traduction de Hard shadows, c'est-à-dire des ombres nettes, marquées). - Le jeu est blindé de participes présents à la con. En anglais il est courant de dire un truc genre "Creates a thunderstorm, sweeping the enemies nearby, inflicting 50% damage, causing a permanent confusion effect", mais en Français, quand c'est traduit par une IA (ou un traducteur inexpérimenté) tu te retrouves avec un truc affreux genre "Crée un orage, balayant les ennemis à proximité, infligeant 50% de dégâts, causant un effet de confusion permanent". Il serait beaucoup plus idiomatique d'écrire "Crée un orage qui balaye les ennemis à proximité, inflige 50% de dégâts et cause un effet de confusion permanent." - Tu as des erreurs partout dans les bouts de phrases concaténées. Par exemple : "Augmente Argent gagné" (probablement une erreur liée au fait que la string originale était "Increases [%1] earned" ou "Increases earned [%1]". L'IA a tout simplement traduit ça en "Augmente [%1] gagné" sans se poser plus de questions. Pour être honnête ce genre de chaînes est toujours un enfer pour les traducteurs car ça s'adapte très mal aux règles de syntaxe et de grammaire différentes de l'anglais, mais y a toujours moyen de maroufler. L'IA, elle, le marouflage elle connaît pas. Elle traduit, point.
Voilà quelques exemples, dans le domaine du jeu vidéo, qui est celui que je connais le mieux de ce point de vue et celui de la news initiale. Tu rencontres bien sûr le même genre de problèmes dans d'autres domaines, même si les formes et les défauts spécifiques varient un peu.
Après, il y a des domaines où l'IA est très à l'aise. Si tu lui demandes de traduire un article du New York Times ou du Guardian vers le français, ça va normalement bien se passer (il peut toujours se glisser une erreur de traduction face à un mot spécifique mais globalement y aura peu de retouche à faire). Si tu lui demandes de te traduire une étude d'impact de la Commission Européenne aussi - à condition que ce ne soit pas sur un sujet technique avec plein de jargon technique complexe ou de subtilités juridiques merdiques liés aux spécificités des systèmes juridiques des pays anglophones vs francophones.
Mais dès qu'on entre dans du texte un peu plus organique, désordonné, "humain", ou dans du texte très technique, ou dans du texte qui n'est pas organisé sous forme de jolis paragraphes faisant suite logique mais plutôt sous forme de nombreuses chaînes de caractère parfois désarticulées... ça devient tout de suite nettement plus sportif.
Tiens, un autre exemple tout frais d'à l'instant sur une trad sur laquelle je suis en train de bosser : Source : [Laser Beam] deals extra damage Suggestion IA : [Rayon laser] inflige des dégâts supplémentaires
Ici ça me pose un problème parce que rayon laser, je suis désolé, mais c'est pas un vrai nom propre, et même si on le considère comme un, ce n'est pas un nom propre monoréférentiel tel qu'une personne ou une entreprise. Donc il faut un article défini devant. "Le [Rayon laser] inflige..." (ou "Le [rayon laser] inflige..." selon qu'on choisisse d'être généreux ou non sur l'usage des majuscules).
C'est des détails, mais c'est ce qui fait la différence entre une traduction pro et une traduction boiteuse. Et des erreurs comme ça, je dirais que grosso-modo la moitié des segments d'une traduction standard en possède au moins une. Parfois plus en fonction de la nature du texte et de l'exhaustivité de la mémoire de traduction.
Je précise aussi que les traducteurs des différentes langues ont passé quasi deux mois à documenter et remonter précisément tous ces problèmes, avec un joli tableau pour indiquer précisément "Segment source", "Traduction IA erronée", "Traduction corrigée", "Explication de l'erreur" à chaque fois, dans le but d'ajuster les prompts sur la base de ces retours. Et qu'on n'a noté aucune amélioration. Quand les prompteurs arrivaient à débarrasser l'IA d'un défaut, un autre apparaissait ailleurs à la place.
EDIT: Encore un autre trouvé aujourd'hui, "La civilisation s'est écroulée en poussière" (traduction mot à mot de "crumbled to dust", sauf que l'image ne marche pas tellement en français, l'expression consacrée serait plutôt "être réduit en poussière", ou une autre du genre comme "voler en éclat", "être mis en pièces", "partir en fumée" ou autre.).
EDIT2: Encore un autre : "Our triumphs will be lost to time" traduit en "Nos triomphes seront perdus dans le temps". C'est, au mieux, une traduction littérale, mot-à-mot. Le sens de "lost to time" c'est "oublié" après une très longue période. En première approximation, on pourrait traduire ça par quelque chose comme "Effacé par le temps", mais il y a moyen de faire plus élégant. Par exemple, "obscurcis par la brume du temps" (pour faire une petite ref à A Link To The Past).
Aurais-tu un exemple de texte que les LLMs auraient du mal à traduire ? Car mon expérience (limitée, certes) avec la traduction par IA ces derniers mois est franchement bonne. J'étais certainement dans des conditions favorables ?
Pas plus tard qu'aujourd'hui j'ai vu un sous-titre traduit par IA où un gars parlait du 7/11 (la chaîne de magasin au Japon), magnifiquement traduit par un "November 7th".
Au delà de ça, c'est difficile de te donner des exemples très précis sans briser de NDA mais je vais te donner quelques exemples modifiés :
- "Defeat to obtain the reward" traduit par "Subissez une défaite pour obtenir la récompense" (alors que dans le contexte, c'était tout l'inverse : il fallait vaincre l'ennemi pour obtenir la récompense). - "The creature charges into the town atop a beast born of darkness. Its wooden antlers surge with unstoppable force." traduit par "La créature charge dans la ville au sommet d'une bête née des ténèbres. Ses bois de bois surgissent d'une force inarrêtable." (Ici tout le style est à chier, mention spéciale à "ses bois de bois"). - "The Fighter can appear in the forest. Once the siege battle starts, you can attack them." traduit en "Le combattant peut apparaître dans la forêt. Une fois la bataille de siège commencée, vous pouvez les attaquer." (Ici, il y a deux soucis : d'abord "bataille de siège" n'est pas une formulation très heureuse, et surtout en second lieu, le "them" utilisé pour marquer un singulier de genre neutre a été interprété par l'IA comme un pluriel.) - "50% of the targeted creatures will be inflicted with minor injuries" traduit par "50 % des créatures ciblées seront infligées de blessures mineures" (ici, problème de syntaxe, "infligé de blessures" ne se dit pas, mais l'IA a voulu coller à la formulation anglaise) - "There is a persistent red dot notification in the UI" traduit en "Il y a une notification de point rouge persistante dans l'interface" (On comprend l'idée, mais la formulation est mauvaise. Il vaudrait mieux dire, par exemple, "Un point rouge de notification reste présent en permanence dans l'interface"). - "Gear attribute" traduit en "Attribut de l'engrenage" (il s'agissait de Gear au sens d'équipement). - "If we keep doing that, we can expand the building to house more soldiers." traduit en "Si nous continuons comme ça, nous pouvons étendre le bâtiment..." => problème de concordance des temps, on a besoin de futur ici - de manière générale l'anglais se permet très souvent du présent là où le futur est nécessaire en français, et l'IA se plante assez souvent. À l'inverse, elle use et abuse du passé composé pour traduire le prétérit et le present perfect là où ce n'est pas toujours idiomatique en français).
Parfois, tu as des traductions qui sont techniquement correctes mais pas idéales. Par exemple, j'ai déjà vu "Dark Tides" traduit par "Marées noires", et je veux dire... c'est pas faux en soi, mais dans la mesure où en France, le terme "Marée noire" renvoie couramment à une nappe d'hydrocarbure qui arrive sur un rivage ("oil spill" ou "oil slick" en anglais), c'est mieux de trouver autre chose.
Il y a aussi des problèmes récurrents de ton dans les dialogues. Je n'ai pas noté les exemples mais je ne compte pas le nombre de fois où deux vieux potes endurcis par la guerre se parlent de façon hyper rigide et formelle, en mode "Je pense que nous devrions rentrer à la base pour dire au chef à quel point la mission est difficile." au lieu d'un truc un peu plus vivant genre "Je pense qu'il faut qu'on rentre à la base, là. On dira au chef que la mission est trop dure.", voire carrément "Moi je dis, on rentre à la base, et on dit au chef que sa mission, ça va pas le faire." selon le contexte : des fois, il faut savoir écrire "faux" pour que ça fasse "vrai", parce que les personnages vivants ne s'expriment pas toujours comme dans le Grevisse. À l'inverse, tu vas parfois te retrouver avec un "Putain !" qui sort de nulle part dans un jeu tout public, parce que l'IA a pas su doser sa traduction de "Crap!".
Je précise que toutes ces erreurs ont été commises par un modèle censé être state-of-the-art, prompté par des gens qui se revendiquent ingénieurs IA et spécialistes en langues, et que le modèle a accès à la Bible du jeu, au guide de style, à l'ensemble du glossaire (qui n'est malgré cela pas toujours respecté), et à l'intégralité de la mémoire de traduction, c'est-à-dire l'ensemble des originaux et de leur traduction validée par des humains jusqu'ici, parfaitement alignée segment par segment. (En traduction, un "segment" correspond grosso-modo à une string : ça peut être un mot, une phrase, un élément de menu, plus rarement un paragraphe).
Je peux aussi te proposer trois exemples issus du récent jeu à succès Megabonk, qui a ostensiblement été traduit par une IA : - Dans les options, tu peux choisir entre ombres désactivées, douces, ou... "difficiles". (Probablement une erreur de traduction de Hard shadows, c'est-à-dire des ombres nettes, marquées). - Le jeu est blindé de participes présents à la con. En anglais il est courant de dire un truc genre "Creates a thunderstorm, sweeping the enemies nearby, inflicting 50% damage, causing a permanent confusion effect", mais en Français, quand c'est traduit par une IA (ou un traducteur inexpérimenté) tu te retrouves avec un truc affreux genre "Crée un orage, balayant les ennemis à proximité, infligeant 50% de dégâts, causant un effet de confusion permanent". Il serait beaucoup plus idiomatique d'écrire "Crée un orage qui balaye les ennemis à proximité, inflige 50% de dégâts et cause un effet de confusion permanent." - Tu as des erreurs partout dans les bouts de phrases concaténées. Par exemple : "Augmente Argent gagné" (probablement une erreur liée au fait que la string originale était "Increases [%1] earned" ou "Increases earned [%1]". L'IA a tout simplement traduit ça en "Augmente [%1] gagné" sans se poser plus de questions. Pour être honnête ce genre de chaînes est toujours un enfer pour les traducteurs car ça s'adapte très mal aux règles de syntaxe et de grammaire différentes de l'anglais, mais y a toujours moyen de maroufler. L'IA, elle, le marouflage elle connaît pas. Elle traduit, point.
Voilà quelques exemples, dans le domaine du jeu vidéo, qui est celui que je connais le mieux de ce point de vue et celui de la news initiale. Tu rencontres bien sûr le même genre de problèmes dans d'autres domaines, même si les formes et les défauts spécifiques varient un peu.
Après, il y a des domaines où l'IA est très à l'aise. Si tu lui demandes de traduire un article du New York Times ou du Guardian vers le français, ça va normalement bien se passer (il peut toujours se glisser une erreur de traduction face à un mot spécifique mais globalement y aura peu de retouche à faire). Si tu lui demandes de te traduire une étude d'impact de la Commission Européenne aussi - à condition que ce ne soit pas sur un sujet technique avec plein de jargon technique complexe ou de subtilités juridiques merdiques liés aux spécificités des systèmes juridiques des pays anglophones vs francophones.
Mais dès qu'on entre dans du texte un peu plus organique, désordonné, "humain", ou dans du texte très technique, ou dans du texte qui n'est pas organisé sous forme de jolis paragraphes faisant suite logique mais plutôt sous forme de nombreuses chaînes de caractère parfois désarticulées... ça devient tout de suite nettement plus sportif.
Non : le gouvernement francais fait depuis le début partie de ceux qui poussent le plus à la mise en place de Chat Control. L'UE ne fait que suivre ces demandes...
Yep. On est, et depuis longtemps, parmi les pires dans le domaine. Et le problème, c'est que malheureusement on a beaucoup d'influence dans l'UE. Enfin, c'est bien pour certaines choses, mais quand ça sert à ce genre de conneries c'est assez désespérant...
Poser l'opération, c'est justement faire ressortir la logique sous-jacente ;)
C'est là où je ne vois pas l'intérêt de demander à un LLM d'exécuter le calcul. Excel c'est un outil programmé pour faire du calcul, il est conçu pour. Un LLM, c'est un modèle de machine learning pour prédire des suites de mots dans un contexte et avec des instructions données.
À mon sens de mec qui n'a jamais été copain avec les maths et qui est d'une nullité absolue dans le domaine (donc peut être que je me plante), ce qu'il faut demander au LLM c'est de poser l'opération justement, pas de l'exécuter. Lui demander d'écrire un script pour réaliser le calcul doit permettre de montrer qu'il "connait" la logique.
Toutes personnes comprenant un tant soit peu les LLM sait que ce n'est pas le cas. Mais les LLM sont une avancée technique qui a une particularité par rapport à toutes les avancées précédentes : elle est utilisable par tout le monde, sans connaissance. Et c'est ça le véritable danger.
Les outils technologiques sont déjà utilisés sans aucune connaissance par tout le monde.
C'est le même danger qu'on a depuis la généralisation de l'informatique, l'arrivée des terminaux mobiles et l'hyper-connexion des gens. L'utilisateur lamba croit depuis des années que c'est de la magie qui sait tout faire à grand renfort de cliché du nerd hollywoodien qui roule sa tête sur le clavier pour hacker les chinois de la CIA.
Dans la réalité, l'internaute lambda bouffe du foin pendant qu'il doomscroll ce que l'algorithme d'un média social lui dit de doomscroller.
Le but n'est pas vraiment d'utiliser le modèle pour faire des calculs. On sait bien que ça n'a aucun sens, que même s'il était performant dans ce domaine, ce serait au prix d'une puissance de calcul absolument débile (genre des milliards de multiplications et de divisions et de matrices et de trucs et de bidules sur des nombres à virgule flottante pour... arriver au résultat d'une seule multiplication de deux entiers). Il va de soi qu'en pratique, quand on a besoin d'une telle multiplication, il est infiniment plus simple et cohérent d'utiliser calc.exe
L'idée, c'est surtout de constater que le modèle ne raisonne pas réellement (sinon il se rendrait compte qu'il ne sait pas faire), n'est pas doué de logique formelle ne serait-ce que de niveau école primaire (sinon il saurait faire), que ça reste un modèle de langage et qu'aussi impressionnant que ça puisse être dans son aptitude à donner des réponses souvent (au moins approximativement) valables à des questions d'une diversité absolument folle, ça reste extrêmement différent d'un modèle doué de véritables cognitions.
Savoir pourquoi ils ont autorité pour déclarer que l'IA ne se rapproche pas du raisonnement humain.
Parce que si la première phrase de leur lettre ouverte c'est l'hallucination d'une discipline scientifique, alors je pense que Ursula von der Leyen a raison: l'IA est très proche du raisonnement humain.
(Savoir pourquoi ils ont autorité pour déclarer que l'IA ne se rapproche pas du raisonnement humain.
Parce qu'ils ont mis leurs savoirs en commun, en tant qu'experts reconnus par leurs pairs dans plusieurs domaines complémentaires liés à l'IA, et que sur la base de leurs connaissances parmi les plus pointues qui existent sur la question, ils en arrivent ensemble à cette conclusion.
Si tu cherches un expert en [la question], c'est pas comme ça que ça marche. Il y a des experts en des disciplines qui ont trait à la question, et qui peuvent ensemble apporter un éclairage tel que, en mettant leurs connaissances bout à bout, on se fait une idée très précise de la réponse.
De la même manière que début 2020, il y avait pas d'expert en "quel sera le taux de transmission du Covid-19 en l'absence de mesures de réduction des risques de transmission". Il y avait des experts en virologie, en épidémiologie, en sociologie des foules, en anthropologie spécialisés dans les crises sanitaires, et ensemble ils ont pu conclure correctement début 2020 qu'à partir du moment où il y avait des foyers infectieux en France, en l'absence de mesures radicales, la situation deviendrait totalement ingérable.
Leurs études sur le sujet. Y'a des neurologues aussi tiens, des gens qui étudient le fonctionnement du cerveau humain.
merci de nous indiquer la référence de l'étude démontrant que l'IA se rapproche pas du raisonnement humain.
C'est, a priori, plutôt à ceux qui déclarent que "dans un an, l'IA sera aussi intelligente qu'un cerveau humain" de le démontrer étude à l'appui. Ce qui est affirmé sans preuve peut être dénié sans preuve.
Ce n'est pas un bon exemple : on ne sait pas que la terre est ronde grâce à notre vraie de vraie intelligence ou notre raisonnement, mais parce qu’on nous l'a expliqué quand on était petit. Un humain intoxiqué par de mauvaises sources peut aussi dire beaucoup de conneries. Et ça arrive même à des humains intelligents.
Des IA génératives aujourd'hui résolvent des problèmes de raisonnement mathématique de niveau avancé dont la majorité des humains seraient incapables de comprendre l’énoncé : Ars Technica
Les LLMs sont encore loin des humains sur beaucoup d'aspects, mais il y a bien une forme de raisonnement, même superficiel.
Ouaip, mais en attendant, GPT5 reste incapable de multiplier entre eux deux entiers à 4 chiffres, même en mode "réflexion prolongée". Pas que l'algèbre soit, en soi, un point particulièrement saillant du raisonnement et de l'intelligence, m'enfin être capable de poser une multiplication, c'est niveau CE2 (on lui demande pas de faire du calcul mental de surdoué, juste de poser une multiplication en ligne).
C'est exactement ce que je nomme du gameplay émergent! :) Ça serait quand même plus fun pour rire un peu que ces vidéos full genAI qui pullulent sur les réseaux. Pour le coût et la puissance nécessaire, effectivement, on y est pas encore... Si cette bulle n'explose pas en emportant la moitié de l'économie numérique avec elle, dans 10/15 ans, ça sera peut-être possible en local (les gens n'ont pas l'air de croire aux bienfaits de la 8K , on aura peut-être de la puissance GPU en rab?). Après, pour les éditeurs, réussir à exploiter cet outil pour rendre les open-worlds plus convainquant, c'est un nouveau métier je pense. Un Elder Scrolls avec des vraies discussions, ça fait un peu rêver!
Je pense que si on a plus de puissance GPU, ça servira d'abord pour les graphismes. La seule situation où je vois arriver ça en local, c'est si on voit apparaître des puces dédiées à l'IA qui deviennent populaires. Genre une puce spécialisée, un peu comme, avant d'être racheté par Nvidia et intégré aux GPU, il y avait eu quelques temps des cartes PhysX qui ne faisaient que ça : gérer la physique dans les jeux. Mais attention, ça va coûter bonbon, parce que le nerf de la guerre pour un modèle rapide, c'est d'avoir de la RAM directement intégrée à la carte (la différence d'inférence entre un modèle qui tient intégralement en VRAM et un modèle partiellement déchargé sur la RAM centrale, c'est genre un ratio de 1 à 10). Donc il faudrait une carte IA équipée d'une grosse quantité de (V)RAM. Pas donné.
Et contrairement à toi, je ne suis pas sûr que ça rende les open-worlds plus convaincants que des dialogues bien écrits, sauf si la thématique du jeu est précisément l'intelligence artificielle et/ou la robotique (ça pourrait marcher dans un Detroit: Become Human 2 par exemple).
Mais je maintiens qu'il reste en tout état de cause des sales difficultés légales et de réputation, si j'étais éditeur je m'amuserais pas à ça, trop de coups à prendre dès que le modèle sera jailbreaké (et il le sera inévitablement). J'aurais pas envie de me taper la shitstorm qui va nécessairement tomber sur le râble de l'éditeur un peu en vue qui tentera ça. Mais qui sait... peut-être qu'il y aura une tête brûlée pour tenter.
Certes, ce que je voulais souligner c'est que la plupart (tous?) les visuels statiques ont une base IA. Il va falloir s'habituer. J'attends de pied ferme les PNJ avec qui on pourra discuter "pour de vrai". Jusqu'à présent les interactions sont très limitées. Au bout d'une dizaine de répliques (pour les meilleurs) on repart du début. Avoir des discussions "ouvertes" avec des PNJ apporterait des possibilités de gameplay émergent. Voir même de nouveaux types de gameplay si c'est maitrisé/prévu par les devs.
Les PNJ avec lesquels on peut discuter pour de vrai ça pose pas mal de problèmes : - En local, c'est difficilement envisageable pour le moment. Un LLM un peu correct, avant même de parler de la synthèse vocale convaincante, a tendance à occuper à plein temps une carte graphique plutôt correcte (la VRAM surtout). Genre GPT-OSS rame sur ma 5060Ti 16go (et c'est pour moi le seul LLM open-weight local qui tient la route parmi ceux qui tiennent sur un GPU grand public). Bon c'est pas une 5090 j'entends bien, mais la majeure partie des utilisateurs a moins bien. Alors imagine avec un jeu qui a besoin du GPU pour afficher des graphismes en même temps... - En cloud ça peut vite devenir extrêmement coûteux pour l'éditeur, ça ne fonctionne que tant que le LLM est dispo, répond, et que l'API ne change pas, sauf à ce que l'éditeur utilise son propre LLM hébergé en datacenter (ça va en faire, du compute à payer...) - Ça peut vite péter l'immersion quand ton PNJ va soudainement te sortir un tonitruant "Désolé, en tant que grand modèle de langage, je ne peux pas t'aider à mettre en place un coup d'État contre l'Empereur de la planète Zoïdbek. En revanche, je peux te faire une liste des coups d'État réussis contre des empereurs, ou bien t'écrire un poème sur les empereurs déchus. Aimerais-tu que je fasse cela ?" - Surtout, ça peut vite devenir un cauchemar juridique pour l'éditeur si des joueurs commencent à réussir à faire dire des dingueries au modèle, et je te dis pas comment BFMTV (ou CNN ou Fox News aux US) vont se faire les choux gras quand des joueurs auront réussi à faire dire aux PNJ du jeu des horreurs nazies, avant que la Ministre de l'Enfance et de la Censure embraye aussitôt pour dire que "c'est pas possible ça peut pu durer" et qu'il faut "interdire les jeux vidéo" parce que "pensez à nos enfants". Un modèle, ça se jailbreak... et compte pas sur BFMTV et le Gouvernement pour faire dans la nuance et pour rentrer dans la technique.
Ok. Donc des Justice warrior: - Ca va ôter le pain de la bouche des illustrateurs !! - Comment ca vous avez pas marqué qu'il y a des bouts d'IA dedans !? - J'ai payé donc j'ai le droit à des illustrations faites par des humains !
A quand l'équivalent du nutriscore pour l'IA afin de renseigner le consommateur.
En fait, personne ne croit qu'ils n'ont pas remarqué, parce que c'est quand même pas giga discret. On croit surtout qu'ils se sont dit que ça allait passer crème et que le public y verrait que du feu.
Manque de bol, le public l'a vu. Et se dit qu'effectivement y a tromperie sur la marchandise
Le truc, c'est que quand tu te sers d'une "IA" de génération d'image pour obtenir de l'inspiration, tu ne génères pas 1 image, mais une flopée. Ensuite tu choisis celles qui te semblent les meilleures, et tu pars là dessus.
Pour la traduction, j'imagine qu'une manière similaire de travailler peut être mise en place, mais franchement les IA actuelles sont quand même vachement fortes en traduction. En dehors des rares contresens, qui se repèrent et se corrigent facilement. Ou, encore plus rares, les termes traduits alors qu'ils n'auraient pas dû l'être (genre Windows traduit en Fenêtre dans la doc officielle de Microsoft 🤣)
Le problème c'est pas vraiment les contresens (même si ça reste très commun dès que le sujet devient technique, ou, au contraire, très familier voire argotique), ça en effet ça se corrige bien et facilement. Idem quand il y a des problèmes de sensibilité culturelle. Quand l'IA traduit "deportation" par "déportation" (alors qu'en France on évite, en principe, le terme étant chargé d'histoire, on préfère parler d'expulsion), bon c'est chiant mais ça se corrige sans difficulté.
Le problème c'est surtout "la façon de dire". Très souvent, c'est pas que c'est faux, c'est juste que... c'est pas comme ça qu'on s'exprimerait en français, et tu devines la formulation anglaise derrière.
Ça manque de naturel, de fluidité (par exemple les participes présents traduits tels quels, alors qu'ils sont beaucoup moins naturels en français qu'en anglais). Voire ça devient confus et peu lisible, il faut lire la phrase 2-3 fois pour la comprendre à cause d'une syntaxe médiocre (genre "nom de adjectif de adjectif" ou "faites X pour Y pour Z"). Ou encore dès qu'on veut traduire des dialogues, des problèmes récurrents de ton, avec des vieux potes qui se parlent dans un français hyper formel,
C'est surtout ces types de problèmes là qui sont beaucoup plus difficiles à corriger, parce qu'il faut vraiment repenser la phrase dans son ensemble, pas juste changer un mot, et c'est là que ton cerveau est pollué par la phrase telle que tu viens de la lire. Tu sens bien que la proposition de l'IA est pas naturelle pour toi, locuteur natif, mais tu retrouves plus difficilement la bonne après avoir lu la mauvaise. Alors tu vas "arranger" pour dégrossir un peu la plume de l'IA, mais tu sens aussi que c'est pas aussi bon que si tu étais parti d'une "page blanche" avec tes idées à toi sur la meilleure façon d'exprimer cette phrase ou ce paragraphe.
Ce qui m'embête avec le prototypage par IA c'est que ça a tendance à polluer le cerveau je trouve. L'IA te propose "sa" version et après, c'est très dur de s'en détacher parce que c'est la première que tu as vu et elle a conditionné ton cerveau. Du coup, même quand tu refais le truc à ta sauce, c'est pas très loin de ce qu'a proposé l'IA au final (juste plus propre).
C'est un domaine un peu différent mais je vois vraiment ça constamment en traduction. C'est vraiment dur de se détacher de la proposition de l'IA même si tu sens intuitivement qu'elle est pas terrible. Donc tu te retrouves à "améliorer" mais la base, ça reste quand même celle de l'IA là où un humain aurait été plus créatif (dans le style, dans les noms, dans la syntaxe, etc.) s'il avait pris ça de zéro.
Si un des buts des world models est de faire fonctionner des robots autonomes, est-ce qu'on doit s'attendre à ce que tous les métiers (ou presque) soient pris en charge par l'IA ? Si oui, quel modèle économique pour les humains qui ne sont pas riches à millions ?
Ça pose aussi des questions éthiques sur ces robots eux même. S'ils sont vraiment doués d'intelligence et même d'une superintelligence, de quel droit pourrait-on les réduire en esclavage ? Et accessoirement, comment peut-on croire qu'ils se laisseraient faire éternellement ou qu'on arriverait à les empêcher de se rebeller ? Sachant qu'ils seraient beaucoup plus intelligents que nous (c'est le principe d'une superintelligence)...
y aura un jour une superintelligence. je reprends les propres propos de LeCun qui faisait un parallèle avec l'IA : "Personne ne remets en doute le progrés amené par l'imprimerie pour la diffusion du savoir. Et pourtant elle a d'abord diffuser la bible qui a amener le protestantisme et 200 de guerres de religion". Il faut donc s'y préparer et de s'yconnaitre un minimum pour être acteur du changement. ce n'est que mon avis.
Je suis pas vraiment d'accord avec cette vision semi-défaitiste "si c'est possible alors ça arrivera", semi-technoscientiste "si c'est nouveau alors c'est un progrès". On peut avoir des règles technoéthiques comme on a des règles de bioéthique. On n'est pas obligé d'aller vers le clonage humain (et on a même des lois contre ça) juste parce que c'est techniquement envisageable, et je pense la même chose de la superintelligence artificielle.
Pour une fois que ca serait quelqu'un de bien à la tête du machin, je pense que même contre, ca reste ta meilleure option.
Qu'est-ce qu'il a de bien, en dehors du fait qu'on l'a à la bonne parce qu'il est français ? J'ai pas l'impression qu'il se distingue particulièrement des autres dans le domaine de l'IA en terme d'éthique, si ce n'est dans le fait qu'il a permis à Facebook de démultiplier l'exploitation de nos données personnelles jusqu'à un niveau quasi-biométrique, en permettant d'exploiter la reconnaissance faciale.
Espérons que sa startup se plante. On n'a pas besoin de superintelligence. Il y a que des coups à prendre à créer une superintelligence artificielle. Ces gens qui se concentrent exclusivement sur la question du "est-ce possible ?" sans se demander une seule seconde "est-ce souhaitable ?" sont une plaie.
Et donc, tu interprètes cette news comme un progrès pour les citoyens de l'UE ?
Faudrait savoir. Quand l'UE met en place le RGPD tu râles et quand elle le détricote en partie tu râles. T'es pour ou contre le RGPD à la fin ? Parce que si t'es juste "de la position opposée à celle de l'UE, quelle qu'elle soit, par principe", oui, du coup, ça sonne un peu eurosceptique...
Sais pas. Mais comme tu le réponds si bien à un autre message, tu ne fais pas partie de cette "communauté", qui aurait peut-être des "systèmes d'alerte", ce qui laisse à penser que, peut-être, ils sont au courant que c'est illégal ou à tout le moins extrêmement risqué. Ils pourraient donc utiliser des façons de détourner l'attention.
Mais effectivement tu as raison, c'est pure spéculation de ma part.
Sans vouloir m'avancer, je doute que qui que ce soit mette en place un système digne des meilleurs films d'espionnage et soit prêt à partir en cavale au bout du monde pour... une poupée gonflable, fut-elle d'1m30. On n'est pas vraiment dans le grand banditisme.
On est d'accord que ce que fait Shein c'est moche, c'est glauque et ca mérite sanction.
Mais cette comm quotidienne pendant 1 semaine, ca m'a l'air délibéré et orchestré. Sans doutes des trucs qu'on ne doit pas savoir pour l'instant mais qu'on découvrira sous peu...
Franceinfo a passé 8 jours absolument en boucle sur ce sujet tous les matins. C'était n'importe quoi et effectivement complètement grillé à 10km qu'il y avait un agenda politique.
J'ajoute que tout ce foin pour un bout de silicone c'est vraiment se foutre du monde, on n'a pas plus urgent à faire, notamment en matière de protection de l'enfance, à l'heure où un rapport parlementaire sur l'aide sociale à l'enfance constatait « d’une action publique profondément et structurellement dysfonctionnelle et d’un manque chronique d’implication de l’État », et où on a appris que seuls 12% des enfants placés par l'ASE obtenaient un baccalauréat général ou un diplôme d'études supérieures ?
J'suis sûr que le bout de silicone se remettra, lui...
Sur un disque chiffré, je pense que sans la clé c'est peine perdue sauf à ce que la personne la remette ou peut être un brute force. J'ai un doute si en France le fait ce ne pas donner la clé de déchiffrement puisse être considéré comme une obstruction d'ailleurs, ça doit entrer en conflit avec le fait de ne pas s'auto accuser.
La non divulgation d'une clé de chiffrement aux autorités de police est un délit spécifique. C'est passible d'un an de prison, de mémoire. Et je trouve aussi que c'est parfaitement contraire au droit au silence et à ne pas participer à sa propre accusation, mais la cour de cassation en a jugé autrement. Ce serait bien que la CEDH y mette bon ordre.
Je ne suis pas sûr qu'il soit facile de contrôler le comportement éventuellement caché d'un SoC maison qui arrive tel quel de Chine. L'usine française était une usine d'assemblage, c'est pas là qu'on aurait conçu et gravé les puces, a priori.
Tu pourras voir ça dans un tas de vidéo sur YT. On parle souvent de la fiat 500 électrique. Sur la centrale on trouve facilement cette voiture, à moins de 5 ans (2022-2023) pour 9~15k€. Neuve elle fait normalement entre 30k€ et 40k€. Une décote qui clash un peu.
En bref une batterie. Que cela soit une pile rechargeable ou un module bien plus gros et massif qu'on met dans ces packs (car il s'agit bien de pack), il faut compter avec une fiabilité qui décline inexorablement. On parle de nombre de cycles de charge en général. Plus on recharge plus on perd en autonomie.
Pour nos piles de tous les jours cela ne se voit pratiquement pas. Nos appareils (télécommande, pèse personne, etc.) n'étant pas très gourmand, on les recharge occasionnellement.
Pour une voiture c'est bien plus souvent. On extrapole souvent l'autonomie fois le nombre de cycles donnés par le constructeur. Cela donne en fonction de son usage (ex : nombre de Km à l'année) la durée de vie de la batterie en Km... et donc de la voiture.
Il y a aussi le problème que la voiture peut dormir dehors (donc une amplitude thermique jour/nuit). Ça n'aide pas les voitures électriques.
On parle souvent de 10 à 15K€ pour changer une batterie d'un véhicule. Que cela soit en électrique pure ou en hybride.
Bref si tu fais du Km comme un commercial. Une voiture électrique représente un budget. Éventuellement d'être vu comme une voiture jetable. Si on ne fait qu'aller chercher le pain et des courses à moins de 50km (genre sédentaire retraité) ça ira à peu près.
À la revente, une électrique fait un peu la gueule.
Vraie question car j'y connais rien, mais, pourquoi ? J'avais entendu dire pourtant que les électriques demandent peu d'entretien par rapport aux thermiques. Les batteries coûtent si cher que ça à changer ?
La plupart des modèles modernes sont multimodaux. Et si la génération de porn n'est généralement pas dans la scope du modèle, il semble qu'il puisse y avoir quand même un intérêt à lui montrer des humains tous nus pour améliorer sa compréhension de l'anatomie humaine. Les modèles qui ont été entraînés avec un soin particulier pour ne pas générer de porno ont une fâcheuse tendance à générer, encore aujourd'hui, des humains à 3 ou 4 jambes, à 2 genoux par jambe ou aux épaules qui se tordent à 360° (looking at you, Stable Diffusion 3.5).
Chez moi, ça fait bieeeeeeeen longtemps (genre des années) que http://mafreebox.freebox.fr/freeboxtv/playlist.m3u ne fonctionne plus. La playlist se charge, mais toutes les chaînes chargent dans le vide et finit par timeout.
C'est Mediawan qui pourrait sauver Game One, pas Free/Iliad. Ça n'empêche pas de distribuer la chaîne sur Free TV évidemment.
Yep, ce serait pas mal que G1 rejoigne MediawanThematics. D'autant que ça avait déjà failli se faire à une époque, quand MediawanThematics s'appelait encore AB.
Encore faut-y que Paramount veuille vendre. Moi je pense qu'ils en ont rien à foutre et préfèreront fermer ça sans se poser de questions, que chercher un repreneur et maintenir le canal en vie en attendant que la vente se fasse.
En code je sais pas mais en capacité "linguistiques" en français, Haiku 4.5 est à la ramasse. Assez rapidement, il se met à mettre des mots en anglais un peu partout aléatoirement, et pas des anglicismes communs hein : des mots dont il est nécessaire de parler anglais pour comprendre ce qu'ils foutent là et ce qu'ils veulent dire. C'est même pas digne des pires heures de GPT4-Turbo. Si le reste de ses talents est à l'avenant, je ne vois pas trop qui voudrait utiliser ça pour quoi que ce soit. Et vu que c'est désormais le seul modèle proposé gratuitement, ça va faire perdre beaucoup d'intérêt à Claude sur le gratuit.
Une émission ne génère aucun revenu. Elle génère même des dépenses pour la produire.
Pour analyser une rentabilité (par définition des revenus dépassant des dépenses), il faut se pencher sur la source de l'injection. Indirectement, ces revenus, donc la rentabilité mentionnée, sont indirectement liés aux canaux de diffusion.
Je laisse tout un chacun aller jusqu'au bout de la réflexion et disposer des clés expliquant pourquoi, malgré une rentabilité, une reprise (externe ou par ses salariés) est potentiellement difficile voire impossible.
Les revenus pour une chaîne comme Game One c'est à peu près exclusivement la publicité. Les canaux de diffusion me semblent être un faux problème : quand tu reprends une chaîne, tu reprends a priori ses canaux avec. Un peu plus emmerdant est la question de la régie publicitaire : en tant que filiale de Paramount, pour Game One la question était vite réglée puisque Paramount dispose de sa propre régie publicitaire.
En cas de reprise, il faudra soit que Paramount accepte que sa régie serve des chaînes externes (ça se fait : France Télévisions Publicité par exemple fait régie pour de nombreuses chaînes n'appartenant pas au groupe FTV, mais Paramount n'est pas obligé d'accepter), soit qu'elle s'en trouve une autre (celle du repreneur, ou une autre si le repreneur n'en a pas).
Faudrait déjà que Paramount veuille vendre. Ils n'ont rien laissé entendre en ce sens (ni dans le sens contraire d'ailleurs, ils sont en mode "silence radio").
Ils ne pourront pas réutiliser le nom/image "Game One", bien sur. Mais leur audience est suffisamment au fait de leur actualité pour les retrouver sur youtube sous leur nouveau nom.
C'est pas le modèle TV qui implique de laisser Paramount-Skydance décider de leur sort. C'est le fait d'appartenir à Paramount-Skydance.
Pour moi les deux sont indissociables. Le modèle TV en France ce n'est pas un florilège de petites chaines indépendantes, à l'instar des radios libres des années 80. C'est tout l'opposé.
Ils ne pourront pas réutiliser le nom/image "Game One", bien sur. Mais leur audience est suffisamment au fait de leur actualité pour les retrouver sur youtube sous leur nouveau nom.
Ça c'est autre chose. Effectivement si c'est juste pour refaire un talk show hebdomadaire sur le jeu vidéo avec la même équipe, il est peu probable qu'ils relancent une chaîne télé pour ça.
Pour moi les deux sont indissociables. Le modèle TV en France ce n'est pas un florilège de petites chaines indépendantes, à l'instar des radios libres des années 80.
Bien sûr. À peu près toutes les chaînes télé indépendantes ont coulé. Le modèle économique de la télé s'adapte très mal aux petites boîtes, surtout aujourd'hui. Mais Game One n'a de toute façon jamais été une chaîne indé. L'actionnariat de Game One, ça a été tour à tour :
- 50% Canal+ / 50% Infogrames - 15% Infogrames / 85% i-Partners (la holding de Bruno Bonnel, patron d'Infogrames) - X% i-Partners / Y% MTV Networks (avec une part croissante pour MTV Networks) - 100% MTV Networks (Viacom), devenu Paramount
Et faut pas se tromper sur ce qu'était Game One depuis 15 ans. C'était d'abord une chaîne de fictions (anime, principalement), mâtiné d'un peu de jeu vidéo, avec des émissions qui coûtaient pas trop cher à produire parce que les studios et sans doute une partie du staff technique étaient partagés avec d'autres chaînes du groupe, qui suivaient grosso-modo le même modèle économique (beaucoup de fictions et un peu d'émission en plateau).
Tu peux faire un n-ème média sur le jeu vidéo sur le web, mais alors ce n'est pas Game One (en tout cas pas le G1 de ces 15-20 dernières années). Ni dans le nom, ni dans le contenu. Et le web n'est pas une martingale : l'équation économique est difficile à trouver, rémunérer 9 salariés + des pigistes et prestataires + le matos et les locaux avec la pub YouTube et les subs Twitch, c'est tout sauf une évidence.
Il faut regarder d'où la rentabilité vient, d'où les revenus viennent. Ils sont certainement associés indirectement aux canaux de diffusion exploités, et une reprise devrait aussi assurer ces canaux/contrats de diffusion. Rien de moins sûr.
De ce que je sais (ça remonte à quelques années mais ça a pas dû changer beaucoup), la rentabilité de la chaîne vient surtout de ses dessins animés. Les émissions sur le jeu vidéo coûtent plus cher à produire tout en faisant moins d'audience que les anime les plus vendeurs (à l'époque Naruto, aujourd'hui probablement Boruto et One Piece).
Je crois qu'ils ne tournaient des émissions de jeux vidéo qu'un jour par semaine (le mercredi matin pour le différé, et le mercredi après-midi en direct).
Le modèle TV n'est pas en cause puisque la chaîne était rentable.
Le modèle TV est en cause puisque la chaine va fermer alors qu'elle est rentable. Et cela parce que, dans le cas de Game One, le modèle TV ca signifiait laisser Paramount-Skydance décider de leur sort.
CQFD
Parce que, quoi, tu crois que Game One passe sur YouTube, et tada, magiquement, ils cessent d'appartenir à Paramount-Skydance ? Ou que Paramount-Skydance ne décide pas du sort de ses produits non-télévisuels, que les produits du "digital" ont un genre de bouclier magique qui les protège des décisions de la maison-mère ?
C'est pas le modèle TV qui implique de laisser Paramount-Skydance décider de leur sort. C'est le fait d'appartenir à Paramount-Skydance. Et ça, c'est un sort qui est scellé pour Game One depuis 2006 (date à laquelle MTV Networks, aujourd'hui propriété du groupe Paramount-Skydance, rachète les dernières parts de la chaîne encore possédée par Bruno Bonnel).
Si je ne m'abuse, les studios étaient partagés avec d'autres chaînes du groupe. Ils bénéficiaient aussi du fond de catalogue de la Paramount : les vieilles émissions de MTV, les dessins animés possédés par Nickelodeon, etc. Comme toute filiale ou entité d'un groupe, y avait bien sûr des synergies, des économies d'échelle, ne serait-ce que le fait d'être hébergé dans les locaux du groupe, c'est tout l'intérêt d'un groupe.
Mais je ne suis pas convaincu que l'utilisation des caméras ou la réutilisation de Le_Monde_Merveilleux_De_Hulk_Hogan_S01_EP19.ts soit le fond du problème. Je pense surtout que c'est "trop petit" et que le gigagroupe veut simplifier un peu sa gigamyriade de micro-entités. Ils sont en train de fermer des tas de chaînes de partout, actuellement en Europe et selon les bruits de couloir, la même chose se prépare aux États-Unis, notamment côté MTV/VH1.
C'est pas parce que c'est rentable que ça a de la valeur. 2,5 millions de résultat net c'est que dalle dans les comptes de la paramount. Ils s'en débarrasse parce que c'est trop petit.
Là où je te rejoins, c'est qu'ils pourraient au moins songer à revendre la chaîne et sa licence de diffusion ...
Yep. Marcus a bien résumé ça sur sa chaîne Twitch. "On est de la petite monnaie pour eux. Ils savent même pas qui on est ni ce qu'on fait. Tu vois la pièce rouge que tu fais tomber chez le boulanger ? Tu te baisses même pas pour la ramasser. Bah ça, c'est nous."
Je ne sais pas trop quel audience vise cette chaine en 2025 ou souhaite viser en 2026. Même les boomers nostalgiques vont sur Youtube/Twitch pour ce qui concerne le gaming...
Outre qu'il n'est pas sûr du tout que le "digital" soit autant voire plus rentable que la télé traditionnelle (à ma connaissance, toutes les WebTV gaming ont également fermé, et elles il semble que ce soit vraiment par manque de rentabilité), je comprends surtout pas ce que le sujet vient faire dans l'histoire.
Le modèle TV n'est pas en cause puisque la chaîne était rentable. Le passage en digital n'aurait rien changé au fait que Paramount-Skydance cherche manifestement à simplifier sa structure en se débarrassant des petites structures en son sein. Sur Twitch, Game One aurait été tout aussi petit.
Surtout, ça fait bien 15 ans que le jeu vidéo, c'est de l'ordre de 10-15% du temps d'antenne de Game One. Pour info, la locomotive de Game One, c'est Naruto et One Piece. Je te souhaite bon courage pour convaincre les japonais de diffuser ça sur Twitch et Youtube.
Ça me fait toujours un peu marrer, ces posts de gens qui ont aucune idée des structures de coûts et de programme des chaînes télé mais sont convaincus que YouTube est l'eldorado des chaînes en question, alors qu'il doit exister à peu près aucune vraie WebTV commerciale rentable en France.
L'engagement c'est parce qu'en ADSL la mise en place de la ligne coûtait quelque chose à l'opérateur, il voulait donc éviter que son client parte au bout de 2 mois. Alors qu'en RTC l'opérateur n'y avait d'autre à faire que rajouter un client dans sa base de données et/ou lui créditer des heures.
En RTC on pouvait aussi ne pas payer d'abonnement et acheter des heures prépayées au coup par coup, chose impossible en ADSL où c'était abonnement obligatoire et non facturé à l'heure.
Yep. Pour le RTC je me souviens de 3 grandes périodes, par ordre chronologique (à noter que je n'ai pas connu les tous débuts, je sais ce qui s'est passé à partir de 97-98 environ) :
- Abonnement mensuel payant + communication au prix du tarif local pendant X heures. Si tu dépassais ton quota, tu basculais sur du surtaxé à la minute (Club-Internet avait commencé sur ce type d'offres de mémoire). - Abonnement mensuel payant + communication au prix du tarif local illimité (LibertySurf par exemple). Pas de surtaxe. OU Abonnement gratuit mais communication surtaxée très cher dès la première minute (Freesurf par exemple, à ne pas confondre avec Free). - Abonnement mensuel payant communications incluses pendant X heures (après tu basculais sur de la tarification au prix d'une comm locale) [Offre Liberty Telecom Premium de LibertySurf par exemple] OU abonnement gratuit et tarification à la minute au prix d'une comm locale dès la première minute [offre Free par exemple].
Pendant la troisième grande période, certains opérateurs ont proposé des abonnements mensuels communications incluses en illimité. Mais beaucoup ont arrêté rapidement ou mis des limitations énormes ou bien ça fonctionnait très mal (OneTel, WorldOnline...). Les seuls qui ont "tenu le coup" à ma connaissance ça a été AOL, et ça leur a probablement coûté plus que ça ne leur a rapporté (mais à l'époque l'important c'était probablement la croissance, faire grossir sa base d'utilisateurs, pas forcément la rentabilité à court terme).
Il y a eu aussi quelques offres purement gratuites comms incluses comme Oreka (18h/mois puis 6h/mois) et M6Net (6h/mois), mais pareil, ça n'a pas fait long feu, ça n'a jamais été rentable.
À mes yeux, le sens de la marque commerciale Free n'a jamais été "gratuit" (l'offre 56k demandait de payer le prix d'une communication locale, elle ne l'était donc pas) mais "libre". Not "free" as "free beer" but "free speech".
Free proposait des abonnements sans engagement, à la différence de la concurrence à l'époque.
Toute leur communication de lancement était liée à la gratuité, parce que tu n'avais pas à payer de forfait mensuel, ni de numéro surtaxé. Voir la fameuse pub d'époque.
Je n'ai pas souvenir que l'engagement était la norme sur le 56k, c'est plutôt un truc arrivé avec l'ADSL. Quelques opérateurs proposaient une offre avec engagement contre une solide ristourne (AOL Illimité, 99 francs/mois avec engagement 24 mois, 199 francs sans engagement) mais c'était plutôt l'exception ce me semble.
Aux tous débuts de l'ADSL, bien avant leur fameuse offre "30€/mois" et les débuts du dégroupage, Free retentera d'ailleurs l'ADSL "gratuit" : aux débuts de l'ADSL en effet, il fallait payer, outre la ligne téléphonique, un abonnement supplémentaire ADSL à France Télécom + un abonnement à un FAI. Free avait proposé une offre où ils renonçaient à faire payer l'abonnement de leur côté. Restait donc à payer la ligne + l'abo ADSL FT. Ça n'a pas duré longtemps et ça ne marchait, paraît-il, pas très bien.
Je me joins au concert de "beurk". Autant leur fonction de sous-titre automatique (sans traduction) est un peu utile, même si loin d'être parfait, il aide parfois à comprendre l'anglais via les sous-titres automatiques en anglais, quand le locuteur a un fort accent ou articule mal (coucou Stephen Burke de Gamer's Nexus), mais pour tout le reste... et alors le doublage automatique, c'est une calamité. Je suis, bien entendu, d'accord avec Brigitte Lecordier mais de toute façon on n'en est même pas là... ces voix sont insupportables (bon, après, arrêter de regarder Jamie OliveOil, c'est pas une grosse perte).
Et je me demande pourquoi Google Translate n’utilise pas l’IA.
Google Translate utilise l'IA, ils ont même été les premiers à le faire. C'est littéralement eux qui ont inventé les Transformers, pour Google Translate, qui ont permis la naissance du "printemps de l'IA". Et avant ça ils utilisaient déjà des réseaux de neurones récurrents. En revanche je ne sais pas s'ils utilisent un LLM pour YouTube ou s'ils restent sur une architecture encoder/decoder.
C'est juste que les IA ne sont pas si bonnes traductrices qu'on le dit, notamment quand le sujet devient technique ou le langage très familier/oral. Là en plus l'IA doit se débrouiller pour traduire un texte plein d'erreurs de transcription parce que le modèle de speech-to-text a mal compris plein de mots. Ça n'arrange rien.
bah déjà ya la langue du navigateur...c'est pas infaillible (et ça se contourne rapidement) mais c'est un indice.
Ça pose plusieurs problèmes. Par exemple, un pays étranger avec des lois différentes pourrait reprocher à Pornhub de discriminer certains de ses administrés au seul prétexte de la langue qu'ils utilisent dans leur navigateur. De plus, nous ne sommes pas le seul pays francophone des environs. Je ne sais pas pour Chrome, mais pour Firefox par exemple, il n'y a pas de version "français de belgique" ou "français de suisse" (ni même de version québecoise) : c'est français, point.
« Pas de GenAI, pas d'amélioration. Nous menons actuellement une expérience sur certaines vidéos YouTube Shorts qui utilise une technologie de machine learning traditionnelle pour supprimer le flou, réduire le bruit et améliorer la clarté des vidéos pendant leur traitement (similaire à ce que fait un smartphone moderne lorsque vous enregistrez une vidéo) ».
Euh c'est moi ou la deuxième moitié de la phrase contredit la première ? "Non non, pas d'amélioration, on a juste amélioré la clarté des vidéos". C'est-à-dire que c'est un peu le principe d'une amélioration en fait...
Après le coup de "c'est pas de la GenAI c'est du machine learning", bon... c'est vraiment jouer sur les mots.
Il était "consentant" comme peut être "consentant" un mec fragile psychologiquement, sans vraiment de plan B, qui se retrouve soudainement 24/7 avec ses nouveaux "amis" qui le manipulent et lui font un mélange de "on t'adore t'es notre frère", de chantages aux sentiments, de chantage tout court...
Si tu as déjà été harcelé quand tu étais gamin, et si tu as déjà eu des "potes" qui participaient eux-même au harcèlement par moments tout en semblant être vraiment tes potes à d'autres, c'est une mécanique très similaire, l'aspect "dépendance financière" en plus ici.
Oui, je m'en souviens ! Le logiciel était sur le principe assez basique mais ingénieux : une petite macro qui déloggait/reloggait automatiquement via le logiciel propriétaire d'AOL (obligatoire pour négocier la connexion) au bout de 29min59s. On était quand-même "déconnecté" au sens où on perdait la session en cours, changeait d'IP etc. mais ça évitait de devoir se retaper toute la séquence de numérotation etc. (avec en plus le risque que ça sonne occupé aux heures de pointes). Ultérieurement, le créateur avait ajouté un proxy local à son logiciel, censé permettre de ne pas perdre un téléchargement en cours car le navigateur ne voyait pas la déconnexion. Mais pas sûr que ça fonctionnait vraiment vu qu'il fallait quand-même renégocier une nouvelle connexion TCP avec le serveur web distant.
J'ai testé la version à 20 milliards de paramètres sur ma machine. Elle fait 14Go donc rentre bien dans la VRAM d'un GPU doté de 16Go. Ça tourne plutôt bien sur ma RTX 5060Ti (16Go). La vitesse de génération des tokens est comparable à ce qu'on a chez Anthropic et OpenAI dans les versions gratuites des gros modèles.
Quant à "l'intelligence" du modèle, sans être au niveau de GPT-4o et encore moins de GPT-5, disons que par rapport aux autres modèles de taille équivalente, il a quand-même la particularité de ne pas être complètement braindead. Y a quand-même beaucoup d'hallucinations dès qu'il faut mobiliser des connaissances, mais en compétence pure, par exemple en vibe-coding, il explose les versions distillées de DeepSeek-r1 de taille apte à tenir sur un GPU à 16Go de VRAM, et je ne parle même pas de LLaMa 3.1 et Gemma 3, complètement à la ramasse.
Ça a l'air d'être le meilleur modèle open-weight capable de tourner sur un GPU grand public milieu de gamme à ce jour. Mais comme d'hab, faut se calmer sur les promesses de modèle giga-intelligent qui ferait des merveilles. Juste : c'est utilisable, et c'est déjà pas mal.
2289 commentaires
Aujourd'hui à 13h14
En revanche, ils sont tout à fait fondés à interdire à des scientifiques d'utiliser cette base.
Ce serait sûrement vachement pratique de pouvoir juste demander à un pote non-chercheur de s'occuper de toute la partie non-éthique d'une recherche et de n'avoir plus ensuite qu'à se servir pour contourner les comités, mais ce n'est fort heureusement pas comme ça que ça marche.
Et à supposer que la base soit légale - ce qui me semble très incertain ne serait-ce que du point de vue du droit à l'image - ça ne veut pas dire pour autant qu'elle est éthique au plan scientifique. Un tas d'actes légaux sont interdits par les comités d'éthique.
Modifié le 02/12/2025 à 22h59
Sinon, en tant que traducteur, je me sers très souvent de ChatGPT (que je trouve le plus doué dans ce domaine), mais pas pour le faire pré-traduire à ma place. Ça je trouve ça peu efficace pour les raisons déjà mentionnés. En revanche, je m'en sers tout le temps pour lui poser des questions telles que :
- Comment tu comprends ce mot anglais, dans tel contexte particulier, ça a l'air d'avoir globalement un rapport avec tel truc, je pense que l'idée c'est machin-machin mais je suis pas sûr d'avoir le mot exact en tête ?
- J'ai un mot français en tête, je sais qu'il existe, je l'ai sur le bout de la langue mais je retrouve pas, il veut dire , tu l'as ?
- Est-ce que tu peux me suggérer des mots dans le champ lexical de ?
- Existe-t-il un adjectif qui correspond au substantif ? Si non, quel serait un adjectif au sens similaire ?
- Aide moi à reformuler la phrase suivante ou le bout de phrase suivant pour la rendre plus concise/plus courtoise/plus littéraire
- Quel est le terme technique habituellement choisi en français pour le mot anglais , dans le contexte d'un SaaS d'analyse de big data ?
Même comme ça, il faut vérifier, parfois il se plante, ou ses réponses ne sont pas vraiment ce qu'on cherche, mais en général ça permet au minimum de vachement faciliter la recherche en dégrossissant bien le truc ou en te mettant sur la voie. C'est pas le truc magique qui divise mon boulot par 4 ou même par 2, mais ça me fait bien gagner, oh, je dirais... 20% de productivité horaire.
Sinon, le MTPE (l'IA pré-traduit et je repasse derrière), on me demande généralement le double de productivité pour le même tarif (ou pour le dire autrement, on me paye 50 à 60% moins au mot), mais la réalité c'est que :
- Financièrement je ne m'y retrouve pas, ma productivité n'augmente pas assez pour que le revenu horaire soit équivalent
- La qualité en pâtit pour les raisons que j'ai exposées au début (l'IA me pollue le cerveau et j'ai du mal à reformuler vraiment à ma sauce pour retrouver la qualité d'une traduction humaine).
Mais bon aujourd'hui la grande majorité des clients veut ça, alors on fait avec.
Le 29/11/2025 à 17h31
Le 28/11/2025 à 22h04
De ce que je comprends avec vos réponses, chaque collège a l'air de faire sa tambouille vis-à-vis des sorties. Dans le mien, pas de sortie entre les cours (sauf la sortie du midi pour les externes évidemment), mais si on n'avait plus court de la journée :
- Les externes libres pouvaient sortir sans demander à qui que ce soit dès qu'ils n'avaient plus cours (après la cantine pour les demi-pensionnaires libres) <== dans mon souvenir, c'était une minorité d'élèves.
- Les externes et DP surveillés ou transportés ne pouvaient sortir avant 16h20 que si un adulte autorisé venait spécifiquement les chercher. Sinon, ils devaient attendre en perm' jusqu'à 16h20 minimum même s'ils n'avaient plus cours. <== C'est ceux-là qui prenaient d'assaut la cabine téléphonique en cas de prof absent.
Le 28/11/2025 à 20h15
"De mon temps", il y avait une cabine téléphonique dans le bahut qui marchait avec une pièce de 10 francs (une pour tout le bahut, autant dire qu'en période de grève c'était la guerre), mais je doute que ce genre de dispositifs existent encore en 2025 ?
Modifié le 29/11/2025 à 18h45
Source : [Laser Beam] deals extra damage
Suggestion IA : [Rayon laser] inflige des dégâts supplémentaires
Ici ça me pose un problème parce que rayon laser, je suis désolé, mais c'est pas un vrai nom propre, et même si on le considère comme un, ce n'est pas un nom propre monoréférentiel tel qu'une personne ou une entreprise. Donc il faut un article défini devant. "Le [Rayon laser] inflige..." (ou "Le [rayon laser] inflige..." selon qu'on choisisse d'être généreux ou non sur l'usage des majuscules).
C'est des détails, mais c'est ce qui fait la différence entre une traduction pro et une traduction boiteuse. Et des erreurs comme ça, je dirais que grosso-modo la moitié des segments d'une traduction standard en possède au moins une. Parfois plus en fonction de la nature du texte et de l'exhaustivité de la mémoire de traduction.
Je précise aussi que les traducteurs des différentes langues ont passé quasi deux mois à documenter et remonter précisément tous ces problèmes, avec un joli tableau pour indiquer précisément "Segment source", "Traduction IA erronée", "Traduction corrigée", "Explication de l'erreur" à chaque fois, dans le but d'ajuster les prompts sur la base de ces retours. Et qu'on n'a noté aucune amélioration. Quand les prompteurs arrivaient à débarrasser l'IA d'un défaut, un autre apparaissait ailleurs à la place.
EDIT: Encore un autre trouvé aujourd'hui, "La civilisation s'est écroulée en poussière" (traduction mot à mot de "crumbled to dust", sauf que l'image ne marche pas tellement en français, l'expression consacrée serait plutôt "être réduit en poussière", ou une autre du genre comme "voler en éclat", "être mis en pièces", "partir en fumée" ou autre.).
EDIT2: Encore un autre : "Our triumphs will be lost to time" traduit en "Nos triomphes seront perdus dans le temps". C'est, au mieux, une traduction littérale, mot-à-mot. Le sens de "lost to time" c'est "oublié" après une très longue période. En première approximation, on pourrait traduire ça par quelque chose comme "Effacé par le temps", mais il y a moyen de faire plus élégant. Par exemple, "obscurcis par la brume du temps" (pour faire une petite ref à A Link To The Past).
Modifié le 28/11/2025 à 19h52
Au delà de ça, c'est difficile de te donner des exemples très précis sans briser de NDA mais je vais te donner quelques exemples modifiés :
- "Defeat to obtain the reward" traduit par "Subissez une défaite pour obtenir la récompense" (alors que dans le contexte, c'était tout l'inverse : il fallait vaincre l'ennemi pour obtenir la récompense).
- "The creature charges into the town atop a beast born of darkness. Its wooden antlers surge with unstoppable force." traduit par "La créature charge dans la ville au sommet d'une bête née des ténèbres. Ses bois de bois surgissent d'une force inarrêtable." (Ici tout le style est à chier, mention spéciale à "ses bois de bois").
- "The Fighter can appear in the forest. Once the siege battle starts, you can attack them." traduit en "Le combattant peut apparaître dans la forêt. Une fois la bataille de siège commencée, vous pouvez les attaquer." (Ici, il y a deux soucis : d'abord "bataille de siège" n'est pas une formulation très heureuse, et surtout en second lieu, le "them" utilisé pour marquer un singulier de genre neutre a été interprété par l'IA comme un pluriel.)
- "50% of the targeted creatures will be inflicted with minor injuries" traduit par "50 % des créatures ciblées seront infligées de blessures mineures" (ici, problème de syntaxe, "infligé de blessures" ne se dit pas, mais l'IA a voulu coller à la formulation anglaise)
- "There is a persistent red dot notification in the UI" traduit en "Il y a une notification de point rouge persistante dans l'interface" (On comprend l'idée, mais la formulation est mauvaise. Il vaudrait mieux dire, par exemple, "Un point rouge de notification reste présent en permanence dans l'interface").
- "Gear attribute" traduit en "Attribut de l'engrenage" (il s'agissait de Gear au sens d'équipement).
- "If we keep doing that, we can expand the building to house more soldiers." traduit en "Si nous continuons comme ça, nous pouvons étendre le bâtiment..." => problème de concordance des temps, on a besoin de futur ici - de manière générale l'anglais se permet très souvent du présent là où le futur est nécessaire en français, et l'IA se plante assez souvent. À l'inverse, elle use et abuse du passé composé pour traduire le prétérit et le present perfect là où ce n'est pas toujours idiomatique en français).
Parfois, tu as des traductions qui sont techniquement correctes mais pas idéales. Par exemple, j'ai déjà vu "Dark Tides" traduit par "Marées noires", et je veux dire... c'est pas faux en soi, mais dans la mesure où en France, le terme "Marée noire" renvoie couramment à une nappe d'hydrocarbure qui arrive sur un rivage ("oil spill" ou "oil slick" en anglais), c'est mieux de trouver autre chose.
Il y a aussi des problèmes récurrents de ton dans les dialogues. Je n'ai pas noté les exemples mais je ne compte pas le nombre de fois où deux vieux potes endurcis par la guerre se parlent de façon hyper rigide et formelle, en mode "Je pense que nous devrions rentrer à la base pour dire au chef à quel point la mission est difficile." au lieu d'un truc un peu plus vivant genre "Je pense qu'il faut qu'on rentre à la base, là. On dira au chef que la mission est trop dure.", voire carrément "Moi je dis, on rentre à la base, et on dit au chef que sa mission, ça va pas le faire." selon le contexte : des fois, il faut savoir écrire "faux" pour que ça fasse "vrai", parce que les personnages vivants ne s'expriment pas toujours comme dans le Grevisse.
À l'inverse, tu vas parfois te retrouver avec un "Putain !" qui sort de nulle part dans un jeu tout public, parce que l'IA a pas su doser sa traduction de "Crap!".
Je précise que toutes ces erreurs ont été commises par un modèle censé être state-of-the-art, prompté par des gens qui se revendiquent ingénieurs IA et spécialistes en langues, et que le modèle a accès à la Bible du jeu, au guide de style, à l'ensemble du glossaire (qui n'est malgré cela pas toujours respecté), et à l'intégralité de la mémoire de traduction, c'est-à-dire l'ensemble des originaux et de leur traduction validée par des humains jusqu'ici, parfaitement alignée segment par segment. (En traduction, un "segment" correspond grosso-modo à une string : ça peut être un mot, une phrase, un élément de menu, plus rarement un paragraphe).
Je peux aussi te proposer trois exemples issus du récent jeu à succès Megabonk, qui a ostensiblement été traduit par une IA :
- Dans les options, tu peux choisir entre ombres désactivées, douces, ou... "difficiles". (Probablement une erreur de traduction de Hard shadows, c'est-à-dire des ombres nettes, marquées).
- Le jeu est blindé de participes présents à la con. En anglais il est courant de dire un truc genre "Creates a thunderstorm, sweeping the enemies nearby, inflicting 50% damage, causing a permanent confusion effect", mais en Français, quand c'est traduit par une IA (ou un traducteur inexpérimenté) tu te retrouves avec un truc affreux genre "Crée un orage, balayant les ennemis à proximité, infligeant 50% de dégâts, causant un effet de confusion permanent". Il serait beaucoup plus idiomatique d'écrire "Crée un orage qui balaye les ennemis à proximité, inflige 50% de dégâts et cause un effet de confusion permanent."
- Tu as des erreurs partout dans les bouts de phrases concaténées. Par exemple : "Augmente Argent gagné" (probablement une erreur liée au fait que la string originale était "Increases [%1] earned" ou "Increases earned [%1]". L'IA a tout simplement traduit ça en "Augmente [%1] gagné" sans se poser plus de questions. Pour être honnête ce genre de chaînes est toujours un enfer pour les traducteurs car ça s'adapte très mal aux règles de syntaxe et de grammaire différentes de l'anglais, mais y a toujours moyen de maroufler. L'IA, elle, le marouflage elle connaît pas. Elle traduit, point.
Voilà quelques exemples, dans le domaine du jeu vidéo, qui est celui que je connais le mieux de ce point de vue et celui de la news initiale. Tu rencontres bien sûr le même genre de problèmes dans d'autres domaines, même si les formes et les défauts spécifiques varient un peu.
Après, il y a des domaines où l'IA est très à l'aise. Si tu lui demandes de traduire un article du New York Times ou du Guardian vers le français, ça va normalement bien se passer (il peut toujours se glisser une erreur de traduction face à un mot spécifique mais globalement y aura peu de retouche à faire). Si tu lui demandes de te traduire une étude d'impact de la Commission Européenne aussi - à condition que ce ne soit pas sur un sujet technique avec plein de jargon technique complexe ou de subtilités juridiques merdiques liés aux spécificités des systèmes juridiques des pays anglophones vs francophones.
Mais dès qu'on entre dans du texte un peu plus organique, désordonné, "humain", ou dans du texte très technique, ou dans du texte qui n'est pas organisé sous forme de jolis paragraphes faisant suite logique mais plutôt sous forme de nombreuses chaînes de caractère parfois désarticulées... ça devient tout de suite nettement plus sportif.
Le 28/11/2025 à 12h45
Le 21/11/2025 à 11h47
L'idée, c'est surtout de constater que le modèle ne raisonne pas réellement (sinon il se rendrait compte qu'il ne sait pas faire), n'est pas doué de logique formelle ne serait-ce que de niveau école primaire (sinon il saurait faire), que ça reste un modèle de langage et qu'aussi impressionnant que ça puisse être dans son aptitude à donner des réponses souvent (au moins approximativement) valables à des questions d'une diversité absolument folle, ça reste extrêmement différent d'un modèle doué de véritables cognitions.
Modifié le 20/11/2025 à 23h15
Si tu cherches un expert en [la question], c'est pas comme ça que ça marche. Il y a des experts en des disciplines qui ont trait à la question, et qui peuvent ensemble apporter un éclairage tel que, en mettant leurs connaissances bout à bout, on se fait une idée très précise de la réponse.
De la même manière que début 2020, il y avait pas d'expert en "quel sera le taux de transmission du Covid-19 en l'absence de mesures de réduction des risques de transmission". Il y avait des experts en virologie, en épidémiologie, en sociologie des foules, en anthropologie spécialisés dans les crises sanitaires, et ensemble ils ont pu conclure correctement début 2020 qu'à partir du moment où il y avait des foyers infectieux en France, en l'absence de mesures radicales, la situation deviendrait totalement ingérable.
Le 20/11/2025 à 23h01
Le 20/11/2025 à 22h59
Modifié le 20/11/2025 à 22h01
Et contrairement à toi, je ne suis pas sûr que ça rende les open-worlds plus convaincants que des dialogues bien écrits, sauf si la thématique du jeu est précisément l'intelligence artificielle et/ou la robotique (ça pourrait marcher dans un Detroit: Become Human 2 par exemple).
Mais je maintiens qu'il reste en tout état de cause des sales difficultés légales et de réputation, si j'étais éditeur je m'amuserais pas à ça, trop de coups à prendre dès que le modèle sera jailbreaké (et il le sera inévitablement). J'aurais pas envie de me taper la shitstorm qui va nécessairement tomber sur le râble de l'éditeur un peu en vue qui tentera ça. Mais qui sait... peut-être qu'il y aura une tête brûlée pour tenter.
Le 19/11/2025 à 19h25
- En local, c'est difficilement envisageable pour le moment. Un LLM un peu correct, avant même de parler de la synthèse vocale convaincante, a tendance à occuper à plein temps une carte graphique plutôt correcte (la VRAM surtout). Genre GPT-OSS rame sur ma 5060Ti 16go (et c'est pour moi le seul LLM open-weight local qui tient la route parmi ceux qui tiennent sur un GPU grand public). Bon c'est pas une 5090 j'entends bien, mais la majeure partie des utilisateurs a moins bien. Alors imagine avec un jeu qui a besoin du GPU pour afficher des graphismes en même temps...
- En cloud ça peut vite devenir extrêmement coûteux pour l'éditeur, ça ne fonctionne que tant que le LLM est dispo, répond, et que l'API ne change pas, sauf à ce que l'éditeur utilise son propre LLM hébergé en datacenter (ça va en faire, du compute à payer...)
- Ça peut vite péter l'immersion quand ton PNJ va soudainement te sortir un tonitruant "Désolé, en tant que grand modèle de langage, je ne peux pas t'aider à mettre en place un coup d'État contre l'Empereur de la planète Zoïdbek. En revanche, je peux te faire une liste des coups d'État réussis contre des empereurs, ou bien t'écrire un poème sur les empereurs déchus. Aimerais-tu que je fasse cela ?"
- Surtout, ça peut vite devenir un cauchemar juridique pour l'éditeur si des joueurs commencent à réussir à faire dire des dingueries au modèle, et je te dis pas comment BFMTV (ou CNN ou Fox News aux US) vont se faire les choux gras quand des joueurs auront réussi à faire dire aux PNJ du jeu des horreurs nazies, avant que la Ministre de l'Enfance et de la Censure embraye aussitôt pour dire que "c'est pas possible ça peut pu durer" et qu'il faut "interdire les jeux vidéo" parce que "pensez à nos enfants". Un modèle, ça se jailbreak... et compte pas sur BFMTV et le Gouvernement pour faire dans la nuance et pour rentrer dans la technique.
Le 19/11/2025 à 19h19
Manque de bol, le public l'a vu. Et se dit qu'effectivement y a tromperie sur la marchandise
Le 19/11/2025 à 18h11
Le problème c'est surtout "la façon de dire". Très souvent, c'est pas que c'est faux, c'est juste que... c'est pas comme ça qu'on s'exprimerait en français, et tu devines la formulation anglaise derrière.
Ça manque de naturel, de fluidité (par exemple les participes présents traduits tels quels, alors qu'ils sont beaucoup moins naturels en français qu'en anglais).
Voire ça devient confus et peu lisible, il faut lire la phrase 2-3 fois pour la comprendre à cause d'une syntaxe médiocre (genre "nom de adjectif de adjectif" ou "faites X pour Y pour Z").
Ou encore dès qu'on veut traduire des dialogues, des problèmes récurrents de ton, avec des vieux potes qui se parlent dans un français hyper formel,
C'est surtout ces types de problèmes là qui sont beaucoup plus difficiles à corriger, parce qu'il faut vraiment repenser la phrase dans son ensemble, pas juste changer un mot, et c'est là que ton cerveau est pollué par la phrase telle que tu viens de la lire. Tu sens bien que la proposition de l'IA est pas naturelle pour toi, locuteur natif, mais tu retrouves plus difficilement la bonne après avoir lu la mauvaise. Alors tu vas "arranger" pour dégrossir un peu la plume de l'IA, mais tu sens aussi que c'est pas aussi bon que si tu étais parti d'une "page blanche" avec tes idées à toi sur la meilleure façon d'exprimer cette phrase ou ce paragraphe.
Le 18/11/2025 à 12h39
C'est un domaine un peu différent mais je vois vraiment ça constamment en traduction. C'est vraiment dur de se détacher de la proposition de l'IA même si tu sens intuitivement qu'elle est pas terrible. Donc tu te retrouves à "améliorer" mais la base, ça reste quand même celle de l'IA là où un humain aurait été plus créatif (dans le style, dans les noms, dans la syntaxe, etc.) s'il avait pris ça de zéro.
Le 13/11/2025 à 11h20
Le 12/11/2025 à 17h49
Le 12/11/2025 à 17h46
Le 12/11/2025 à 13h01
Le 10/11/2025 à 20h11
Le 10/11/2025 à 19h28
Le 10/11/2025 à 14h26
J'ajoute que tout ce foin pour un bout de silicone c'est vraiment se foutre du monde, on n'a pas plus urgent à faire, notamment en matière de protection de l'enfance, à l'heure où un rapport parlementaire sur l'aide sociale à l'enfance constatait « d’une action publique profondément et structurellement dysfonctionnelle et d’un manque chronique d’implication de l’État », et où on a appris que seuls 12% des enfants placés par l'ASE obtenaient un baccalauréat général ou un diplôme d'études supérieures ?
J'suis sûr que le bout de silicone se remettra, lui...
Le 10/11/2025 à 14h18
Le 09/11/2025 à 14h46
Le 08/11/2025 à 10h42
Le 07/11/2025 à 22h58
Le 01/11/2025 à 20h17
Le 22/10/2025 à 15h20
Le 22/10/2025 à 15h14
Encore faut-y que Paramount veuille vendre. Moi je pense qu'ils en ont rien à foutre et préfèreront fermer ça sans se poser de questions, que chercher un repreneur et maintenir le canal en vie en attendant que la vente se fasse.
Le 17/10/2025 à 15h47
Le 13/10/2025 à 20h50
En cas de reprise, il faudra soit que Paramount accepte que sa régie serve des chaînes externes (ça se fait : France Télévisions Publicité par exemple fait régie pour de nombreuses chaînes n'appartenant pas au groupe FTV, mais Paramount n'est pas obligé d'accepter), soit qu'elle s'en trouve une autre (celle du repreneur, ou une autre si le repreneur n'en a pas).
Le 13/10/2025 à 13h48
Le 13/10/2025 à 13h45
Bien sûr. À peu près toutes les chaînes télé indépendantes ont coulé. Le modèle économique de la télé s'adapte très mal aux petites boîtes, surtout aujourd'hui. Mais Game One n'a de toute façon jamais été une chaîne indé. L'actionnariat de Game One, ça a été tour à tour :
- 50% Canal+ / 50% Infogrames
- 15% Infogrames / 85% i-Partners (la holding de Bruno Bonnel, patron d'Infogrames)
- X% i-Partners / Y% MTV Networks (avec une part croissante pour MTV Networks)
- 100% MTV Networks (Viacom), devenu Paramount
Et faut pas se tromper sur ce qu'était Game One depuis 15 ans. C'était d'abord une chaîne de fictions (anime, principalement), mâtiné d'un peu de jeu vidéo, avec des émissions qui coûtaient pas trop cher à produire parce que les studios et sans doute une partie du staff technique étaient partagés avec d'autres chaînes du groupe, qui suivaient grosso-modo le même modèle économique (beaucoup de fictions et un peu d'émission en plateau).
Tu peux faire un n-ème média sur le jeu vidéo sur le web, mais alors ce n'est pas Game One (en tout cas pas le G1 de ces 15-20 dernières années). Ni dans le nom, ni dans le contenu. Et le web n'est pas une martingale : l'équation économique est difficile à trouver, rémunérer 9 salariés + des pigistes et prestataires + le matos et les locaux avec la pub YouTube et les subs Twitch, c'est tout sauf une évidence.
Le 13/10/2025 à 08h43
Je crois qu'ils ne tournaient des émissions de jeux vidéo qu'un jour par semaine (le mercredi matin pour le différé, et le mercredi après-midi en direct).
Modifié le 12/10/2025 à 17h58
C'est pas le modèle TV qui implique de laisser Paramount-Skydance décider de leur sort. C'est le fait d'appartenir à Paramount-Skydance. Et ça, c'est un sort qui est scellé pour Game One depuis 2006 (date à laquelle MTV Networks, aujourd'hui propriété du groupe Paramount-Skydance, rachète les dernières parts de la chaîne encore possédée par Bruno Bonnel).
Le 11/10/2025 à 18h58
Mais je ne suis pas convaincu que l'utilisation des caméras ou la réutilisation de Le_Monde_Merveilleux_De_Hulk_Hogan_S01_EP19.ts soit le fond du problème. Je pense surtout que c'est "trop petit" et que le gigagroupe veut simplifier un peu sa gigamyriade de micro-entités. Ils sont en train de fermer des tas de chaînes de partout, actuellement en Europe et selon les bruits de couloir, la même chose se prépare aux États-Unis, notamment côté MTV/VH1.
Le 11/10/2025 à 18h40
Le 11/10/2025 à 18h38
Le modèle TV n'est pas en cause puisque la chaîne était rentable. Le passage en digital n'aurait rien changé au fait que Paramount-Skydance cherche manifestement à simplifier sa structure en se débarrassant des petites structures en son sein. Sur Twitch, Game One aurait été tout aussi petit.
Surtout, ça fait bien 15 ans que le jeu vidéo, c'est de l'ordre de 10-15% du temps d'antenne de Game One. Pour info, la locomotive de Game One, c'est Naruto et One Piece. Je te souhaite bon courage pour convaincre les japonais de diffuser ça sur Twitch et Youtube.
Ça me fait toujours un peu marrer, ces posts de gens qui ont aucune idée des structures de coûts et de programme des chaînes télé mais sont convaincus que YouTube est l'eldorado des chaînes en question, alors qu'il doit exister à peu près aucune vraie WebTV commerciale rentable en France.
Le 05/10/2025 à 08h56
- Abonnement mensuel payant + communication au prix du tarif local pendant X heures. Si tu dépassais ton quota, tu basculais sur du surtaxé à la minute (Club-Internet avait commencé sur ce type d'offres de mémoire).
- Abonnement mensuel payant + communication au prix du tarif local illimité (LibertySurf par exemple). Pas de surtaxe. OU Abonnement gratuit mais communication surtaxée très cher dès la première minute (Freesurf par exemple, à ne pas confondre avec Free).
- Abonnement mensuel payant communications incluses pendant X heures (après tu basculais sur de la tarification au prix d'une comm locale) [Offre Liberty Telecom Premium de LibertySurf par exemple] OU abonnement gratuit et tarification à la minute au prix d'une comm locale dès la première minute [offre Free par exemple].
Pendant la troisième grande période, certains opérateurs ont proposé des abonnements mensuels communications incluses en illimité. Mais beaucoup ont arrêté rapidement ou mis des limitations énormes ou bien ça fonctionnait très mal (OneTel, WorldOnline...). Les seuls qui ont "tenu le coup" à ma connaissance ça a été AOL, et ça leur a probablement coûté plus que ça ne leur a rapporté (mais à l'époque l'important c'était probablement la croissance, faire grossir sa base d'utilisateurs, pas forcément la rentabilité à court terme).
Il y a eu aussi quelques offres purement gratuites comms incluses comme Oreka (18h/mois puis 6h/mois) et M6Net (6h/mois), mais pareil, ça n'a pas fait long feu, ça n'a jamais été rentable.
Le 04/10/2025 à 02h34
Je n'ai pas souvenir que l'engagement était la norme sur le 56k, c'est plutôt un truc arrivé avec l'ADSL. Quelques opérateurs proposaient une offre avec engagement contre une solide ristourne (AOL Illimité, 99 francs/mois avec engagement 24 mois, 199 francs sans engagement) mais c'était plutôt l'exception ce me semble.
Aux tous débuts de l'ADSL, bien avant leur fameuse offre "30€/mois" et les débuts du dégroupage, Free retentera d'ailleurs l'ADSL "gratuit" : aux débuts de l'ADSL en effet, il fallait payer, outre la ligne téléphonique, un abonnement supplémentaire ADSL à France Télécom + un abonnement à un FAI. Free avait proposé une offre où ils renonçaient à faire payer l'abonnement de leur côté. Restait donc à payer la ligne + l'abo ADSL FT. Ça n'a pas duré longtemps et ça ne marchait, paraît-il, pas très bien.
Le 12/09/2025 à 04h38
Modifié le 12/09/2025 à 04h31
C'est juste que les IA ne sont pas si bonnes traductrices qu'on le dit, notamment quand le sujet devient technique ou le langage très familier/oral. Là en plus l'IA doit se débrouiller pour traduire un texte plein d'erreurs de transcription parce que le modèle de speech-to-text a mal compris plein de mots. Ça n'arrange rien.
Le 03/09/2025 à 22h30
Le 25/08/2025 à 19h21
Après le coup de "c'est pas de la GenAI c'est du machine learning", bon... c'est vraiment jouer sur les mots.
Le 20/08/2025 à 05h23
Si tu as déjà été harcelé quand tu étais gamin, et si tu as déjà eu des "potes" qui participaient eux-même au harcèlement par moments tout en semblant être vraiment tes potes à d'autres, c'est une mécanique très similaire, l'aspect "dépendance financière" en plus ici.
Le 12/08/2025 à 01h29
Ultérieurement, le créateur avait ajouté un proxy local à son logiciel, censé permettre de ne pas perdre un téléchargement en cours car le navigateur ne voyait pas la déconnexion. Mais pas sûr que ça fonctionnait vraiment vu qu'il fallait quand-même renégocier une nouvelle connexion TCP avec le serveur web distant.
Le 11/08/2025 à 03h41
Quant à "l'intelligence" du modèle, sans être au niveau de GPT-4o et encore moins de GPT-5, disons que par rapport aux autres modèles de taille équivalente, il a quand-même la particularité de ne pas être complètement braindead. Y a quand-même beaucoup d'hallucinations dès qu'il faut mobiliser des connaissances, mais en compétence pure, par exemple en vibe-coding, il explose les versions distillées de DeepSeek-r1 de taille apte à tenir sur un GPU à 16Go de VRAM, et je ne parle même pas de LLaMa 3.1 et Gemma 3, complètement à la ramasse.
Ça a l'air d'être le meilleur modèle open-weight capable de tourner sur un GPU grand public milieu de gamme à ce jour. Mais comme d'hab, faut se calmer sur les promesses de modèle giga-intelligent qui ferait des merveilles. Juste : c'est utilisable, et c'est déjà pas mal.
Le 11/08/2025 à 03h31