Liam
est avec nous depuis le 25 août 2003 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
2125 commentaires
Codestral : Mistral se lance dans le code généré par IA
Le 30/05/2024Le 30/05/2024 à 17h 42
Pour le PC Pro, certes. Pour le déplacement vers un lieu professionnel, aussi (s'il est pas en télétravail). Pour le reste pas vraiment : à moins de considérer qu'on doit tuer ou s'abstenir de faire naître toute personne susceptible d'être improductive, les besoins de base de l'humain restent, qu'il bosse sur du code ou qu'il passe la journée à se gratter le bide.
Le 30/05/2024 à 17h 40
Comme d'hab avec l'IA, c'est chouette pour jouer dans son coin, se simplifier la vie pour des projets persos... mais si une grosse boîte se met à compter là-dessus en oubliant l'expertise humaine, à mon avis elle va au devant de sérieuses emmerdes. Ne serait-ce que parce que du code écrit par quelqu'un qui ne le comprend pas, c'est du code non-maintenable, non-débuggable, non-corrigible en cas de faille de sécurité trouvée.
Faudra payer un expert capable de relire une base de code sur laquelle il a pas travaillé en amont et c'est le genre de prestation qui va se vendre très cher sur le marché. D'autant plus cher si les experts se font rares parce qu'on n'a jamais donné l'occasion à une nouvelle génération de se faire la main en tant que junior vu que "nan mais c'est bon, l'IA s'en occupe".
Rachat de La Poste Mobile : des « divergences » entre SFR et La Poste
Le 29/05/2024Le 30/05/2024 à 17h 33
C'est une contamination de l'anglais (en anglais c'est bien decade pour décennie). Malheureusement on en est tous plus ou moins victime à des degrés divers. C'est inévitable vu comme on baigne dans un monde de plus en plus anglophone.
Le 29/05/2024 à 17h 56
Décennies plutôt. Une décade en français c'est plutôt une période de 10 jours.
Des éditeurs remplacent leurs traducteurs par des IA
Le 27/05/2024Le 29/05/2024 à 03h 45
Personne ne dit que ça va "stagner encore très longtemps", on n'en sait rien. Les progrès ne sont pas linéaires de toute façon. On peut avoir des progrès fulgurants en l'espace de trois mois puis 10 ans de stagnation. Comme on peut avoir des progrès plus graduels pendant 5 ans, puis 3 ans de pause, puis un nouveau breakthrough, puis... bien malin qui peut prédire l'avenir.
Moi, je répondais juste à ton "on est au début". Non, dans le domaine de la traduction, on n'est pas spécialement "au début". Dans la génération de vidéos ou de modèles 3D par IA générative, là oui on est au début. Dans la traduction, on est sur 35 ans de recherche et quasi 10 ans de solutions commerciales basées sur les CNN et RNN (Baidu propose la sienne au public depuis 2015). Des mastodontes comme Google, Microsoft, Baidu y travaillent depuis une décennie. Des startups plus agiles comme DeepL aussi. DeepL qui a développé son modèle - toujours en usage - en 2016, et a commencé la constitution d'une base de données pour l'apprentissage dès 2007, à une époque où la grande majorité des PC tournaient encore sous Windows XP.
Alors oui, à l'échelle de l'humanité on est certainement au début. Mais à l'échelle de l'informatique pas vraiment.
Le 28/05/2024 à 19h 09
On est certes dans l'explosion de l'IA et les investissements sont beaucoup plus élevés qu'avant, mais je maintiens que non, l'IA dans la traduction c'est vraiment pas neuf. Même en limitant l'IA aux réseaux de neurones récurrents, c'est un des premiers domaines - peut-être le premier domaine - à avoir mis des réseaux de neurones dans ses applis. Bien avant stable-diffusion et Midjourney, et bien-sûr bien avant ChatGPT.
Toi tu as peut-être découvert les transformers, les réseaux de neurones, les IA génératives et tout le toutim il y a deux ans quand OpenAI a présenté ChatGPT. Mais dans la traduction ça fait 10 ans que c'est en place commercialement. Et j'insiste : c'est la même technologie que celle utilisée aujourd'hui (attention-based RNNs). Je parle pas de traduction statistique là.
Le 28/05/2024 à 01h 46
On n'en est même pas à se questionner sur traduction de Shakespeare vs. Pratchett. On en est pour l'instant encore à essayer de faire comprendre à DeepL que non, "largely" au sens de "en grande partie" ou de "fortement" ne se traduit pas par "largement" quand on est sérieux. Ou à GPT4o que oui, bien sûr, littéralement "to posture" c'est se positionner, mais qu'au sein d'une phrase pour signifier que quelqu'un prend une position publique pas tout à fait sincère, il vaut mieux reformuler. Ou que oui, "current" signifie "actuel", mais que dans une phrase exprimée au futur ça colle pas trop et que là encore il vaut mieux reformuler.
Franchement, faut pas les laisser traduire sans surveillance même des textes simples, actuels et écrits dans un langage neutre, si on veut un résultat pro et publiable sans honte. Faut systématiquement qu'une personne réellement bilingue et avec de vraies compétences en traductologie repasse derrière, et c'est long.
Après pour un usage interne et comprendre le sens général d'un texte, oui ça fait l'affaire. Mais pour l'instant ça s'arrête là. Pour moi, une boîte qui publie des bouquins traduits par l'IA ne mérite pas le titre d'éditeur.
Le 28/05/2024 à 01h 03
Ça dépend à quelle échelle tu te situes. Mais 18 ans dans le domaine de l'informatique c'est pas exactement une petite période.
Le 27/05/2024 à 18h 34
Même chose dans la traduction. Il y a une forte demande pour de la MTPE (machine translation post-edition, repasser derrière la machine quoi) où il faudrait tout reprendre, mais c'est payé au prix d'une relecture.
La plupart des traducteurs font dans ce cas savoir au client qu'il faudrait tout reprendre mais que comme ils sont pas payés au tarif d'une traduction (et que souvent ils ont pas la deadline appropriée non plus), ils vont juste corriger le plus gros, mais que le texte restera très mal écrit. Hélas, comme tout le monde a besoin de bouffer, les agences finissent parfois par tomber sur le mec un peu plus désespéré que les autres, qui va accepter de tout refaire pour un tiers du prix normal.
Le 27/05/2024 à 18h 29
Ça me paraît dingue d'utiliser l'IA aujourd'hui pour traduire des bouquins, faut avoir aucune espèce de respect pour la qualité (et pour ses lecteurs). Non seulement il y a régulièrement des erreurs grossières - bon, ça encore, tu peux le rattraper in-extremis en faisant relire. Le plus souvent, l'IA ne respecte même pas les normes typographiques de base qui ont normalement court dans l'édition (guillemets français, espaces insécables avant les double-signes de ponctuation, espaces fines le cas échéant, crochets à l'intérieur des parenthèses, etc.). Bon, ça encore, tu peux le faire corriger presque automatiquement avec un bon logiciel (faut quand-même un humain pour vérifier qu'il y a pas de problème de guillemets imbriqués ou autres)
Mais plus globalement les traductions par l'IA ont un problème plus large de style. Toutes les traductions sonnent... ben... traduites, justement. Ça ressemble au genre de traduction qu'on fait en 1ère année d'études de langues, ou quand un texte est traduit en français par une personne dont le français n'est pas la langue maternelle.
C'est plein d'anglicismes, de tournures bizarres, d'expressions idiomatiques traduites littéralement, l'adaptation culturelle est inexistante, tout humour ou trait d'esprit se perd en chemin (et ne parlons pas des jeux de mots)... De plus, l'IA est globalement incapable de garder une cohérence de long terme, que ce soit en terme de glossaire, de choix des temps, de respect des genres ou de style. Et ça c'est pas le genre de trucs qui se corrige en vitesse. Repasser derrière l'IA et réécrire proprement, c'est souvent autant voire plus long que de traduire directement. Non parce que le premier brouillon "naïf", un traducteur expérimenté le fait à peu près en temps réel à mesure qu'il lit. Ce qui prend du temps, c'est les "finitions" justement.
Alors, je comprends que les bouquins de développement personnel c'est pas de la grande littérature, mais tout de même... quand je pense que les traductions de simples articles de journaux par l'IA sont souvent loin d'être parfaites (c'est généralement très compréhensible, mais "pas pro"), j'ose pas imaginer la gueule du bouquin entier traduit de la sorte.
Le 27/05/2024 à 18h 05
Oh ben de toute façon pour les traducteurs le système social, même avant Macron, il était pas glorieux : la plupart des traducteurs sont freelance, donc pas de chômage, quasiment pas d'indemnités journalières, etc.
Le 27/05/2024 à 18h 03
On n'est pas vraiment aux débuts de la traduction via l'IA. Google Traduction est en ligne depuis 18 ans et utilise des réseaux de neurones depuis 2016. DeepL est en ligne depuis 2017 et continue à faire des erreurs grossières (rien que dans le précédent article de NXI sur la pétition des comédiens de doublage, il avait traduit "voice talents" par "chanteurs").
Face à l’IA, les doubleurs VF de Marge Simpson, Brad Pitt ou Thanos se mobilisent
Le 23/05/2024Le 27/05/2024 à 01h 42
Si on a besoin de l'IA pour les remplacer, c'est probablement qu'ils font un truc. Il faut se méfier du réflexe de se dire "je comprends pas ce qu'ils font, donc c'est que ça doit servir à rien." Un paquet de mauvais dirigeants d'entreprise ont coulé leur boîte en virant des gens dont ils ne comprenaient pas l'utilité, mais qui en pratique étaient vitaux pour que les travailleurs "directement productifs" puissent bosser correctement.
Le 24/05/2024 à 19h 32
C'est vrai et ça a posé son lot de problèmes, les régions très industrialisées ne s'en sont pas totalement remises. Mais on a plus ou moins géré le truc, au moins pour les générations d'après, en massifiant l'enseignement supérieur. Le truc c'est que maintenant que l'enseignement supérieur est déjà massifié, je vois pas bien quelle pourrait être la nouvelle étape pour créer de nouveaux jobs.
En très résumé, on a dit aux gens "ok, les machines feront les objets ou feront du service à votre place, mais vous pouvez encore diriger les machines". Ça a plus ou moins bien marché, on s'en est sorti avec de la casse. Maintenant, si les machines se dirigent toutes seules, non seulement dans l'industrie mais aussi dans le service, je sais pas trop où on va.
Quand l'automatisation est arrivée dans le secteur primaire, l'agriculture, ça a été l'explosion du secondaire, l'industrie. Et quand l'automatisation est arrivée dans l'industrie, ça a été l'explosion du secteur tertiaire. Une fois le tertiaire automatisé, c'est quoi le quaternaire vers lequel on est censés aller ?
Avant de poser la question de "comment on forme des millions de personnes qui perdent leur boulot", il me semble que la question à se poser c'est déjà "à quoi on les forme ? Quels sont les métiers non-automatisables qui sont prêts à accueillir des millions de nouvelles mains ? Est-ce qu'un tel secteur existe seulement ?"
Le 23/05/2024 à 22h 57
Je le redis mais je pense que c'est en partie une question de traitement qui donne une couleur semblable à toutes les voix. Si tu entendais les voix "brutes" tu les distinguerais sans doute davantage.
Mais je trouve qu'il reste de bonnes voix. Et au risque de commettre un blasphème envers toute la génération Y, je trouve qu'il y a aujourd'hui des voix d'enfants plus talentueuses que Brigitte Lecordier, qui a l'air d'être une personne absolument géniale et adorable, mais qui, soyons honnête, a donné exactement la même voix à tous ses personnages, de Oui-Oui à Goku.
Une Cécile Gatto n'a rien à envier à une Brigitte Lecordier à mon sens. Geneviève Doang est également excellente. Et la génération d'après la nôtre te parlera avec nostalgie et un tremblement dans la voix de Donald Reignoux. Un point à pas négliger, c'est qu'une partie des voix que tu cites (tu aurais pu citer Féodor Atkine aussi), tu as grandi avec. Alors que la jeune génération tu avais déjà un certain âge, ça te touche forcément moins.
Le 23/05/2024 à 20h 42
J'ai signé la pétition, mais je trouve que ça aurait été bien de voir plus large que ça. A minima, c'est toute l'industrie artistique qui est aujourd'hui concernée. Alors oui, je trouve qu'il n'est ni juste de cloner les voix des comédiens pour les remplacer, ni souhaitable en tant que consommateur d'œuvres de perdre l'aspect "connexion humaine" par la voix. Donc je suis d'accord avec la pétition. Donc j'ai signé.
Mais au delà des voix, j'aurais aimé un mot pour les graphistes, les animateurs, les artistes 3D, les traducteurs, les musiciens, tous menacés à toute aussi brève échéance. Là, ça fait un peu tirage de couverture à soi et "après nous le déluge".
Le 23/05/2024 à 20h 37
C'est surtout qu'avant, on disait que la solution au fait que les métiers peu diplomants disparaissent, c'était de faire monter en compétence toute la société. D'où la démultiplication des études longues, la massification de l'enseignement et même de l'enseignement supérieur, etc.
Ça posait déjà quelques problèmes, comme le fait que certains n'étaient pas trop à l'aise avec les études longues, ou le fait que les gens commençaient à travailler de plus en plus tard et restaient dépendants de leurs parents ou de la collectivité plus longtemps. Mais bon an mal an, on s'en sortait plus ou moins.
Si maintenant même les bac+5 et les bac+8 se font remplacer, on voit pas trop ce que les nouvelles générations vont pouvoir faire à la place. Ni même comment motiver les gosses à travailler à l'école.
Le 23/05/2024 à 20h 32
Le revenu universel, moui, mais c'est quand-même un peu un pis aller.
Je préfère vivre de mon métier, que je fais avec une certaine dose d'amour, que de l’aumône que me verseront de plus ou moins bon gré les techbros milliardaires qui possèderont toutes les IA.
Accessoirement j'ai la faiblesse de croire que pour les métiers un tant soit peu artistiques, le fait que ce soit fait par un humain est une qualité en soi. Que même si l'IA donnait exactement le même résultat, ce sera jamais aussi bien juste parce qu'il n'y a plus cette connexion entre deux humains, celui qui crée et celui qui reçoit.
Le 23/05/2024 à 20h 27
Je sais pas si le CIDJ est une source très solide. Tous les comédiens de doublage te diront "je ne suis pas doubleur", ils détestent même qu'on les appelle des doubleurs. Ceci dit, il semble que ton voisin du dessus se fourvoie également.
Selon le glossaire de l'Association des Traducteurs/Adaptateurs de l'Audiovisuel, "Contrairement à une idée répandue, le terme ne désigne ni un auteur* de doublage, ni un comédien de doublage (que l’on désigne sous le simple terme de « comédien »), mais l’entreprise de postproduction chargée du doublage d’une œuvre audiovisuelle."
(Source)
Le 23/05/2024 à 20h 22
Je pense que ce n'est pas qu'une question de voix mais aussi une question de traitement du son. Les voix ne sont pas conservées brutes mais sont fortement traitées (equalisées, compressées, nettoyées...), à la fois pour des raisons techniques et pour leur donner une "couleur" et je pense que ça joue aussi pas mal dans cette ressemblance des timbres.
Reste le jeu d'acteur. Il y a parfois des fulgurances. J'ai été bluffé par le jeu d'acteur dans la VF d'A Plague Tale, par moments tu sentais une détresse dans la voix qui paraissait carrément sincère, limite à te demander si c'était uniquement de l'acting. Par contre les guests dans le 2 sont en dessous de tout. J'ai connu des meilleurs jeux d'acteur au club théâtre de mon lycée de petite bourgarde de province que chez certains guests.
Le 23/05/2024 à 20h 17
Et spoiler : c'est très probablement pareil en anglais mais on s'en rend moins compte parce que c'est pas notre langue maternelle.
Winamp va devenir open source
Le 20/05/2024Le 24/05/2024 à 02h 38
VLC en audio je le trouve vraiment pas top. Assez lourd, assez lent, et à ma connaissance ne gère toujours pas le gapless correctement.
En comparaison Winamp est tellement léger et rapide que je ne cherche même plus à gérer des playlists. Je met à la suite et il enregistre au fur et à mesure. Ma "playlist" actuelle fait plus de 6000 titres et charge instantanément.
Le Conseil d’État ne suspend pas le blocage de TikTok en Nouvelle-Calédonie
Le 23/05/2024Le 24/05/2024 à 02h 21
Je pense que tu confonds la GenY/Millenial avec la GenZ, voire peut-être les premiers de la génération suivante. Aujourd'hui la GenY a, dans sa quasi-totalité, la trentaine voire un début de quarantaine. Les plus jeunes ont 28 ans (on considère généralement qu'elle va de 1980 à 1996). Elle a grandi avec un PC de bureau, sous Windows 9x voire sous MS-DOS, a joué à Duke Nukem 3D et pour ce faire a dû se faire un autoexec.bat et un config.sys custom. Elle a fait son site perso avec Frontpage Express ou Namo Web Editor qu'elle a hébergé sur multimania.com/kikir0x0rdu39 ou sur kikir0x0rdu39.free.fr, ou à la limite pour les derniers elle a participé à la génération blogs (skyblog, canalblog, overblog...).
Ce n'est plus franchement la jeunesse et elle n'est pas née avec un smartphone et des réseaux sociaux dans les mains.
Eh oui... on se fait vieux.
Solidaires informatiques alerte contre le « spectre du gamergate »
Le 18/04/2024Le 20/04/2024 à 01h 13
Selon le point de vue, on peut se demander de quel côté est l'inversion accusatoire... On pourrait te rétorquer que l'inversion accusatoire, elle commence peut-être quand les employés d'une entreprise décident de harceler le représentant d'un mouvement de consommateurs légitime (car quelles que soient leurs raisons, bonnes ou mauvaises, des consommateurs ont droit de refuser de faire affaire avec une entreprise et de s'informer mutuellement des produits dans lesquels elle est présente), avant de se mettre à crier au harcèlement quand ils reçoivent un retour de flamme pour ce comportement.
La technique typique des cry-bullies.
Pour être clair, je pense que faire de Sweet Baby un genre de croque-mitaine du jeu vidéo est puéril, passablement délu, probablement l'action d'un post-ado avec beaucoup trop de temps à perdre, et que le boycott est totalement risible. N'empêche que c'est leur problème, s'ils ont envie de boycotter les jeux auxquels Sweet Baby ont participé, d'expliquer pourquoi ils le font, et de faire la liste des jeux à boycotter, ils ont le droit de le faire sans que la boîte ou ses employés tente de prendre des mesures de rétorsion du type "faire sauter son compte Steam via un mass-report non justifié". Je trouve que la mesure de rétorsion envers un particulier relève beaucoup plus du harcèlement ciblé que le groupe Steam qui a entraîné cette réaction rageuse.
Et franchement, défendre le droit d'une boîte à utiliser des techniques de mafieux contre un mouvement de consommateurs et contre un particulier sous prétexte que ladite boîte se la joue Grands Chevaliers du Progressisme™, c'est vraiment pas la hot take de gauche que tu crois que c'est.
Apple autorise puis supprime un émulateur Game Boy sur iOS
Le 15/04/2024Le 15/04/2024 à 18h 06
C'est effectivement mal rédigé, mais sur le principe, il me semble que le principe de double-licence ne pose pas de problème.
La GPL interdit les restrictions, mais encore faut-il que tu possèdes une licence sous GPL du code source. Or, si tu prévois de mettre sur l'App Store, il ne t'octroie pas de licence GPL. Trolltech fait ça avec Qt depuis une éternité par exemple.
Aux États-Unis, la FCC définit le très haut débit à 100/20 Mbs/s, qu’en est-il en France ?
Le 15/03/2024Le 18/03/2024 à 00h 56
Si ma mémoire est bonne ce n'était pas de l'ADSL mais du SDSL (et ils n'étaient pas les seuls à le faire). Je sais pas pourquoi mais je crois me souvenir d'une histoire de 4 liens SDSL 5Mbps par antenne (soit un débit de 20Mbps symétrique). Et côté radio c'était de la 3G, pas de la 4G.
Le 18/03/2024 à 00h 47
C'est vrai mais pas vraiment un argument. L'ADSL était du haut-débit à 512kbps en son temps alors que la technologie permettait de monter jusqu'à 8Mbps, la limite à 512 était une limitation commerciale (et avant le dégroupage, il fallait payer quasiment le double pour du 1024).
Je pense qu'il est plus pertinent de regarder les usages. Qu'est-ce qu'on peut faire avec une connexion 512kbps ? 5Mbps ? 10Mbps ? 30Mbps, 100Mbps, 1Gbps, 8Gbps ?
L’IA générative dans le jeu vidéo : des PNJ plus malins que nous ?
Le 07/02/2024Le 07/02/2024 à 20h 48
Oui s'il s'agit d'avoir des variations de "Que puis-je faire pour vous ?" de la part du marchand d'armes, ça peut faire l'affaire, ce serait sans doute mieux que le truc répétitif du PNJ marchand qui répète la même phrase à l'identique sur le même ton chaque fois que tu vas lui parler. Mais pour des dialogues susceptibles d'avoir une quelconque importance scénaristique, je pense que ce serait un recul plutôt qu'un progrès par rapport à des dialogues bien écrits.
Le 07/02/2024 à 18h 15
L'exemple que tu donnes dans ton deuxième paragraphe ça me semble au contraire vraiment pas terrible. Parce que tu vas remplacer des dialogues bien écrits et mémorables par des trucs génériques, souvent écrits avec le cul (franchement GPT est un très mauvais auteur de fiction, tout ce qu'il écrit est tarte au possible), je suis pas sûr que l'immersion y gagne. Les PNJ vont perdre en personnalité et la narration s'en trouvera affaiblie plutôt que renforcée.
Le jeu vidéo d'aventure ou le RPG, c'est, à mon sens, profondément une œuvre littéraire. Et pour l'instant les IA n'ont pas démontré du tout leur capacité à écrire de meilleures œuvres littéraires que les humains dotés d'un minimum de talent.
Le 07/02/2024 à 18h 09
C'est le problème d'une gigahype, tout le monde veut coller de l'IA partout, même quand c'est pas pertinent et avec des technos pas mûres.
Google se moque « de savoir si un article a été rédigé par une IA ou par un humain »
Le 19/01/2024Le 23/01/2024 à 02h 26
En fait la problématique est bien plus à rapprocher des anciens "made for adsense".
Pour rappel, il s'agissait de sites conçus exclusivement pour générer du trafic pour afficher des pubs adsense en faisant un minimum d'effort. Une solution courante était de pomper allègrement des articles d'un peu partout et, pour berner l'algo anti-duplication de contenu de Google, utiliser un algo qui remplaçait des mots à l'aide d'un dictionnaire des synonymes.
Ça faisait du contenu qui n'avait aucun sens pour un humain (car les synonymes ne sont que rarement des correspondances parfaites, par ex. "les clients dénoncent une pratique honteuse" pouvait devenir "les prospects mouchardent une routine embarrassée") mais ce n'était pas vraiment le but de toute façon. Il s'agissait juste de générer beaucoup de trafic très vite, d'imprimer beaucoup de pubs, puis de disparaître et d'être remplacé par un autre site bidon. D'où le terme "made for adsense" (par opposition à "made for humans").
Ce qu'on voit là c'est une resurgence un peu modernisée et un peu plus subtile de ces pratiques.
L'ennui c'est qu'avec suffisamment de subtilité, ces sites bidons sans valeur ajoutée peuvent devenir plus difficiles à distinguer d'un site ayant une vraie démarche journalistique pour un œil non averti. Il y a donc un "vol de valeur" qui peut effectivement mettre en péril la santé financière déjà fragile (NXI en sait quelque chose) des organes de presse en ligne, en détournant du trafic.Car il suffit pas de grand chose pour couler la presse en ligne en ce moment. La rentabilité se joue souvent à quelques pourcents de CA de plus ou de moins.
Google va modifier son moteur de recherche pour se conformer au DMA
Le 18/01/2024Le 18/01/2024 à 19h 15
Le retour du Prixdunet ?
Les promesses non remplies des caisses automatiques
Le 18/01/2024Le 18/01/2024 à 19h 14
Le terme de caisse auto est de base une arnaque... ces caisses ne sont pas tellement plus automatiques qu'une caisse standard. C'est juste que vous faites le boulot à la place de la caissière. En France, les seules caisses qui peuvent se vanter d'une certaine automaticité sont celles de Décathlon, et encore. Sinon, il faut scanner les articles manuellement, valider le total manuellement, payer manuellement... comme sur une caisse normale. La seule raison pour laquelle ça permet d'économiser des salaires de caissière, c'est que c'est le consommateur qui devient la caissière.
Et du coup c'est pas plus rapide, parce que vous êtes bien moins entraîné qu'elle à scanner vite. Elle en voit tellement passer qu'elle sait exactement où trouver le code barre de chaque objet, elle a même pas besoin d'y réfléchir, c'est un automatisme. Vous retournez 5 fois le produit pour retrouver le code barre. Donc non, on gagne pas de temps. Par contre la grande surface y gagne un peu de marge, mais probablement même pas tant que ça vu que ça favorise pas mal certains types de vols.
Midjourney génère aussi des images de sac Hermès et des logos Vuitton et Gucci
Le 11/01/2024Le 17/01/2024 à 06h 09
Même avis. L'article précise bien que la crispation n'est pas aussi élevée côté droit des marques que côté artistique mais passe un peu vite sur le point, alors que la distinction est majeure à mon sens. Une photo de sac à main n'est pas une contrefaçon de sac à main. Au pire elle peut servir à vendre des contrefaçons, mais jveux dire... prendre une photo d'un sac Hermès pour vendre des imitations aussi. Alors qu'une image peut être une contrefaçon d'une autre image.
Le 17/01/2024 à 06h 06
Pas vraiment la même connotation. "Peu probable" insiste sur la fait que la probabilité est faible, alors que "pas improbable" insiste sur le fait que la probabilité, sans être ultra élevée, reste quand même significative.
La proposition de GruntZ "estiment possible" me semble meilleure. Ou "estiment plausible".
Le 17/01/2024 à 06h 05
Le terme "improbable" exprime déjà une probabilité faible ou quasi nulle (sinon on utilisera plutôt le terme "impossible"). "Pas improbable" signifie une probabilité un peu plus élevée que juste faible, mais pas non plus nécessairement une probabilité élevée. C'est un terme un peu flou pour dire "je sais pas trop jusqu'à quel point c'est plausible, c'est loin d'être certain mais c'est loin d'être négligeable aussi" je dirais.
[MàJ] Midjourney recrache des images Pixar et d’œuvres protégées, parfois sans qu’on le lui demande
Le 04/01/2024Le 17/01/2024 à 05h 32
Je pense que ni l'un ni l'autre n'ont le statut d'hébergeur. Les hébergeurs sont des intermédiaires techniques ayant pour seule mission le stockage de données fournies par des tiers utilisateurs. Ce n'est a priori ni le rôle (principal) d'iStockPhoto, ni celui de Midjourney. Ils seront au maximum hébergeur de leur propre site "boutique" ou vitrine, mais ça s'arrêtera là.
Le 10/01/2024 à 18h 53
La ressemblance imparfaite avec l'original, c'est un problème vieux comme la contrefaçon. Mais globalement, le fait qu'il y ait des différences à la marge ne suffit pas à échapper à la contrefaçon. Si le produit supposé contrefait reprend les principales caractéristiques de l'original, c'est généralement considéré comme de la contrefaçon même s'il y a des différences. C'est pas parce que tu changes le sens de la moustache de Mario et que tu lui mets une salopette jaune que tu as le droit de vendre des peluches "Super Ramio Bros".
Voir, dans un domaine tangent, ce jugement de la cour de cassation : https://www.nomosparis.com/la-contrefacon-sapprecie-au-regard-des-ressemblances-entre-les-oeuvres-et-non-des-differences/
EDIT: Help comment on fait des liens dans le nouvel éditeur.
Le 10/01/2024 à 18h 47
iStockPhoto dit pareil mais ça n'empêche que si les photos proposées sont volées, ils seront responsables pénalement.
Le 10/01/2024 à 18h 45
A priori, tu exécutes, seul, les manipulations arrivant au résultat final.
Si tu fais toi-même les calculs statistiques/probabilistes de débruitage de l'image sur une machine distante, la machine distante ne sera vraisemblablement pas coupable de contrefaçon juste parce qu'elle t'a fourni une calculatrice en ligne. Mais là, c'est bien Midjourney qui choisit, seul, de faire les calculs aboutissant au résultat. A priori sans même que tu lui ais donné l'ordre d'arriver à un résultat contrefait (le prompt utilisé étant beaucoup plus générique que cela). Ça va être difficile d'invoquer une "jurisprudence SaaS" dans ce contexte àmha.
Le 05/01/2024 à 20h 54
C'est peut-être ce que dit Midjourney pour se défendre, mais en droit ça me paraît archi-contestable. C'est pas parce que tu donnes les ordres que c'est pas leurs machines qui produisent l'image en faisant les calculs. Le prompt, c'est juste une consigne. Un producteur de contrefaçon peut difficilement se défausser sur le commanditaire au motif que c'est le commanditaire qui a donné la consigne de produire le truc. A fortiori si commanditaire a juste demandé "une peluche mignonne" et que tu as produit un pikachu de ta propre initiative.
Le 05/01/2024 à 20h 47
Une usine aussi est un outil, n'empêche que si une usine se met à fabriquer des casquettes pikachu sans licence Nintendo, même si c'est toi qui les a commandées, et même si tu as fourni le design, elle risque de menus ennuis, et c'est bien normal.
À part pour stable-diffusion exécuté en local sur ton PC, faut pas oublier que c'est pas toi qui possède l'outil et fabrique les contrefaçons : c'est Midjourney, Stability AI et OpenAI qui les fabriquent sur leurs machines, et ensuite te les transmettent. Ce qui en soi représente d'ailleurs probablement une contrefaçon, en tant que "reproduction, représentation ou diffusion, par quelque moyen que ce soit, d'une oeuvre de l'esprit en violation des droits de l'auteur".
Le 05/01/2024 à 20h 39
Si tu fais tourner l'algo en local sur ta machine, la comparaison est pertinente. C'est possible avec stable-diffusion. Mais pour Midjourney et Dall-E c'est pas vraiment toi qui produit le truc avec ton outil, tu te contentes de donner une consigne et ce sont OpenAI et Midjourney qui produisent le truc pour toi, avec leur outil.
Si tu veux faire une comparaison, qui sera toujours imparfaite mais se rapprochera déjà un peu plus de la situation, c'est comme si tu faisais fabriquer des casquettes Pikachu par une usine, qui sait pertinemment que ni elle, ni toi ne possédez la licence pour faire des casquettes Pikachu. Est-ce que l'usine est au moins complice de la contrefaçon ? À vue de nez je dirais oui, en tout cas en France ce serait a priori de la complicité par fourniture de moyens.
Le 04/01/2024 à 20h 56
Même si elle ne vend pas directement chaque image individuellement, elle vend bien un service de fourniture d'images. Images que soit dit en passant elle produit, donc possède en interne à un instant T, et envoie (voir diffuse publiquement sur son Discord, selon le choix du commanditaire).
Pas sûr que le disclaimer "non mais l'image appartient au commanditaire" suffise à convaincre un juge, d'autant qu'en pratique, aux US au moins, il semble que l'image n'appartienne en fait à personne : d'après la jurisprudence américaine, une image générée par IA ne peut pas être copyrightée.
Le 04/01/2024 à 18h 24
Les fanarts sont techniquement illégaux mais, soyons francs, tant que ça reste bon enfant et non-commercial, un truc de "fans" justement, les propriétaires de droits d'auteur s'en cognent généralement, et c'est tant mieux. Par contre dès que ça commence à vouloir devenir commercial, c'est surtout là qu'on rentre dans d'autres bails et que ça commence à montrer les dents.
Nintendo s'en fiche que j'aie généré Mario qui joue du trombone sous stable-diffusion pour rigoler et mettre sur mon blog "J'aime les chiptunes". Mais si je commence à vouloir en faire des magnets que je vends sur un stand à Japan-Expo là ça va potentiellement gueuler.
Midjourney et cie. sont par nature commerciaux. Leur utilisation est payante. Pour stable-diffusion je pense que c'est surtout la crainte que certains s'en servent pour des plagiats à usage commercial.
Le 04/01/2024 à 17h 58
Pour la canette de coca je sais pas, mais pour les personnages de Toy Story, bah désolé mais ça a beau être populaire, tu peux pas vendre des produits qui réutilisent l'œuvre de quelqu'un d'autre.
De la même manière que tu as pas le droit de vendre des casquettes Pikachu sans autorisation de la Pokémon Company, tu as pas le droit de vendre des images de personnages de Toy Story, même si c'est un algo qui a produit l'image plutôt qu'un copiste humain. Or, c'est exactement ce que fait Midjourney, qui est je le rappelle un service commercial.
Je veux bien qu'on soit critique d'une extension excessive du droit d'auteur mais faut pas charrier : s'agissant d'un service commercial, c'est quand même plus que limite de faire du pez avec le travail des autres.
L'inspiration n'est pas la question : ce qui est reproché à Midjourney ici n'est pas de "générer des nouveaux personnages en 3D, dans le style de Pixar" (ça, ce serait de l'inspiration). Il lui est reproché de générer des copies conformes de personnages existants. Ça, c'est du plagiat.
Les seuls qui ont un argument à faire valoir pour moi, c'est Stability AI parce que le modèle est téléchargeable et peut être exécuté en local : on pourrait estimer que c'est celui qui fait tourner le modèle sur sa machine qui est responsable de la contrefaçon. Mais Midjourney, vu qu'ils font tourner eux-même leur modèle, ils ont pas d'excuse. Dall-E non plus.
Le 04/01/2024 à 17h 49
Y a une différence entre "dessiner dans le style de Peyo" et "dessiner des Schtroumpfs".
Dessiner dans le style de Peyo, ça peut se considérer comme une simple inspiration, jusqu'à un certain stade du moins. Dessiner des Schtroumpfs, c'est du plagiat. Alors si tu le fais pour toi pour l'accrocher dans ta chambre ça pose pas de soucis, mais si tu le fais dans un contexte commercial pour vendre le résultat tu vas te faire taper sur les doigts et c'est compréhensible.
Un ex-cadre du FN veut déréférencer un article de Médiapart : Google, CNIL et Conseil d’État refusent
Le 03/01/2024Le 04/01/2024 à 20h 41
Disons que jusqu'à maintenant, le CE était très protecteur du droit à l'oubli. La jurisprudence en reconnaissait une vision assez large, surtout du droit au déréférencement. Il reconnaissait que le fait de vouloir se réinsérer sans être poursuivi par son passé, aussi critiquables qu'il fut, était en soi un motif suffisant pour faire valoir le déréférencement d'articles de journaux, même s'agissant de condamnations pénales. Je trouve donc un peu étonnant que pour des faits même pas illégaux, il ne fasse pas droit au souhait évoqué par le plaignant de tourner la page et d'être laissé tranquille avec son passé.
Le 04/01/2024 à 18h 38
Après, le mec semble avoir cessé ses activités politiques, qu'il veuille tourner la page sur ce passé et se faire oublier se conçoit. On a inventé le "droit à l'oubli" un peu pour ça. De mémoire le Conseil d'État avait jusqu'à maintenant été beaucoup plus favorable au droit à l'oubli que ça (y compris pour les articles de presse relatant d'anciennes condamnations judiciaires, alors que là le type est apparemment accusé de rien d'illégal). Je suis un peu surpris du revirement du CE sur ce plan.
Je trouve d'ailleurs un peu dommage que Next choisisse de jouer la carte de l'effet Streisand sur ce monsieur, quelle que soit l'antipathie que j'ai pour son bord politique (a priori je suis pas le seul).
Next, un pacte : nos changements et engagements pour la suite
Le 18/10/2023Le 24/10/2023 à 23h 00
Il y aurait, mais en pratique, la grille de lecture que je qualifierais, pour résumer, de “inégalités selon un angle intersectionnel” est ultra-hégémonique dans la presse non seulement française mais occidentale au sens large, chez les généralistes comme chez les spécialisés. Soit que l’organe de presse en question s’en serve allègrement, soit, chez les généralistes, qu’elle fasse de sa dénonciation une part importante de sa ligne éditoriale (Le Point, Marianne…). L’adhésion ou non à une grille intersectionnelle d’analyse de la société est devenu LA frontière de “culture war” sur tous les sujets de société. Et ce même quand on parle d’éducation ou d’environnement.
Il n’y a donc rien de particulièrement original ou audacieux à adopter cette grille de lecture aujourd’hui contrairement à ce que sous-entend carbier.
Et oui, ça existe aussi dans la tech, même si c’est moins systématique tout simplement parce qu’une partie de la presse tech ne parle pas de sujets de société. Mais quand elle en parle, la grille a tendance à arriver sur le tapis.
Il semble que NXI ne fasse plus tout à fait exception depuis quelques mois, même si je le redis, le sujet est pas rabaché jusqu’à l’indigestion pour le moment.
Je ne t’accuse pas d’avoir un agenda prosélyte, le changement de ligne éditoriale a commencé avant même que Teuf commence à parler de vendre NXI. Nous avions été quelques uns d’ailleurs à avoir déjà fait l’essentiel de ces remarques à l’époque de ses posts, lorsqu’il a commencé à parler de la situation critique de NXI et de l’éventualité de trouver un repreneur. Ce n’est donc pas toi qui a apporté cette ligne éditoriale.
Maintenant, je t’avoue franchement que quand Lyzz exprime sa détestation des gens qui “ne voient pas les couleurs” (un point de vue qui pourtant est pas d’une subversion ou d’une inconvenance démesurée il me semble) et que tu lui réponds “tiens bon, la cavalerie arrive”, après avoir annoncé de manière tonitruante que la modération allait changer significativement en la matière, je m’attends à ce qu’on arrive dans une situation que j’ai déjà vu ailleurs, où les tenants de la ligne intersectionnelle pourront se lâcher et exprimer avec des mots crus leur détestation des non-tenants de cette ligne, tandis que les non-tenants devront faire preuve d’une infinie diplomatie et de mille précautions dans l’expression pour échapper à la modération.
Non parce que si l’idée c’est d’interdire les insultes et les attaques personnelles, honnêtement le boulot était déjà fait et quoi qu’on en dise, les débats sur ces sujets dans les commentaires de NXI étaient globalement de très bonne tenue. Je ne vois donc pas quels changements il pourrait y avoir qui ne suppose pas, en pratique, un parti pris. Et tes réponses ici même me confortent dans cette crainte.
J’ai déjà vu ce genre d’ambiance ailleurs, et c’est pas pour moi.