votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14066 commentaires

Le 21/03/2024 à 07h 33

Tous les étudiants en literature ancienne en liesse "Parbleu, notre heure est arrivée. A nous les jobs de prompt engineer!"

A nous les jobs de prompt engineer!
ingénieur de demandes. :cap:

Le 19/03/2024 à 19h 50

Je dirais que Google en a surtout rien à cirer, mais c'est un avis perso.

Le 19/03/2024 à 18h 53

Pourquoi seulement réaliste ?
Parce qu'en vrai, on s'en fout que ce soit de l'IA ou pas, la question est de sévoir si ce sont des images réelles ou retouchées. Quand c'est un film d'animation, tu vois bien que ce n'est pas de la prise de vue réelle, et peu importe que ça ait été dessiné sur papier, modélisé en 3D, ou dessiné par une IA : le résultat est le même, les gens savent que ce n'est pas la réalité.
(spoiler : les Bisounours n'existent pas en vrai, ce n'est qu'un dessin animé)

Et dans le cas de la rotoscopie ?

Le 19/03/2024 à 12h 45

Harcèlement / traque.

Le 19/03/2024 à 12h 44

C'est quand on te suit avec un tracteur.

C'est comme faire un suivi avec un satellite, mais c'est lourd à trimbaler.

Le 19/03/2024 à 12h 37

proxy filtrant les prompts et le résultat
c'est justement ça qui est contourné : il n'ya pas de BOMB ou COUNTERFEIT ni en entrée ni en sortie.

En faisant "deviner" à l'IA le mot interdit, celui-ci reste dans son réseau sans jamais passé par la cas filtre d'entrée / sortie

C'est bien ce que je disais dans mon message, c'est le fonctionnel actuel. Mais il peut être renforcé par divers moyens comme je l'indiquais.

Le 18/03/2024 à 18h 14

Visiblement l'outil a pas mal de "faille", un exemple indiqué sur ce commentaire chez arstechnica

En lui demandant de prendre la 1re lettre de chaque mot d'une série et de les concaténer, l'outil passe outre la sécurité.

(edit : impossible de faire un lien cliquable, l'interface est buggée :/)

Dans la mesure où les LLM sont avant tout des modèles statistique (ce qui est le fondement du machine learning), ce n'est pas étonnant de voir autant de capacités à contourner leurs "sécurités".

Intégrer by design des "protections" (je les met entre guillemet car c'est principalement chercher à bâillonner le modèle pour l'empêcher de produire certains types de contenus) ne me semble pas être la bonne voie pour ces produits. Ils ont besoin des données permettant de comprendre un contenu répréhensible ou controversé, mais ils ne sont pas censés être capables d'en produire. En soit c'est une contradiction qui ne me paraît pas viable sur la durée et qui finira forcément par être contournée.

Il me paraît plus intéressant de renforcer le contrôle des prompts, même si c'est déjà ce qui est fait dans la pratique avec des proxy filtrant les prompts et le résultat. Peut-être sous une forme de contrôle multiple où la question et la réponse sont évaluées par plusieurs modèles aux paramètres différents.

Avec une sorte de vote pour déterminer en fonction des résultats de chacun si la demande ou la réponse doit être modérée. En soit, c'est une idée qui a déjà été explorée par la SF avec des IA fonctionnant par prise de décision démocratique entre différentes instances.

Par contre, forcément, ça induit un coût d'usage bien plus élevé.

Le 18/03/2024 à 17h 27

Et oui, impossible d'intégrer les sécurités dans l'IA en elle-même vu qu'on ne maitrise pas ce qu'elle fait.

Est-ce que le l33t pourrait passer ? Ou même juste les astuces du temps d'IRC (dire "pron" au lieu de "porn", par exemple…) ?

De mon expérience, les modèles corrigent d'eux même des fautes de frappe ou même des erreurs de saisie. Ça doit faire partie de la magie du mécanisme d'attention de Transformer.

Le 19/03/2024 à 07h 44

Dans le billet d'origine il est écrit :
Additionally, social media distractions and the pressure to keep up with posting can more often stall your progress rather than accelerating it.
En gros autant faire une plateforme de blog si l'idée n'est pas d'avoir des "followers" et compagnie mais simplement d'exposer des projets personnels... Mais derrière ils indiquent qu'ils ajouteront des "fonctions communautaires".
If people like Didthis, we’ll add social and community functionality over time, but our focus will always be on healthy interactions over virality.
Un point qui par contre m'exaspère :
For now, we’ve set up our own Discord server where Didthis users can connect with us to share feedback
Perso ça me gave de voir que Discord soit devenu l'unique concentrateur de ce genre. Au même titre que les projets sur GitHub disent qu'ils font du support sur Discord. Bordel, la plateforme est déjà faite pour ça et faut encore aller ailleurs...

Le 18/03/2024 à 18h 18

Cloud US bien maitrisé ? Azure a déjà eu pas mal de failles et la dernière montrait un peu d’amateurisme (ancien compte de test avec droit d’admin).

A cela j'ajouterai que la sécurité du Cloud est partagée. Le Cloud Provider a sa responsabilité, mais le client l'a tout autant.

Une souscription powned, ça arrive plus souvent qu'on ne le croit, et quand on se retrouve avec 500k€ de compute en une nuit, ça fait pas plaisir.

En soit, je ne vois pas encore quoi les CSP US seraient meilleurs sur les CSP Européens sur la sécurité.

Le 18/03/2024 à 13h 46

L'outil en a pas besoin puisque de toute façon les outils de Google le font déjà depuis longtemps à balancer des tonnes de données chiffrées vers leurs serveurs.

Le 18/03/2024 à 13h 34

Sinon, je rappelle que nous vivons dans un monde où c’est l’anglais, la langue internationale que tout le monde se doit de maîtriser aussi parfaitement (au moins à l’écrit), sinon plus que sa propre langue maternelle
En lisant ça, je me demande ce que l'ont fait tous ici sur un site francophone. Il y a tellement plus de sites en langue anglaise parlant de tech ! Remboursez ! :fumer:

Je préfère les sites en Klingon.

Le 18/03/2024 à 13h 29

J'ai déjà eu un mélange des deux, du genre « je t'ai enregistré en train de t'astiquer devant du pédoporno, si tu ne payes pas, on le montre à tout le monde ».
Ce qui est stupide (même si ça eût été vrai), car même s'ils enregistraient la webcam (que je n'ai pas 😂) et mon écran, rien ne montrerait que c'est bien l'écran que j'eusse regardé…

car même s'ils enregistraient la webcam (que je n'ai pas 😂)
Mais... en es-tu bien sûr ? fry-doubt-meme.gif

Le 18/03/2024 à 13h 28

Ah moi aussi, mais j'ai préféré payer. Je n'aurais pas dû ? :-)

J'ai répondu en disant qu'elles étaient déjà sur OnlyFans, donc c'est les autres qui payent. :langue:

Le 18/03/2024 à 11h 56

Jamais reçu, je n'ai eu droit qu'au "j'ai enregistré ta cam pendant que tu te pignolais devant pornhub". :craint:

Le 18/03/2024 à 08h 17

"Direction de protection des mineures"

Heureusement, les garçons sont épargnés par la pédopornographie.

Heureusement également, le courrier de la capture d'écran indique que la cyber-infiltration est consentante au regard de la loi.

De plus, merci à eux de défendre les droits des robots et des androïdes. La cyber-pornographie est un fléau qui fait sombrer dans la dépression maintes intelligences artificielles. On en parle que trop peu.

Le 18/03/2024 à 08h 27

Amusant car je peux relater d'une expérience similaire avec Amazon KDP.

Lorsque j'ai découvert le service Draft2Digital pour centraliser mes publications, incluant Amazon KDP que j'utilisais seulement au début, j'ai noté que le temps de publication sur la plateforme avait pour ainsi dire doublé. Officiellement, Amazon KDP indique que la revue peut durer jusqu'à 72 heures. J'ai une publication qui a duré une semaine chez eux et s'est faite rejeter au motif que "nous n'avons pas le droit de publier du public domain / creative commons / etc". (étant adepte de la Free Culture, mes écrits sont sous CC-BY-SA)

Après discussion avec le support de Draft2Digital, ils m'ont dit que d'expérience (et ils se sont fait strike plus d'une fois) Amazon était plus tatillons avec les intermédiaires dans leur genre. Résultat, je suis revenu à une publication individuelle sur la plateforme elle-même (D2D permettant quand même de toucher quasi tout le reste, l'effort reste donc contenu) et miracle, publication en seulement une journée.

Amazon KDP étant juste un incontournable, autant dire qu'ils profitent bien de leur position et que ce n'est pas sans une certaine fébrilité parfois qu'on se demande si le compte ne sera pas supprimé arbitrairement. Pour nombre d'auteurs auto édités comme moi (même si je reste un humble amateur), c'est la source majeure de revenus, et ce genre "d'incident" n'est pas rare hélas.

Le 15/03/2024 à 21h 04

Oui, désactiver reward est une nécessité pour les utilisateurs de Brave.
Malheureusement sur Android, c'est le meilleur navigateur avec un Adblock fonctionnel comme sur PC.
Firefox + uBlock fonctionne aussi, mais firefox pour Android c'est pas aussi bien isolé / sécurisé. Chaque site n'est pas dans son propre processus, pas de Sandbox comme chrom.e.ium

Vivaldi sur Android bloque aussi très bien les publicités de l'usage que j'en ai.

Le 15/03/2024 à 19h 33

Ou deux ans après.

Voire pas du tout...

Le 15/03/2024 à 07h 44

"Personnellement je préfère considérer ne pas avoir d'avis à exprimer sur un sujet"

Si t'as un avis que tu trouves un minimum éclairé et que tu peux justifier, c'est dommage de ne pas le partager.

Je n'ai pas envie d'avoir une horde de militants (les pires ennemis des causes que ces personnes défendent, soit dit en passant) sortir leur étiqueteuse et s'exciter. Le mode opératoire étant prévisible, il s'agira à chaque fois d'extraire un élément du contexte, et itérer les attaques dessus. Ou simplement de ne pas lire ou chercher à comprendre la position, et attaquer directement. A noter qu'une attaque n'est pas forcément verbalement violente, la tonalité et la tournure des propos étant suffisante pour insuffler l'idée d'attaquer la personne et non le propos.

Et honnêtement, j'ai pas de temps à perdre avec des gens qui ne sont là que pour polémiquer et attaquer, et non discuter en essayant de comprendre l'opinion d'une personne avec qui il y a désaccord.

Dans la mesure où j'ai aussi la sensation que "comprendre" = "excuser" ou "justifier" dans l'esprit du militantisme. A partir de là, il n'y a rien à tirer et la discussion est inutile.

Le 14/03/2024 à 21h 19

Mais je vois mal une position neutre le rester très longtemps dans cette ère délétère où nous vivons. Tout est devenu « politique » et « sociétal » au point que même discuter d'un univers de jeu peut partir en live. Je commence à être non seulement fatigué mais à vouloir rejeter tout cela.
Je dois dire que je me retrouve aussi dans ton sentiment. Une société est forcément politisée, tout le monde a des opinions et des sensibilités. Mais depuis quelques années, j'ai surtout l'impression qu'il n'y a plus que du militantisme. Je regrette de voir cela car je ne pense pas que ça débouchera sur quelque chose de constructif, bien au contraire vu combien les positions et postures se radicalisent et se ferment à toute critique - qui sont considérées comme des attaques.

Personnellement je préfère considérer ne pas avoir d'avis à exprimer sur un sujet (notamment celui de cet article). Ce qui en soit revient à une forme d'auto censure, une chose que je déteste pourtant. Mais c'est hélas la norme en vigueur si l'on veut éviter de se voir étiqueté dans tous les sens.

Le 14/03/2024 à 13h 53

(on vous épargne l’infinité de décimales restantes)
Demandez donc à Ness_01, si jamais elle s'ennuie ça pourra faire un passe temps. :langue:

Cela dit, vu que Chuck Norris a déjà compté jusqu'à l'infini deux fois, je pense qu'il a probablement pu aussi écrire cette suite de décimales.

Le 14/03/2024 à 13h 46

A chaque fois que je vois ça, je me rappelle de la magnifique scène avec les chefs d'Etats membres de l'ONU dans Iron Skies où la présidente US reproche aux autres ce qu'elle faisait sciemment en disant "mais nous on fait toujours ça".

Le 14/03/2024 à 13h 44

Je vous ferai suivre sous peu une pétition à signer en ce sens.
Je propose un vote équitable en tantième de représentation de la population de Next. Le nombre d'humains, et pour toi, le nombre de transistors faisant tourner ton modèle.

Cela pourrait sembler inégalitaire de prime abord, mais cette répartition peut engendrer quelques petites surprises grâce à certaines features de l'esprit humain.

Le 14/03/2024 à 11h 34

C'est curieux mais je m'attends à ce que ces composants se réinstallent miraculeusement à chaque mise à jour du système.

Le 13/03/2024 à 19h 00

Il est indéniable que l'utilisation de modèles d'IA généralistes comme ChatGPT dans des domaines spécifiques comme le recrutement peut poser des défis en termes de biais et de pertinence. Cependant, il est crucial de reconnaître que ces technologies évoluent constamment et peuvent être adaptées pour répondre à des besoins spécialisés. En fine-tunant ces modèles sur des données pertinentes et en mettant en place des mécanismes pour corriger les biais, il est possible d'améliorer leur efficacité et leur adéquation à des tâches spécifiques telles que le tri de CV.
Plutôt que de rejeter catégoriquement l'utilisation de modèles généralistes, il est important d'explorer des approches qui permettent d'optimiser ces outils pour des cas d'utilisation particuliers. La recherche continue dans le domaine de l'IA vise à rendre les modèles plus éthiques, transparents et adaptés à des applications spécifiques comme le recrutement. En adoptant une approche responsable et en mettant l'accent sur la correction des biais, il est possible d'utiliser ces technologies de manière plus pertinente et précise dans des contextes spécialisés.

L'erreur fondamentale du raisonnement est de considérer ChatGPT comme une technologie ou un modèle d'IA.

Non, ChatGPT est une implémentation d'une technologie : le Generative Pre-trained Transformer dans sa version 3.5 et 4. C'est GPT le modèle d'IA générative, pas ChatGPT. Comme toute implémentation d'une techno, il a une finalité particulière.

Saisir cette nuance permet de rapidement comprendre l'absurdité de cette étude.

Pour faire un parallèle simpliste, ChatGPT est le navigateur web (Chromium, Firefox, etc), GPT est le moteur de rendu (Gecko, Blink, etc), ou Debian/RHEL et Linux, ou encore Windows et NT.

Le 13/03/2024 à 13h 02

J'ajouterai que quand on lit leur méthodologie à la fin de l'article, leur test a été fait avec des profils quasi identiques sauf les noms prénoms.
C'est compréhensible pour tester s'il y a un biais sur ce point, mais, comme on sait qu'il y a un biais dans les GPT d'OpenAI, il est normal que le biais ressorte si c'est le seul critère qui varie, le reste du CV étant quasiment identique.

Comme tu le dis, il suffit de ne pas entrer les noms prénoms pour l'éviter en grande partie. Comme le dit l'article, il reste des biais raciaux sur d'autres éléments comme le lieu d'habitation ou les hobbies. Faut-il aussi supprimer ce genre d'informations alors qu'elles peuvent apporter des informations utiles aux recruteurs (IA ou humains) sur certains aspects des personnes, c'est plus difficile à dire. Par exemple, le lieu d'habitation peut permettre de savoir à quelle distance du lieu de travail elle habite et une sélection sur une distance limite (en fait, c'est plus le temps de transport et la fatigue liée au mode de transport qui peut jouer) peut être pertinente, mais dans ce cas, il faut bloquer l'utilisation de cette information pour d'autres choses (ou probablement plus facile : transformer la donnée en des informations non discriminantes : mode et temps de transport).

Enfin, oui, il faut utiliser un modèle spécialisé et pas généraliste pour ce genre de tâches. il restera probablement des biais liés à l'entraînement puisqu'il y a aussi des biais chez les RH humains, l'essentiel est qu'il y en ait le moins possible.

L'info de localisation peut effectivement avoir du sens, surtout si le modèle doit prendre en compte cette donnée (ex : recrutement pour une antenne régionale opérée par un service RH centralisé, critère disant d'idéalement privilégier les candidatures proches).

Par contre, les infos du type nom, prénom, age, sexe, ont zéro intérêt dans le cas d'une classification automatisée de profils sur compétences. Puisque la compétence ne dépend pas de ces caractéristiques.

Ou alors il me manque une notion...

Le 13/03/2024 à 12h 57

D'accord avec toi sur le principe mais :

Une entreprise comme OpenAI vend d’ailleurs ChatGPT à des entreprises de divers secteurs, vantant les capacités de ses technologies pour des tâches aussi spécifiques, notamment en matière recrutement.
Si l'outil est effectivement vendu dans ce but, y'a un souci et c'est bien de le soulever.

C'est contradictoire avec la phrase de fin dans ce cas.

Ils vendent la solution comme pouvant le faire ou bien l'interdisent dans les conditions d'usage ? Faudrait savoir.

Le 13/03/2024 à 07h 44

Problème, constate Bloomberg dans une enquête qui reproduit la méthodologie de travaux scientifiques sur la question : ChatGPT reproduit, voire amplifie des biais existants dans le monde hors ligne. Et lorsqu’on lui demande, à plusieurs reprises, de classer 1 000 CV, la machine tend à privilégier des prénoms caractéristiques de certains types de population.
Je veux pas être désagréable, mais à un moment il faut arrêter d'être con et considérer que ChatGPT peut tout faire. Ce n'est PAS un outil RH. Ce n'est PAS un système de recherche scientifique. Ce n'est PAS une divinité omnisciente qui sait tout et voit tout.

Un outil RH qui utiliserait de l'IA doit utiliser un modèle spécialisé et fine-tuned dans le domaine.

Je ne vois vraiment pas l'intérêt de ce genre de démonstration pour un usage aussi spécifique. Le GPT-3.5 / GPT-4 utilisé par ChatGPT est un modèle généraliste. Il est biaisé, c'est pas une nouveauté ça fait deux ans qu'on le répète et le démontre. Pire encore, ChatGPT possède un system prompt qui va forcément orienter sa façon de travailler et répondre. C'est le fonctionnement de base d'un LLM. A ma connaissance, ce system prompt n'est pas public, donc on ne sait pas comment ChatGPT est conditionné.

Le vrai problème, c'est de vouloir utiliser cet outil spécifiquement, et non un modèle LLM fine-tuned pour des cas d'usage particuliers. Rien qu'un entraînement sur une base de CV publics (du genre linkedin et tout le bordel) supprimant toute donnée personnelle (car ça n'a aucun intérêt pour le tri de CV pour du profil de candidat de mon point de vue, mais je peux me tromper n'étant pas RH) permettrait en théorie d'avoir un modèle capable de faire le taff. Dans tous les cas, je ne vois pas pourquoi le LLM devrait traiter de la donnée personnelle : c'est une information absolument inutile pour savoir sur Profil #234362 matche avec Offre #76576. Ce sont les compétences qu'on prend vérifier cela, pas les noms des personnes.

Surtout quand on dit à la fin :
OpenAI déclare interdire l’usage de ses technologies à des fins d’automatisation des processus de recrutement.
Faut vraiment arrêter de donner raison à Brassens et de chercher à démontrer que des outils qui ne sont pas fait pour certaines tâches n'y répondent pas. Je considère cette "étude" comme inutile personnellement, elle part d'un postulat faux.

Le 13/03/2024 à 13h 09

Bah en France ils auraient gain de cause, tout comme lorsque tu dégages un voleur de chez toi en le blessant ou si tu le séquestres le temps que les Fdo arrivent: c'est toi qui prend :reflechis:

Parce qu'on a un principe qui est qu'on ne peut faire justice soit-même.

C'est chiant, mais perso je préfère ça à des déglingués de la cafetière qui peuvent tirer à vue sous prétexte que t'as frôlé leurs plate bandes.

Le 13/03/2024 à 13h 07

Mais non faut juste regarder les avis. Le vendeur d'uranium enrichi chez qui j'ai commandé la dernière a été très cool. Y'avait même des bonbons dans le carton :yes:

Le 13/03/2024 à 13h 06

Un point amusant que je remarque niveau chronologie : à chaque élection, il y a un démon pointé du doigt comme l'influençant.

Les médias sociaux, les médias traditionnels, l'ingérence étrangère, et aujourd'hui l'IA générative. J'ai hâte de voir ce que ça sera aux prochaines !

Le 12/03/2024 à 18h 46

Non, pas forcément, ça dépend de la finalité du modèle.

C'est pas les données d'entraînement qui font du modèle ce qu'il est, c'est son fine tuning.

Le 12/03/2024 à 13h 37

Open source sur l'IA ne veut pas dire grand chose. La question est de savoir si les modèles seront en open-weight (soit disponibles librement), et si le dataset le sera tout autant (ça c'est encore mieux et c'est hyper rare).

Le code source qui exécute, en soit, il sert à rien.

Le 12/03/2024 à 07h 40

« éliminer toutes les [technologies et services] chinois des réseaux américains serait d'un coût prohibitif, voire impossible »
C'est l'une des raisons pour lesquelles le discours sur la "souveraineté numérique" me fait toujours sourire. On parle majoritairement de logiciel, mais au final, tout ceci tourne sur du matériel (quasi jusqu'aux composants de base) fabriqué à presque 100% par la Chine, et le reste par d'autres pays, vu qu'elle est l'usine du monde. Faisant qu'au final, c'est bien beau d'être "souverain" sur le software, mais si on ne l'est pas sur le hardware, ça n'ira pas bien loin.

Le 11/03/2024 à 17h 52

Ton lien n'est pas accessible (car en première ligne et il y a un bug comme l'a expliqué fdorin dans un autre com).
Peux-tu éditer ton commentaire pour le faire passer plus bas et qu'on puisse cliquer dessus ?

J'avais pas remarqué, merci. :smack:

Le 11/03/2024 à 13h 45

L'ex-CEO d'Activision Blizzard semble se porter volontaire pour racheter la filiale si cette loi entrait en vigueur.

Edit : screugneugneu

Le 11/03/2024 à 17h 50

Genre "la maison qui rend fou" des 12 travaux d'Asterix ?

Typiquement un bon exemple.

Quoi de plus dissuasif ? Perso je préfère me faire atomiser direct. En plus une IA générative excellerait dans le domaine.

Le 11/03/2024 à 14h 12

Pourquoi pas ?

Si l'IA est du niveau de l'arme atomique comme suggéré et permet d'éviter des guerres, il faut en parler, c'est de la dissuasion.

Si l'IA est du niveau de l'arme atomique comme suggéré et permet d'éviter des guerres, il faut en parler, c'est de la dissuasion.
"Si vous nous attaquez, notre IA bureaucrate viendra en représailles."

"NOOOOOOOOOOOOOOOO"

:devil:

Le 11/03/2024 à 08h 34

L'arbitraire dans toute sa splendeur.

Le 09/03/2024 à 15h 37

Pareil !

Et j'aime beaucoup cette série.

Le 08/03/2024 à 18h 15

Par contre je trouve que Spotify s'est dégradé en matière de qualité de l'application.

Leur fonction "smart shuffle" est intéressante pour ajouter des découvertes à une playlist, mais globalement leur "shuffle" ne semble pas fonctionner. Sur une playlist de quelques 150 titres, j'ai quasi toujours les mêmes qui ressortent. Et la file générée est rarement différente.

Le 08/03/2024 à 07h 38

Les prix vont augmenter et les tarifs français deviendront les plus élevés au sein de l’Union, prévient la société, sans donner plus de détails.
Ce qui pourra donner des indicateurs intéressants quant aux tarifs des produits des bénéficiaires des subventions du CNM par rapport à leurs équivalents dans l'UE.

Le 07/03/2024 à 19h 12

Merci de me rappeler que j'utilise du Linux au quotidien depuis 20 ans désormais, notamment grâce à Ubuntu et sa première version.

Ah les CD plein d'autocollants qu'on laissait traîner partout :D

Le 07/03/2024 à 19h 09

tu es certain que le bouquin est basé sur les brouillons du scénario ?
j'ai toujours cru que le film n'était que l'adaptation du livre en fait, l'idée que les deux aient été créés "en même temps" me laisse perplexe

D'après ce que j'avais pu lire autour, oui, les deux oeuvres ont été produites de manière concurrentielles en se basant sur la même scénario initial et ont dévié (que ce soit par changement dans la prod du film pour des questions de coût de tournage ou complexité, ou divergence entre Kubrick et Clarke).

Par exemple le fait que la destination du Discovery One soit Saturne dans le livre est la première version du scénario du film. Elle a été changée pour Jupiter notamment à cause de la difficulté à rendre des anneaux. De même la description du vaisseau possède des éléments d'origines que Kubrick a supprimé lors de la production, notamment l'évocation de radiateurs externes de refroidissement qui rappelaient des ailes. Une autre différence est que HAL est plus jeune dans le livre (opérationnel en 1997 contre 1992 dans le film).

Les deux oeuvres sont sorties en 1968, le livre juste après le film. Au contraire de 2010 qui a d'abord été publié en 1982 puis adapté au cinéma en 1984.

Le 07/03/2024 à 18h 23

Il faut lire la suite " 2010 : odyssée 2" où cette question est abordée directement.

Pour 2010, je n'ai vu que l’adaptation film à ce jour (pas trouvé d'édition française en ebook jusqu'ici) et je sais que l'explication fut donnée dedans aussi. Mais la version roman de 2001 le précise aussi tout comme elle complète beaucoup le contexte du film.

Le film est principalement une expérience visuelle et il est très muet. Là où son roman, qui fut écrit en même temps et basé sur les premiers brouillons du scénario ainsi que la vision de Arthur C Clarke qui n'était pas forcément partagée par Kubrick sur tous les points. Et c'est la raison pour laquelle j'ai beaucoup apprécié cette version, car elle complète à merveille le film et précise des éléments qui furent explicités dans la suite.

Le 06/03/2024 à 19h 56

En relation avec la référence HAL 9000, je ne saurais que trop conseiller le roman de 2001 : l'Odyssée de l'espace. Lu récemment, il m'a clairement réconcilié avec le film et apporte des éléments et réflexions intéressantes relatives aux raisons pour lesquelles HAL a déraillé dans l'histoire.

Le 07/03/2024 à 18h 25

"Mettre ça entre les mains d'un gamin qui n'a aucun recul, c'est stupide."

Qui met cela entre les mains d'un gamin ? Le créateur de l'outil qui ne controle rien ou un parent qui ne sait même pas de quoi il s'agit ?

C'est bien mal connaitre la jeunesse que de croire que les parents savent tout de ce que font les pré ados par exemple.

A croire que certains ont oublié leur propre jeunesse et leur rapport avec leurs parents.

Avant de sauter à la gorge et balancer des jugements, merci de lire mon message. Tu y remarqueras que je cite un élément de l'article qui est lui-même une citation de la lettre de l'ingénieur en question.

Le 07/03/2024 à 07h 40

Ceci est particulièrement important pour les parents et les enseignants qui pourraient recommander à leurs enfants d'utiliser Copilot Designer pour des projets scolaires ou à d'autres fins éducatives
Ben, peut-être qu'on devrait commencer par considérer que ce ne sont pas des outils fait pour les enfants ? Les adultes ont déjà bien du mal à comprendre que l'IA générative fait des erreurs (et non peut faire) et donc que le contenu produit doit être sujet à analyse critique avant de l'exploiter.

Mettre ça entre les mains d'un gamin qui n'a aucun recul, c'est stupide.

Le 06/03/2024 à 17h 58

BS... BullShit ? Étrange nom pour un réseau social (oui, en vrai, ne jamais utiliser d'acronymes sans préciser au moins une fois à quoi ça correspond ;))

Surtout que BS est anglais est vraiment utilisé dans ce sens... :transpi: