Perso je trouve ça invraisemblable. Le matos réseau ça se vérifie, son fonctionnement n’est pas mystérieux. Il y des composants, la plupart du temps standard et réutilisés dans d’autres marques concurrentes, un firmware et il existe de nombreux outils de vérifications soft et hard pour analysé le comportement d’un périph réseau.
Même en implantant ça en hard, ça se verrait quand même.
Wow ! avec une lampe de 4Kw ça va pas trop rentré chez moi ça… " />
Le
22/05/2014 à
08h
20
Jonathan Livingston a écrit :
Et pourtant…
L’effet d’arc-en-ciel est sans doute moins visible grâce à la faible luminosité du cinéma.
Mais si le projecteur que je connais bien (un dolby 3D) a un DLP et une roue colorée, certains projecteurs ont trois DLP avec un chemin optique pour chaque composante couleur, lesquelles ne sont donc plus affichées séquentiellement. Par contre je ne sais pas si la majorité des cinémas ont un projecteur à un DLP ou à trois DLP.
Ah comme ça c’est mieux. 3 roues codeuses, le rêve !
Le
21/05/2014 à
15h
47
Jonathan Livingston a écrit :
Si, crois moi, à 50 centimètres de distance d’un écran de 10 mètres, on distingue le quadrillage des pixels. Et un pixel isolé, on le voit bien carré.
Alors ce n’est pas du DLP. D’autant plus qu’il serait vraiment très surprenant que les cinés utilisent des projo numériques DLP. Pas mal de personnes sont sensibles aux effet d’arc-en-ciel provoqué par cette techno. Et dans une salle de ciné ça ferait assez tache.
Le
21/05/2014 à
15h
19
Jonathan Livingston a écrit :
On voit nettement les très fines lignes séparant les pixels du DLP (un projecteur de cinéma numérique c’est un vidéoprojecteur avec une lampe très puissante).
On ne vois pas de pixel dans la techno DLP. Seulement sur les projo LCD.
Le
21/05/2014 à
14h
31
Jonathan Livingston a écrit :
Pour être précis : si, le LaserDisc était bien numérique. La technologie de lecture laser est l’ancêtre de celles du CD, DVD et BluRay. Mais ce qui était numérisé c’est le signal composite PAL, donc on avait la résolution et la qualité du master d’une cassette VHS – l’usure en moins.
Non non, je t’assure que le signal vidéo est bien analogique. Sinon je ne l’aurais pas préciser. La techno optique ne veut pas dire numérique. C’est une question de traitement de signal pas d’encodage.
Seul l’audio est parfois encodé en numérique. Mais la plupart du temps c’est de la modulation de fréquence. Le LD est le successeur du CED qui lui était un disque a microsillons (comme les vinyl). Ils ont juste remplacé les microsillons par des trous et le saphir/diamant par un laser.
Le
21/05/2014 à
14h
06
Xaelias a écrit :
Le SED.
Mais en effet ça n’a jamais percé :/
Oui c’est ça. Bien joué ! " />
c’était vraiment prometteur, je me serais jeté dessus mais, on ne sais pas trop pourquoi, ça a été abandonné.
Le
21/05/2014 à
13h
41
misterB a écrit :
non vrai ??? " />" />" />
Oui, contrairement à l’idée reçue le LD c’est pas du numérique mais de l’analogique. Le format du signal est PAL ou NTSC c’est à dire composite à la même résolution qu’une VHS. Certains intègrent de l’AC3-RF qui est du 5.1 analogique. Mais il faut un sacré matos derrière.
Seul le Vidéo-CD est numérique (MPEG) et dispose d’une meilleure résolution que le LD qui est ni plus ni moins qu’une VHS sur un support optique.
Le
21/05/2014 à
13h
21
athlon64 a écrit :
" /> j’ai appris des choses, je pensais même pas que c’était possible
Sur un LCD de 80cm (32”), le 1080p c’est pas useless, enfin surtout quand tu branches un PC dessus et que t’as pas un gros recul (la longueur d’un lit dans mon cas). La différence entre une HDready et FullHD tu la vois.
Après, peut etre le fait que se soit un tube change peut etre la donne
Bah en fait c’est l’équivalent d’un gros écran VGA à tube. Comme ça existait à l’époque. A mon avis pour certains modèles c’est même du reconditionné.
Après pour l’histoire de la résolution, le tube amoindris la pixellisation sur les contenu en basse résolution. Je peux donc facilement regarder des vidéos de vacances en 700mo sans que je vois l’ombre d’un pixel disgracieux.
Par contre pour du contenu HD je vois bien la différence, c’est plus lisse, moins terne. Ça c’est pour les films. Mais pour les jeux en HD c’est pas le même trip.
Tout ce qui est texte en HD est quasi illisible. A cause jsutement de la petite taille d’écran. Au niveau de l’image la différence entre SD/HD n’est pas flagrante à part le texte justement. C’est là le défaut.
En revanche, et avec le recul des années, rien pour l’instant ne surpasse la qualité d’affichage d’un CRT. Seul le OLED et une techno encore meilleure qui n’a pas percée (et dont je ne me souvient plus le nom) se rapproche du rendu CRT.
Perso, j’attends qu’une techno sorte pour proposer le même rendu que le CRT. Là j’achèterai.
Le
21/05/2014 à
12h
55
athlon64 a écrit :
Ca a existé les cathodiques HD ? (vraie question)
Oui ça a été un marché très éphémère (+/- 2 ans). Philips et Samsung étaient les seuls à commercialiser des CRT HD (full & ready) avec prise HDMI et YUV. C’est sur l’image est super clean, les noirs ne sont pas gris et l’image à plus de profondeur que sur un écran LCD/Plasma.
Par contre la limite c’est 80cm… et du 1080p a 80cm c’est un peu useless " />
athlon64 a écrit :
T’es un amoureux des anciennes consoles de ce que j’ai pu comprendre en te lisant, donc vaut mieux pour toi que tu en ais toujours un " />
Bah justement même les CRT HD ont la maladie des TV HD. c’est à dire massacrer l’image de tout ce qui est en 240p. Donc une SNES ou une MD sur cette TV et c’est la catastrophe. Tout comme sur les modèles plats.
C’est à cause de la fréquence et de l’affichage progressif obligatoire sur les afficheurs HD. Pour profiter des consoles anciennes il faut un CRT SD en 50/60hz et évité le 100hz.
Anna Lefeuk a écrit :
Heureusement que tout le monde sur ce site à l’esprit bien tourné " />
Peut être que tu est le seul à avoir bien compris ^^
misterB a écrit :
une des premiere 16⁄9 et HD, ça claquait avec un LaserDisc " />" />
Les LD c’est de la SD, en composite obligatoire en plus.
Le
21/05/2014 à
12h
38
J’ai l’impression de passer pour un dinosaure avec mon tube HD de 80cm… " />
Comme sur allociné quoi… enfin sur ce dernier même certaines notes spectateurs sont biaisées.
Le
21/05/2014 à
09h
00
cygnusx a écrit :
Je préfere metacritics qui a un volet professionel et un volet utilisateurs/spectateurs.
Mais les deux sont de bonnes bases
Bah les pro j’ai pas trop confiance en fait. C’est toujours un peu intéressé.
Le
20/05/2014 à
10h
10
davyg a écrit :
Quand bien même je serais du milieu je serais d’autant plus sincère en clamant l’importance de la presse non ? Mais si ma profession change ta manière d’interprété mes propos sache que je suis ni du milieu de la presse, ni du jeux vidéo.
Parce qu’il y des métiers qui consistent à modifier l’opinion “ambiante” des forum/blog/commentaires. Que ton intervention renifle ce genre de pratiques.
Le
20/05/2014 à
08h
52
davyg a écrit :
J’ai été un peu rapide et il faut remplacer journalistique par jeux vidéo. Et ensuite j’ai du mal à voir le lien entre mon nombre de commentaire ma sincérité et la presse. Il faut écrire beaucoup de commentaire pour prouver qu’on est attaché à la presse ? C’est absurde, vraiment je comprends pas.
C’est vrai, maintenant tu as 2 commentaires. Ne fais pas l’innocent, pourquoi réagirais-tu sur un sujet comme celui-ci alors qu’il y en a tant d’autres, bien plus important, sur PCi ? A mon avis il y des arrières pensées professionnelles derrière tes 2 commentaires.
Le
20/05/2014 à
08h
42
cygnusx a écrit :
bah il y a toujours metacritics pour voir l’ensemble des avis des professionels des jeux videos
Sans vouloir faire de la pub Sens Critique reste ce qu’il y de plus honnête et sincère en matière de critiques. Puisque ce sont ses uniques membres qui rédigent et créent les fiches de jeux/films/musiques/livres.
Son seul défaut (qui n’en est pas un à mes yeux) est que sur les œuvres plus confidentielles on trouve très peu d’avis.
Le
20/05/2014 à
07h
43
davyg a écrit :
De deux la presse journalistique est très importante comme toutes les presses
D’un ce ne sont pas des journalistes mais des rédacteurs, de deux avec ton seul et unique commentaire tu ne vas pas nous faire croire que ce que tu nous dis est sincère. " />
Je connaissais pas le nom de ce projet, mais étant gosse j’ai eu des cours de LOGO sur MO5 ou TO7 (me souviens plus) en primaire.
Ce qui m’a par la suite donné envie de bidouiller des heures sur le PC du paternel (ce bon vieux QBasic " />)… jusqu’à en faire mon métier depuis 8 ans maintenant " />
Oui je suis sur que pas mal d’entre nous a connu et vécu ce projet sans savoir ce que c’était vraiment. Les installations ont perduré assez longtemps après la fin du projet (vers 1995 on en trouvait encore dans les écoles). pour info.
Le
21/05/2014 à
09h
05
coket a écrit :
Lol :)
J’ai donné pas mal de séances de cours dans ce cadre, sur TO
C’était ouvert aux écoliers et aux parents. J’ai toujours vu des parents, jamais d’enfant…
Je me demandais si quelqu’un allait tiquer " />
Logo, Basic, Nanoréseau… toussa. Effectivement il y avait des séances pour les adultes le soir. Mais pour les mômes aussi, mes instits de l’époque avaient la fibre bricolo et aimaient bien se la jouer en allumant cet infernale usine à gaz. " />
Mis a par le fait que ce soit Thomson qui est honteusement profité de ce marché public, le projet était quand même pas mal pour l’époque.
Le
21/05/2014 à
08h
36
Ouai c’est ça réhabilitons le projet “informatique pour tous” avec des MO5 et des TO7… " />
Je les aime bien ces Tinois ils ont tout compris… sauf :
Même si l’on réfléchit au problème, il est difficile de savoir en quoi le bannissement de Windows 8 pourrait aider la consommation électrique ou assurer une quelconque sécurité. Les ordinateurs récents sont bien davantage conçus pour limiter la consommation.
Bon là c’est imparable, ils auraient du trouver un prétexte un peu moins bidon quand même. Là c’est pas super crédible leur affaire.
On vois quand même que la standardisation a fortement freinée l’innovation. Il fu un temps ou c’est le hard qui poussait l’evolution des API, avec des CG qui sortaient beneficiant de fonction inédite uniquement exploitable via des api native ou extensions openGL (directX devais attendre la version suivante), actuellement c’est l’isnverse, les API evolue et les cartes graphiques suivent pour supporter en hard les nouveautées de l’API
Entre autres oui. Mais visiblement c’est difficile à expliquer et à faire comprendre.
Le
20/05/2014 à
15h
17
Nnexxus a écrit :
Le métier ne disparaît pas pour autant, il se déplace. Si tu veux faire du code proche du hardware, c’est plus dans le jeu vidéo qu’il faut aller, c’est tout. Mais y’a largement de quoi s’éclater avec la prolifération des micro-drones, des objets connectés etc… bref des secteurs où, par nature, le hardware est imposé et peu puissant. Comme le marché des consoles de jeu 10-20 ans en arrière quoi.
Je ne vois pas pourquoi il faudrait qu’il disparaisse dans le jeu vidéo. C’est, et ça restera toujours utile quoi qu’on en dise. Le preuve avec ce qui arrive à la Wii U, elle est boudée pour son aspect spécifique. Ce démontre bien l’état d’esprit actuel en matière de développement de jeu vidéo.
Le
20/05/2014 à
14h
31
le podoclaste a écrit :
@Dr. Wily]
De plus, comme dit auparavant, si le temps passé à l’optimisation multiplie le temps passé par 1,5 pour seulement 5% de gain de performance, ça ne vaut pas le coup.
Et enfin, développer avec l’optimisation comme premier objectif est généralement une mauvaise pratique.
Non non " />
Je me suis mal fait comprendre. Je ne parle pas d’optimisation en terme de perf ou de code propre. Je parle d’exploiter les capacité spécifiques d’une machine (ou d’une carte graphique, mais c’est plus délicat commercialement…) pour rendre le contenu qu’elle propose différent de la concurrence. Tout comme les MD et SNES (je prend cet exemple simple car il est connu de tous) étaient aisément reconnaissable au niveau graphique et sonore.
Tout comme la PS2 proposait de chouettes effets de particules et le Gamecube étant spécialisé dans l’éclairage dynamique…
Là, la tendance est a la standardisation, y compris au niveau matériel (One/PS4). Les jeux se ressembleront tous plus ou moins, le hard n’étant plus déterminant sur le rendu graphique. Ce qui est une erreur de mon point de vue et de mon expérience.
Pour le reste de ton post je suis d’accord.
Le
20/05/2014 à
14h
23
Nnexxus a écrit :
(…)
Je sais bien tout ça. Ton post est tout a fait le reflet de ce qu’il se passe. C’est malheureusement implacable. Mais est-ce que pour autant c’est ce qu’il faut ?
Que deviendront les développeurs lorsque l’on aura fait abstraction d’eux ? Parce que je ne crois pas que ce ce soit de la SF que de penser qu’un jour un programme “simple” (comme le JV) pourra être développer sans avoir de compétences particulières en développement.
Certaines boites fournissent déjà des kits de construction de jeux comme l’on peut trouver des CMS pour le Web. Chose commune aujourd’hui qui faisait hurler les dev Web à l’époque.
Et là, il sera drôle de lire des commentaires de gens comme moi qui ne râleront plus sur le désintérêt du hard, mais sur celui du développeur… qui faisait le cachet du jeu… " /> Et il y aura des personnes comme toi qui seront pragmatiques en disant que c’est dans l’aire du temps.
Pour résumer, je trouve juste dommage de perdre des bouts d’un métier passionnant juste par facilité et souvent pour des histoires de fric.
Sinon ton exemple automobile est transposable aux frères Lumière " />
Le
20/05/2014 à
13h
48
Alucard63 a écrit :
Encore une fois: C’est rarement rentable." />
On fait des projet JV à l’heure actuelle qui reproduisent des villes entières, avec des mécanismes complexes de gameplay, des milliers d’objets et personnages à modéliser…la principale plus value elle est ici.
Ca, je ne dis pas le contraire. Dans ce cas l’apprentissage du hard n’est pas forcément nécessaire. J’aborde plutôt le problème au niveau de la connaissance matérielle, des moteurs et API utilisés pour construire un jeu. De faire en sorte que chaque jeu est sa propre identité graphique et non pas un moteur générique. La plupart des studios travaillent sur la réécriture d’un moteur connu pour l’adapter à une console au lieu de se créer le leur qui s’adapterais bien mieux à leurs besoins. Tout comme en arcade le hard était adapté au jeu, et ca ne coutait pas plus cher pour autant. En tout cas moins cher qu’un jeu d’aujourd’hui, pourtant il y en avait du matos et de la R&D… Il y a vraiment une disparité énorme entre les compétences qu’il fallait avant pour faire un jeu vidéo : un bouillon de culture entre électronique / programmation et aujourd’hui où l’on est dans le pure software et où la console est limite absente de l’équation. C’est moche.
Nnexxus a écrit :
C’est quand même deux métiers distincts. Proches, certes, mais distincts.
On pourrait dire aussi :
Certes savoir comment marche une bagnole peut aider à mieux conduire. Mais si tu met un pilote devant un capot ouvert, il ne saura pas forcément faire grand chose. De même, un mécanicien au volant d’une F1, c’est la casse assurée. Deux métiers distincts.
Analogie automobile non recevable. D’un parce que je pense que tout pilote s’y connais proportionnellement mieux que M. Toutlemonde en mécanique auto. De deux, historiquement en informatique la maitrise d’une puce, d’un processeur passait forcément par son analyse.
Pourquoi ? Parce que la puissance nécessaire pour faire tourner un programme n’était pas celle d’aujourd’hui. Les besoins d’optimisation étaient nettement plus vitaux au regard des capacités très limitées en matière de fréquence, de calcul et de capacité mémoire. OK, ces limitations ont mené la vie dure aux dev de l’époque mais ça a stimulé la créativité en quelque sorte.
Même si tout cela était totalement informel et subis. Mais au final ca a donné de très belles choses. Alors qu’aujourd’hui, les indé s’échinent à imiter le pixel art sans vraiment comprendre ce qui faisait le cachet des jeux 2D, c’est à dire les limites de la machine (je ne suis pas nostalgique de la 2D, je démontre). C’est assez ubuesque de voir a quel point le “renouveau” renie le passé et ne le prend pas comme expérience.
Xaelias a écrit :
Juste pour être sûr qu’on parle de la même chose. À partir de quand considères-tu que le langage devient haut-niveau?
C’est très simple, le bas niveau tu te rapproche du métal, de l’électronique. Tu fais ce que tu veux mais tu dois absolument tout faire faire. Le plus connu, l’assembler spécifique à chaque puce, mais il y en a d’autres. Le C est un langage de haut niveau, il t’évite les désagréments primitifs du bas niveau mais ne permet pas d’optimiser aussi finement qu’avec un langage de bas niveau. Après même à l’époque des 8 bit tout ne se faisait pas en ASM. Le C était aussi très présent.
Xaelias a écrit :
Sinon, pour répondre au soucis que tu pointes du doigt, la réponse est évidente, et tu le dis d’ailleurs toi-même. Avoir un programmeur spécialisé dans un hardware spécifique (PS3 par exemple, avec son cell à gérer etc.) est extrêmement coûteux. Et qui plus est, une fois que la PS3 n’existe plus (en gros à partir d’ajd), le développeur perd énormément en polyvalence, et doit être reformé sur un hardware spécifique.
Alors il y a deux réponse à apporter à cela :
La première est que généralement ce genre de dev existe encore. Sauf qu’il ne va pas bosser sur des jeux mais sur des choses plus pointues. On les trouve notamment dans la conception d’API, de compilateurs ou de moteur graphique. Mais on les retrouve surtout dans le monde des processeurs ARM. Ce qui fait la différence de perf (perf hein, pas feature) entre, par exemple, un switch utilisant les même composants mais n’ayant pas le même firmware. Autre exemple les téléphones portables ou les mini camera type GoPro. Pour la plupart de ces appareils les processeurs et la majorité des composants sont les mêmes. Pourtant d’une marque à l’autre les perf et les capacités offertes ne sont pas les mêmes. Outre le modèle commercial appliqué à ces “devices” il y a aussi le fait de savoir triturer l’architecture du composant. C’était un sport assez commun dans le temps pour le jeu vidéo. Prendre un analyseur logique et voir comment se comporte le processeur avec des bouts de codes. C’était quelque chose de commun et d’encourager encore jusqu’a la PS2 (la PS1 avait son perf analyser composant par composant inclus en hard dans l’un de ses devkit). Depuis les diverses couches d’abstraction, les moteurs tout faits, les compilo ca s’est estompé à une vitesse hallucinante.
La seconde, c’est qu’un développeur “bas niveau” n’est jamais vraiment spécialisé sur une puce. Il a surtout une très bonne connaissance des architectures matérielles. Aujourd’hui on les retrouve à développer du hard sur des devkit équipé de puce CPLD ou FPGA. Pour les petits étudiants ce sera de l’Arduino avec les microcontrôleurs Atmel entre autre, voir du Rasbery… Avec ce genre d’apprentissage il est assez “facile” ensuite d’appréhender l’archi d’une puce et d’en tirer le meilleur. Ca été le boulot de pas mal de boites et de studio de JV.
Certains créaient des devkit lowcost parfois même meilleurs que les officiels (SN System pour le Gamecube, PsyQ pour la Saturn…) et d’autres des moteurs spécifiques à un jeu, des microcodes pour les processeurs… Ces personnes étaient dédiées à la dissection d’une machine. Tout simplement pour que le studio est l’exclusivité d’un développement de qualité. Ce qu’il se passait généralement c’est que les studios proches du constructeur avaient des outils bien plus pointus que les 3rd party qui devait se débrouiller avec les moyens du bort. Ca à toujours fonctionné comme ça jusqu’a il y a peu. Le jeu était très souvent le reflet des outils créé pour l’occasion.
Xaelias a écrit :
Que si l’API reste grosso merdo la même sur plusieurs consoles, voir plusieures générations, tu gagnes énormément en productivité. Par contre le résultat est clairement moins bons que ce qu’il aurait pu être, mais à moindre coût, et probablement en gagnant du temps également.
Mais c’est vrai. Et Nintendo stigmatise très bien cet état de fait. Sa console est spécifique, leur outils aussi. En gros ils n’ont pas suivit la tendance actuelle en matière de développement et ils le payent aujourd’hui par un cruel manque de support de leur console. Mais la question c’est : qui à raison ? Uniformiser ou rester spécifique ?
Xaelias a écrit :
Perso travailler dans le JV c’est ce que j’aimerais faire dans les prochaines années. J’ai pas réussi à trouver un stage dans ce domaine, je ré-essayerai après, et clairement je préférerais avoir des connaissances poussées sur une plateforme, et bien coder pour cette plateforme plutôt que d’utiliser une API générique. Mais très clairement aussi, ça n’a pas le même coût pour l’employeur…
Bonne chance à toi, c’est encore un monde assez fermé ou il est difficile de percer (dans le monde des consoles tout du moins). Connaitre une plateforme au plus prêt de son électronique te donnera un avantage certain. Mais aujourd’hui c’est assez difficile, car les constructeurs font tout pour planquer ces infos. Y compris les constructeurs de carte graphiques, il te faudra beaucoup de temps, de patience et de passion pour cela. Mais comme il y un très gros manque de personne connaissant le bas niveau, étant capable de l’analyser cette voie est certes difficile mais payante à la fin. En tout cas si t’es vraiment passionné par le hard.
Fuinril a écrit :
Quelque chose me dit que les architectes des moteurs leaders du marché que sont le CE et l’UE ont une connaissance très poussé des architectures matérielles des divers supports…. sans commune mesure avec celle que pourrait posséder le random dev…. Bien sûr je peux me tromper…
+1
Et c’est parce qu’il ont ces connaissances qu’ils mâchent le boulot aux studio qui ne pensent qu’au flouz qu’a l’assemblage de moteur et d’API… c’est quoi les Lego pour les grand déjà ? Ah oui les Lego Technic
Le
19/05/2014 à
16h
06
lincruste_2_la vengeance a écrit :
Je vois ce que tu veux dire, mais -et je ne te charrie pas là - le problème c’est que tu as une image fantasmée du développement dans l’industrie aujourd’hui.
Tu n’as plus une vaillante équipe qui développe son propre SDK pour repousser les limites de l’archi comme à l’époque de Rare sur N64, ou autre truc héroïque dont on nous rebat les oreilles.
Aujourd’hui, les mecs sortent d’écoles d’ingénieur (de bonnes écoles) et bossent en équipe de 100 dans des centres de R&D.
Il n’y a plus LE mec qui pense en tout premier à exploiter le canon à électrons des télés pour afficher des copperlists de ouf ou bien des exploits personnels à la Alan McNeil, c’est fini. Ou alors les mecs bossent pour une boîte, leur code est repris partout, ils gagnent plein de thune et personne n’entend parler d’eux.
Là je suis OK. Mais je ne fantasme pas. C’est la réalité tu l’as dit un peu avant :
Oui la tendance depuis des années c’est l’abstraction du matériel.
Le problème dans tout ça c’est l’uniformisation. Je développe aussi. Certes pas dans le JV. Mais quand je dois me palucher un code spécifique à un type de matos je trouve ça intéressant, ça attise ma curiosité qui est mon principal moteur de motivation. Je me dit humm là c’est bien foutu, la c’est de la merde… bref il y a un travail de recherche. Chose qu’il y avait dans le jeu video et l’informatique il y a encore quelque année.
Là ce qu’il se passe, c’est que l’on a une armée de développeurs codants sur des langages de haut niveau, tous quasi identique. Ils n’ont quasiment aucune notion d’électronique. Ce qui n’est pas normal. Puis, il reste une poignée de dev maitrisant des langages de bas niveau qui se font payer grassement. Mais alors pourquoi a-on des ingé clonés tous de la même façon alors qu’il serait bien plus saint de leur apprendre quelques notions d’électronique, d’ingénierie inverse et de codage de bas niveau. Au lieu de se laissé masqué les yeux par des API toutes faite qui les empêches d’aller fouiller dans le hard pour mieux comprendre.
Au moins on aurait matière à exploiter de manière plus intelligente le hard d’aujourd’hui au lieu de faire des console clonées à l’image des ingé qui sortent par boite de 12 des écoles a 5k€ l’année. Tout ça me dépasse…
Le
19/05/2014 à
15h
50
lincruste_2_la vengeance a écrit :
Oui la tendance depuis des années c’est l’abstraction du matériel.
Justement c’est une connerie. Pas pour tout, mais le hard c’est la base de l’informatique. Un dev qui abstrait totalement le hard n’est pas un dev. Moi je voudrais peindre sans peinture. Avoir le gout sans manger, conduire sans volant… baiser sans partenaire… ah merde ça c’est déjà possible…
Bref, palper du composant voir comment ça fonctionne… faire comme les types de Polyphonie Digital et relier un logic analyser sur les processeurs de la PS2 pour en tirer les meilleurs perf et lui permettre au final de faire du 1920x1080. Là il y a du taf d’investigation de personnes curieuses qui aiment leur métier et ne font pas ça QUE pour manger.
KP2 a écrit :
Le probleme dans ton discours, c’est que tu crois que le dev est maitre de son temps et de ses priorités.
Or, c’est pas du tout le cas.
Voir ma réponse plus haut.
Le
19/05/2014 à
15h
42
lincruste_2_la vengeance a écrit :
@Dr Wily
Et l’“optimisation” dont tu parles est une discipline essentiellement soutenue par l’industrie que tu dénonces et ses impératifs de rendement.
N’importe quel programmeur soucieux de la “beauté du code” privilégiera l’élégance mathématique d’un algorithme à ses performances brute sur une architecture donnée. Lis Donald Knuth tu vas changer d’avis sur la question.
Je le sais, sauf que cette industrie à perdu la plupart de ses têtes pour les remplacer par des financiers. Le coté “artisanal” qui donnait tout son cachet aux jeux a complétement disparu au profit de process ultra formalisés et de l’absence quasi total de R&D au niveau hardware. C’est aujourd’hui ce qui manque le plus chez les studios. Mais ça, ça a toujours été la vision occidentale du jeu vidéo. Un truc qui sert à rien mais qui génère des profits.
Le
19/05/2014 à
15h
35
lincruste_2_la vengeance a écrit :
Ben écoute, c’est exactement le contraire: dans les années 80 tu avais un jeu développé pour Apple II par untel, et 10 versions différentes du jeu plus ou moins réussies selon le talent, la thune ou le temps consacré au portage Spectrum, Amiga, CPC ou autre.
Ouai, ça c’était pour ceux qui voulaient faire du multit support. Regardes donc les jeux à cette époque, les meilleurs ne tournent que sur un seul support. Pourquoi vouloir absolument développer pour tous les support ? On peut très bien rentabiliser un titre sans qu’il soit diffuser sur tout les supports de l’univers et basé sur le plus “standard”. Belle philosophie l’uniformisation ! On fait et on pensent tous pareille parce que ça coute moins cher… la moindre coquetterie serait trop compliquée… non pas possible…
lincruste_2_la vengeance a écrit :
L’“éthique du développeur”, c’est un truc que tu vas sagement ranger dans ta poche pour le jour où tu programmeras pour nourrir ta famille.
Populisme à 3 sous. Si tu taf dans le JV tu peux très bien travailler dans n’importe quelle boite qui a besoin d ‘un dev. D’autant que le niveau requis est souvent celui d’un BAC+5. Donc bon le coté “nourrir la famille” ça va 5min… surtout ça a une connotation : “je fais de la merde mais ça nourrie ma famille”. C’est bien pour l’image du métier !
lincruste_2_la vengeance a écrit :
Si les consoles disparaissent je vais pas pleurer, c’est juste une plateforme comme une autre. Le jeu vidéo existait avant et existera après, si c’est ce qui t’inquiète.
Pour ma part je regrette ça. J’ai beaucoup d’admiration pour les boites qui ont réussi à tirer le meilleur de chaque machine. Le support étant déterminant au cachet du jeu (voir les jeux d’arcade). Sans parler du fait que le hard est indissociable du soft. L’un ne va pas sans l’autre, snober le hard c’est insulter toutes les personnes dont la passion à été d’étudier et d’exploiter au mieux ces machines. La dictature du tout soft est une connerie tout droit sortie de dev incapables de comprendre que sans l’électronique ils ne sont rien.
XMalek a écrit :
Quand tu es payé au SMIC sans avantage ça motive pas longtemps. J’ai quitté le milieu et autant au début tu te défonces, mais quand tu fais des week ends juste pour le plaisir de ton patron sans même un merci ça te gave rapidement.
+1
Le
19/05/2014 à
15h
11
lincruste_2_la vengeance a écrit :
Non.
Non non non non non.
Non.
Non.
Les développeurs, ils s’en branlent: tu les payes pour faire un truc de dingue qui fait tourner le Cry Engine sur une TI92, si c’est physiquement possible ils te le font, c’est juste une question de thune et de TEMPS.
Le problème c’est donc le temps de développement qui est toujours limité, et les impératifs de productions qui font qu’un jeu doit tourner sur des architectures différentes à un coût raisonnable.
Et à ce titre les mecs feront bien mieux avec cette génération de consoles (des PC barebones modifiés) qu’avec les horribles architectures PowerPC de la PS3 et de la Xbox360.
Dans un cas ce sera du DirectX custom et dans l’autre un truc sans doute quasi compatible nativement tant les mecs de SCE ont compris la leçon de la PS3 et la désertion de ses premières années d’exploitation. S’ils ont chanté à qui voulait l’entendre que leur Phyre Engine était super pas cher et quasi identique à DX c’est pour une bonne raison.
Non, donc.
Et la pratique du métier, la curiosité de faire tourner un truc unique ? De maitriser un hard ? Et pas juste d’être salarié pisseur de lignes qui obéit bêtement à son chef juste parce qu’il est trop fière de travailler dans le jeu vidéo.
On peut aussi avoir une certaine idée du développement et refuser un taf parce que son orga est mal branlée. Là on retourne dans les années 80 ou les consoles n’étaient que des clones de clones. Toutes identiques sans réel intérêt d’en choisir une plus qu’une autre. L’uniformisation c’est le mal absolu, dans le jeu vidéo ça mènera à la disparition des consoles.
Coder c’est un métier qui demande un minimum de curiosité et surtout d’une forme d’éthique vis à vis de son savoir faire. On offre pas son savoir faire quand on est pas d’accord avec l’orga d’un truc. ET actuellement c’est n’importe quoi. C’tout.
Le
19/05/2014 à
15h
01
zefling a écrit :
" /> Bon, okay mon exemple est pourri surtout que la PS1 était pas du tout faire pour les jeux 2D. Juste qu’avant il se cassé vraiment le cul sur console pour avoir le rendu. Qui aurait cru qu’un jeu comme FF9 soit possible sur PS1 à sa sorti ?
Heu si, la PSX est au niveau d’une SNES pour la 2D. Elle affiche plus de couleurs. La PSX est une très bonne console 2D, c’est juste que la Saturn est hors normes au niveau 2D… par contre niveau 3D…. " />
KP2 a écrit :
Ouais mais a l’epoque, tu affichais un personnage avec 30px…
Oui mais tu ne post traitais pas ton rendu pour tricher au moins. Et je n’aborde pas le cas épineux du temps de réponse des pad…
Le
19/05/2014 à
14h
57
arg bug
Le
19/05/2014 à
14h
52
N’importe quoi. Dans les années 80⁄90 les dev se débrouillaient très bien avec quelques Ko… et sans le Net. Là il pleurent avec 8Go de ram ? Mais vraiment n’importe quoi !
Les limites c’est ce qui stimulent l’imagination, et là les limites elles sont quand même bien loin.
De plus en plus dans les jeux vidéo, les dev occidentaux cherchent comme des tarés à ce que ce soit le plus confortable à développer. Or leur métier de développeurs c’est bien de coder SELON le support. Et pas de pondre un truc standard qui tourne sur tout et n’importe quoi.
En gros on dirait qu’ils font un métier qu’ils détestent… ça a bien changer le monde du JV " />
KP2 a écrit :
C’est pas la console qui est specialement plus optimisée… c’est l’OS et les jeux qui tournent dessus car ils n’ont pas a prendre en compte de multiples configurations.
MAIS vu qu’aujourd’hui, les consoles sont des resucées de PC avec des OS quasiment normaux, la difference n’est plus tres nettes.
ET vu qu’en plus, les editeurs de jeux utilisent des frameworks de frameworks de frameworks pour pouvoir sortir le meme jeu sur PC et sur console d’un coup alors il n’y a plus aucune optimisation particuliere pour le materiel specifique des consoles.
Bref, aujourd’hui, les optimisations n’existent plus. Les editeurs cherchent avant tout a coder pas cher.
Heureusement, ces serveurs ne servent qu’au match-making et à la gestion des amis. Si Nintendo ne compliquait pas autant la tâche, ce serait un jeu d’enfants de les recréer. Le projet est en cours.
vive les commentaire PCi ! Ca c’est constructif !
Galak_ a écrit :
Bah c’est pareil, l’intérêt du LAN c’est de pouvoir jouer à plus de 4 en local, sans dépendance aux serveurs. 8 x 1 ou 2 x 4, ce n’est qu’une histoire de confort, mais tu peux facilement jouer à 8 avec 2 GC et 2 TV, ce qui est déjà un setup très rare, alors 8…
Jouer a 4 en splitté et a 8 en plein écran crois moi c’est pas le même trip du tout. Le framerate à 4 en splitté est une catastrophe et le feeling du jeu est totalement différent. Ça c’est pas moi qui le dit, ce sont les maitre de MKDD. Mais je l’ai constaté aussi.
Galak_ a écrit :
Tout ce que je dis est justement lié au contexte, donc dire que je n’en tiens pas compte…
Tu ne tiens pas compte que derrière les autre MK ce n’est plus Miyamoto. Et Miyamoto est le spécialiste en ce qui concerne les interactions gameplay/machine/humain. SMK privilégie d’abord l’intelligence de jeu par rapport au fun. Par exemple les objets ne totalement aléatoire dans SMK ce qui oblige les joueurs à maitriser le jeu, sa jouabilité. Contrairement aux épisodes suivants qui privilégient le spectacle. Les battles de SMK sont dans le même esprit que le jeu du chat et de la souris. Ce que tu précises en disant que dans les autres versions le gameplay est plus bourrin. Oui mais ! Mais on peu jouer a plus de 2 dans les autres versions et ça change tout. Même dans SMK ca changerait pas mal de choses. De plus le jeu est agréable à regarder, non pas comme SMK qui n’est compris que par les connaisseurs. Alors que n’importe qui peu regarder un match de Double Dash et en comprendre les ressorts. On ne peut pas enlever son aspect familial à Mario Kart, sinon la licence mourra.
Galak_ a écrit :
De plus, autant faire des LAN avec pas mal de PC est (enfin était :/) courant, autant c’est une pratique bien plus rare et limitée (peu de jeux compatibles par console, faut se trimbaler des TV) niveau consoles. Donc je n’en démordrai pas, aussi regrettable que ce soit, les gens concernés par l’absence de LAN sur console sont une ultra minorité, plus encore que les désespérés du battle mode originel.
il y a moyen de militer contre ça, et même de prouver l’aspect social des LAN. Ça aussi c’est en cours " />
Le
16/05/2014 à
12h
53
Galak_ a écrit :
Bah justement, sur SMK et MK64, on était quand même assez nombreux à penser que c’était le battle le mode principal, celui auquel on revient sans cesse pendant des mois, celui dont le fun écrasait largement celui des courses, aussi fun soient-elles. Et de version en version, on est devenu de plus en plus rares à le penser, et on doit être pas mal de vieux cons désespérés de voir comment ça a tourné.
Tu ne prends pas en compte le contexte de sortie de SMK. Le jeu en lui même, tout comme F-Zero n’était pas censé avoir de suites. C’était un jeu des débuts qui a bien cartonné parce que dans SMK c’est Miyamoto qui est derrière. Le battle est justement l’une des caractéristiques qui font que SMK est encore très apprécier aujourd’hui.
Maintenant et depuis l’épisode Gamecube, on est plus dans une optique expérimentale comme le 1er SMK. On est dans celle de commercialiser une suite de qualité mais une suite quand même. Donc, forcément avec les gimmicks de la licence qu’ils faut respecté ou même améliorer.
Si le battle était très joué sur SNES et N64 c’était surtout parce que nous étions sur des jeux encore frais au niveau du concept. Les joueurs étaient moins exigeants. Ce que tu me dis, tu l’évoque à postériori, en comparaison des version SNES et N64 qui n’avaient pas encore la dure mission d’être mieux que l’épisode précédent. Là c’est tout autre chose, j’ai vu des joueurs de très haut niveau (2 champions de France) n’être pas très fans du mode battle. C’est un sentiment assez général dans la communauté des joueurs post N64.
Après, j’ai aussi passé de très nombreuses heures sur le batlle de SMK. La version N64 étant pour moi la plus mauvaise jamais réalisée et bourrée de bug de jouabilité (physique des véhicules merdique). Les battle pour moi ça s’est arrêté après la SNES et ils ont repris de l’intérêt sur Gamecube grâce au mode LAN justement.
Galak_ a écrit :
Après le LAN, c’est sympa, surtout pour jouer à 8, surtout en rétro gaming où ça ne coute rien d’avoir quelques vieilles consoles et vieilles TV, mais c’est quand même une feature qui concerne peu de monde, et c’est pas le genre de nintendo de s’emmerder pour une minorité…
Heu non ! D’un, jouer a MKDD en LAN c’est un luxe au vu du prix des BBA et du jeu. Moi je te parle d’un setup de 8GC, pas de 2 GC à 4. De deux, seul le mode LAN permet de donner un bonne replay value au jeu en multi. Tu prends par exemple Flatout qui commence à dater, il est encore très joué. MKDD ne tient que par son mode LAN. Des jeux comme War3, Starcraft 1 on fait leur succès avec ce mode.
Quand les serveurs Wii seront fermés Mario Kart Wii ça sera finit. Et c’est dommage pour un Mario Kart qui peut se jouer à 12. Mario Kart c’est pas un jeu de duels qui se joue que à 2. Plus on est de joueurs à MK mieux c’est. Et c’est pas pour ça que c’est bourrin au contraire même.
Le LAN c’est tout sauf anecdotique pour un jeu basé sur le multiplayers.
Le
16/05/2014 à
10h
31
Galak_ a écrit :
Désolé mais je ne peux qu’être en total désaccord avec toi. Tu fais peut-être parti de cette majorité de gens élevés à l’arène ouverte (ou trop simpliste même si pas complètement ouverte) bourrine et qui n’ont jamais vraiment gouté à ce qui est pour moi l’essence même d’un mario kart, les arènes tortueuses qui ne sont pas du tout ouvertes mais permettent d’aller de n’importe quel point A à n’importe quel point B
Heu tu insinues que je n’ai jamais joué a Mario Kart sur SNES ? " /> " />
Bon c’est vrai que l’on est sur des commentaires et que tu n’es pas censé connaitre ton interlocuteur. Mais lire ça m’a fait sourire.
Il n’y a que 2 arènes ouvertes sur MKDD. La gamecube et la pipe plaza. Les autres sont des arènes similaires aux précédentes versions. Notamment le manoir de lugi qui est génial à 8 et la block city qui est très sympa au jeu du chat et de a souris. Je le redis, ça prend toute sa dimension à plus de 4.
Galak_ a écrit :
C’est surement difficile à comprendre pour quelqu’un qui n’a pas expérimenté la chose, et donc difficile de comprendre aussi à quel point on passe à coté avec les arènes bourrines avec des rounds qui durent quelques secondes.
Ça dure beaucoup plus longtemps que ça. Surtout sur les arènes que je cite. Mais là encore, il faut plus de 4 joueurs. Le défaut de MKDD c’est d’avoir des arènes qui demande beaucoup de joueurs.
Galak_ a écrit :
Et même Nintendo ne semble pas avoir la moindre considération pour le battle depuis 15 ans, tant il est à chaque fois expédié, minimaliste, et souvent moins bon que sur la version précédente (combat en équipe pourri sur Wii ou 3DS, je sais plus, et carrément plus d’arène maintenant).
Malheureusement le battle n’est pas le mode préféré de la majorité des joueurs de MK. Ça reste un plus dans un jeu où le principal reste le GP. Ce que je regrette le plus c’est l’absence d’un mode réseau local (LAN) que seul Double Dash possède ce qui lui permet d’être encore très joué aujourd’hui. Ce qui ne sera pas le cas ni de la version Wii ni de la version Wii U.
Le
16/05/2014 à
07h
30
Ellierys a écrit :
Par définition y’a pas de presse sans journalistes. Si y’a pas de journalistes s’pas de la presse " />
C’est également vrai. La suite en est aisément déductible " />
Galak_ a écrit :
Je ne les oublie pas, ils sont très bons pour la course, mais DD est pourri niveau battle
Détrompes toi il est très bon. Seulement les arènes de MKDD sont trop grandes pour être jouées à 4. C’est leur principal défaut. Dans cette version, le battle ne prend vraiment toute sa dimension qu’a 6 au minimum. A 8 c’est c’est le pied et stratégiquement c’est excellent et aucune autre version ne la surpasse.
Le
15/05/2014 à
15h
57
Ellierys a écrit :
Comme à chaque fois sur ce genre de remarque, je me sens obligé de sortir ça
Heu ce sont des rédacteurs, pas des journalistes. Il n’y a pas de journalistes dans la presse jeu vidéo. Globalement il y a peu de journalistes dans la presse en générale.
Le
15/05/2014 à
15h
52
Galak_ a écrit :
Il y a surement moyen de s’amuser en multi, mais ça n’arrive pas à la cheville d’un SMK ou d’un MK64…
Tu oublis Double Dash et la version DS qui sont de très bon opus.
trshbn a écrit :
Sinon il y a aussi le Dual Play, qui permet (avec une TV et des lunettes adaptées) d’étendre un écran splitté à tout ton écran… mais peu de jeux semblent compatibles.
Oui, mais je parle plutôt d’un mode LAN ou plus de 4 joueurs peuvent s’affronter dans la même pièce. Genre ça.
Le
15/05/2014 à
15h
39
Nathan1138 a écrit :
Ouaip… Franchement c’est triste de voir que le coop en écran splitté a quasiment disparu. À part Gears of War et Portal 2, j’ai pas vu grand chose de cool ces 5 ou 10 dernières années.
Ouai enfin le coop en splitté c’est bien, mais rien ne vaut le LAN avec chacun son écran. Ça a l’avantage de la bonne ambiance entre potes sans les inconvénient d’un timbre poste en guise d’écran. Et ça, il n’y a que Mario Kart Double Dash qui le propose.
Le
15/05/2014 à
14h
45
Ouaip, bah j’espère bien qu’il vont intégré un mode LAN sinon le jeu deviendra obsolète comme la version Wii.
1810 commentaires
L’Allemagne ne veut plus du matériel réseau des entreprises américaines
22/05/2014
Le 22/05/2014 à 14h 54
Perso je trouve ça invraisemblable. Le matos réseau ça se vérifie, son fonctionnement n’est pas mystérieux. Il y des composants, la plupart du temps standard et réutilisés dans d’autres marques concurrentes, un firmware et il existe de nombreux outils de vérifications soft et hard pour analysé le comportement d’un périph réseau.
Même en implantant ça en hard, ça se verrait quand même.
Certains clients de Free font face à une douloureuse régularisation de facture
22/05/2014
Le 22/05/2014 à 12h 36
Vu la thune qu’ils ont ils pouvaient en faire cadeau au lieu de de fourvoyer comme ça et de faire peser leur erreur sur leur clients.
Mavericks 10.9.3 et le multi-écrans : deux ça va, trois bonjour les dégâts
22/05/2014
Le 22/05/2014 à 11h 51
Le 22/05/2014 à 10h 18
Je croyais qu’il n’y avait jamais de bugs sur Mac ? " />
Bouygues, Free, Orange et SFR devront bloquer trois sites ukrainiens
22/05/2014
Le 22/05/2014 à 09h 54
Il y a quatre ans, un homme achetait deux pizzas pour 10 000 bitcoins
22/05/2014
Le 22/05/2014 à 09h 41
Et aujourd’hui tout est déjà cloisonné et ce n’est plus un eldorado. Circulez il n’y a rien à voir… " />
Les ambitions de Philips pour les TV en 2014 : Ambilight , Android et 4K UHD
21/05/2014
Le 22/05/2014 à 09h 23
Wow ! avec une lampe de 4Kw ça va pas trop rentré chez moi ça… " />
Le 22/05/2014 à 08h 20
Le 21/05/2014 à 15h 47
Le 21/05/2014 à 15h 19
Le 21/05/2014 à 14h 31
Le 21/05/2014 à 14h 06
Le 21/05/2014 à 13h 41
Le 21/05/2014 à 13h 21
Le 21/05/2014 à 12h 55
Le 21/05/2014 à 12h 38
J’ai l’impression de passer pour un dinosaure avec mon tube HD de 80cm… " />
Tests de Watch_Dogs : Ubisoft n’aime les rebelles que dans ses jeux vidéo
19/05/2014
Le 21/05/2014 à 12h 46
Comme sur allociné quoi… enfin sur ce dernier même certaines notes spectateurs sont biaisées.
Le 21/05/2014 à 09h 00
Le 20/05/2014 à 10h 10
Le 20/05/2014 à 08h 52
Le 20/05/2014 à 08h 42
Le 20/05/2014 à 07h 43
Faut-il sensibiliser les enfants au code dès l’école primaire ?
21/05/2014
Le 21/05/2014 à 09h 36
Le 21/05/2014 à 09h 05
Le 21/05/2014 à 08h 36
Ouai c’est ça réhabilitons le projet “informatique pour tous” avec des MO5 et des TO7… " />
La Chine interdit Windows 8 sur les ordinateurs de son administration
20/05/2014
Le 20/05/2014 à 15h 51
Je les aime bien ces Tinois ils ont tout compris… sauf :
Même si l’on réfléchit au problème, il est difficile de savoir en quoi le bannissement de Windows 8 pourrait aider la consommation électrique ou assurer une quelconque sécurité. Les ordinateurs récents sont bien davantage conçus pour limiter la consommation.
Bon là c’est imparable, ils auraient du trouver un prétexte un peu moins bidon quand même. Là c’est pas super crédible leur affaire.
Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles
19/05/2014
Le 20/05/2014 à 15h 28
Le 20/05/2014 à 15h 17
Le 20/05/2014 à 14h 31
Le 20/05/2014 à 14h 23
Le 20/05/2014 à 13h 48
Le 19/05/2014 à 16h 06
Le 19/05/2014 à 15h 50
Le 19/05/2014 à 15h 42
Le 19/05/2014 à 15h 35
Le 19/05/2014 à 15h 11
Le 19/05/2014 à 15h 01
Le 19/05/2014 à 14h 57
arg bug
Le 19/05/2014 à 14h 52
N’importe quoi. Dans les années 80⁄90 les dev se débrouillaient très bien avec quelques Ko… et sans le Net. Là il pleurent avec 8Go de ram ? Mais vraiment n’importe quoi !
Les limites c’est ce qui stimulent l’imagination, et là les limites elles sont quand même bien loin.
De plus en plus dans les jeux vidéo, les dev occidentaux cherchent comme des tarés à ce que ce soit le plus confortable à développer. Or leur métier de développeurs c’est bien de coder SELON le support. Et pas de pondre un truc standard qui tourne sur tout et n’importe quoi.
En gros on dirait qu’ils font un métier qu’ils détestent… ça a bien changer le monde du JV " />
TAT-14 : le câble transatlantique qui a fait toussoter internet cette nuit
20/05/2014
Le 20/05/2014 à 14h 08
La tronche de l’image thumbmail " />
Revue de presse : Mario Kart 8 sur Wii U déboule sur les circuits
15/05/2014
Le 19/05/2014 à 12h 21
Le 16/05/2014 à 12h 53
Le 16/05/2014 à 10h 31
Le 16/05/2014 à 07h 30
Le 15/05/2014 à 15h 57
Le 15/05/2014 à 15h 52
Le 15/05/2014 à 15h 39
Le 15/05/2014 à 14h 45
Ouaip, bah j’espère bien qu’il vont intégré un mode LAN sinon le jeu deviendra obsolète comme la version Wii.
[MàJ] TV inaccessible chez Bouygues Telecom et SFR : problème résolu
16/05/2014
Le 16/05/2014 à 12h 18
C’est là que l’on dit :
Vive les antennes et arrêtons de passer par le Net pour recevoir la TV.
George RR Martin, auteur de Game of Thrones, écrit sous DOS
15/05/2014
Le 15/05/2014 à 15h 46
Ça c’est un vrai mec. Lui au moins, il comprend que XP ne doit pas disparaitre !