Ca me tue de voir tlm dire que l’OLED est magnifique et le LCD pourri, voire pire, que l’OLED a de plus belles couleurs, alors que les couleurs du LCD sont infiniment plus naturelles, mais à force d’être élevés aux couleurs chaudes des réglages par défaut des TV…
Il y a aussi pas mal de soucis de tâches noires sur les OLED.
Par contre la vrai question, à laquelle je n’ai pas vraiment vu de réponses, c’est au niveau de la rémanence, car s’il y a un point sur lequel le LCD peut faire mal aux yeux en comparaison de l’OLED, c’est bien celui-là (les noirs aussi, mais ça reste visiblement très correct sur le LCD).
Mais bon dans l’absolu j’ai jamais eu de problème avec l’écran de la PSP (ou GBA/DS/3DS) donc je ne vois pas comment on pourrait être déçu du LCD, sauf éventuellement à utiliser l’OLED à coté.
Et la nouvelle version apporte visiblement pas mal au niveau de l’ergonomie.
Après j’ai eu un peu de mal à déterminer celle que je voudrais le plus (j’ai failli craquer pour un pack de la V1 il y a peu), aimant bien le contour de la V1 et ayant du mal avec l’encadrement de l’écran de la V2, mais les amélioration de la V2 et les couleurs du LCD l’emportent au final.
on initie tout le monde à la bureautique et à ce genre de choses…
Si c’est le cas ok, mais ce n’est pas ce qu’on m’a dit il n’y a pas si longtemps. J’ai un ami qui justement donne des cours d’informatique (ça va justement de l’utilisation des logiciels de bureautique à la sécurité sur internet) dans un collège français en Allemagne. Il n’est pas prof à la base, on l’a embauché comme ça, il n’y avait pas vraiment de programme, personne avant lui, bref, ce n’était pas vraiment la norme d’avoir une vrai formation informatique au collège.
Mais si tu me dis qu’en France, à l’heure actuelle, il y a au moins 1h d’informatique par semaine à partir du collège, je retire mon commentaire précédent, mais je n’ai franchement pas du tout l’impression que ce soit le cas. J’ai plus l’impression que ça reste optionnel et que la présence de ces enseignements dépende beaucoup du bon vouloir de chaque établissement.
Pour le reste de ton commentaire, en théorie ce serait bien, mais en pratique il me parait totalement illusoire de croire que faire quelques print “hello world” va aider à comprendre les entrailles et à mieux comprendre les contraintes de l’informatique. Je pense qu’il faudra un programme vraiment étudié en ce sens et un minimum poussé pour espérer que les gens reportent mieux leurs bugs, expriment mieux leurs besoins, bref, qu’ils soient “moins cons” du point de vue d’un développeurs qui a affaire à des “clients”.[/quote]
lysbleu a écrit :
Euh, dans les années 90, à l’école primaire, j’avais déjà des cours d’initiation à l’utilisation de l’ordinateur, et au collège aux traitements de texte / tableur / base de donnée (Access). Je ne sais pas si c’est obligatoire, mais je pense qu’il est acquis que tout le monde doit savoir s’en servir (par contre, rien sur la sécurité à l’époque).
Ouep mais à l’époque ça restait des initiatives isolées propres à chaque établissement. Dans mon établissement, à la fin des années 90, on avait juste une option “STT” au lycée, où on ne faisait qu’apprendre à taper à la machine les 2⁄3 du temps, puis au clavier le tiers restant…
Et comme je l’ai dit plus haut, j’ai l’impression que c’est toujours le cas aujourd’hui, même si c’est plus fréquent qu’avant, j’ai pas l’impression qu’il y ait une formation nationale et obligatoire, ce qui me parait être une aberration totale tant le manque de maitrise des outils de base a une impact important dans la société actuelle.
Le
21/05/2014 à
12h
48
J’ai vu qu’une partie du 56kast consacré au sujet mais il y a un truc qui me gène pas mal dans cette démarche : quand je vois comme les gens, même jeunes, sont complètement dépassés par l’informatique (autant par manque de compétence que par mauvaise volonté) et l’impact énorme que ça a sur leur travail (productivité, erreurs) avec toutes les conséquences que ça a, je trouve complètement absurde qu’on ne forme pas (ou pas mieux), les enfants (au moins à partir du collège) à l’informatique usuelle qui leur sera utile dans leur vie professionnelle. Il en va de même pour la formation sur les bonnes pratiques de sécurité, qui laissent encore pas mal à désirer malgré l’importance que ça a sur la vie privée (voire professionnelle).
Alors initier au code, c’est bien sympa, mais ça me parait absurde tant qu’on n’initie pas à l’utilisation de base d’un ordinateur, aux logiciels de bureautique et aux bonnes pratiques de sécurité.
Ensuite pour le code, j’ai tendance à penser que ceux qui ont ça dans le sang s’y intéressent naturellement, surtout de nos jours où pratiquement tous les enfants ont accès assez tôt à un ordinateur. Je n’avais pas d’ordinateur à l’adolescence et je savais pourtant déjà que j’avais ça dans le sang.
Après si c’est pour attirer en leur martelant que “c’est un métier d’avenir qui embauche” des personnes qui ne sont pas faites pour ça et qui vont coder toute leur vie avec les pieds, ça peut marcher…
Sinon on peut râler, on peut en penser ce qu’on veut (perso Ubisoft est loin d’être mon dév de jeux préféré), mais à un moment, y’a une notion de respects qui doit exister. Si Ubisoft demande aux testeurs d’attendre la sortie pour sortir les tests (quelles que soient les raisons, la plus probable étant qu’ils aient peur que des avis négatifs nuisent aux préco et achats day one), la moindre des politesses et de respecter cette demande. Ou alors ils testent pas le jeu en avance…
N’importe quoi… Et s’il veulent un 20 la moindre des choses est de leur donner ?…
C’est abus des éditeurs avec leurs NDA à la con ont complètement pourri la presse. Quant à la date de sortie, c’est super pour le consommateur qui va se retrouver dans certaines boutiques avec le jeu en vente avant cette date sans avoir pu en lire le moindre test…
Tu ne prends pas en compte le contexte de sortie de SMK. […]
Bah si justement, je fais plus ou moins le même constat que toi, et je le déplore. C’est normal que les joueurs post N64 n’aiment pas le battle, même s’ils n’ont pas le meilleur battle comme référence, on en fait objectivement vite le tour, comparé aux courses. Et justement, celui qui a fait ses armes sur les battles SNES et N64 ne peut qu’être déçu de voir la tournure que ça a pris, même si les joueurs post N64 n’y trouvent pas grand chose à redire.
Tout ce que je dis est justement lié au contexte, donc dire que je n’en tiens pas compte…
Le vrai tournant de l’histoire a été lorsque Nintendo n’a pas bien réalise l’importance du battle sur SNES, ou n’a pas bien saisi exactement ce qui faisait son intérêt. A chaque version suivante on avait moins d’arènes en accord avec la version SNES, et celles qui l’étaient l’étaient de moins en moins. Ce qui faisait le sel de ce mode s’est rapidement perdu dés la GC, ce qui a signé progressivement l’arrêt de mort du battle.
Dr.Wily a écrit :
Heu non ! D’un, jouer a MKDD en LAN c’est un luxe au vu du prix des BBA et du jeu. Moi je te parle d’un setup de 8GC, pas de 2 GC à 4.
Bah c’est pareil, l’intérêt du LAN c’est de pouvoir jouer à plus de 4 en local, sans dépendance aux serveurs. 8 x 1 ou 2 x 4, ce n’est qu’une histoire de confort, mais tu peux facilement jouer à 8 avec 2 GC et 2 TV, ce qui est déjà un setup très rare, alors 8…
Dr.Wily a écrit :
De deux, seul le mode LAN permet de donner un bonne replay value au jeu en multi. Tu prends par exemple Flatout qui commence à dater, il est encore très joué. MKDD ne tient que par son mode LAN. Des jeux comme War3, Starcraft 1 on fait leur succès avec ce mode.
Ce n’est pas comparable, tu peux jouer en multi avec une seule console, dans des conditions correctes, ce n’est pas du tout comme un Starcraft 2 ou sans serveur point de multi.
Certes tu ne peux pas jouer à plus de 4, c’est dommage, tout ça, mais il n’empêche qu’en pratique, le LAN sur Mario Kart concerne peu de monde et son absence, bien que très regrettable, n’empêche en rien le multi local.
Donc regretter l’absence du LAN sur ce jeu, OK, mais dire que le jeu ne survit que grâce à ça c’est très largement surestimer cette feature.
De plus, autant faire des LAN avec pas mal de PC est (enfin était :/) courant, autant c’est une pratique bien plus rare et limitée (peu de jeux compatibles par console, faut se trimbaler des TV) niveau consoles. Donc je n’en démordrai pas, aussi regrettable que ce soit, les gens concernés par l’absence de LAN sur console sont une ultra minorité, plus encore que les désespérés du battle mode originel.
Par contre on est d’accord, la disparition du LAN sur les jeux (PC tout particulièrement) est une belle galère (tout comme la disparition du split screen d’ailleurs), surtout quand en plus on est limité à des serveurs centralisés, synonymes de mort du “LAN” une fois ces serveurs fermés (ce qui arrive de plus en plus vite).
Enfin, via l’émulation, il y a quand même de plus en plus de solutions pour jouer “en réseau”. Certes c’est orienté online, je n’ai pas étudié la chose depuis très longtemps, mais il y a surement moyen par exemple de créer un serveur local hébergeant les parties (ou qu’un des joueurs hoste tout en étant offline pour ne jouer qu’entre joueurs locaux) pour simuler une LAN.
Le
16/05/2014 à
11h
33
Dr.Wily a écrit :
Heu tu insinues que je n’ai jamais joué a Mario Kart sur SNES ? " /> " />
Bon c’est vrai que l’on est sur des commentaires et que tu n’es pas censé connaitre ton interlocuteur. Mais lire ça m’a fait sourire.
C’est pas ce que j’ai voulu dire, même beaucoup de ceux qui ont joué a la version SNES n’ont pas joué au battle, ou pas énormément.
J’ai passé 2 ans à jouer au minimum toutes les semaines presque exclusivement au battle SNES et 2 à 3 ans à jouer plusieurs fois par semaine presque exclusivement sur block fort sur N64. Et même ceux qui jouaient avec moi sur N64, pas forcément des gamers ni des joueurs de mario kart, ont vite surkiffé ce battle.
Dr.Wily a écrit :
Il n’y a que 2 arènes ouvertes sur MKDD. La gamecube et la pipe plaza. Les autres sont des arènes similaires aux précédentes versions. Notamment le manoir de lugi qui est génial à 8 et la block city qui est très sympa au jeu du chat et de a souris. Je le redis, ça prend toute sa dimension à plus de 4.
Ça dure beaucoup plus longtemps que ça. Surtout sur les arènes que je cite. Mais là encore, il faut plus de 4 joueurs. Le défaut de MKDD c’est d’avoir des arènes qui demande beaucoup de joueurs.
Les 2 autres entrent dans la catégorie des “pas assez de chemins pour aller du point A au point B”. Dans le manoir ou block city, tu as peu de chemins, peu de niveaux, peu de communication entre les niveaux (ce qui fait parti des chemins).
Même l’arène N64 sur 3 niveaux, à dominante verte, n’était pas à la hauteur, trop peu de chemins différents.
Dans block fort, tu peux aller de n’importe quel point de la map à n’importe quel autre par plein de chemins différents, tu as 3 niveaux, tu as une subtilité de jeu hallucinante, et tu évites de trainer longtemps en bas, trop exposé.
Dans block city, tu n’as que 2 niveaux, ça ne laisse plus grand chose si on évite de trainer en base. Il n’y a pas non plus de passerelle entre les blocs du 1er étage. Donc au final, tu passes ton temps à tourner en rond sur les grandes allées du bas, tu montes sur un block, t’en redescent, aucune subtilité. A la limite, la block plaza de la wii a un peu plus de potentiel, mais ça reste du sous block fort, il manque un niveau pour permettre vraiment un jeu poussé.
Je veux bien que ce soit plus fun à plus de 4, mais fun dans un jeu assez bourrin, car je ne peux pas imaginer beaucoup de subtilité à 8 sur de si petites arènes. Je ne dis pas que ce n’est pas fun, mais je ne peux pas imaginer une seconde que ce ne soit pas décevant pour qui a gouté à un jeu poussé sur block fort.
Dr.Wily a écrit :
Malheureusement le battle n’est pas le mode préféré de la majorité des joueurs de MK. Ça reste un plus dans un jeu où le principal reste le GP. Ce que je regrette le plus c’est l’absence d’un mode réseau local (LAN) que seul Double Dash possède ce qui lui permet d’être encore très joué aujourd’hui. Ce qui ne sera pas le cas ni de la version Wii ni de la version Wii U.
Bah justement, sur SMK et MK64, on était quand même assez nombreux à penser que c’était le battle le mode principal, celui auquel on revient sans cesse pendant des mois, celui dont le fun écrasait largement celui des courses, aussi fun soient-elles. Et de version en version, on est devenu de plus en plus rares à le penser, et on doit être pas mal de vieux cons désespérés de voir comment ça a tourné.
Après le LAN, c’est sympa, surtout pour jouer à 8, surtout en rétro gaming où ça ne coute rien d’avoir quelques vieilles consoles et vieilles TV, mais c’est quand même une feature qui concerne peu de monde, et c’est pas le genre de nintendo de s’emmerder pour une minorité…
Le
16/05/2014 à
08h
58
Dr.Wily a écrit :
Détrompes toi il est très bon. Seulement les arènes de MKDD sont trop grandes pour être jouées à 4. C’est leur principal défaut. Dans cette version, le battle ne prend vraiment toute sa dimension qu’a 6 au minimum. A 8 c’est c’est le pied et stratégiquement c’est excellent et aucune autre version ne la surpasse.
Désolé mais je ne peux qu’être en total désaccord avec toi. Tu fais peut-être parti de cette majorité de gens élevés à l’arène ouverte (ou trop simpliste même si pas complètement ouverte) bourrine et qui n’ont jamais vraiment gouté à ce qui est pour moi l’essence même d’un mario kart, les arènes tortueuses qui ne sont pas du tout ouvertes mais permettent d’aller de n’importe quel point A à n’importe quel point B en quelques secondes par de nombreux chemins possibles. Je parle là des arènes SNES (sauf la glace assez injouable) et de Block Fort sur N64 (même les autres arènes assez tortueuses ne font pas le poids, car trop peu de chemins différents pour aller d’un point A à un point B, on passe soit son temps à se chercher, soit à se retrouver face à face, aucune subtilité).
C’est surement difficile à comprendre pour quelqu’un qui n’a pas expérimenté la chose, et donc difficile de comprendre aussi à quel point on passe à coté avec les arènes bourrines avec des rounds qui durent quelques secondes.
Et c’est bien ce qui m’emmerde, j’ai l’impression que même chez les testeurs, il n’y en a presque plus aucun qui comprend ça et qui peut donc comprendre à quel point le battle a perdu en profondeur et en fun.
Et même Nintendo ne semble pas avoir la moindre considération pour le battle depuis 15 ans, tant il est à chaque fois expédié, minimaliste, et souvent moins bon que sur la version précédente (combat en équipe pourri sur Wii ou 3DS, je sais plus, et carrément plus d’arène maintenant).
Le
15/05/2014 à
16h
16
Dr.Wily a écrit :
Tu oublis Double Dash et la version DS qui sont de très bon opus.
Je ne les oublie pas, ils sont très bons pour la course, mais DD est pourri niveau battle, et même si le DS dispose de l’excellentissime arène Block Fort de MK 64 (j’ai passé 3 ans à ne jouer que sur cette arène), le fait que le battle ne soit pas jouable online gâche pas mal le truc. Mais sinon oui, en ajoutant l’épisode GBA on a tous les Mario Kart potables, et que je possède, même si MK7 n’est à priori pas complètement à jeter non plus.
Le
15/05/2014 à
15h
45
Bon bah au cas où je ne me serais pas fait une raison depuis longtemps sur la mort de cette franchise pour moi, avoir carrément viré les arènes après ne pas avoir été foutu d’en faire une potable en 15 ans ne laisse plus aucun doute.
Entre passer des années à dev le jeu tout en n’étant pas foutu de faire un peu plus que le minimum syndical (ça leur couterait quoi de mettre un peu plus d’arènes et d’en pondre au moins une pas complètement inintéressante ?) et cette orientation si grand public qu’ils vont jusqu’à ralentir le jeu même en 150cc, il ne faut vraiment plus rien en attendre…
C’est franchement frustrant d’avoir l’impression qu’il n’y a personne chez Nintendo qui a compris l’essence même du jeu…
Il y a surement moyen de s’amuser en multi, mais ça n’arrive pas à la cheville d’un SMK ou d’un MK64…
Et bien moi je vois ça au contraire comme une bonne nouvelle pour les particuliers. J’ai toujours changé mes configs au bout de 4 ans 1⁄2, mais quand j’ai acheté ma config actuelle (I5 2500k et GTX 560 ti) à la sortie du Z68 (juin 2011), j’étais déjà persuadé qu’elle avait le potentiel de durer bien plus longtemps, et ça se confirme franchement, tout particulièrement niveau CPU, qui me semble limite encore sous-utilisé pour mon usage (même dans les jeux) 3 ans après alors même que j’ai une belle réserve d’overclocking.
Les éditeurs qui balancent les roms sur leur site, voilà qui est très inattendu et très appréciable.
A l’heure des consoles virtuelles c’est assez étonnant (alors même qu’il y a déjà eu des rééditions de ces jeux, comme Rock N’ Roll Racing sur GBA).
Et arrêtez de parler de piratage, du moment qu’ils refilent la rom, vous pouvez l’utiliser avec n’importe quel émulateur sur n’importe quel système, ce n’est plus du piratage (c’est la rom elle même qui relève de contrefaçon, et donc de piratage, donc si l’éditeur la distribue lui même, plus de contrefaçon).
Comme d’autres ont dû le dire, c’est comme la Neo Geo X, le seul intérêt du hardware est d’assouvir la nostalgie, et donc seul le hardware original me parait avoir de l’intérêt pour ces nostalgiques, les autres se satisfaisant parfaitement de l’émulation. Du coup comme pour la Neo Geo X, je ne vois pas qui ça peut intéresser, sauf quelques hypeux (et encore, pour la Neo je veux bien…)
Le top reste l’amiga sur lequel on branche un disque dur blindé de roms, on a le kif du hardware original sans l’inconvénient des disquettes très fragiles et souvent inutilisables (ou risque de les bousiller si elle ne le sont pas encore). Et même là, le geste de mettre la disquette et le bruit caractéristique du lecteur manque un peu.
Au moins on est sûr d’une chose, il y a un abruti dans l’histoire… Après l’agent zélé qui verbalise sans même avertir/discuter ou le petit con auxquels ses parents feraient mieux de foutre une torgnole et retenir l’amande sur son argent de poche au lieu de justifier sa connerie, on ne le saura surement jamais, même si mon petit doigt a sa petite idée.
Ouep, sauf que toi t’es pas un boulet, t’as pas cherché moins d’un an avant, alors que le WNR3500L existait déjà, à passer en gigabit pour finir par acheter un switch, Netgear en plus, collé au cul du WRT parce que “t’as pas trouvé de routeur gigabit abordable compatible Tomato”…
Le
21/02/2014 à
11h
12
typhoon006 a écrit :
bof il peut y’avoir des failles aussi
Ouep mais en plus d’être corrigées plus vite/facilement (voire repérées avant d’être exploitées, open source oblige), les failles ne sont réellement un problème que quand ça vaut le coup pour quelqu’un de les exploiter.
Après il peut y avoir assez d’OpenWRT pour que ce soit intéressant, mais on va surtout viser le non connaisseur mal protégé et les utilisateurs d’OpenWRT ne sont surement pas les meilleures cibles. Et je me sens encore plus à l’abri avec mon bon vieux Tomato.
sniperdc a écrit :
Oh wii mais c’est si cher " />
Ca fait quelque chose comme 10 ans qu’on a des routeurs pas chers fonctionnant avec ces firmwares alternatifs, à commencer par le “légendaire” WRT54G, qui a fait son temps (seulement 100Mbits et port WLAN vite saturé), son successeur spirituel étant le Netgear WNR3500L, qui vaut, oulà, dans les 60€…
J’ai remplacé le 1er par le 2e quand je suis passé à la fibre (le WRT saturait à 2-3Mo/s) et je ne peux que le recommander avec Tomato.
Je viens de vérifier, ce ne sont pas les derniers 2.xx mais les 314.22 les derniers drivers stables avec les 560Ti. La version suivante, la 320.00, est une version visiblement assez majeure (changement de l’interface) qui introduit ces soucis.
Il est par contre possible que le souci ait été réglé sur les dernières versions (même si je ne vois rien qui le laisse entendre dans les release notes).
Le
19/02/2014 à
15h
57
razielhell a écrit :
comme mon post un peu + haut, essaye d’augmenter le Vgpu d’un chouilla, c’est un soucis récurrent sur les 560 ti en général. Instabilité etc…" />
Pour moi ça a résolue les plantages et instabilités du driver (“mode kernel, le driver a recup d’un plantage…” entre autres." />
J’ai déjà flashé le bios pour remettre tout @stock et utilise ponctuellement afterburner pour OC si ça a un peu de mal avec un jeu tant la Gigabyte était instable à ses freq/voltage d’origine (alors qu’en remettant ces mêmes freq et voltage avec afterburner, elle est stable…).
De toute il est peu probable que ce soit ça lorsque l’instabilité et liée à une version des drivers, même s’il y a toujours la possibilité que ces drivers utilisent la carte un peu différemment et augmente une fragilité à ce niveau au point de la rendre perceptible. Et puis c’était parfaitement stable en jeu, juste en bureautique.
Le
19/02/2014 à
13h
19
Attention avec les 560Ti, la nouvelle version majeure des drivers (les 3.xx surement, quand l’interface a changée en tout cas) sont particulièrement instables avec ces cartes, à moins qu’ils aient réglé ça dernièrement.
J’avais depuis pas mal de temps des plantages et surtout des freezes aléatoires sur le bureau.
J’ai fini par refaire une install propre de tout mon système qui commençait à en avoir franchement besoin après des années et 2 configs, mais avant de savoir que ça venait des drivers.
Donc sur l’install fraiche, je réinstalle les mêmes drivers, et re-souci direct, et aucun nettoyage, réinstall de drivers génériques, install des 2.xx n’y a fait. Pire, à la fin, ça freezait dés l’arrivée sur le bureau lors du boot.
Reinstall propre, install des derniers 2.xx WHQL, aucun souci depuis. Je regarderai ce soir si c’est bien la dernière 2.xx WHQL où s’ils avaient changé l’interface avant les 3.xx.
Bien sûr tout le monde n’a pas eu ces problèmes, mais pas mal de monde quand même.
Euh ça s’appelle des réglages les couleurs. C’est pas parce que sur cet écran les couleurs ne sont pas naturelles que l’OLED en est incapable.
Et ? On parle de l’OLED de la Vita là, pas de la technologie OLED en général, et ce n’est pas réglable sauf si la console permet de régler les couleurs, ce qui n’est pas le cas à priori.
Le
31/01/2014 à
11h
48
Aucune idée j’ai jamais touché de Vita, je ne faisais que conjecturer sur ce qu’il a dit.
Le
31/01/2014 à
11h
19
Brodie a écrit :
Il me semblait qu’avec les écrans oled c’était pareil mais tu avais un bien meilleur contraste car tu peux allumer ou éteindre chaque pixel.
Bah c’est le cas, l’un n’empêche pas l’autre. Tu as effectivement un meilleur contraste (surtout une meilleure profondeur des noirs) sur l’oled, mais des couleurs trop chaudes sur celui de la Vita.
funnuraba21 a écrit :
C’est pas possible, quand t’insères la CM, la console t’oblige à déplacer tes données de la mémoire interne à la CM. La mémoire interne est donc effacée complètement.
Bah justement, ça veut dire que si on insère une carte, ça switche sur elle et la mémoire interne n’est plus utilisée non ?
Donc dans ce cas, tu déplaces ton compte euro sur une carte, puis tu la vires et installes le compte jap en interne, avant de le déplacer sur une autre carte, et ensuite il suffit de switcher entre ces 2 cartes comme avec le 1er modèle de Vita.
Le
30/01/2014 à
17h
51
Sans oublier que l’écran LCD n’a pas que des inconvénients, ses couleurs sont bien plus naturelles (mais bon, les gens étant lobotomisés aux couleurs pétantes des rayons de supermarchés et des réglages par défaut des télé, ils en viennent à préférer les couleurs du OLED).
Par contre je suis curieux de savoir ce que ça donne niveau rémanence et profondeur des noirs, voir s’il y a une différence vraiment notable.
Je vais essayer d’être optimiste avec un “Si ça permet à quelques consoleux plein d’idées préconçues sur le PC de “voir la lumière” en passant au PC (sans pour autant quitter les consoles hein) et/ou de pousser le dev sous linux, ce n’est pas une mauvaise chose”.
Mais le fond de ma pensée, c’est que c’est une boite avec un système plus ou moins fermé, enfin, destiné juste à lancer steam, qui vaut le prix d’un PC équivalent (ou pas loin), bien plus souple et avec lequel on ne fait pas que jouer, et qui se limite aux jeux tournant sous linux, ce qui en exclura encore pas mal pendant un bon moment.
Donc les PCistes n’y verront jamais le moindre intérêt, s’ils veulent une version jeux vidéo du HTPC, ils en feront une maison, et les consoleux ne verront que “une console qui ne fait tourner ni Halo ni Uncharted pour le prix d’une PS4 + une XB1” qui ne sera pas totalement faux.
Même si Apple ne se gave pas (ce qui reste à prouver, ils doivent avoir bien négocié les composants même si au final la config n’est pas astronomiquement plus chère que les composants séparés), je ne vois pas qui pourrait avoir l’utilité de tels composants luxe valant une fortune et apportant très peu comparé à des composants bien plus abordables, en dehors peut-être d’usages ultra spécifiques (et encore, je ne vois pas, montage vidéo ? modélisation 3D ?) et de fanboys qui veulent avoir un Mac sur leur bureau pour lire leurs emails…
Bah il y a pas mal de soucis avec le dev PHP qui est encore un peu vu comme le parent pauvre du dev, car “mon neveu fait du PHP, tout le monde peut le faire” et car il y a beaucoup de devs (même s’il y a aussi pas mal d’offre) :
Le PHP a une image de “tout le monde peut le faire”, donc certains clients rechignent à mettre le prix dans les devs ou pensent que ça ne coute rien (genre un site complet pour 300€) et les employeurs pensent que n’importe quel débutant fera le job, car “tout le monde peut le faire”.
En province en tout cas, les salaires des offres d’emploi hors SS2I ou grandes sociétés (surtout les TPE) sont assez minables, genre 1200€ net par mois, tout en cherchant le mouton à 5 pâtes qui sait tout faire, est bac + 5 avec des années d’xp.
Donc si tu veux gagner correctement ta vie, sans aller sur Paris, et sans bosser pour une SS2I, faut avoir pas mal de bol.
Par contre sur Paris, ce n’est à priori pas la demande qui manque, et ce depuis pas mal d’années, quand je vois le turnover et la difficulté à embaucher dans ma boite (je ne suis pas sur Paris, mais bosse pour une boite Parisienne, ce qui est finalement probablement le mieux, j’ai eu du bol).
Plus sérieusement, tout le monde paie la TVA sur les produits achetés en France ou dans l’UE sans même s’en rendre compte, et dès qu’il s’agit de payer la TVA sur un produit importé la plupart des gens trouvent ça anormal…
Ce n’est pas que ce soit anormal, mais :
Les frais de port sont beaucoup plus élevés que pour un achat en France
La TVA s’applique aussi sur ces frais de port, ce qui est juste du vol.
On a droit à 14-15€ de frais de dossier en plus (et encore, ça peut être plus, mais en SAL/Airmail je paye ça).
Donc au final, même pour des produits qu’on ne trouve pas en France, ça finit par faire cher, voire trop cher.
Exemple inexact mais qui donne l’idée : t’achètes un truc à 50€ + 15€ de port (et encore, en Airmail…) => 13€ de TVA + 14 de frais de dossier = 92€, pour un truc qui en valait 50 au départ, et 50 + 10 de TVA + 5 de port = 65€ en supposant qu’il soit disponible en France au même prix HT.
Donc pour un produit non disponible en France, entre les frais de port et la TVA + douane occasionnelle, ça revient déjà pas loin de ce que ça vaudrait si ça se trouvait en France, donc si on se choppe la TVA + douane à chaque fois, ça va faire vraiment cher le moindre produit introuvable en France.
Dans ce cas faut interdire les autoradio aussi. Voire forcer les gens à conduire fenêtre ouverte, pour être en toute égalité.
PS : je suis autant cycliste que conducteur, pas de parti pris.
C’est sûr, c’est tellement la même chose entre un conducteur un minimum protégé dans une voiture équipée de rétros dans un flux normal de circulation et un cycliste vulnérable, sans rétro et obligeant les véhicules à le contourner…
il y a vraiment des endroits où il est interdit de mutualiser alors qu’au contraire, on devrait imposer la mutualisation pour augmenter la couverture ? On marche vraiment sur la tête…
apprendre à lire c’est pas interdit " /> vu que les chiffre de vente dela ps3 ont rattrapés celle de la x360 relativement récemment hein … Je te laisse faire tes devoirs hein
Ils n’ont jamais été égaux du début à la fin hein, mais ça t’arranges d’ignoré ce qui te dérange pour te persuader toi même que ta console est la meilleure … " />
Bouarf, tu ne te rends même pas compte à quel point ta remarque est pathétique…
1/ Tu dis toi même que la PS3 a rattrapé la 360, mais me demande à moi d’en tirer les conclusions alors que justement, la conclusion évidente est celle que j’ai donnée avant, et non la tienne, ridicule…
2/ Osef de quelle console à rattrapé laquelle sur la fin ou pas (j’en sais rien et j’en ai RAB, je ne me branle pas devant les chiffres de vente), elles se sont globalement bien vendues toutes les 2, sans qu’une des 2 n’enterre l’autre, il n’y a que les pro machin dans ton genre qui tirent les conclusions qui les arrange et cherchent à désigner un vainqueur, tout en reprochant justement à ceux qui ont un peu plus de recul d’être des pros trucs qui font exactement ce qu’il sont les 1ers à faire, pathétique…
3/ Et je n’ai aucune des 2, et aurai les 2 à terme (de même que la Wii), car j’ai des jeux à faire sur les 2, mais bon comme je viens de le dire, c’est tellement classique de voir le pro machin n’avoir rien de mieux à faire que reprocher à tous ceux qui ne le sont pas d’être des pros truc et de manquer d’objectivité, ça doit être le comble du comble du pro machin…
Et moi comme un con je feed the troll… Bon c’est histoire de me réveiller avant d’attaquer le taff…
Le
09/10/2013 à
16h
23
zefling a écrit :
C’est quoi un core gamer ? Un fanatique de TRPG (genre Disgaea) ne peut pas en être ?
C’est surement un gars qui affirme avec aplomb sa vérité absolue, à savoir qu’une des 2 consoles (au hasard celle qu’il a achetée au prix fort) “a gagné et de loin” sur un marché avec 2 consoles qui ont 90% de leur ludothèque (chiffre sorti de mon chapeau magique) en commun et qui se sont globalement vendues autant l’une que l’autre " />
Le
09/10/2013 à
16h
15
k43l a écrit :
Et si je dis que la 360 surpasse la PS3, ce n’est pas seulement en terme de jeu " />.
En terme de multimédia, de store, d’évolution y’a juste pas photo.
La preuve en est que Microsoft a réussi à vaincre son déficit d’image et de fiabilité de la console (désastreuse) grâce à ça.
Peut-être mais certains, dont moi, n’en ont rien à péter du multimédia (on a justement un PC pour ça, une console c’est fait pour jouer, vieux con, toussa…), n’ont pas envie de payer un abo pour faire une partie en ligne tous les 36 du mois et ne veulent pas passer leur temps à switcher des DVDs " />
Plus sérieusement, là on parlait de la console la plus intéressante pour un joueur PC, uniquement pour ce cas précis, et pour un joueur PC, clairement, c’est sur PS3 qu’il y aura le plus de jeux qu’il n’a pas déjà sur PC, car beaucoup plus d’exclus que sur 360 (et comme les 3⁄4 des jeux multi sont aussi sur PC, les exclus prennent beaucoup plus d’importance quand on a un PC, car elles représentent une part bien plus importante des jeux potentiellement intéressants), donc statistiquement, il ne parait pas du tout illogique que la PS3 soit majoritaire chez les joueurs PCs.
Après on à tout à fait le droit de préférer 1 ou 2 exclus 360 à 15 exclus PS3, et la situation est probablement pas loin d’être inverse du coté des jeux PSN/XBL.
J’ai commencé à ajouter les jeux PS3 et 360 à ma collection il y a quelques mois (je n’ai pas les consoles, je n’ai même pas de PS2 alors que j’ai une 30aine de jeux…), et clairement, sur les exclus, j’en vois peu (voire très peu du coté des AAA) qui m’intéressent sur 360 alors qu’il y en a 4 ou 5 fois plus sur PS3.
Ideal a écrit :
Certains attendent ptet encore halo 3 va savoir… " />
Moi j’attends Gears 2 :)
Oui bah j’ai surkiffé le 1er sur PC et ça me fait mal d’envisager de faire les suites au pad sur 360… Petit espoir du coté des adaptateurs clavier/souris pour 360 qui donneraient à priori des résultats potables avec ces jeux…
Le
09/10/2013 à
14h
11
k43l a écrit :
Et force est de constaté que la 360 en l’état surpasse en tout point la ps3.
A titre purement personnel, je pense exactement l’inverse, et pense que c’est objectivement réellement le cas (et pas seulement mon avis subjectif), donc merci de ne pas prendre ton avis pour une vérité objective et universelle.
Sinon il disait surement ça car la PS3 a bien plus de bons jeux non sortis sur PC que la 360, en plus du fait que la PS3 se vend mieux que la 360 en France, donc statistiquement il y a de bonnes chances qu’il y ait plus de joueurs PC qui achètent une PS3 qu’une 360.
Le
09/10/2013 à
13h
45
Lafisk a écrit :
Après, oui c’est surtout une pack de texture, tu peux pas vraiment réinjecter de modèle 3D normalement donc ils jouent surtout sur les textures.
Si on peut, cf les voitures voire les arbres, mais pour les décors les textures HD suffisent.
Les constructeurs se gavent bien sur le gold quand on voir la différence de prix avec les bronze. Perso je reste sur une Corsair CX430 à moins de 45€ pour du 450-W et sur une M12II pour du 500+W, avant que le gold compense la différence de prix….
Ceci restant évidemment vrai tant que le Full HD restera la résolution dominante. Clairement si je voulais jouer aujourd’hui en Quadra HD machin (je sais plus le nom “officiel”), ma machine ferait la gueule. " /> Donc dans 4-5 ans quand la nouvelle résolution se sera démocratisée, il y aura un nouveau palier de performances, donc d’équipement à franchir.
Et si ça arrive, ce sera une bonne nouvelle, car si le matos est prévu pour de la 4K, les CG à bas prix feront tout tourner à fond en 1080p, et franchement j’ai déjà beaucoup de mal à voir la moindre différence entre 720p et 1080p (sur un 24” comme sur ma TV 52”) donc je pourrai me passer très facilement de la 4K pour les jeux…
Le
02/10/2013 à
09h
29
mettre 1000€ bien sûr…
Le
02/10/2013 à
09h
18
La fréquence de changement compte aussi, mettre 100€ tous les 2 ans ou tous les 5 ans, c’est pas la même chose.
Pour ma part, je change de PC tous les un peu plus de 4 ans, même si le dernier (il y a 2 ans) est un poil plus haut de gamme que les précédents et devrait me tenir plus, sans parler du fait que cette fois, je devrais garder la tour, l’alim et le rhéobus sur la prochaine config qui me coutera donc pas mal moins cher.
En clair, plus ça va, plus les configs durent et moins elles coutent cher (sans même parler du fait que si c’est pour faire tourner les jeux comme ils tournent sur console, le PC peut tenir aussi longtemps qu’une console…). Mais bon, les boulets ignorants habituels ont du mal à le comprendre :)
Mais si je compte la tour et tout ce qu’il y a dedans, ça tombe bien dans la fourchette 750-1000€.
Avec mes achats au fil de l’eau (un HDD par ci, un onduleur par là, un écran tous les 10 ans, un clavier + souris tous les 6 ou 7…), le budget informatique doit tourner autour de 1500€ tous les 4 ans, soit environ 1€ par jour en moyenne, tout à fait acceptable pour un outil qui me sert continuellement, en plus de permettre de jouer à tout dans de bonnes conditions.
Je serai intéressé de voir comment tu t’y prends avec la souris avec les voitures, moto et phase de shoot.
Parce que oui en phase de combat peut être la souris c’est bien mais c’est Grand Theft Auto
La conduite, le pilotage en souris + clavier sa doit être marrant (maso aussi) " />
Dire que GTA et la souris ça fait 2 est aussi con que dire que Max Payne et la souris ça fait 2…
Rien n’empêche d’utiliser les 2, ce n’est pas parce que tu fais les gunfights à la souris que t’es obligé de conduire avec.
Pour les GTA like, j’utilise toujours (et ce depuis GTA 3) le clavier+souris pour les phases à pied (sauf si c’est juste quelques secondes pour changer de véhicule alors que j’ai déjà le pad en main), comme dans n’importe quel TPS, mais aussi quand il faut tirer depuis un véhicule (que ce soit avec un flingue par la porte ou via la tourelle d’un blindé) et pour les hélicos (parfaitement jouables au pad mais plus agréable/naturel au c+v).
Il n’est d’ailleurs pas rare que je reste au c+v pour conduire un véhicule quand c’est juste un passage bref entre 2 passages à pieds, c’est tout à fait jouable (comme conduire un véhicule dans un FPS) et même appréciable de temps en temps pour varier un peu.
D’ailleurs, je m’éclate bien dans Just Cause 2 alors que je ne voudrais même pas en entendre parler si j’étais contraint d’y jouer uniquement au pad, tellement les phases à pied (qui représentent une portion particulièrement importante du gameplay dans ce jeu) sont juste irritantes au pad.
Je ne comprendrai jamais, même venant de consoleux (dont je suis) n’ayant jamais joué au c+v, comment on peut penser que le pad est objectivement plus adapté que le c+v, voire que le c+v est inadapté, pour toute phase de gameplay façon FPS ou TPS (ça ne veut pas dire qu’on ne peut pas préférer jouer au pad, chacun ses préférences, j’avais bien un pote durant mes études qui jouait à Quake 2 en full clavier, avec 4 touches au lieu de la souris, et c’était le meilleur au railgun…), ça parait pourtant tellement évidant, même sans jamais y avoir joué (la caméra/visée libre et naturelle via la souris, c’est mathématique, ça ne peut qu’être plus adapté qu’un stick).
Ben ils sont au prix où était OVH il y a un an, soit environ le double. OVH a tellement cassé les prix en quelques mois/années que personne n’a pu suivre. Mais Online (anciennement Dedibox, appartenant à Free) reste une valeur sûre du serveur dédié.
Bah en fait le serveur Dedibox à 30€HT a l’air pas mal du tout pour le prix, comparable à celui à 40€HT chez OVH en terme de rapport perf/prix (surtout 1To de disque au lieu de 2, et beaucoup moins de RAM mais déjà bien assez, mais t’as du raid hard et 300Mb vs 200).
Après ce que je préférais chez OVH quand j’avais testé Dedibox il y a bien longtemps, c’était la souplesse bien plus grande de gestion du serveur depuis son compte, un meilleur suivi (alertes, interventions…) du serveur. En ce temps là le réseau Dedibox était aussi beaucoup moins bon.
Après je suis un peu coincé chez OVH à cause des IP failover, je ne peux pas interrompre les services 48h le temps de migrer des domaines (sans parler de quelques sous-domaines externes qui pointent sur une de ces IPs)…
Le
19/09/2013 à
11h
20
Génial, je devais changer mon serveur ce mois-ci et je me retrouve coincé avec mon SP de 2007, à payer 80+€ par mois pour une config bien plus faible que la config actuelle à 35€ de moins…
Et comble de l’inacceptable, il y a quelques mois, OVH a décidé de rendre payantes les IP failover comprises avec certains vieux dédiés, ce qu’on peut traduire par un inadmissible “Vous payez déjà 2 fois trop cher pour votre vieux dédié ? Non seulement on ne va pas baisser votre abonnement pour qu’il soit en accord avec les offres actuelles, mais on va aller jusqu’à l’augmenter en faisant payer les IP failover !!!”…
Voilà, on a une solution bien intégré avec plus ou moins tout le refroidissement géré par le watercooling, mais t’as toujours 4 ventilos (même très discrets, ça reste 4 ventilos), c’est une usine à gaz, et le prix…
Le
10/09/2013 à
15h
45
Obelixator a écrit :
…
Bah alors on ne sera pas d’accord, car on est tous les 2 globalement d’accord sur les avantages et inconvénients de chaque solution, tout en en ayant une interprétation bien différente, car pour moi le poids du ventirad n’est pas un vrai problème quand on ne bouge pas trop sa tour et prend des précautions en la bougeant (et puis le Noctua de cet article n’a pas l’air très lourd, et il y a toujours moyen de fixer le radiateur sur le haut du boitier pour réduire les risques), alors que le coût et la complexité (avec l’usure et le risque de panne qui vont avec) du watercooling est très à son désavantage, de même que l’éventuel bruit que peut faire la pompe ou encore le fait qu’il ne gère qu’un élément de la config, élément qui chauffe de moins en moins ces dernières années.
La ou du watercooling me ferait envie, c’est avec un système qui assure le refroidissement de tout ce qui chauffe pas mal (CPU, GPU, chipset en fonction de s’il chauffe ou non, voire la RAM, bref une pieuvre de tuyauterie…), tout en ayant la possibilité de réduire drastiquement la ventilation (et donc son bruit) en ne laissant q’1 ou 2 12cm sur le radiateur en extraction, tout en ne laissant pas trop chauffer les autres éléments, à commencer par la ram (si pas watercoolée) et les HDD, un beau mouton à 5 pattes.
Bon faut dire qu’au tout début, à une époque où on avait des turbines dans nos tours, j’idéalisais un peu le watercooling en le voyant presque comme une solution passive et donc silencieuse (j’oubliais même le refroidissement de la flotte), et on en est quand même bien loin.
Mais avec les SDD qui ne chauffent pas, les HDD de 5400rpm qui chauffent très peu, les alims qui pour certaines vont jusqu’à rester passives en dehors de fortes charges et qui sont isolées de l’intérieur du boitier, les CPU qui chauffent de moins en moins, on va dans la bonne direction pour avoir des PCs de plus en plus silencieux.
On doit dés aujourd’hui arriver à un truc très bien en remplaçant le ventilo du GPU par un airduct avec ventilo de 12cm (qui va donc pas mal contribuer niveau extraction), avec un vantirad avec ventilo de 12cm très sous-volté, avec éventuellement un airduct, et éventuellement un seul 12cm en extraction ou aspiration, éventuellement car le ventirad + airduct + 12cm + airduct du GPU pourraient même suffire pour l’extraction, donc on pourrait envisager une config avec seulement 2 ventilos, 3 tout au plus.
Le
10/09/2013 à
13h
44
Obelixator a écrit :
…
Je parlais bien de la température globale, pas que du CPU, puisque même si ce genre de montage est plus efficace, l’efficacité d’un air-cooling discret est tout à fait suffisante dans la plupart des cas.
A la limite, je préfèrerais faire aussi un airduct au lieu de watercooling pour le CPU, ce qui revient moins cher et ne risque pas de lâcher comme le peut une pompe.
En clair, je ne remets pas une seconde en doute l’efficacité de l’extraction directe de l’air chaud du boitier, même si je ne trouve pas ça indispensable (l’air que soufle les ventilos d’extraction n’est jamais bien plus chaud que la tpt ambiante sur ma config) et, qu’à mon sens, un ventirad qui souffle vers l’arrière à quelques centimètres du ventilo d’extraction est déjà suffisamment efficace pour évacuer l’air chaud du boitier (mais je n’en dirai effectivement pas autant d’un autre type de ventirad ou d’une CG sans airduct).
Par contre je remets bien en doute la pertinence d’un watercooling CPU qui ne me parait avoir pratiquement que des inconvénients face à un vantirad + airduct.
Le
10/09/2013 à
09h
09
Obelixator a écrit :
Je comprends que tu ne sois pas convaincu…
Au temps pour moi pour la notification, j’ai tendance à ne pas citer pour ne pas alourdir quand je répond juste au post précédent, mais sur des news un peu anciennes, c’est vrai que c’est peu pratique pour la personne en face.
Autant je ne doute pas un instant de l’efficacité de ton install, autant en bon psychopathe du rapport qualité/perf/prise de tête/prix (oui sont bizarre mes rapports), je me dis que c’est beaucoup de moyens et de complications pour quelque chose d’assez superflu en pratique, étant donné que de nos jours, on peut avoir des solutions très discrète à base de ventilos de 12+cm à 4-7V.
C’est bien beau de gagner des degrés, mais si ça ne surchauffe pas et n’est pas bruyant, ça ne vaut pas forcément le coup s’il faut dépenser pas mal de fric et/ou se prendre la tête pour ça. Quant au bruit, tu as surement autant de ventilos (surtout avec celui du haut, qui permet au son un accès bien plus direct vers tes oreilles) qu’une config air-coolée, qui ne tournent pas nécessairement moins vite (ma config dans un R3 tient très bien avec tous les ventilos à 600-700rpm même par forte chaleur l’été, on pourrait même descendre plus bas si j’avais pris des XL1 au lieu de XL2).
Le
09/09/2013 à
10h
17
Je ne suis pas convaincu du tout.
Tu dis toi même qu’après une séance de jeu l’air qui sort du boitier n’est pas chaud. Mais ce qui chauffe le plus, c’est à priori le GPU, donc si ça ne sort pas chaud avec le GPU air coolé, la différence en ajoutant le CPU ne sera pas bien importante, en tout cas pas de quoi justifier la différence de prix (voire de bruit et d’emmerdes).
Pour le poids, c’est vrai, mais quand on bouge peu sa tour et qu’on prend soin de la transporter couchée, ça ne pose pas vraiment de problème.
Le
06/09/2013 à
13h
03
Meilleure circulation d’air ça se discute, si le ventirad est dans le sens de l’air, il aide au contraire à faire suivre le flux d’air au ventilo d’extraction.
Pour le SCSI, je n’ai jamais dit que ça n’avait aucun intérêt, mais fin 90’s début 2000’s, avoir du SCSI pour des lecteurs optiques internes avait un intérêt plus que limité pour un coût franchement élevé.
Le
06/09/2013 à
10h
10
Effectivement si tu remplaces le(s) ventilo(s) d’extraction du boitier par le kit watercooling, c’est déjà mieux, même si tu te retrouves avec soit une moins bonne extraction (faut passer les ailettes, ça joue forcément un peu) à nombre de ventilo égal, soit plus de bruit (si 2 ventilos au lieu d’un, et là aussi les ailettes ont tendance à augmenter un peu le bruit).
En contrepartie on a certes l’avantage d’extraire directement du boitier la chaleur du CPU, mais ça fait léger.
Par contre pour l’encombrement comme pour le prix, faut pas comparer à un NH-D14 mais à un plus classique ventirad tour qui ne pose aucun problème d’accès à la RAM et dont certains bons modèles coutent la moitié du CM Seidon.
345 commentaires
La nouvelle PS Vita sera disponible en France le 13 juin
27/05/2014
Le 27/05/2014 à 12h 42
Ca me tue de voir tlm dire que l’OLED est magnifique et le LCD pourri, voire pire, que l’OLED a de plus belles couleurs, alors que les couleurs du LCD sont infiniment plus naturelles, mais à force d’être élevés aux couleurs chaudes des réglages par défaut des TV…
Il y a aussi pas mal de soucis de tâches noires sur les OLED.
Par contre la vrai question, à laquelle je n’ai pas vraiment vu de réponses, c’est au niveau de la rémanence, car s’il y a un point sur lequel le LCD peut faire mal aux yeux en comparaison de l’OLED, c’est bien celui-là (les noirs aussi, mais ça reste visiblement très correct sur le LCD).
Mais bon dans l’absolu j’ai jamais eu de problème avec l’écran de la PSP (ou GBA/DS/3DS) donc je ne vois pas comment on pourrait être déçu du LCD, sauf éventuellement à utiliser l’OLED à coté.
Et la nouvelle version apporte visiblement pas mal au niveau de l’ergonomie.
Après j’ai eu un peu de mal à déterminer celle que je voudrais le plus (j’ai failli craquer pour un pack de la V1 il y a peu), aimant bien le contour de la V1 et ayant du mal avec l’encadrement de l’écran de la V2, mais les amélioration de la V2 et les couleurs du LCD l’emportent au final.
Faut-il sensibiliser les enfants au code dès l’école primaire ?
21/05/2014
Le 21/05/2014 à 13h 31
Le 21/05/2014 à 12h 48
J’ai vu qu’une partie du 56kast consacré au sujet mais il y a un truc qui me gène pas mal dans cette démarche : quand je vois comme les gens, même jeunes, sont complètement dépassés par l’informatique (autant par manque de compétence que par mauvaise volonté) et l’impact énorme que ça a sur leur travail (productivité, erreurs) avec toutes les conséquences que ça a, je trouve complètement absurde qu’on ne forme pas (ou pas mieux), les enfants (au moins à partir du collège) à l’informatique usuelle qui leur sera utile dans leur vie professionnelle. Il en va de même pour la formation sur les bonnes pratiques de sécurité, qui laissent encore pas mal à désirer malgré l’importance que ça a sur la vie privée (voire professionnelle).
Alors initier au code, c’est bien sympa, mais ça me parait absurde tant qu’on n’initie pas à l’utilisation de base d’un ordinateur, aux logiciels de bureautique et aux bonnes pratiques de sécurité.
Ensuite pour le code, j’ai tendance à penser que ceux qui ont ça dans le sang s’y intéressent naturellement, surtout de nos jours où pratiquement tous les enfants ont accès assez tôt à un ordinateur. Je n’avais pas d’ordinateur à l’adolescence et je savais pourtant déjà que j’avais ça dans le sang.
Après si c’est pour attirer en leur martelant que “c’est un métier d’avenir qui embauche” des personnes qui ne sont pas faites pour ça et qui vont coder toute leur vie avec les pieds, ça peut marcher…
Tests de Watch_Dogs : Ubisoft n’aime les rebelles que dans ses jeux vidéo
19/05/2014
Le 19/05/2014 à 16h 48
Revue de presse : Mario Kart 8 sur Wii U déboule sur les circuits
15/05/2014
Le 16/05/2014 à 17h 31
Le 16/05/2014 à 11h 33
Le 16/05/2014 à 08h 58
Le 15/05/2014 à 16h 16
Le 15/05/2014 à 15h 45
Bon bah au cas où je ne me serais pas fait une raison depuis longtemps sur la mort de cette franchise pour moi, avoir carrément viré les arènes après ne pas avoir été foutu d’en faire une potable en 15 ans ne laisse plus aucun doute.
Entre passer des années à dev le jeu tout en n’étant pas foutu de faire un peu plus que le minimum syndical (ça leur couterait quoi de mettre un peu plus d’arènes et d’en pondre au moins une pas complètement inintéressante ?) et cette orientation si grand public qu’ils vont jusqu’à ralentir le jeu même en 150cc, il ne faut vraiment plus rien en attendre…
C’est franchement frustrant d’avoir l’impression qu’il n’y a personne chez Nintendo qui a compris l’essence même du jeu…
Il y a surement moyen de s’amuser en multi, mais ça n’arrive pas à la cheville d’un SMK ou d’un MK64…
Intel lève le voile sur ses nouveaux chipsets H97 et Z97
12/05/2014
Le 12/05/2014 à 11h 15
Et bien moi je vois ça au contraire comme une bonne nouvelle pour les particuliers. J’ai toujours changé mes configs au bout de 4 ans 1⁄2, mais quand j’ai acheté ma config actuelle (I5 2500k et GTX 560 ti) à la sortie du Z68 (juin 2011), j’étais déjà persuadé qu’elle avait le potentiel de durer bien plus longtemps, et ça se confirme franchement, tout particulièrement niveau CPU, qui me semble limite encore sous-utilisé pour mon usage (même dans les jeux) 3 ans après alors même que j’ai une belle réserve d’overclocking.
Blizzard propose de télécharger The Lost Vikings gratuitement
05/05/2014
Le 05/05/2014 à 14h 24
Les éditeurs qui balancent les roms sur leur site, voilà qui est très inattendu et très appréciable.
A l’heure des consoles virtuelles c’est assez étonnant (alors même qu’il y a déjà eu des rééditions de ces jeux, comme Rock N’ Roll Racing sur GBA).
Et arrêtez de parler de piratage, du moment qu’ils refilent la rom, vous pouvez l’utiliser avec n’importe quel émulateur sur n’importe quel système, ce n’est plus du piratage (c’est la rom elle même qui relève de contrefaçon, et donc de piratage, donc si l’éditeur la distribue lui même, plus de contrefaçon).
Armiga, un émulateur Amiga sur base ARM pour les nostalgiques
03/04/2014
Le 03/04/2014 à 15h 39
Comme d’autres ont dû le dire, c’est comme la Neo Geo X, le seul intérêt du hardware est d’assouvir la nostalgie, et donc seul le hardware original me parait avoir de l’intérêt pour ces nostalgiques, les autres se satisfaisant parfaitement de l’émulation. Du coup comme pour la Neo Geo X, je ne vois pas qui ça peut intéresser, sauf quelques hypeux (et encore, pour la Neo je veux bien…)
Le top reste l’amiga sur lequel on branche un disque dur blindé de roms, on a le kif du hardware original sans l’inconvénient des disquettes très fragiles et souvent inutilisables (ou risque de les bousiller si elle ne le sont pas encore). Et même là, le geste de mettre la disquette et le bruit caractéristique du lecteur manque un peu.
World of Speed ne veut pas être défini comme un jeu free-to-play
02/04/2014
Le 02/04/2014 à 16h 14
Quelqu’un se dévoue pour lui expliquer la différence entre free-to-play et pay-to-win, histoire d’espérer qu’il arrête de dire de la merde ? :)
[MàJ] La SNCF maintient que l’ado verbalisé écoutait sa musique à tue-tête
01/04/2014
Le 01/04/2014 à 16h 36
Au moins on est sûr d’une chose, il y a un abruti dans l’histoire… Après l’agent zélé qui verbalise sans même avertir/discuter ou le petit con auxquels ses parents feraient mieux de foutre une torgnole et retenir l’amande sur son argent de poche au lieu de justifier sa connerie, on ne le saura surement jamais, même si mon petit doigt a sa petite idée.
Les routeurs ASUS et Linksys touchés par des failles de sécurité
20/02/2014
Le 21/02/2014 à 14h 22
Ouep, sauf que toi t’es pas un boulet, t’as pas cherché moins d’un an avant, alors que le WNR3500L existait déjà, à passer en gigabit pour finir par acheter un switch, Netgear en plus, collé au cul du WRT parce que “t’as pas trouvé de routeur gigabit abordable compatible Tomato”…
Le 21/02/2014 à 11h 12
[MàJ] NVIDIA publie ses pilotes 335.23 WHQL
10/03/2014
Le 19/02/2014 à 18h 23
Je viens de vérifier, ce ne sont pas les derniers 2.xx mais les 314.22 les derniers drivers stables avec les 560Ti. La version suivante, la 320.00, est une version visiblement assez majeure (changement de l’interface) qui introduit ces soucis.
Il est par contre possible que le souci ait été réglé sur les dernières versions (même si je ne vois rien qui le laisse entendre dans les release notes).
Le 19/02/2014 à 15h 57
Le 19/02/2014 à 13h 19
Attention avec les 560Ti, la nouvelle version majeure des drivers (les 3.xx surement, quand l’interface a changée en tout cas) sont particulièrement instables avec ces cartes, à moins qu’ils aient réglé ça dernièrement.
J’avais depuis pas mal de temps des plantages et surtout des freezes aléatoires sur le bureau.
J’ai fini par refaire une install propre de tout mon système qui commençait à en avoir franchement besoin après des années et 2 configs, mais avant de savoir que ça venait des drivers.
Donc sur l’install fraiche, je réinstalle les mêmes drivers, et re-souci direct, et aucun nettoyage, réinstall de drivers génériques, install des 2.xx n’y a fait. Pire, à la fin, ça freezait dés l’arrivée sur le bureau lors du boot.
Reinstall propre, install des derniers 2.xx WHQL, aucun souci depuis. Je regarderai ce soir si c’est bien la dernière 2.xx WHQL où s’ils avaient changé l’interface avant les 3.xx.
Bien sûr tout le monde n’a pas eu ces problèmes, mais pas mal de monde quand même.
La PS Vita Slim débarque, mais seulement outre-Manche
30/01/2014
Le 03/02/2014 à 09h 37
Le 31/01/2014 à 11h 48
Aucune idée j’ai jamais touché de Vita, je ne faisais que conjecturer sur ce qu’il a dit.
Le 31/01/2014 à 11h 19
Le 30/01/2014 à 17h 51
Sans oublier que l’écran LCD n’a pas que des inconvénients, ses couleurs sont bien plus naturelles (mais bon, les gens étant lobotomisés aux couleurs pétantes des rayons de supermarchés et des réglages par défaut des télé, ils en viennent à préférer les couleurs du OLED).
Par contre je suis curieux de savoir ce que ça donne niveau rémanence et profondeur des noirs, voir s’il y a une différence vraiment notable.
[MàJ] Steam Machines : 14 partenaires, celle de Materiel.net à 799,99 €
07/01/2014
Le 07/01/2014 à 17h 02
Je vais essayer d’être optimiste avec un “Si ça permet à quelques consoleux plein d’idées préconçues sur le PC de “voir la lumière” en passant au PC (sans pour autant quitter les consoles hein) et/ou de pousser le dev sous linux, ce n’est pas une mauvaise chose”.
Mais le fond de ma pensée, c’est que c’est une boite avec un système plus ou moins fermé, enfin, destiné juste à lancer steam, qui vaut le prix d’un PC équivalent (ou pas loin), bien plus souple et avec lequel on ne fait pas que jouer, et qui se limite aux jeux tournant sous linux, ce qui en exclura encore pas mal pendant un bon moment.
Donc les PCistes n’y verront jamais le moindre intérêt, s’ils veulent une version jeux vidéo du HTPC, ils en feront une maison, et les consoleux ne verront que “une console qui ne fait tourner ni Halo ni Uncharted pour le prix d’une PS4 + une XB1” qui ne sera pas totalement faux.
[MàJ] Les nouveaux Mac Pro d’Apple sont en vente à partir de 2999 euros
19/12/2013
Le 18/12/2013 à 18h 32
Même si Apple ne se gave pas (ce qui reste à prouver, ils doivent avoir bien négocié les composants même si au final la config n’est pas astronomiquement plus chère que les composants séparés), je ne vois pas qui pourrait avoir l’utilité de tels composants luxe valant une fortune et apportant très peu comparé à des composants bien plus abordables, en dehors peut-être d’usages ultra spécifiques (et encore, je ne vois pas, montage vidéo ? modélisation 3D ?) et de fanboys qui veulent avoir un Mac sur leur bureau pour lire leurs emails…
Plus d’un tiers des développeurs PHP français se disent mal payés
04/12/2013
Le 04/12/2013 à 18h 02
Bah il y a pas mal de soucis avec le dev PHP qui est encore un peu vu comme le parent pauvre du dev, car “mon neveu fait du PHP, tout le monde peut le faire” et car il y a beaucoup de devs (même s’il y a aussi pas mal d’offre) :
Donc si tu veux gagner correctement ta vie, sans aller sur Paris, et sans bosser pour une SS2I, faut avoir pas mal de bol.
Par contre sur Paris, ce n’est à priori pas la demande qui manque, et ce depuis pas mal d’années, quand je vois le turnover et la difficulté à embaucher dans ma boite (je ne suis pas sur Paris, mais bosse pour une boite Parisienne, ce qui est finalement probablement le mieux, j’ai eu du bol).
Le fichage systématique des échanges postaux adopté en trois heures
21/11/2013
Le 21/11/2013 à 13h 08
Une association d’automobilistes songe à interdire les écouteurs aux cyclistes
05/11/2013
Le 05/11/2013 à 17h 29
FTTH : vers moins de zones très denses pour plus de mutualisation ?
22/10/2013
Le 22/10/2013 à 09h 32
il y a vraiment des endroits où il est interdit de mutualiser alors qu’au contraire, on devrait imposer la mutualisation pour augmenter la couverture ? On marche vraiment sur la tête…
Selon Intel quelqu’un aurait payé très cher pour que GTA ne sorte pas sur PC
09/10/2013
Le 10/10/2013 à 08h 25
Le 09/10/2013 à 16h 23
Le 09/10/2013 à 16h 15
Le 09/10/2013 à 14h 11
Le 09/10/2013 à 13h 45
Cooler Master VS : 4 alimentations 80Plus Gold modulaires, à partir de 79 €
04/10/2013
Le 07/10/2013 à 09h 33
Les constructeurs se gavent bien sur le gold quand on voir la différence de prix avec les bronze. Perso je reste sur une Corsair CX430 à moins de 45€ pour du 450-W et sur une M12II pour du 500+W, avant que le gold compense la différence de prix….
Quel est pour vous le bon tarif pour un PC de joueur ?
01/10/2013
Le 02/10/2013 à 12h 59
Le 02/10/2013 à 09h 29
mettre 1000€ bien sûr…
Le 02/10/2013 à 09h 18
La fréquence de changement compte aussi, mettre 100€ tous les 2 ans ou tous les 5 ans, c’est pas la même chose.
Pour ma part, je change de PC tous les un peu plus de 4 ans, même si le dernier (il y a 2 ans) est un poil plus haut de gamme que les précédents et devrait me tenir plus, sans parler du fait que cette fois, je devrais garder la tour, l’alim et le rhéobus sur la prochaine config qui me coutera donc pas mal moins cher.
En clair, plus ça va, plus les configs durent et moins elles coutent cher (sans même parler du fait que si c’est pour faire tourner les jeux comme ils tournent sur console, le PC peut tenir aussi longtemps qu’une console…). Mais bon, les boulets ignorants habituels ont du mal à le comprendre :)
Mais si je compte la tour et tout ce qu’il y a dedans, ça tombe bien dans la fourchette 750-1000€.
Avec mes achats au fil de l’eau (un HDD par ci, un onduleur par là, un écran tous les 10 ans, un clavier + souris tous les 6 ou 7…), le budget informatique doit tourner autour de 1500€ tous les 4 ans, soit environ 1€ par jour en moyenne, tout à fait acceptable pour un outil qui me sert continuellement, en plus de permettre de jouer à tout dans de bonnes conditions.
Free : 1 Gb/s en téléchargement et 200 Mb/s en upload pour les clients fibre
01/10/2013
Le 02/10/2013 à 09h 43
J’ai du rebooter ma Freebox ô pour retrouver du 100⁄100 car c’était tombé sous les 1.5 Mo/s dans les 2 sens, peut-être en conséquence à cette modif.
GTA V a généré un milliard de dollars de revenus en 3 jours… ou presque
23/09/2013
Le 23/09/2013 à 12h 05
c+s bien sûr, je sais pas pourquoi j’ai mis c+v…
Le 23/09/2013 à 11h 38
OVH revoit son modèle économique, tous les dédiés retirés de la vente
19/09/2013
Le 19/09/2013 à 14h 05
Le 19/09/2013 à 11h 20
Génial, je devais changer mon serveur ce mois-ci et je me retrouve coincé avec mon SP de 2007, à payer 80+€ par mois pour une config bien plus faible que la config actuelle à 35€ de moins…
Et comble de l’inacceptable, il y a quelques mois, OVH a décidé de rendre payantes les IP failover comprises avec certains vieux dédiés, ce qu’on peut traduire par un inadmissible “Vous payez déjà 2 fois trop cher pour votre vieux dédié ? Non seulement on ne va pas baisser votre abonnement pour qu’il soit en accord avec les offres actuelles, mais on va aller jusqu’à l’augmenter en faisant payer les IP failover !!!”…
Le récap’ des tests : maintenir son processeur au frais
05/09/2013
Le 11/09/2013 à 09h 17
Le 10/09/2013 à 15h 45
Le 10/09/2013 à 13h 44
Le 10/09/2013 à 09h 09
Le 09/09/2013 à 10h 17
Je ne suis pas convaincu du tout.
Tu dis toi même qu’après une séance de jeu l’air qui sort du boitier n’est pas chaud. Mais ce qui chauffe le plus, c’est à priori le GPU, donc si ça ne sort pas chaud avec le GPU air coolé, la différence en ajoutant le CPU ne sera pas bien importante, en tout cas pas de quoi justifier la différence de prix (voire de bruit et d’emmerdes).
Pour le poids, c’est vrai, mais quand on bouge peu sa tour et qu’on prend soin de la transporter couchée, ça ne pose pas vraiment de problème.
Le 06/09/2013 à 13h 03
Meilleure circulation d’air ça se discute, si le ventirad est dans le sens de l’air, il aide au contraire à faire suivre le flux d’air au ventilo d’extraction.
Pour le SCSI, je n’ai jamais dit que ça n’avait aucun intérêt, mais fin 90’s début 2000’s, avoir du SCSI pour des lecteurs optiques internes avait un intérêt plus que limité pour un coût franchement élevé.
Le 06/09/2013 à 10h 10
Effectivement si tu remplaces le(s) ventilo(s) d’extraction du boitier par le kit watercooling, c’est déjà mieux, même si tu te retrouves avec soit une moins bonne extraction (faut passer les ailettes, ça joue forcément un peu) à nombre de ventilo égal, soit plus de bruit (si 2 ventilos au lieu d’un, et là aussi les ailettes ont tendance à augmenter un peu le bruit).
En contrepartie on a certes l’avantage d’extraire directement du boitier la chaleur du CPU, mais ça fait léger.
Par contre pour l’encombrement comme pour le prix, faut pas comparer à un NH-D14 mais à un plus classique ventirad tour qui ne pose aucun problème d’accès à la RAM et dont certains bons modèles coutent la moitié du CM Seidon.