En espérant que PCI " /> et tout autres sites utilisant des services similaire à cloudflare puisse passer via ce router. Parce que ce moment c’est pas le joie avec TOR. TOR+cloudflare sur goggle vous donnera l’état de la situation. Sans parler des sites qui empêchent toute navigation s’ils détectent que vous utilisez TOR. Bref, des salopios quoi.
La N64 en était pourvue également, les gâchettes analogiques ne sont apparues sur saturn qu’avec le “3D controller”
Pour le N64, les boutons L&R sont numériques, il n’y a que le stick qui est analogique. Effectivement c’est avec le contrôleur 3D que les boutons analogiques L&R sont apparus.
Mais si on veu être précis le vrai analogique (au sens variation de la tension) c’est sur les consoles de pong que ça se passe. Le reste c’est du numérique avec une échelle de valeurs variant le plus souvent de -255 à +255.
Sa manette était également la première à disposer de gâchettes analogiques
Non c’était déja le cas sur Saturn.
Chsoe intéressante, des fans ont créé un périphérique qui remplace le bloc GD-ROM pour adjoindre a la place un disque dur afin d’y stocker les jeux et de palier aux nombreux problèmes de lecture qui apparaissent avec le temps : Facebook
Pourtant un , super swiv, 1942 ,pop’n twin bee,R-Type,robotech etc..;c’était du challenge
Oui par rapport aux jeux d’aujourd’hui (s’pas difficile en même temps).
Le
14/10/2014 à
12h
39
Papa Panda a écrit :
U.N? Squadron en hardest sans sauvegarde ,tiens ;)
Ouai, mais ce jeu là il est pourris par contre. R-Type sur SNES ou Thunderforce IV là oui. Mais UN Squadron c’est dur parce que le jeu est moisi et le gameplay mal branlé.
Le
14/10/2014 à
12h
32
Papa Panda a écrit :
Méga gros +1
Maintenant nous râgeons car on meurt pour un bug ou pour une mauvaise maniabilité ...il est loin le temps de la manette 2 boutons ^^"
Oui, qu’ils tentent donc de jouer a F-Zero Gx sur GC ou Ninja Gaiden sur XBox on reparlera de ce qu’est la difficulté ensuite ! " />
Le
14/10/2014 à
10h
30
Ainsi, plusieurs d’entre eux ont trouvé dommage le manque d’indications
données par le jeu, augmentant drastiquement la difficulté. Ajoutez à
cela quelques passages « die and retry » sans aucune subtilité, et
l’ensemble peut devenir rapidement frustrant.
Oh les pauvres chochottes, ils n’avaient qu’a commencer le jeu vidéo dans les années 80, au moins là ils sauraient ce qu’est un jeu difficile et frustrant.
Comment ça se passe a niveau du flux audio sur Ubuntu ? Je veux dire lorsque l’on passe par du SPDIf ou du HDMI pour aller sur un ampli HC. Comment l’OS traite le flux audio en bitstream ou il fait un traitement ?
Si c’est un feu de paille, la question est pour qui roule-t-il ?
Je ne veux pas non plus tomber dans la théorie du complot bien crasse,
mais si je devais émettre une hypothèse je dirai qu’il roule pour son
propre pays. Dans le sens ou il représente la soupape qui permet de
réguler les débordements citoyen sur internet. De part son histoire, ses
“origines” ce qu’il va dire paraîtra crédible et servira à faire peur
aux internautes en brandissant la carte de la surveillance généralisée.
Surveillance qui, je pense, n’est pas aussi présente qu’il semble
l’affirmer. Toutefois ce genre de communication coupera l’herbe sous le
pied de quiconque aurait l’outrecuidance de trop l’ouvrir sur le Web…
Le
13/10/2014 à
15h
43
Oulanos a écrit :
Ce qui moi me choque c’est que justement.. après 1 an.. il est toujours là…
Alors SOIT il est hyper balèze pour ne pas se faire choper.. soit en fait ce qu’on voit dans les films américains n’est pas vrai et ils peuvent pas localiser un hacker en se mettant à deux sur un clavier pour taper plus vite et programmer en live un software pour localiser les gens à travers les vpn…… " />
Soit ce mec est un fake comme expliqué en début de commentaire.
Le
13/10/2014 à
12h
40
Cara62 a écrit :
Ah je savais pas ça,
je sais que Goebbels aimait bien le cinéma à des fins de propagandes ... Mais pourquoi se méfier des soldats US ?
PS : ça dérive en point godwin
En fait il n'y avait rien de méchant. Mais c'était pour préparer la population à la présence des soldat US. En fait les US ont exporté énormément de film de propagande de "la vie à l'américaine" vers la France pour les diffuser et préparer le terrain afin d'éviter que les français ne se méfient des soldat US (au cas ou). Les américain ont été extrêmement en avance sur leur temps en ce qui concerne l'usage du cinéma comme outils de propagande. Bien plus que le truc poussif des pays soviétiques.
Le but était de dire que ce n'étaient pas des envahisseurs mais bien une aide. Ce que je cherche à démontré, c'est jsute qu'il y a toujours une facons insidieuse de propager une idée (bonne ou mauvaise) en utilisant un faux alibis (ici Snowden). L'idée étant de faire comprendre aux gens que même sur Internet "Big Brother is watching you", même si c'est faux. Ça permet de garder un certain contrôle sur la population de ce medium.
Je reste persuadé que ce mec n’est qu’un homme de paille destiné à faire peur aux gens concernant Internet. Sont histoire, la mise en scène tout autour est beaucoup trop abracadabrante pour que ce soit vrai… et maintenant un film ! La belle affaire !
Ces pas les ricain qui ont utilisés le cinéma durant la 2nd guerre mondiale pour amadouer les français et éviter qu’ils se méfient trop des soldats US ?… à méditer.
Et sinon pas terrible pour numéricable qui à le réseau le plus rapide de france.
Ah moins que la plus part des gens qui sont chez eux préférent avoir du SD que du 1080p (minimum pour une télé qui est en 1080p sinon à quoi ça sert de l’avoir achetée)
Eh ben ca sert a quoi la VOD pour les personnes qui ont un ampli HC ? A rien… et la location physique ? A pardon ça s’est écroulé…
Le
13/10/2014 à
15h
22
Il est basé sur quoi ce résultat ? Parce que Free dernier je veux bien,
c’est vrai que sur certains site c’est pas la joie, mais sur les
protocole P2P par contre c’est bien plus élever que les autres. Donc c’est quoi, priorité de flux ?
C’est ce que je croyais a l’epoque de mon PII 233 et ma carte 3D sis a un pote qui me demander si j’avais une 3DFX et a qui je repondais mais non pas besoin le PII est tres puissant et la carte 3D est suffisante, enfin c’etait avant de voir ce que donner reelement une 3DFX meme avec un Pentium 90 :/
La belle époque des cartes dédiées qui transformaient une brouette en Formule 1.
La nouvelle version de PCi c’est bien, mais l’édition des commentaires est toujours aussi limitée. Je fais l’effort de me relire et au final je n’ai pas le temps de corriger mes fautes. Faites quelque chose la dessus c’est vraiment pénible !
Le
13/10/2014 à
10h
24
fraoch a écrit :
dire que la ps4 et la x1 ne sont pas des consoles est faux. Une console est un dispositif dont ka fonction première et principale est de permettre de joyer. Ce qu’elles font. Ce n’est pas le hardware qui fait que c’est une console ou pas mais sa fonction.
C’est sur que l’on est en 2014. Mais le premier brevet déposé pour une console de jeu (l’Odyssey) décrit le procédé technique, la mise en œuvre non pas un concept de machine dédiée au jeu. D’ailleur le termes console de jeu n’existait pas lorsque l’Odyssey est apparue. c’est venu bien après.
Une console de jeu, par rapport à un ordinateur généraliste, est une machine dont le rapport cout / fonctionnalités est basé sur une utilisation très spécifique : celle du jeu vidéo. Une console de jeu n’est pas un ordinateur. C’est une machine dont le hard est dédié à un tache spécifique : celle de créer l’interactivité. Cette utilisation spécifique dois pouvoir offrir les capacité nécessaire qui vont servir à la reproduction du jeu vidéo, à ses besoins. Petits exemples :
Odyssey : 1ere machine à avoir la capacité de contrôler un CRT et d’y afficher une image controlable par l’utilisateur.
–> besoin : rendre la TV active pour l’utilisateur
–> coté ordinateur on en était encore a “l’affichage” par teletype ou TTY en grande majorité
Fairchild Channel F : 1ere console intégrant un micro-contrôleur, pour donner plus de logique au jeu qu’un simple pong et également 1ere machine a demander un développement logiciel dont le soft est stocké en ROM. –> besoin ne pas limiter la console à un seul jeu.
–> coté ordinateur : il faudra attendre l’Apple II en 1977 pour obtenir un équivalent “grahique” et “logique” en terme de jeu vidéo.
Atari 2600 : 1ère console a micro processeur et à déporter la totalité du soft en ROM.
–> Besoin créer un programme unique ne ressemblant pas aux autres.
–> coté ordinateur : on découvre les joies du 1er tableur…
-NES : après avoir comblé les besoins primaires comme le dévellopement logiciel, le stockage, il reste à améliorer l’affichage.
–> besoin offrir une gestion des sprite et du scrolling qui “tranche” avec la concurrence qui stagme toujours sur les mêmes techno. 1ère console à offrir les sprite DMA et un scroling en hard.
–> coté ordinateur : les premiers micro grand public font leur apparition… question scrolling c’est pas trop ça…
Après sont venu les graphismes plus colorés, le son plus réaliste, la 3D… tout l’éco système du jeu vidéo étaient basé sur ce que la concurence ne pouvait pas faire. Lorsqu’il n’existait rien, le mieux était d’affiché des formes que l’on pouvait bouger sur un écran de TV. Ensuite pour créer l’exclusivité il falait offrir ce que la concurence n’offrait pas. Cette “bataille” était essentiellement basée sur le hard. Tu inverses, en electronique c’est le hard qui crée la fonctionnalité. Je veux obtenir tel résulat : comment y parvenir ? Je veux telles fonctionnalités : de quels composants ai-je besoin ? Le hardware créé la foctionnalité.
Dans le jeu vidéo, pour se démarquer de la concurence la fonctionnalité doit être unique. Aujourd’hui on a dépassé largement le stade des graphismes (tout du moins le rendu final) et on est plus ou moins entré dans l’évolution des prériphériques homme/machine. Mais le but est toujours le même, tenter d’innover en offrant une techno que les autres n’ont pas. Or MS et Sony avec leur console identiques sape ce foctionnment parce qu’ils tentent de changer la donne, en gros partir à long terme sur des plateformes de jeux et non plus des consoles. Avec la XBox One et la PS4 ils sont en train de préparer le terrain vers l’uniformisation. La console est donc à termes, amenée à disparaitre. Seul Nintendo continu dans “l’ancien” modèle.
Tient j’ai une analogie :
Les émulateurs imites les console. Pour découvrir c’est bien, mais rien ne remplacera la machine d’orrigine. Le feeling sera toujours meilleur sur la vraie machine plutot qu’en émulation. Pourant l’émuateur reproduit a quasi 100% le jeu d’orrigine. En tout cas sont concept (joué) et tout la chaine qui s’en suit (affichage, son, interactivité).
Une Steam Machine pourait très bien faire office de console, c’est compact l’OS est concu pour l’acces immédiat aux jeux… comme sur console. Mais ce n’est pas une console, c’est un “émulateur” du concept de console. Il n’y a rien dans une Steam Machine qui la diférencie d’une autre Steam Machine mis a apart une carte vidéo identique mais avec… plus de processur de flux. Rien d’unique en somme. Ce n’est pas le soft qui cré la console c’est le hard.
Bientot certain dévellopeurs seront des hipsters du jeu vidéo. Ils créront des pseudo consoles sofware avec des graphsimes pixel-like comme “dans le temps” sans même connaitre l’orrigine du concept de la console de jeu vidéo.
fraoch a écrit :
Je l’ai deja dit mais une
nes avait le meme processeur qu’un Apple 2, une game boy, game gear et
master system avait un proc comme les amstrad cpc ou les spectrums, la
megadrive avait le même processeur que les atari et amiga et la snes
partage le sien avec l’apple 2gs. Et pourtant on disait que c’était des
consoles. Et en y regardant de plus près elles etaient ni plus proches
ni plus éloignées des ordinateurs dont elles partagent le hardwar enfin
une partie….comme les ps4 et x1
Partager le même CPU ne veux absolument pas dire avoir la même archi. Dans les consoles que tu cites les CPU n’étaient pas le critère principal en terme de fonctionnalité. Ils étaient même secondaires par rapport aux autres puces constituant la machine. Ce sont ces autres puces qui faisaient la diférence de fonctionnalité. La Megadrive partage le même CPU (68000)que de très nombreuses autres machines (Amiga, Atari, arcade…) et pourtant seule la Megadribe est la Megadrive. La diférence flagrante entre un Atari St et un Amiga partageant aussi le même CPU. Un CPC ne faisait pas le poid face à une Master System ayant le même CPU et moins de RAM. Le fait que ce soit le jour et la nuit graphiquement entre une SNES cadencé a 3Mhz et une Megadrive à 7Mhz. Le fait que la NeoGeo semble écraser techniquement toutes ses concurentes alors qu’au final elle est beaucoup plus limitée que la concurence. Ou tout simplement imaginer un jeu comme F-Zero Gx tourné sur un Power mac G3 qui partage… le même CPU que le Gamecube. Effecitivement tès improbable.
Avoir simplement le même CPU est très différent d’aujourd’hui ou non seulment l’archi est la même, mais aussi celui de la puce vidéo basées toutes sur la même techno (processurs de flux, shaders), sur les mêmes langages, sur les même framework… ce qui donne les même jeux. On est très très loin de la simple similitude entre CPU dans les anciennes machines. Ces machines étaient des consoles parce qu’elles faisaient ce que les ordinateur ne faisaient pas. D’aileurs, il n’y avait pas vraiment de comparaisont odinateur / console. La console étant vendu en magasin de jouaets, par l’ordi… On étaient même pas sur le même produit du tout (les console VTech sont elles des consoles ? Des ordi ou juste des jouets ? " />).
Assurément, chaque console avait ses propores capacités, lacunes, et spécificités uniques ce qui rendait le monde du jeu vidéo bien plus riche qu’il ne l’est aujourd’hui.
Le
08/10/2014 à
10h
06
Lafisk a écrit :
la console ne va surement pas disparaitre … les projet comme les steams machines sont plutot l’avenir au final car il y aura toujours des gens qui ne voudront pas ce prendre la tete et voudront une config toute prete pour jouer.
Au final une console ne sera vraiment plus qu'un pc avec un os specifique et quelque specificite, c'est d'ailleurs deja le cas ...
Ce ne sont donc plus des consoles. La console de jeu par définition est un matos dédié au jeu. Avec des capacités très spécifiques concernant la gestion d'un jeu vidéo. Capacité a la fois uniques et pas cher (les 2 étant souvent liés). Ce qui fait la spécificité du marché du jeu vidéo c'est la course à "l'unique".
"J'ai un hard que tu n'as pas et donc la capacité à produire quelque chose d'unique que la concurrence ne peut reproduire"
Exemple simple de l'époque MD/SNES avec les capacités spécifiques de zoom et scaling de la SNES face à la MD. Mais on peut prendre un exemple plus "récent". La Gamecube machine compacte, pas cher capable de gérer les nurb ou 8 sources lumineuses dynamique (en 2001 quand même). A coté une XBox 1 avec des shaders et plus de transistors, mais bien incapable de reproduire le rendu d'un Gamecube.
Là, MS et Sony jouent avec le feu. En jouant la carte du multisupport facile ils risquent à un moment de perdre leur public. En tant qu'acheteur quel est l’intérêt de choisir une PS4 avec plus d’unités de traitement alors que ses jeux seront identique sur One ? En gros quel est l’intérêt de choisir une marque plus qu'une autre quand les jeux sont identiques sur les 2 supports ? Au bout d'un moment le joueur se sentira floué.
Baldr a écrit :
Sans aller jusqu’à parler des combats, Assassin’s Creed brille pas vraiment par son IA,
Assassin's Creed ca brille pas tout court. Cette série c'est le vide intersidérale enrobé d'un verni historico-racaille-esbrouffe-technique.
Le
08/10/2014 à
09h
15
Charly32 a écrit :
D’après MS et Sony, le x86 était une demande des devs hein! " />
Ca se comprend aisément : le PC possède la même microachitecture depuis
plus de 20ans, alors les outils et les compétences sont là. Les
optimisation pour x86 sont connues et finalement seront un passage
obligatoire pour sortir les jeux sur PC. Du coup c’est beaucoup plus
rentable, tant financièrement que qualitativement d’avoir une
architecture commune : on ne perd pas son temps à apprivoiser une archi
différente tous les 5-7 ans, à en gérer 2⁄3 en même temps pour chaque
jeu.
Il vaut mieux utiliser quelque chose dont tu pourra tirer
parti à 100% plutôt que d’en utiliser une autre, plus performante sur
papier, mais que tu aura du mal à apprivoiser.
Enfin les consoles
de cette génération ont tout de même quelques différences, notamment au
niveau de la mémoire vive, unifiée entre CPU et GPU et offrant une bande
passante plus élevée que sur PC (qui peut représenter un goulot
d’étranglement sur ce dernier).
Oui je suis tout a fait d’accord avec ça. Mais ce choix n’est pas directement lié à l’expérience qu’ont les dev sur le x86, tout du moins pas directement. C’est d’abord et avant tout un choix de conception facile et à court terme. Quasiment depuis le début le JV les consoles se démarquent par leurs capacités spécifiques à générer des éléments que les autres machines (entendre le PC) ne font pas. En contrepartie c’est au détriment de l’accès “facile” au développement. Ça les dev l’ont toujours accepté et c’était même un défis pour certains de connaitre les entailles de la bête.
Or le contexte actuel c’est pas de créer une plateforme c’est de faire au plus simple quitte à uniformiser le rendu, la façon de développer et au final faire en sorte que la plateforme disparaisse. Quand MS a commercialisé sa 1ere XBox il a choisi une archi X86 pour aller au plus vite et pénétrer le marché en ayant le support de dev déjà expérimenté sur DirectX. Puis, arès avoir investit le terrain, avec la 360 ils sont passé à quelque chose de plus “console” plus spécifique mais aussi baucoup plus efficace dans le temps. Et on le voit bien aujourd’hui.
Les consoles actuelles sont un patch à l’incapacité de MS et Sony d’offrir un hard compétitif en terme de puissance et de pérennité. Il suffit de constater que la PS3 et la 360 sont encore bien en forme et encore activement supporté, chose totalement exceptionnelle dans le monde des console. Même la PS2 avec ses ventes colossales n’a pas été supportée aussi bien lorsque la PS3 est apparue sur le marché.
MS et Sony sont en train de scier la branche sur laquelle ils sont assit, à savoir que les consoles doivent avoir une identité technique pour fonctionner auprès du public. En uniformisant le marché ils risquent (c’est peu être voulu) de faire disparaitre ce concept de machine dédié au jeu vidéo et/ou a un type de jeu vidéo (comme l’était l’Arcade par exemple). Ironie du sort, dans tout ça Nintendo est le seul à continuer comme avant et se casse les dents face aux studio qui n’ont plus envie d’investir du temps dans le “domptage” d’une console étant donné que chez la concurrence ils ont l’expérience de dev clef en main. Et ce, juste a cause du choix des 2 autres qui savaient très bien qu’en jouant la carte de l’uniformité ils mettraient des battons dans les roues du vieux japonais.
Le
07/10/2014 à
15h
49
fullsun a écrit :
… et c’est pas joli à voir la situation dans laquelle Nintendo est.
Leur console est à part au niveau architecture, eux au moins ils sont resté honnêtes avec leur racines et n’ont pas cédés aux sirènes de la dictature du full software (quand même la PS4 et la One partage le même framework !). Après ils sont boudé par les dev… mais ça ne veux pas dire qu’ils ont tord sur ce point. Après la Wii U en a beaucoup dans le ventre, bien au delà de ce que laisse croire la concurrence.
Mais il faut mettre les mains dans le cambouis… travailler un peu le métal, à l’ancienne quoi. Et ça c’est dur pour les p’tit jeunes élevés à l’abstraction tout azimut.
Le
07/10/2014 à
15h
00
Eh oui c’est ca de concevoir des consoles avec une archi PC pas du tout adaptée à ce mode jeu. Une console c’est un système proprio c’est la base du concept de la console de jeu. C’est pas un système basé sur un standard c’est l’éxact oposé du standard… mais bon quand les dev prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll mais à peine…)
le 1080p n’est pas une définition mythique ou parfaite » et que « La fluidité est significativement plus importante dans l’expérience de jeu que la définition ».
C’est marant Nintendo tebnanit les mêmes propos… il y a 10 ans de cela… pendant que MS je la jouait à qui a la plus grosse avec la 1ère XBox… le monde du JV j’vous jure….
Les 60 Go que pèsent Final Fantasy XIII ne sont donc pas dus à la lourdeur de ses textures, mais principalement aux nombreuses cinématiques
qui accompagnent l’histoire, ainsi qu’aux fichiers audio pour les voix
en anglais et en japonais, les deux langues étant finalement
disponibles.
Ouaip, depuis que les dev ont décidé que la musique en séquence c’était de la préhistoire, la taille des jeux a explosée. Streaming et compagnie c’est certes plus pratique à dévelloper mais qu’est-ce que ca prend de la place ! Alors que l’on peut obtenir le même résultat avec, et je suis gentil, 10 fois moins de place pour la taille de l’audio.
Mais bon, l’optimisation est une vertu qui se perd de plus en plus dans le jeu vidéo…
Ca ne permet pas de rapporter de l’argent : en effet, pour le système actuel, basé à l’origine sur la vente de support musicale, et donc bien un bien physique, ne peut effectivement pas gagner d’argent sur ce business modèle dès lors que l’on a plus besoin absolument du bien physique pour profiter du bien immatériel.
Perso je ne pense pas que ça soit la concurrence support physique contre démat qui embête. Je crois que ‘est plutôt le contrôle de l’œuvre qui leur glisse entre les doigts qui défrise les majors. Comme tu le précise dans ton commentaire, c’est la perte du contrôle de la raretée artificielle (la cocotte minute " /> ).
Cette rareté a donnée une fausse valeur à la culture puisque celle-ci doit être gratuite. Comme je l’expliquais dans un précédent commentaire les majors diférencient bien culture au sens intellectuel et showbiz au sens… business. La culture n’étant pas la merde qu’ils pondent puisque pour eux aussi la culture est gratuite. Mais pour les gens cette “merde” n’en est pas forcément, ca fait partie d’une culture justement. Un nanar est certes mauvais au sens “artistique” (quoi que " /> ) mais très enrichissant au niveau culturel (quoi que aussi… " /> ). Le soucis c’est que ces “majors” ne comprennent pas ou ignorent cette sous-coulture (au sens “sub-culture” underground) et ne considère pas leur produit comme culturel.
Par contre là ou c’est ambivalent c’est que le terme culture est utilisé pour vendre leurs trucs… Les vendeurs de musiques, de films, de photos, d’architecture, de livres… sont les seuls à bénéficier quasiment d’un circuit fermé en terme de contrôle du produit. Ils choisissent qui, quand et comment et pendant combien de temps ça doit être diffusé. Et il est même interdit de prêter ! C’est quand même fou d’en arriver à de telles extrémités !
Le
08/10/2014 à
09h
48
tazvld a écrit :
Tes intervention sont de bon sens, mais elles ne permettent pas de rapporter de l’argent ^^. C’est dommage que peu de membres te répondent au final.
Le
07/10/2014 à
15h
35
darkbeast a écrit :
fait de la chimie ne mettant tes formules en chanson
Je crains que ça ne soit aussi chiant qu’un poème Vogon… " />
Le
07/10/2014 à
15h
28
C’est plus rentable de bosser dans le showbiz que dans par exemple… un domaine plus complexe… heu… l’électronique, la chimie, ou tout autre domaine industriel ou les brevets sont protégés… 20 ans. Vive la musique alors !
Ouaip. J’ai un P3-800 avec une AWE32 et une 7600GT AGP, sous Win98SE. C’est quand DOSBOX ne me convient pas ou que je veux jouer à star wars racer ou magic carpet. Autrement, l’ISA est conservé car bien que le connecteur ait disparu depuis bien longtemps, les périphériques série, parallèle, clavier et souris PS2 sont encore “connectés” à ce bus, même si d’un point de vue électronique c’est de l’émulation faite avec des composants plus modernes.
Bienvenu au club ! J’ai une AWE CT2760 increvable et tellement mieux foutue que les cartes son software d’aujourd’hui… et puis en plus j’ai aussi ce genre de chose…
Donc l’ISA es loin d’être mort pour moi, il recèle de nombreuses surprise au niveau hardware.
Le
08/10/2014 à
09h
28
cyrano2 a écrit :
Oui, c’est tout à fait possible. Mais je ne crois pas qu’il existe d’outils en ligne de commande libre qui utilise les gpu. Coder pour les gpu est complexe, et il est très difficile de faire un code qui marche partout.
OK c’est bon à savoir, ça évoluera peu être dans les années à venir avec des outils plus standards. En tout cas je l’espère. Peut être quand certaines fonctionnalitées des GPU seront plus ouvertes qui sait…
Le
07/10/2014 à
15h
40
Une question que je me pose, niveau perf avec une Debian (par exemple) sans GUI; Y a t’il moyen d’utilisé le GPU pour des tache Web type transformation dynamique d’image, compression… ?
On savait depuis des années que l’amélioration de l’aspect visuel demande une puissance plus qu’exponentiel pour qu’elle soit remarquable (on le voit souvent avec le même modèle avec un nombre de polygone croissant ). J’ai vu que certain parle de photo-réalisme, bon déjà, qu’est ce qu’il entends par photo réalisme ? mais surtout, pour améliorer très nettement la qualité des effets de lumière, il faudrait changer de méthode de calcule et passer à du vrai Raytracing.
Tout a fait, ou utiliser un hard spécifique à un type d’affichage quitte à se limiter sur autre chose… c’était la spécialité des consoles avant qu’elle ne passe au tout généraliste.
Le
08/10/2014 à
08h
14
Athropos a écrit :
En général, c’est plutôt les PCistes qui se touchent la nouille en parlant de la supériorité graphique de leur plate-forme.
C’est un produit officiel Nintendo bah dis donc ! Merci !
Le
07/10/2014 à
13h
36
Kenshin83 a écrit :
Au final la wiimote n’était pas hyper adaptée, le gamepad ne le sera pas, le controller pro non plus, et les gens qui s’étaient débarrassés de leur GC (drôle d’idée certes), se retrouvent un peu couillonés à de devoir racheter un pad et un accessoire grotesque à l’ère du sans fil…
Bah pas tant que ca, le sans fils implique quand même un lag certain.
Le
07/10/2014 à
12h
48
Un autre bundle intégrera quant à lui un adaptateur permettant de relier une manette de GameCube sur la Wii U.
Éh éh, increvable ce pad, il serait peu être temps que Nintendo en comemrcialise de nouveaux non ?
On notera que le conseil en cause a poursuivi sur son compte Facebook ses marques d’attention, partageant une photo titrée « si toi aussi tu en as marre que l’Europe critique sans cesse Israël », 12 jours après cet arrêt.
Je sais pas expérience que beaucoup de personnes appuient sur le bouton
power, et vont faire autre chose le temps que le système se charge. La
clé peu avoir détecté qu’elle était énumérée par le bios et proposer une
partition bootable, s’énumérer comme clavier et appuyer sur F12, faire
deux fois flèche bas puis “enter”… et si ça ne marche pas cette fois,
on mémorise et on recommence une autre séquence le prochain boot.
Oui, c’est en théorie possible, mais avec du matos plus spécifique (électroniquement) qu’une clef basique quand même. non ?
Le
06/10/2014 à
10h
26
brice.wernet a écrit :
La nouveauté c’est de l’injecter après et de transformer du matériel banal en mouchard.
Là où j’ai un doute c’est dans la suite de l’opération soit l’exécution du programme. Cacher un soft dans le micro-programme qui contrôle la clef USB oui, mais exécuter ce soft automatiquement j’ai un doute en sachant que l’OS n’accède qu’a la partie stockage et encore avec un couche d’abstraction.
Ou alors le contrôleur de la clef USB upload un soft sur la NAND qui est exécuté ensuite. La encore ca va dépendre de l’OS
brice.wernet a écrit :
Par contre, cela permettrait de masquer du contenu sur une clé USB, affichable uniquement avec le bon bout de code.
Par contre ça, ça existe déjà dans la pub. Certaines boites de com sont spécialisées dans la diffusion de clefs de promo avec un contenu figé et/ou caché selon la machine sur laquelle tu utilise la clef. La routine d’affichage et de formatage est inscrite dans le micro-contrôleur de la clef. A un niveau bien plus bas que ce que l’OS peut contrôler.
Le
06/10/2014 à
09h
13
On enfonce un peu des portes ouvertes, puisque le fait d’intégrer des malware via un firmware n’est pas nouveau. C’est même quasiment une évidence pour qui voudrait rester discret. Ça existe déjà via des clés USB promotionnelles dont une partie du contenu est figé dans le firmware et /ou dans une partie de la NAND en lecture seule et s’auto exécute dès l’insertion de la clef.
C’était déjà le cas d’un virus nommé GenP (ouB) qui se calait sur la piste 0 d’une disquette pour infecter ensuite le système. Étant donné que matériellement le lecteur lisait forcément cette piste, le virus était lu et injecté ensuite dans n’importe quel secteur de démarrage.
Sans parlé de certains autres virus qui infectent les BIOS.
Design bien ergonomie nettement moins fonctionnelle qu’avant ! Je préférais largement la présentation des news de façon chronologique comme c’était le cas avant. La je trouve ça bordélique.
Ne vous emballez pas trop vite les mectons ! Il se pourrait bien (voir même très probablement) que Blizzard supprime le mode LAN de cette version HD de War3. A ce niveau je préfère rester largement sur l’ancienne version, qui elle, propose un LAN local.
Donc, pour ma part je suis plutôt mitigé par cette fausse bonne nouvelle.
1810 commentaires
[MàJ] Anonabox : polémique autour du routeur Tor lancé sur Kickstarter
15/10/2014
Le 15/10/2014 à 07h 34
En espérant que PCI " /> et tout autres sites utilisant des services similaire à cloudflare puisse passer via ce router. Parce que ce moment c’est pas le joie avec TOR. TOR+cloudflare sur goggle vous donnera l’état de la situation. Sans parler des sites qui empêchent toute navigation s’ils détectent que vous utilisez TOR. Bref, des salopios quoi.
Il y a quinze ans, la Dreamcast débarquait en Europe
14/10/2014
Le 14/10/2014 à 15h 25
Le 14/10/2014 à 13h 29
Un lien un peu plus parlant :http://dreamcast-news.blogspot.fr/2014/05/gdemu-v50-la-review.html
Le 14/10/2014 à 13h 22
Sa manette était également la première à disposer de gâchettes analogiques
Non c’était déja le cas sur Saturn.
Chsoe intéressante, des fans ont créé un périphérique qui remplace le bloc GD-ROM pour adjoindre a la place un disque dur afin d’y stocker les jeux et de palier aux nombreux problèmes de lecture qui apparaissent avec le temps : Facebook
Revue de presse : The Evil Within autopsié
14/10/2014
Le 14/10/2014 à 13h 07
Le 14/10/2014 à 12h 39
Le 14/10/2014 à 12h 32
Le 14/10/2014 à 10h 30
Ainsi, plusieurs d’entre eux ont trouvé dommage le manque d’indications
données par le jeu, augmentant drastiquement la difficulté. Ajoutez à
cela quelques passages « die and retry » sans aucune subtilité, et
l’ensemble peut devenir rapidement frustrant.
Oh les pauvres chochottes, ils n’avaient qu’a commencer le jeu vidéo dans les années 80, au moins là ils sauraient ce qu’est un jeu difficile et frustrant.
Watch_Dogs sur Wii U profitera du Gamepad
14/10/2014
Le 14/10/2014 à 12h 16
Le 14/10/2014 à 10h 26
Netflix fonctionne désormais sous Ubuntu 12.04 LTS et 14.04
10/10/2014
Le 14/10/2014 à 07h 44
Comment ça se passe a niveau du flux audio sur Ubuntu ? Je veux dire lorsque l’on passe par du SPDIf ou du HDMI pour aller sur un ampli HC. Comment l’OS traite le flux audio en bitstream ou il fait un traitement ?
Selon Snowden, il faut éviter Dropbox, Facebook et Google
13/10/2014
Le 14/10/2014 à 07h 22
Le 13/10/2014 à 15h 43
Le 13/10/2014 à 12h 40
Le 13/10/2014 à 12h 18
Je reste persuadé que ce mec n’est qu’un homme de paille destiné à faire peur aux gens concernant Internet. Sont histoire, la mise en scène tout autour est beaucoup trop abracadabrante pour que ce soit vrai… et maintenant un film ! La belle affaire !
Ces pas les ricain qui ont utilisés le cinéma durant la 2nd guerre mondiale pour amadouer les français et éviter qu’ils se méfient trop des soldats US ?… à méditer.
Netflix publie les débits moyens des cinq principaux FAI français
13/10/2014
Le 13/10/2014 à 15h 24
Le 13/10/2014 à 15h 22
Il est basé sur quoi ce résultat ? Parce que Free dernier je veux bien,
c’est vrai que sur certains site c’est pas la joie, mais sur les
protocole P2P par contre c’est bien plus élever que les autres. Donc c’est quoi, priorité de flux ?
Dropbox : suite à un bug, certains fichiers ont été effacés
13/10/2014
Le 13/10/2014 à 12h 44
Effectivement il faut éviter Dropbox. " />
PhysX : l’accélération matérielle via le GPU débarque sous Linux
13/10/2014
Le 13/10/2014 à 12h 31
Revue de presse : Bayonetta 2 crève l’écran
13/10/2014
Le 13/10/2014 à 12h 07
Nintendo dans une news et les troll arrive par paquets 12 ! " />
La définition d’Assassin’s Creed Unity sur PS4 et Xbox One fait débat
07/10/2014
Le 13/10/2014 à 10h 38
La nouvelle version de PCi c’est bien, mais l’édition des commentaires est toujours aussi limitée. Je fais l’effort de me relire et au final je n’ai pas le temps de corriger mes fautes. Faites quelque chose la dessus c’est vraiment pénible !
Le 13/10/2014 à 10h 24
Le 08/10/2014 à 10h 06
Le 08/10/2014 à 09h 15
Le 07/10/2014 à 15h 49
Le 07/10/2014 à 15h 00
Eh oui c’est ca de concevoir des consoles avec une archi PC pas du tout adaptée à ce mode jeu. Une console c’est un système proprio c’est la base du concept de la console de jeu. C’est pas un système basé sur un standard c’est l’éxact oposé du standard… mais bon quand les dev prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll mais à peine…)
le 1080p n’est pas une définition mythique ou parfaite » et que « La fluidité est significativement plus importante dans l’expérience de jeu que la définition ».
C’est marant Nintendo tebnanit les mêmes propos… il y a 10 ans de cela… pendant que MS je la jouait à qui a la plus grosse avec la 1ère XBox… le monde du JV j’vous jure….
Final Fantasy XIII : la version PC limitée au 720p
10/10/2014
Le 13/10/2014 à 08h 45
Les 60 Go que pèsent Final Fantasy XIII ne sont donc pas dus à la lourdeur de ses textures, mais principalement aux nombreuses cinématiques
qui accompagnent l’histoire, ainsi qu’aux fichiers audio pour les voix
en anglais et en japonais, les deux langues étant finalement
disponibles.
Ouaip, depuis que les dev ont décidé que la musique en séquence c’était de la préhistoire, la taille des jeux a explosée. Streaming et compagnie c’est certes plus pratique à dévelloper mais qu’est-ce que ca prend de la place ! Alors que l’on peut obtenir le même résultat avec, et je suis gentil, 10 fois moins de place pour la taille de l’audio.
Mais bon, l’optimisation est une vertu qui se perd de plus en plus dans le jeu vidéo…
Après HP et eBay, Symantec annonce officiellement qu’il va se scinder en deux
10/10/2014
Le 13/10/2014 à 08h 39
70 ans de protection pour les producteurs, chanteurs et musiciens
07/10/2014
Le 08/10/2014 à 13h 01
Le 08/10/2014 à 09h 48
Le 07/10/2014 à 15h 35
Le 07/10/2014 à 15h 28
C’est plus rentable de bosser dans le showbiz que dans par exemple… un domaine plus complexe… heu… l’électronique, la chimie, ou tout autre domaine industriel ou les brevets sont protégés… 20 ans. Vive la musique alors !
Le kernel Linux 3.17 apporte de nombreuses améliorations
07/10/2014
Le 08/10/2014 à 09h 33
Le 08/10/2014 à 09h 28
Le 07/10/2014 à 15h 40
Une question que je me pose, niveau perf avec une Debian (par exemple) sans GUI; Y a t’il moyen d’utilisé le GPU pour des tache Web type transformation dynamique d’image, compression… ?
Crytek : il est de plus en plus dur d’épater les joueurs avec des graphismes
08/10/2014
Le 08/10/2014 à 08h 42
Le 08/10/2014 à 08h 14
Super Smash Bros Wii U : Nintendo dévoile enfin une date
07/10/2014
Le 07/10/2014 à 15h 24
Le 07/10/2014 à 13h 36
Le 07/10/2014 à 12h 48
Un autre bundle intégrera quant à lui un adaptateur permettant de relier une manette de GameCube sur la Wii U.
Éh éh, increvable ce pad, il serait peu être temps que Nintendo en comemrcialise de nouveaux non ?
[MàJ] Droit de réponse du juge récusé pour ses propos sur Facebook
08/12/2014
Le 07/10/2014 à 12h 35
On notera que le conseil en cause a poursuivi sur son compte Facebook ses marques d’attention, partageant une photo titrée « si toi aussi tu en as marre que l’Europe critique sans cesse Israël », 12 jours après cet arrêt.
Ah ah c’est une blague !
Plex débarque sur les consoles Xbox 360 et One
07/10/2014
Le 07/10/2014 à 09h 27
Le support de la 360 est encore très actif chez MS !
Âpres débats autour du projet de loi sur les œuvres orphelines
07/10/2014
Le 07/10/2014 à 09h 23
C’est quand même du bon sens de diffuser une œuvre au plus grand nombre non ?
Les détails d’une importante faille USB sont désormais publics
04/10/2014
Le 07/10/2014 à 07h 57
OK avec tout c’est du bon sens. Mais :
Je sais pas expérience que beaucoup de personnes appuient sur le bouton
power, et vont faire autre chose le temps que le système se charge. La
clé peu avoir détecté qu’elle était énumérée par le bios et proposer une
partition bootable, s’énumérer comme clavier et appuyer sur F12, faire
deux fois flèche bas puis “enter”… et si ça ne marche pas cette fois,
on mémorise et on recommence une autre séquence le prochain boot.
Oui, c’est en théorie possible, mais avec du matos plus spécifique (électroniquement) qu’une clef basique quand même. non ?
Le 06/10/2014 à 10h 26
Le 06/10/2014 à 09h 13
On enfonce un peu des portes ouvertes, puisque le fait d’intégrer des malware via un firmware n’est pas nouveau. C’est même quasiment une évidence pour qui voudrait rester discret. Ça existe déjà via des clés USB promotionnelles dont une partie du contenu est figé dans le firmware et /ou dans une partie de la NAND en lecture seule et s’auto exécute dès l’insertion de la clef.
C’était déjà le cas d’un virus nommé GenP (ouB) qui se calait sur la piste 0 d’une disquette pour infecter ensuite le système. Étant donné que matériellement le lecteur lisait forcément cette piste, le virus était lu et injecté ensuite dans n’importe quel secteur de démarrage.
Sans parlé de certains autres virus qui infectent les BIOS.
Next INpact v6 est en ligne : tout ce qu’il faut savoir !
06/10/2014
Le 06/10/2014 à 12h 11
Design bien ergonomie nettement moins fonctionnelle qu’avant ! Je préférais largement la présentation des news de façon chronologique comme c’était le cas avant. La je trouve ça bordélique.
The Evil Within mettra probablement votre PC à genoux
03/10/2014
Le 03/10/2014 à 14h 27
Sinon ça tourne très bien sur la old gen et ça coute moins cher.
C’est vraiment pour que les personnes qui ont déboursé des tonnes fric dans leur config puissent rentabilisé leur bête…
Sinon, quid de la 360 avec ou sans support de stockage obligatoire (comme GTA) ?
[MàJ] Deux nouveaux thèmes de concertation pour le projet de loi numérique
03/11/2014
Le 03/10/2014 à 14h 23
Une mise à jour de Battle.net laisse entrevoir une version HD de Warcraft III
03/10/2014
Le 03/10/2014 à 13h 32
Ne vous emballez pas trop vite les mectons ! Il se pourrait bien (voir même très probablement) que Blizzard supprime le mode LAN de cette version HD de War3. A ce niveau je préfère rester largement sur l’ancienne version, qui elle, propose un LAN local.
Donc, pour ma part je suis plutôt mitigé par cette fausse bonne nouvelle.