votre avatar

Dr.Wily

est avec nous depuis le 31 octobre 2007 ❤️

1810 commentaires

Le 21/03/2014 à 15h 45







jb a écrit :



Moderniser == faire comme Chrome?







En lisant la new c’est exactement ce que je pensais. Et bientôt FF va peser 400Mo… comme Chrome…


Le 21/03/2014 à 15h 28

Bug !

Le 21/03/2014 à 15h 26







JR_Ewing a écrit :



Mais QUI en fait une psychose ici, à part ceux qui chouinent et crient au scandale que le support s’arrête??? <img data-src=" /> Les autres (dont je fais partie) n’en ont rien à faire et disent que c’est normal que le support s’arrête au bout de 13 ans car XP est un OS dépassé, donc ne retourne pas la situation!







bah je sais pas… toi ? En informatique tu devrais savoir que RIEN à part le matos (et encore) n’est jamais dépassé. Il suffit de le mettre à jour. XP comme n’importe quel soft, et je bien “soft” peut être mis a jour indéfiniment tant que la plateforme matérielle reste la même.



Je ne dis pas qu’il faut mettre XP à jour je dit juste que rien n’est dépassé en matière software. Que dire que c’est un OS dépassé n’est pas le bon terme. Amorti commercialement oui. mais dépassé non tant que c’est mis à jour. D’ailleurs il y aura des extensions de support payantes donc… <img data-src=" />


Le 21/03/2014 à 08h 15







JR_Ewing a écrit :



C’est sûr qu’il fallait absolument que MS continue le support de XP pendant encore 10 ans au minimum pour plaire aux rétrogrades qui refusent de changer d’OS pour pas bousculer leurs petites habitudes, tout ça sous couvert de “pourquoi changer un truc qui marche”, et tant pis si XP est une calamité au niveau sécu! <img data-src=" />







Ça n’a rien avoir avec le fait que XP arrive en fin de fin. C’est juste qu’il ne faut pas pousser mémé non plus avec cette histoire de fin de vie. Je vois encore des machines qui tournent sous DOS ou Win 3.1 et qui se portent très bien malgré leur grand age. C’est sur c’est pour un usage ultra spécifique, moi même je n’utilise plus XP.



Mais en faire une psychose à ce point ça tient du ridicule. Et avec ça toute la clique des geek qui ne pensent qu’a changer d’OS tout les deux jours on atteint la parodie. On se croirait revenu à l’histoire du bug de l’an 2000 !


Le 20/03/2014 à 13h 10

Toujours les mêmes news avec les mêmes commentaires aigris contre XP….



Et s’te conversation sur la durée de vie des OS… on se croirait chez une meute de technophiles qui ne pensent qu’a changer leur dernier gadget juste après l’avoir acheté. <img data-src=" />

Le 21/03/2014 à 08h 10

A quand un module avec entrée analogique pour faire de l’upscale des sources RGB analo sur les TV actuels. Ça, ça serait top !



Parce que là c’est plutôt gadget sans le HDCP…

Le 20/03/2014 à 08h 18







monpci a écrit :



C’est la première fois que je lis une telle hypothèse “Dans l’univers rien n’est impossible”







c’est pas une hypothèse c’est une pratique plus qu’utilisé dans le monde IT en général.



Internet étant ce qu’il est, il est très facile de “faire croire que” parce que le public pense au fond de lui qu’Internet ne restera pas libre. C’est comme si c’était déjà acquis avant même que ça se produise.


Le 19/03/2014 à 16h 51

Pff c’est du bullshit façon peur du gendarme pour faire croire au gens qu’ils sont surveillés partout et tout le temps… désinformation tout ça !

Le 19/03/2014 à 15h 11

Hummmm

Le 19/03/2014 à 14h 58

Pourquoi il m’a fallu 10sec pour lire le titre ? <img data-src=" />

Le 19/03/2014 à 14h 40

Soyons cynique :



“tant qu’il y a un public pour ça…” <img data-src=" />

Le 19/03/2014 à 13h 10







Citan666 a écrit :



Mais en une phrase, je le recommande à tout amateur de J-RPG (poke Dr Wily <img data-src=" />).







Hein ? Qui me parle ? <img data-src=" />


Le 19/03/2014 à 10h 56

SimCity vient de se doter d’une mise à jour que de nombreux joueurs attendent depuis le début. En effet, depuis hier, il est possible de jouer à SimCity tout en étant hors-ligne. Pas de serveurs distants, pas de sauvegardes dans le cloud, juste le titre tel qu’on l’attendait dès le départ.



Bienvenu dans le monde moderne…



Quand je pense que les joueurs acceptent ça…<img data-src=" />

Le 19/03/2014 à 11h 27







octavarium a écrit :



J’ai regardé la page que tu as linké et au final en allant voir les offres fibre Orange j’arrive sur cette page qui dit bien 200mbps en dl et 50 mbps en up :http://www.ariase.com/fr/orange/livebox-play-fibre.html, c’est bizarre…à moins que ça ne soit pas une offre Orange.







Si c’est bien une offre Orange, mais elle n’est pas nationale. C’est spécifique au département qui est l’un des plus fibré de France (en proportion du nombre d’ha). Avant de poster le lien j’ai effectivement constaté que les offres Orange ne listait pas ce type d’abonnement.



Bon allez je lâche le morceaux <img data-src=" />



Seul les départements par lesquels passe la ligne LGV disposent de cet abonnement. Donc, c’est marginal par rapport à l’offre Numéricable, mais cette dernière fait plutôt pitié quand on vois qu’il est possible d’obtenir une excellente connexion en vraie fibre et en symétrique pour 40€… donc bon Numéricable hein…<img data-src=" />


Le 19/03/2014 à 10h 17







octavarium a écrit :



C’est bizarre Orange n’a pas d’offre 200mbps symétrique si ce n’est pour les pros donc je ne vois pas de quelle offre tu parles.







Bah c’est pourtant la cas. Ville de Louvigné dans le 53 vérifies par toi même. Je suis allé chez la personne qui est un ami un câble fibre (mono brin arrive chez lui). Il est en 200Mb/s symétrique en half duplex et c’est un abonnement grand public a +/- 40€ par mois.


Le 19/03/2014 à 08h 36

20Mb/s ? Mais c’est ridicule ! Les client Orange FFTH dans un petit patelin prèt de chez moi de quoi… 1000Ha on du 200Mb/s symétrique avec la fibre qui arrive chez eux (et non pas un câble coax).



C’est quoi cette offre en carton ?

Le 19/03/2014 à 10h 52







garvek a écrit :



Je vois de moins en moins de différence entre la gauche et la droite, c’est effarant …







Si, en période électorale ils ne sont pas d’accord… une fois l’un ou l’autre élu ils font la même chose… c’est à dire pas de bonnes choses visiblement. <img data-src=" />


Le 19/03/2014 à 10h 32

Quand le PS s’opposait au filtrage sans juge



Moi c’est ça que je trouve énervant. C’est malhonnête et tout le monde laisse passé…

Le 18/03/2014 à 10h 55







Commentaire_supprime a écrit :



Je pose la question de la pertinence du concept, qui ne m’apparaît pas être évidente.







Bah même Apple avec Bootcamp a permis l’installation de Windows sur ses machines. Là c’est pas très différent, et on en fait tout un plat alors que ça donne plus de liberté de choix… vivont cloitré, vivons heureux ! <img data-src=" />







Khalev a écrit :



Alors t’imagines sur les téléphones où ça choque encore moins de monde qu’il faille utiliser des trous de sécurité pour “rooter” son téléphone.







C’est vrai que présenté comme ça, on tient le top de l’absurdité. Bon en même temps les tablettes, pour la plupart, ont besoin d’un OS bien spécifique en ROM, il est développé pour un certain type de matos (à la manière de Windows Embedded). Contrairement a Windows qui squatte ou il veut.


Le 18/03/2014 à 10h 36

Ils sont étranges les commentaires ici. Venant de personnes qui connaissent un minimum le monde de l’informatique, je m’attendais a des remarques incitant au choix de l’OS sur les tablette et Smartphone. Surtout venant de personnes qui pour la plupart ne verraient pas un PC cantonné à un seul OS.



Au lieu de ça vous vous ralliez à la cause de MS et Google… là je capte pas trop… <img data-src=" />

Le 18/03/2014 à 10h 12

Je trouve ce concept très bon. Tout comme le PC on dissocie le hard et le soft laissant le choix à l’utilisateur de changer comme il le veut. D’autre part le fait d’interdire la commercialisation de tels produits, bah c’est le syndrome Apple qui s’est étendu à MS et Google… tant pis pour eux.



Dommage qu’Asus est cédé…

Le 17/03/2014 à 16h 19







Spacewolf1 a écrit :



Raté :p :p :p

La NES vendu dans notre hexagone (les modèles FRA) était justement le seul modèle de NES/Famicom équipé d’une sortie RGB à l’époque <img data-src=" /> Les modèles français disposaient pour cela d’une puce supplémentaire “PAL-to-RGB chip”… merci la France et son format SECAM :p







non !


Le 12/03/2014 à 11h 28







Gericoz a écrit :



Pour ceux qui comparent avec Google cela n’a rien à voir, c’est une recherche neutre (enfin quand même basée sur vos habitude que google récupère si vous utilisez un compte google).

Ici son site regroupe des recherches ciblées sur du 100% illégale, c’est différent car il y a déjà un premier filtre effectué par le responsable du site consciemment.



C’est comme comparer un annuaire téléphonique avec un gars qui fournis un carnet de contacte avec la liste des numéros de téléphone de personne proposant des services illicites.









Tu ne peux pas dire ça ! La musique n’est pas taggé comme illégale. Ce sont des utilisateurs qui upload de la musique ça peut être leur composition comme celles d’un autre. Le moteur, spécialisé dans une recherche bien précise, il ne va pas rechercher QUE les morceaux protégés. Aucun moteur ne fait ça a moins d’être clairement développé pour, et dans ce cas, ça concerne tout une chaine de l’hébergement à la recherche.



Pour qu’un moteur soit en cause il fraudais qu’il effectue une recherche sur une plateforme n’ayant que des contenus illégaux. Or ce n’est pas le cas ici. C’est comme si tu disais qu’un client torrent ou Emule est illégal parce que dans ce qu’il propose il y a des choses “illégales”. Or ce n’est qu’un outil.



Tu n’interdit pas les couteaux juste parce qu’on pourrait éventuellement occire quelqu’un avec non ? <img data-src=" />


Le 12/03/2014 à 11h 02







curuba a écrit :



Hmmm ok



Mais parfois, lorsqu’on fait certaines recherches, on tombe sur des messages du type “ce lien est censuré pour droits d’auteurs”. Ca correspond à une initiative de google ? :o







Une initiative non, mais avec certains “partenaires” Google est plus réactif qu’avec d’autres. Si une grosse Major ou un lobby demande a Google de retirer le résultat d’une recherche, généralement ils obéissent. Mais si c’est un petit ou tant qu’il n’y a aucune demande ils laisse passer tout les résultats.



Ce qu’il y a de discutable dans l’histoire, c’est que l’on attaque les moteurs de recherches parce qu’ils fournissent la source de l’information. Mais il n’en sont pas les auteurs ni les instigateurs. Du coup, on cherche à couper les internautes de cette information. c’est une forme de censure. c’est à dire masquer un contenu existant pour qu’il soit le moins accessible possible.



On y accorde pas trop d’importance parce que ce n’est “que de la musique” mais ce principe peut s’appliquer à n’importe quoi. Le principe même de vouloir empêcher l’information de circuler est une forme de censure.


Le 12/03/2014 à 10h 45







Kakuro456 a écrit :



Bref, je sais que je fais un truc pas très net, je voudrais en plus me faire un peu de pognon au passage, et maintenant je mets tout sur le dos de l’Ukrainien, je suis une victime.







La peur du gendarme ça marche assez bien généralement.


Le 12/03/2014 à 10h 41







curuba a écrit :



Justement, quelle est la responsabilité de Google vis-à-vis des liens “illégaux” ? Je ne me rappelle plus s’ils ont obligation de supprimer les liens lorsqu’on leur signale ou non, par exemple. Mais il a peut être déjà été acté par la justice que, bien que moteur de recherche, ils sont responsables.

Auquel cas, notre guss est dans la mouise !







Google n’a aucune responsabilité. Ces sites existent sans Google ou n’importe quel autre moteur de recherche. Les Google et compagnie font une recherche neutre du contenu selon des critères de “popularité”. Ils n’ont pas la responsabilité de choisir si tel ou tel contenu est bon ou pas pour nous. Et cela autant en matière de téléchargement que de censure.


Le 12/03/2014 à 10h 37







Melchizedech_06 a écrit :



Si on suit le même raisonnement, sachant que via google on peut obtenir n’importe quel fichier de manière illégale, il faudrait aussi faire un procès à Google.







Bien sur ! Sauf que Google a de quoi se défendre, pas ce Lycéen. C’est ça qui est dégelasse dans ces histoires. Cette société qui ne s’attaque qu’aux faibles de peur de se prendre une branlé par les plus forts. Et encore, c’est même pas l’auteur du site… tout ça pour de la… musique… vraiment ça pu !


Le 12/03/2014 à 10h 30

Je ce que trouve fou dans ces histoires c’est que ce sont juste des moteurs de recherche. Ils n’hébergent pas les mp3. On peut aller loin de cette façon et interdire n’importe quelle recherche qui dérange…

Le 12/03/2014 à 09h 55







fraoch a écrit :



Ok. Merci pour ce post, instructif et interessant. Je ne developpais pas a l’epoque et n’en ai gardé que de vagues souvenirs lol.







T’inquiètes, les dèv de l’époque ne veulent pas non plus revenir en arrière. Mettre les mains dans le cambouis ne les a pas trop enchanté apparemment. La plupart a été traumatisé de coder au plus proche du matos. <img data-src=" />


Le 12/03/2014 à 09h 06







Emralegna a écrit :



Il y a un moyen d’être sûr que la carte son dédiée est vraiment utilisée du coup ?







Sur les anciennes audigy c’est partiel puisque, la puce audio étant un DSP matériel, Creative n’a pas eu d’autre choix que de développer un pilote qui prenne en charge cette puce. Mais le travail sur l’audio, notament dans les jeux utilisant l’API Directx se fait en soft quoi qu’il arrive. C’est aussi le cas sur les SBLive qui utilisent la puce E-Mu.



Les nouvelles carte Audigy et X-Fi fonctionnent avec un DAC soft. Seule la partie E/S et conversion numérique-analogique est améliorée pour avoir un meilleur rapport signal/bruit. Mais au niveau du traitement audio elles fonctionnent de la même façon qu’une carte son intégré.



Pour la petite histoire, cette gestion du tout software a permis à Creative de brider des cartes via les drivers et de les vendre moins cher. PCi avait fait une new là dessus


Le 11/03/2014 à 17h 05







garvek a écrit :



Mais quid des cartes spécialisées genre Audigy ? A une époque il y avait un DSP dedans, c’est encore le cas actuellement, ou ce sont juste des DAC avec des E/S un peu améliorées ?







Alors en fait au début de la sortie de Vista pas mal de cartes sons sont devenues obsolètes puisque Vista ne traite plus du tout le son de manière matérielle, mais uniquement logicielle (ça donne plus de contrôle sur les flux audio). les premières Audigy basées sur des DSP audio ont donc soufferts de ce passage un peu brutal du tout hard au tout soft (non ce n’est pas sale <img data-src=" /> ).



Aujourd’hui ces cartes haut de gamme ont pour la majorité, et comme tu le dis : “des DAC avec des E/S un peu améliorées”. Creative Labs utilise même des puces Realtek rebadgées c’est pour dire…



Pour exemple, je peux lire un MP3 de 256kbit sur un 286 avec une SB16. Aucun soucis.


Le 11/03/2014 à 16h 39







fraoch a écrit :



heuu, non a l’epoque ton processeur etait requis pour faire transiter les informations sur le bus justement (en schematisant), et le ISA etait bien gourmand



et aujourdhui, la couche soft en plus ne sert juste qu’a eviter de coder en assembleur ou en bas niveau.



Au pire des cas, tu as un chipset audio sur la carte mere qui gere le son.







En fait, c’est pas ça. Le bus ISA n’est pas gourmand mais vulgairement parlant “lent” (8Mhz parfois 16…). Sans parler des CPU de l’époque. La philosophie des PC de l’époque c’était :



“comme on a un CPU peu puissant on va créer des cartes d’extensions autonome qui prennent en charge à 100% la tache pour laquelle elles sont dédié.”



Toutes les cartes son étaient équipées d’un codec matériel, d’un DAC, d’un DSP audio et d’un synthé. Le codec décodait le flux audio, le DSP permettait de décoder certains formats (ADPCM ou le PCM par exemple) et le synthé jouait de la musique en séquence. Toutes ces opérations ne demandaient pratiquement rien au CPU. Puisque tout le rendu du décodage à la restitution était effectué par la carte.



Ça été la même philosophie avec les carte 3DFx qui dédiaient la totalité du rendu 3D par la carte et non le processeur principal. Ce qui a permis à de vieux PC d’afficher des jeux 3D de très bonne facture.



Le transit des donnés se faisait via le DMA, sans passer par le CPU. La carte son avait un accès directe à la RAM laissant la totalité du traitement audio à la carte son et non au CPU.



Aujourd’hui les cartes mère sont équipées de soft DAC. C’est à dire un simple convertisseur numérique analogique qui va retranscrire en analogique le taf audio effectué par le CPU. C’est pour cela aujourd’hui que les drivers audio se nommes CODEC. Auparavant ce codec était matériel et censé libérer le CPU du traitement audio. Aujourd’hui il est logiciel a 100%. (comme la différence entre un modem et un soft modem).



Preuve en est, le traitement audio est aujourd’hui en majorité effectué par la carte… graphique lorsque la sortie est en HDMI (sauf pour les anciennes CG avec passthrough spdif).



Effectivement les API évitent de se palucher de l’assembleur, mais le taf est aujourd’hui effectuer par le CPU et non plus une puce dédiée. Les Realtek, Sigmatel et autre DAC ADI ne son pas des cartes son. Ce sont des DAC audio drivé totalement en soft. Il ne font que transformer un signal numérique en analogique ou rediriger les flux audio selon les entrées / sorties analogique.


Le 11/03/2014 à 15h 44

De toute façon ils n’avaient qu’a gardé les cartes sons des années 90 au moins elles c’était 0% d’utilisation CPU… et sur bus ISA… c’est ça de tout faire en soft aujourd’hui…

Le 11/03/2014 à 15h 14

Et oui les dev ne jurent plus que par le streaming audio… il ont oublié ce que c’était de développer des moteurs audio en séquence qui prennent 100 fois moins de place… trop dur pour eux !

Le 12/03/2014 à 09h 51







chaton51 a écrit :



un monde rempli d’abrutis débilisés (idiocratie) … ca va etre trop bien !







Ahhh Idiocracy quel film visionnaire ! J’en parlai dans un autre commentaire sur… le j-rpg… comme quoi, sur pas mal de thèmes on s’en rapproche de plus en plus <img data-src=" />


Le 12/03/2014 à 09h 12







Liam a écrit :



Meuh non. L’immense majorité des cartes sons Creative ont un DSP capable de réaliser du traitement de signal en hardware, sans passer par le CPU. C’était le cas de la quasi-totalité de la gamme Live/Audigy, de la plupart des X-fi, des Recon3D et des Sound Blaster Z.



Le DSP des Live/Audigy est un modèle emu10k (10k1 sur les Live et les premières audigy, 10k2 sur les premières Audigy 2, 10K2.5 sur les dernières Audigy 2), celui des X-Fi est un Emu20k. Même les cartes d’entrée de gamme de ces séries sont en général équipées du DSP.



Par exemple, la Sound Blaster Audigy Rx, équipée d’un emu10k2.5, se trouve un peu partout pour 68€ TTC, ce qui l’amène certes à 30€ de plus que la carte son présentée dans cette news, mais on est bien loin des 500€.

Avec son vénérable ancêtre, l’Audigy2ZS, que j’ai achetée 35€ d’occase sur ebay, on peut sans problème traiter du son en hardware et en temps réel : EQ, compresseur multibande, downmixing ou upmixing, décodage AC3 hardware… les possibilités sont là (bon ptèt pas tout en même temps) et ne consomment pas un cycle de CPU !







Ah bah merci tu me coupes l’herbe sous le pied. J’aurais aussi cité les SB16 en ISA.



Cela dit, la gestion matériel ça n’existe quasiment plus pour le PC aujourd’hui. Sauf cartes très spécifiques. Même les cartes son “haut de gamme” n’ont qu’un DAC soft.


Le 11/03/2014 à 16h 44







al_bebert a écrit :



heuu n’importe quoi non ! on parle bien de la sortie Analogique la alors pourquoi parler de l’hdmi ??



c’est bien beau l’hdmi mais tu le branche sur quoi ? un ampli qui fait 100 fois la taille d’un rPi et 150 fois son prix ?







pas du tout, en tant que media center les TV avec prise hdmi décodent très bien tout les flux PCM via l’hdmi.



Comme je le dis aucune différence entre le jack audio de cette carte et celui du rPI. Le seul avantage et je le répète c’est seulement si le traitement audio est effectué par la carte et non plus par l’ARM. Sinon aucun intérêt.


Le 11/03/2014 à 16h 13

Si la est autonome et permet d’économiser des ressources CPU c’est bien, sinon ça sert strictement à rien.



« la qualité audio de la sortie jack de 3,5 mm est reconnue universellement comme étant d’un niveau de qualité “acceptable”, sans plus ».



N’importe quoi ! Le son sort par l’HDMI par défaut. C’est surtout que tout le traitement audio est effectué par le CPU…

Le 11/03/2014 à 15h 03







fraoch a écrit :



oui, mais d’un point de vue fonctionnelle, et au bout du compte c’est la meme chose.

Attention, je suis d’accord pour dire que la latence c’est chiant, mais si d’un point de vu humain, on y voit pas de difference ….. (je parle dans le futur, actuellement, c’est pas top ca)







Non justement, le brevet initial décrivant le concept du jeu vidéo mentionnait que le périphérique doit modifier et interagir directement avec l’afficheur. Il ne doit pas y avoir d’intermédiaire entre les deux.



C’est ce que faisait les consoles de Pong. Elle se servaient des spécificités du CRT pour afficher les barres et le carré blanc. Il n’y avait pas une once de code informatique. Juste un signal analogique. Le temps de réponse était immédiat (l’ordre du nanoseconde). De la même facon que ça



Ok on est plus dans les années 70 et le matos à bien changé. Toutefois cela n’empêche pas, humainement parlant, de ne pas arnaquer le joueur en lui faisant croire à de l’interactivité.



Dans le jeu vidéo il a toujours été monnaie courante d’utiliser le trompe l’œil pour certaines méthodes d’affichage. Par contre, jamais les méthodes d’input n’ont été “simulé”.



C’est assez complexe à explique dans un simple commentaire. Mais concrètement tu fais “croire que” pour des graphismes, mais pas pour la réactivité. Parce que du coup c’est plus vraiment du jeu vidéo, c’est du pseudo jeu vidéo.



Il suffit de voir la différence de réactivité qu’il y a entre par exemple, un Soul Calibur III sur PS2 très rapide et réactif et entre le IV sur PS360 qui pour le coup est mou du genou.



Pour résumé ma pensé, je trouve extrêmement malhonnête de la part des studios et des constructeurs de jouer sur le fait de “on y voit pas de différence parce qu’ils ne sont plus capable de faire des machines réactives.



va donc tenté de jouer a Mario Bros avec une la latence estimé à 4ms de la 360, tu verras si on vois pas la différence.


Le 11/03/2014 à 14h 39







fraoch a écrit :



oui enfin, ca revient au meme que ton pc

ce qui sort du port HDMI c’est de la video….

donc que ce soit ton pc ou un serveur distant qui te renvois la video, c’est pareil







Pardonne moi mais c’est un peu simplet comme analogie.



Ce qui sort d’une PS4, d’une SNES ou d’une Megadrive c’est toujours un signal vidéo. Sauf que le traitement graphique, tes input en gros tout ce qui fait d’une console ce quelle est, c’est à dire réactive, est généré par la console. Ton input ne va pas se perdre dans des 10ènes de router pour finalement signifier aux serveurs qu’il faut bouger et ensuite renvoyé l’info.



Un film interactif c’est une vidéo qui réagi en fonction de tes commandes. La différence fondamentale entre du film interactif et du temps réel est la latence.



Au bout d’un moment quand cette latence dépasse un certain stade tes input ne modifient plus directement l’affichage mais passent par des couchent logicielles supplémentaires qui vont ensuite commander l’affichage.



Il y a quand même une différence entre :





  • appuyé sur un bouton –&gt; modifier le traitement graphique –&gt; résultat a l’écran



  • appuyé sur un bouton –&gt; l’envoyé aux serveurs —&gt; modifier le traitement graphique —&gt; renvoyé le flux vidéo –&gt; résulta à l’écran



    Électroniquement parlant on est très loin de l’immédiat avec le cloud gaming. Question latence, on va pas faire des jeux qui demandent un timing précis. Ou alors c’est que l’exigence des joueurs a bien régressée.


Le 11/03/2014 à 12h 55







sniperdc a écrit :



<img data-src=" /> Le Cloud Gaming du film interactif ??







Bah ouai, si le jeu auquel tu joue se rend sur une plateforme déporté, tu ne recois donc qu’un simple flux vidéo sur ton “terminal” de jeu. J’appel ça un film interactif moi.



En comparaison au temps de réponse input / écran.


Le 11/03/2014 à 08h 40







sniperdc a écrit :



OMG sa sent la carotte sur console next gen <img data-src=" />



Pensez-vous que SONY et Microsoft devrait utiliser le Cloud pour pré calculé le rendu des scènes 3D ?







A ce moment ce n’est plus du jeu vidéo, c’est du film interactif… adieu temps réel… Mais bon vu le niveau intellectuel des joueurs ils ne feront pas la différence de toute façon… <img data-src=" />


Le 11/03/2014 à 08h 32

Eh eh au début on arnaque sur les graphismes et dans un futur proche on vous arnaquera sur l’interactivité et l’input. Bienvenu dans le futur du jeu vidéo…

Le 11/03/2014 à 14h 46







blackdream a écrit :



9ms, sérieusement ? <img data-src=" />







Quelques infos ici


Le 11/03/2014 à 12h 52

Pour remédier à cela, Lucas Assis s’est appuyé sur un simple filtre, ainsi qu’un émulateur (vJoy) simulant la manette. Enfin, xbox360ce est utilisé afin d’assurer la compatibilité avec le PC.



Et heu… ça passe par combien de couches logiciels avant que votre input ne produise un effet sur l’écran ? <img data-src=" />



Déjà que la XBox One c’est 9ms de base… alors là j’ose même pas imaginer…

Le 10/03/2014 à 11h 07







WereWindle a écrit :



Sachant que la politique actuelle se résume à de la com’, c’est très probable en effet. <img data-src=" />

(ça rappelle un peu DSK en moins trash : le mec qui devient un peu trop visible et monte dans les sondage alors même qu’il n’est pas encore officiellement candidat. Et BIM ! un petit scandale qui tombe à point nommé)











Reznor26 a écrit :



En tous cas, que la recherche soit de décrédibiliser Sarkozy, ou de désespérer le peuple sur la politique, tout va dans le même sens : le perdant c’est l’UMP, le gagnant le FN, et celui qui profite des dégâts le PS.[ /complot ] <img data-src=" />







A mon avis c’est tout le contraire, c’est plutôt pour renforcer la notoriété de sarko. La communication est très habile, on fait croire à une fuite pour valider l’authenticité de l’enregistrement qui démontre un vrai-faux parlé de l’ex président. Ça le rapproche des “vrais gens”. Au final on ne lui reprochera pas ses propos.



Le Petit Journal a également abordé cette supposition. La question c’est surtout : comment et pourquoi cet enregistrement s’est retrouvé publique ?


Le 10/03/2014 à 10h 21

Ah mon avis ces enregistrements c’est un montage de communication politique.

Le 10/03/2014 à 08h 29

Assez pertinent l’analyse sur la Wii U.

Le 07/03/2014 à 09h 06







Danytime a écrit :



Ils ont raison de pas lancer Watch Dog à deux jours de Mario Kart 8 sur cette plateforme.







Tout à fait !


Le 06/03/2014 à 13h 29







ragoutoutou a écrit :



Le vrai problème est qu’il y a encore des gens qui ont besoin être convaincus…







Mode mauvaise foi ? Déjà discuté de ça, mais les XP qui ne sont pas connecté au Net ne craignent rien.