votre avatar

Foudge

est avec nous depuis le 2 mai 2005 ❤️

38 commentaires

Le 06/06/2019 à 09h 38

C’est peut-être un réglage générale qui force justement la désactivation de la Vsync dans tous les jeux DX11 ?
L’intérêt serait que l’option est plus accessible et plus compréhensible pour l’utilisateur lambda (elle indique ce pour quoi elle sert, et non pas l’élément technique sur lequel elle agit).
Un peu tiré par les cheveux, mais j’vois pas d’autre explication.

Le 18/05/2017 à 14h 58







Baubourg a écrit :



Y



 a -t-il un codec en cours de développement ou une interface qui       

permettrai d'avoir une sorte de FLAC compressé (pour le gain de place)

et un lecteur portable capable de remoduler ce flux en FLAC par le biais

par exemple de ce que fait LG avec son V20 qui integre un DAC?

Merci








CD, WAV : format non compressé      

FLAC : compression sans perte

MP3 : compressé avec perte





Compresser (sans perte) un truc déjà compressé est inutile, tu ne gagneras rien.

Par contre en Bluetooth, le flux audio (quel qu’il soit) est compressé à la volée, c’est fait avec perte, donc impossible de retrouver le signal d’origine comme pour le MP3. Le V20 utilise peut-être un truc similaire ?



       







Rufh a écrit :



En parlant de cela j’ai entendu (cru luire quelque part) que le CD était en fait à 192 Kb/s quel est donc l’intérêt du 320 Kb/s si la source est du 192 ? ou j’ai rien compris ?






Un CD Audio c'est environ 172ko/s, note bien l'unité ;) En kbps ça donne :  2 pistes * 16 bit * 44100 Hz / 1024 = 1378 kbps.      

Pour un FLAC, c'est à peu près divisé par 2 (variable d'un morceau à l'autre).

Avec un MP3 c'est 4 à 10 fois moins gros (typiquement entre 128 et 320kbps).

Le 23/03/2017 à 13h 24

Ce n’est pas 0.75mm d’épaisseur ?




  "Les roues de Curiosity mesurent 50 centimètres de 		diamètre, et chacune d'elles a été usinée dans un bloc d'aluminium. 		Leur surface, une peau d'aluminium ultra-mince de 0,75 millimètre 		d'épaisseur, est couverte par des nervures en chevrons. Leur conception 		a été compliquée par le fait qu'elles devaient à la fois être capables 		d'exercer une traction suffisante sur le sol martien (rocheux ou 		sableux), tout en restant légères"        






  Ne pas oublier que Curiosity fait au total 900kg (dont 75kg d'instruments), donc chaque kg en plus entraine inévitablement une perte de charge utile, et il a été conçu pour pouvoir avaler au  moins 20  kilomètres, pas 8000km.       






  Ce que j'ai pu lire également :        

 

<< En mai 2013, Matt Heverly , un des pilotes du rover déclarait : "L'usure des roues est prévue. La "peau" de la roue est seulement de 0.75mm d'épaisseur et nous nous attendons à des bosses, des creux, et même quelques trous dûs aux roues en interaction avec les roches"…



La question a été posée lors de la dernière conférence de presse en novembre 2013. La réponse des ingénieurs : c’est un problème “non significatif/bénin”

Mais pourquoi n’avoir pas fait en sorte d’avoir un matériau plus épais, plus résistant ?.. Un participant du forum UMSF a calculé que doubler l’épaisseur de la “peau” des roues du rover (de 0,75 mm à 1,50) augmenterait approximativement la masse de l’ensemble de celles-ci d’un total de 3,6 kg.. Soit par exemple près de deux fois la masse de deux têtes de caméra MastCam…

Bref, la conception des roues du rover repose sur un compromis global. >>

Le 09/11/2016 à 15h 35

Depuis t’es passé à Vivaldi (lui-même basé sur Chromium) ?



C’est vrai qu’avec le temps, le nombre de navigateurs basés sur Chromium donne l’illusion d’un grand choix :/

Le 01/08/2016 à 16h 23







Mustard27 a écrit :



Il regardait un DVD.



Evidemment cela n’est pas recommandé par le fabricant mais à partir du

moment où ce dernier vante partout la qualité de son autopilot, que le

systeme autorise la lecture d’un DVD en roulant, ça devait forcéement

arrive run jour. 





Non le système n’autorise pas la lecture d’un DVD. C’est le conducteur qui a lui-même décidé de regarder

un DVD sur un lecteur portable (un PC portable semble-t-il).

 



  typhoon006 a écrit :



Le problème n’est pas tant l’accident mais de savoir si dans les même conditions l’accident aurait été évité avec un humain au volant. 

Et dans ce cas précis visiblement l’humain aurait freiné et pas percuté le camion  





Ou alors il se serait tué quelques km avant pour une toute autre raison, on en sait strictement rien.

On peut aussi se demander, dans les même conditions mais sans visionnage du DVD, si l’accident aurait eu lieu. Sans doute que non.

Quel était le titre du film visionné ? Y avait-il un avertissement au début du visionnage ? Quelle est la marque du PC portable ? Bref, quels sont les responsabilités de chacun des intervenants ? <img data-src=" />



Pour moi il n’y a pas photo, c’est 100% pour l’homo sapiens sapiens qui était sur le siège conducteur.

Mais cela ne veut pas dire qu’il n’y a pas d’efforts à faire à tous les niveaux pour diminuer les erreurs humaines et pour éviter/atténuer leurs conséquences.

&nbsp;


Le 20/06/2016 à 12h 11

Pareil, j’attends que les prix reviennent à la normale.

Le 07/03/2016 à 19h 19







Fenris a écrit :



Je parlais de la quasi-obligation de développer sous directX pour un jeu sous windows par exemple, ce qui en ferme l’exploitation native sur les autres systèmes, ce qui oblige à recoder le soft pour tourner sur les autres OS, que ce soit Linux, Android&nbsp; ou OSX.



Là avec Vulkan, on s’affranchit de ces barrières pour adopter un langage commun à tous les OS, ce qui de facto va d’un part réduire les coûts de développement, mais en plus faire perdre les espèces de monopoles arbitraires que tentent d’instaurer depuis maintenant un bon bout de temps, MS et Apple.



Enfin c’est ce que j’ai compris en tout cas ?





OpenGL/OpenGL ES permettait déjà de faire tout ça, on voit le résultat.

Le gros interet de Vulkan, c’est le même que Mantle (son ancêtre), cad d’avoir une API 3D “low level”, avec donc un faible overhead. Jusqu’ici seule les consoles bénéficiaient d’une telle API, maintenant les PC y ont droit… mais aussi les mobiles, ce qui permettra une potentielle baisse de conso à rendu identique.



Par contre ce n’est qu’une API supplémentaire, on peut continuer à utiliser OpenGL (ES) si on le souhaite, ou DirectX.


Le 26/08/2015 à 12h 12

Faut pas trop t’inquiéter. Contrairement à ce que dit le titre de cet article l’électrosensibilité n’est pas reconnue par la justice : la seule chose qui a été reconnue que que les symptômes étaient réels et que cela représentait un vrai handicap.

&nbsp;

Mais en aucun cas la Justice n’a dit que ces symptômes étaient dus à l’électrosensibilité, et à vrai dire elle s’en fout de connaitre l’origine exacte de ces symptômes. Mieux, c’est à la science et non à la justice de travailler sur le sujet et aujourd’hui rien a changé : aucune étude ne prouve que l’électrosensibilité existe. Et le jugement n’est pas en contradiction avec cela.

Le 03/06/2015 à 13h 03

Pareil pour Windows. J’imagine que lorsque Momentum Cache est activé, le logiciel désactive le cache du disque.

&nbsp;Maintenant, espérer que l’un des 2 caches sera bien plus performant que l’autre… j’suis dubitatif.

&nbsp;D’ailleurs j’sais qu’il est possible de régler la taille du cache disque (celui de l’OS), ce serait intéressant de comparer tout ça.

&nbsp;

Moi qui ai un Crucial BX100, je testerait à l’occasion, mais rien que le fait d’avoir un Nième soft thirdparty qui tourne en tâche de fond pour gérer un truc que l’OS gérait déjà, sans compter les éventuels bugs/effets de bord à la con que l’on rencontrera avec le temps, ça m’étonnerait que je garde cette solution.

Le 12/12/2014 à 13h 44

Parce qu’il existe une conversion gemme&lt;-&gt;Euro ? D’après ce que je comprends on paye avec des objets qui ne servent à rien et qu’on a obtenu sans rien demander et sans surcout.

Du coup je comprends même pas ce que signifie “un jeu qui ne vaudra pas plus du tiers que ce qu’on a dépensé en gemmes” puisqu’on a rien dépensé pour avoir ces gemmes (exception faite des rares qui achèteront des objets pour les convertir en gemmes, mais là encore y a-t-il un taux fixe gemme&lt;-&gt;€ ?).

Pour une fois que tout ce fatras d’objets inutile sert à quelque chose, on va pas chialer.

Le 12/12/2014 à 13h 40

200 000, à moins que tu considères que pour chaque jeu il y aura des millions d’utilisateurs Steam qui vont renchérir mais ça me semble complètement faux.

Le 22/11/2014 à 16h 18

Et dire qu’à une époque pas si lointaine, AMD proposait les “Catalyst Application Profiles” qui était des profils de jeux (pour simple et surtout multi-GPU) qui évitait de télécharger&réinstaller un package complet. Ces “CAP” proposés par AMD jusqu’en Mai 2013 ne faisaient que quelques centaines de… Ko !

Pourquoi AMD a-t-il abandonné ce système ?

Le 03/04/2014 à 19h 47

Pour éviter de gâcher son argent dans un jeu payant, faut tout simplement proposer des démos ! Les joueurs les réclament et vous (l’industrie vidéoludique) vous nous ignorez depuis des années.

Présenter le FTP comme une solution à un problème qu’ils ont eux-même créé, quelle fumisterie.

Messieurs les éditeurs, c’est nous qui avons l’argent que vous désirez, c’est nous qui décidons à qui ira cet argent. Pensez-y !

Le 17/03/2014 à 13h 17



Personne n’a tenté de défaire Internet Explorer 11 avec EMET



J’ai même l’impression que personne ne s’est attaqué à EMET tout court, je n’ai pas vu de Chrome+EMET, Firefox+EMET ou Safari+EMET tomber, si ?



Ceci dit, même si ça a l’air de corser les choses, EMET n’est pas infaillible non plus :

http://www.lemondeinformatique.fr/actualites/lire-l-outil-de-securite-emet-de-mi…

Le 07/11/2013 à 12h 16

Dommage pour le prix, on trouve déjà la 7870 à ce tarif là (et je parle même pas de la VTX3D à 125€ en promo, ce serait indécent).



edit: oui, même 400W suffit

Le 01/10/2013 à 15h 44







plumachau a écrit :



Quand on voit le prix des consoles de jeux, pourquoi mettre plus cher pour un PC qui va être dépassé dans 6 mois !!!.



Dépassé au bout de 6 mois ça ne veut rien dire. Au bout de 6 mois, ton PC ne va pas se transformer du jour au lendemain en machine toute lente. Ya qu’à voir les commentaires, un PC se garde des années.

Et c’est d’autant plus vrai aujourd’hui où l’évollution est bien moins rapide qu’avant (le 2500K est sorti ya plus de 3ans et ya aucun raison de le changer aujourd’hui) : c’est finit les grosses hausses de perf tous les 6 mois.



Quant au débat PC/console, bof, débat qui revient régulièrement pour au final s’apercevoir que c’est différent et que certains joueurs ont les 2.


Le 22/05/2013 à 07h 01







AirTé a écrit :



Trop de contraintes avec cette console et des trucs bridés voir inexistants sur le marché français.

Ce sera la PS4 pour moi :)



Attends de voir ce que donne la PS4, Sony est tout à fait capable d’imposer autant de contraintes, voire plus ;)


Le 21/05/2013 à 20h 53







roselan a écrit :



apu = 28nm, pas 40



il y 16 modules de 512b, plus 5 autres de je sais-pas-quoi? me faut une meilleure loupe :)



L’énorme fan fait qu’ils sont loin de l’apu.



cet apu ne consomme “rien” ils doivent l’oc à mort pour qu’il aie besoin d’un ventilateur si monstreux. (ou alors il le veule vraiment très silencieux)



A mon avis c’est plutôt l’inverse : faire un APU intégrant 8 coeur Jaguar et un IGP pratiquement aussi gros qu’un Pitcairn (HD7850), ça doit être plutôt monstrueux.

J’imagine, pour que ça tienne dans un endroit aussi réduit, qu’ils ont du non seulement installer un bon système de refroidissement mais ont également du y aller mollo sur les fréquences. Et ça chauffera sans doute autant les 2 générations précédentes.

Et ça c’est en partant du principe optimiste que c’est en 32 ou 28nm. En 40nm, ça me parait complètement déraisonnable comme APU, voire techniquement infaisable.


Le 01/04/2013 à 10h 49







Daedelus a écrit :



Parce que si c’est vrai, ça pue du cul pour nous petits budgets !



INTEL ferait gonfler les prix et on pourrait plus upgrader nos configs !







De toute façon j’y crois pas, leurs proco grand public c’est des déclinaisons des versions serveur non ?



Il n’y aurait aucun intérêt à abandonner sachant que ça marche bien de ce coté non ?



D’après la news, AMD abandonnerait les CPU x86 (= gamme FX) qui vise le desktop moyen/haut de gamme. Le but serait de concentrer ses efforts sur le reste, dont les APU x86 (Mobile et Desktop).

Cela signifie donc qu’AMD n’abandonnerait pas le low-cost, au contraire ! Ce qu’il abandonne ce sont les FX, qui peinent à rivaliser avec les CPU Intel et qui répondent à une demande de moins en moins importante.

Le seul truc qui risquerait d’arriver c’est le prix des CPU x86 Intel haut-de-gamme qui gonfflerait.







AMD fait 2 types de proco grand public :




  • les APU x86 qui visent le mobile et le desktop BDG/MDG

  • les CPU x86 qui visent le desktop MDG/HDG (même CPU que certains CPU server)

    Les 1er marchent bien, les seconds non. Ce qu’AMD abandonnerait ce sont ces derniers.







    Mais bon, vu que tout ceci est un 1er Avril made in PCI/Clubic, le débat n’est que purement théorique <img data-src=" />


Le 19/11/2012 à 14h 04

Pourvu qu’elle gagne, surtout que la loi semble être de son côté.

Ras le cul de toutes ces sociétés mafieuses qui nous emmerdent avec leurs courriers/SMS/mails non désirés, dont le contenu est trompeur, faux voire complètement illégale, comme ça semble être le cas ici.

J’espère qu’ils vont raquer et que cela servira de jurisprudence <img data-src=" />

Le 15/11/2012 à 14h 29







jb18v a écrit :



ouais un 27” tronqué <img data-src=" />



Philips avait laissé tombé le 21/9e, voilà que Dell s’y met <img data-src=" />



+1

Il a intérêt à être sensiblement moins cher que les 27” en 2560*1440, capable donc d’afficher la même chose en largeur, mais avec 33% de pixels en plus en hauteur.

Sans compter que 1080 pixels en hauteur, c’est vraiment peu, les 1200 lignes de mon 24” sont déjà limites je trouve pour un usage PC (un peu de tout y compris les jeux, sauf les films qui eux sont visionnés sur une vraie TV).


Le 12/11/2012 à 18h 13







Edtech a écrit :





  • Contacts (de Microsoft inclus dans Windows 8)



    • Tweetro

    • Metrotwit



      Cela voudrait donc dire qu’un composant intégré à Windows serait limité à 100 000 utilisateurs ? Ce serait ridicule. Microsoft doit avoir un passe-droit, non ?



Le 07/11/2012 à 16h 06

Mwè… les joueurs intéressés par Linux (toujours sous Windows ou en double boot Linux/Windows) lâcheront Windows et joueront sous Linux lorsqu’une grande part de la ludothèque sera dispo sous Linux. Or les éditeurs porteront leur jeux sous Linux lorsque cette plateforme aura une PDM suffisamment importante (scotchée à 1% malgré l’arrivé d’Ubuntu qui a théoriquement popularité Linux). La situation est toujours bloquée dans le même état depuis des années.



J’ai même l’impression que ça les arrange bien que 99% des joueurs PC jouent sous Windows, ça leur permet de faire qu’une seule version du jeu. Le jour où l’on sera à 5050 (par ex), ils seront obligé de le sortir sur les 2 OS… sans qu’ils ne touchent significativement plus de joueurs. Alors déjà que le PC perd un peu de son intérêt face aux consoles (aux yeux des éditeurs), on pourrait presque se demander si l’utilisation massive de Linux par les joueurs PC ne serait pas un argument de plus pour délaisser un peu plus la plateforme PC (moins de joueurs, plus de piratage, prix de vente plus bas, et bientôt devoir supporter 2 OS de plus, et que sais-je encore) <img data-src=" />



Je n’ai pas l’impression que la sortie du client Steam sous cet OS débloque la situation actuelle. Qu’est-ce qui pourrait séduire les éditeurs de jeux de faire cet effort ? W&S mais je suis très sceptique…

Le 07/11/2012 à 15h 47







k43l a écrit :



Même les Atom commence à rentrer dans la danse basse conso et performance avec les smartphones.

Il est trop tôt encore pour dire si ARM va s’imposer selon moi.



Tout les OS mobiles sont optimiser ARM. Mais ça peut très bien changer !

Windows 8 et les hybrides (sous atom Z2xxx bien entendu) vont peut être ouvrir un chemin que les autres OS seront susceptibles de prendre <img data-src=" />



+1 <img data-src=" />

Si Apple unifie un jour l’architecture des CPU/APU/SoC équipant ses produits, vu comme c’est parti, ce sera p’tet vers du full x86. En effet tout est déjà là : de l’Intel Atom Z2460 (1.7W?) jusqu’au plus gros des Core i7 à 6 coeurs (130W), et Intel n’a pas encore sorti ses Atom en 22nm (prévu l’année prochaine).


Le 31/10/2012 à 15h 00







240-185 a écrit :



Dans la fin de la dernière mission de GTA IV, il faut marteler une touche pour entrer dans un hélicoptère. Petit problème : ça a été codé avec les pieds et c’est quand même un poil frustrant de se vautrer à cette partie relativement facile alors qu’on a masterisé les phases de tir intense auparavant. Seule une combinaison ultra-rapide entre le bouton A de la manette X360 et la touche Espace permet de s’en sortir.



En multi c’est bien pire que le solo : il y a un grand nombre de bug connus qui se seront jamais corrigé et c’est bien moins stable que le mode solo. Et je parle bien de la version officielle MAJ en version 1.0.7, pas de la catastrophique v1.0.0 même pas digne d’être une beta.

Je crois vraiment que certains se sont contentaient de jouer au solo et n’ont pas joué au jeu à sa sortie.



Niveau optimisation et performances, regardez la machine de ceux chez qui ça tourne bien ? Ce sont les machines de 2008, année de sortie de GTA4. Non.

Ramenez maintenant le niveau de performance de ces machines et la qualité graphique de GTA4 (sans FSAA, puisqu’incompatible). Comment oser dire que ça manque d’optimisation ?


Le 31/10/2012 à 14h 39



« Regardez aux États-Unis, il y a quatre fois plus d’habitants (NDLR : cinq fois en fait), et quasiment le même nombre d’opérateurs ».

Donc en France il en faudrait 4 ou 5 fois moins ? Juste Orange en fait ?

Pas bien compris leur raisonnement <img data-src=" />

Le 26/10/2012 à 13h 18







Aphelion a écrit :



Nous en tant que utilisateurs, ça nous fait chier. Mais d’un autre côté, ce sont les développeurs qui doivent êtres heureux. Comme quoi, le malheur des uns fait le bonheur des autres.



Je ne vois pas pourquoi <img data-src=" />


Le 23/10/2012 à 12h 12

Processors: 2nd and 3rd Generation Intel® Core™

Operating Systems: Microsoft Windows 7 and 8 Desktop (32- and 64-bit)

Programming Languages: C++, C#

Microsoft Visual Studio: VS 2008, VS 2010

Application Samples: Camera Viewer, Audio Recorder, Face Detection, Landmark Detection, Gesture Viewer

Supported Tools:

• Total Immersion D’Fusion Studio

• Intel Media SDK 2012

• Intel SDK for OpenCL Applications 2012

• Processing Open Source Programming Language and Environment

• Unity Game Development Environment



source :software.intel.com Intel

Le 18/10/2012 à 10h 09







Vincent_H a écrit :



Quel intérêt alors de prendre une tablette si c’est pour se servir d’applications x86 ?



Parce qu’il y a des applications x86 desktop et Metro/WinRT.

D’autre part je ne trouve pas qu’il y a un rapport si évident entre le type de CPU et le form factor du produit que l’on désire.

D’ailleurs, pour moi, les tablettes équipées de dock clavier ou d’une “smartcover” de ces Surfaces permettent je trouve de combiner les avantages des tablettes classiques (sans clavier “natif”) et des netbook classiques (cad non-tactiles).



Clairement une tablette x86 sous Win8Pro avec ce type de “smartcover” (très bonne idée d’inclure nativement ce genre de choses), le tout à prix raisonnable, oui ça pourrait me faire lâcher mon netbook actuel. Le reste des tablettes me laisse assez froid et m’obligerait et laisser tomber tout une logithèque et un pan de fonctionnalités qui me sont utiles.







Vincent_H a écrit :



Dans ce cas, pourquoi une tablette et pas un portable ?



Les PC portables ça n’a JAMAIS été mon truc, ce n’est pas un form factor qui me convient. Le seul PC nomade que j’ai acheté est un netbook. Le prochain sera-t-il une tablette x86 (avec smartcover) sous Win8 ? Peut-être….


Le 17/10/2012 à 13h 27

Vivement les tablettes x86 à “bas prix” (à base d’Intel Atom) parce que là ça oblige à prendre la version Pro et c’est loin d’être donné pour une tablette. Sans compter l’autonomie qui doit souffrir de la présence d’un Core i5.

Pouvoir accéder à la logithèque x86, de loin la plus fournie au monde, c’est pour moins un très gros plus.

Le 12/10/2012 à 16h 10







ploubi a écrit :



Bof, d’un point de vue joueur, ça n’a pas vraiment d’intérêt de connaitre les spécs précises de la Wii.

On sait déjà qu’elle est à peu prêt au niveau des perfs de la génération précédente de la concurrence.



Le seul intérêt est de permettre d’évaluer le coût de construction et donc de savoir s’ils font une marge sur la vente encore plus honteuse que Apple ou non…



Les fabricants de consoles ne sont pas réputés pour se faire des marges honteuses sur la console elle-même, bien au contraire, certains sont même prêt à perdre un peu là-dessus.

Il faut attirer un max de joueurs pour que ces derniers achètent des jeux et des accessoires sur lesquels les marges sont très très confortable..


Le 12/10/2012 à 16h 00







Sebdraluorg a écrit :



En meme temps un probleme de CPU c’est pas courant non plus… <img data-src=" />



+1

Et puis l’origine des mauvaises ventes d’AMD ne vient pas d’un problème de fiabilité ou d’une réputation basée sur une supposée mauvaise fiabilité. Je comprends pas trop sa remarque <img data-src=" />


Le 28/09/2012 à 14h 34







Iridium a écrit :



À part Google qui leur fourni l’essentiel de leurs revenus, et qui est responsable de base de plusieurs services de firefox tu veux dire ?



Tu confonds pas Mozilla Foundation et Mozilla Corporation <img data-src=" />


Le 28/09/2012 à 14h 24







Kebree a écrit :



Need ! Need ! Need ! Depuis le temps, enfin la quête du Graal touche à sa fin. Du jeu sous Linux. Du vrai, du bon qui tâche.



Il y aura quoi comme jeux dispo sous Steam Linux qui ne seront pas déjà dispo sous Linux ?


Le 27/09/2012 à 13h 13







Sebdraluorg a écrit :



<img data-src=" />



Tu sous-entends que Win7 ne coure pas “les bases d’un système d’information exploitable” <img data-src=" />


Le 27/09/2012 à 12h 55







gavroche69 a écrit :



Même si c’est invoqué pour de mauvaises raisons, je suis assez d’accord avec ça.

Ces avalanches de chiffres dans les tests de CPU sont peut être utiles pour comparer les performances de modèles aux caractéristiques assez proches, mais la différence de ressenti en utilisation quotidienne est assez dérisoire voire nulle en fait.



J’suis pas d’accord, du moins pour l’évaluation des perf CPU.

Il n’y a rien de plus subjectif et d’approximatif comme approche. Tu peux faire dire une chose et son contraire pour une machine donnée, juste en changeant la manière de présenter les choses. Ou alors tu peux faire ressentir des choses différentes sur 2 machines strictement identiques.

Si l’encodage d’un film prend 30 min sur l’un et 40min sur l’autre, j’ai envie d’avoir les chiffres, par le ressenti d’un utilisateur qui dira “c’était long”, “pas ressenti de différence entre les 2, j’regardais la TV pendant l’encodage, lol”. Ce genre de ressenti, on s’en passe, c’est nul.



Par contre, là où ça peut être utile en complément des chiffres, c’est dans les jeux vidéo. Cela a permis de révéler certains comportement sur les configuration multi-GPU (cf test d’HFR). Mais concernant Trinity, ces ressentis ingame ne vont intéresser que les gamers jouant avec leur IGP et c’est loin d’être la majorité <img data-src=" />


Le 13/09/2012 à 21h 06







ldesnogu a écrit :



Justement, le but n’est-il pas pour Intel que les app dev passent sur HTML5 pour rendre portable les app mobiles majoritairement sous ARM ?



Tout ca bien sur en proposant des outils specifiques a Intel comme River Trail.



Faut ptet que j’arrete de regarder X-Files, je me mulderise et en plus je pense avoir raison <img data-src=" />



J’allais justement faire la remarque. Il me parait évident qu’Intel pousse au HTML5 pour cette unique raison !



Ce qui va gêner l’invasion de ses puces x86 dans le monde de l’ultra-mobile, ce ne sont pas le manque de qualité de leur puces x86, mais bien le fait qu’ils débarquent dans un écosystème 100% ARM. Le seul moyen est donc de pousser à utiliser une solution pouvant tourner sur toute les plateformes (sous-entendu “y compris x86 !”).



Bonne chance Intel, ça ne va pas être simple <img data-src=" />


Le 12/09/2012 à 09h 01







sepas a écrit :



En automobile, tu as un nouveau modèle tous les 2 à 3 ans, en TV, tu as une nouvelle techno tous les 3 ans (Plasma, LCD, LED, OLED)



Tous les 30 ans tu veux dire : l’écran cathodique noir&blanc, puis l’écran cathodique couleur, et enfin à peu près simultanément les TV Plasma/LCD.

Les écrans LED est bien entendu un abus de langage puisqu’il s’agit tout simplement d’écrans LCD. Quant aux TV OLED, on les attend encore.



Quelle techno balaiera les TV plasma/LCD actuelles ? (AM)OLED, SED, FED, Laser, Vixlim. Certains nous ont fait rêvé mais sont morts avant d’être nés. RDV en 2020 <img data-src=" />