votre avatar

Punkenjoy

est avec nous depuis le 19 mars 2003 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

112 commentaires

PlayStation 4 : de nombreuses fonctionnalités manqueront à l'appel

Le 01/11/2013 à 14h 22

L’EDRAM de la Xbox One est la principalement pour faire efficacement un AA de qualité sans trop bouffer la bande passante globale de la console.


Les TV moderne, contrairement au écran LCD PC, supporte mieux les résolution intermédiaire. Un 1280x720 sur une 1080P sera tout de même très acceptable tandis que la même chose sur un écran PC, c’est pas jolie.

Faut ensuite prendre compte de la distance que l’on regarde la TV et la taille de celle ci.

Si la XBOX One permet d’afficher plus d’éléments et a une meilleur distance d’affichage en 720P que la PS4 en 1080P, ça sera probablement plus beau lorsqu’on sera assis sur le sofa.

Sinon, il y a aussi des outils pour upscaller du 720P en 1080P sans problème. Le problème encore la des écrans LCD, c’est que tu affichait ta résolution intermédiaire sans upscalling. Cependant de nos jours, les drivers des cartes graphiques peuvent te faire ce upscalling et donc tu peux jouer en résolution plus basse tout en conservant la résolution native de ton moniteur et le rendu est franchement plus intéressant.


G Flex : LG répond à Samsung et dévoile son smartphone incurvé de 6

Le 28/10/2013 à 16h 03

Ce qui m’intéresse surtout, c’est l’écran en plastic OLED incassable. Bien hate de voir ça sur des tablettes. En espérant qu’elle ne soit pas courbé cependant.


Star Citizen : 24 millions de dollars, un monorail et un trailer en 4K

Le 25/10/2013 à 19h 22






linkin623 a écrit :

<img data-src=" /> tu as loopé le mot “théorique” dans mon post. Puisque ne n’avons pour l’instant pas de moteur capable de propulser de la matière à la vitesse de la lumière.



Cependant, le 60 000 Km/h c’est la vitesse d’expulsion relative à la vitesse du vaisseau. Pour avoir la vitesse relative versus l’environnement, il faut additionner ce 60 000 km/h à la vitesse du vaisseau.



BlackBerry 10.2 disponible cette semaine... pas forcément pour tout le monde

Le 25/10/2013 à 13h 48






tic tac a écrit :

En tant que BBuser, c’ est vrai que ces temps ci, on en a un peu marre de ne voir partout que des nieuws BB sous le plan financier (avis partagé avec la firme puisque elle même, a du sortir un communiqué pour contrecarrer/répondre aux trolls à la Gartner).

Un peu déçu aussi de voir dans les test, systématiquement, leurs nouveaux terminaux se faire descendre soit pour leur autonomie (alors que la concurrence ne fait guère mieux) ou sur le manque d’ applis (à croire donc que les BB10 sont inutilisables en usage courant par défault d’ applis), la course au full HD de la mort qui tue absolument indispensable (pendant que BB essaie d’ améliorer la réception de ses terminaux via de nouvelles technos d’ antenne mais bon, cela, tout le monde s’ en fout), l’ obligation d’ être sur le dernier snaplicorne quadrocto à 2XXX ghz pour gagner 32,07858 points à un test de rapidité absolument essentiel pour choisir ou élire le meilleur choix GSM, etc, etc …

Dès qu’ on sort du trio Android/iOS/WP plus rien n’ existe de valable.

Et il s’ en trouve toujours un dans les commentaires pour nous expliquer que BB caynul car son vieux Curve sous OS 6 ou 7 imposé par sa boite se fait laminer par le nouvel iPhone 5 ou un Galaxy 4 qu’ il vient de s’ acheter.

BB10 et ses terminaux dédiés (Q10 et Q5, Z30 et Z10) sont certe, un peu jeune en comparaison des 3 autres mais mérite franchement pour ses qualités un traitement un peu plus “juste” que le perpetuel dénigrement sur l’ état de ses finances et les erreurs passées.

Je n’ en veux absolument pas à PCI ou aux autres utilisateurs d’ OS (j’ ose espérer que eux aussi, on choisit leur terminaux selon leurs choix et leurs gouts perso) mais voir constamment ceux qui ont fait un choix différent se voir répéter à longueur d’ info que toute façon BB c’ est mort, trop cher, pas d’ applis etc … cela finit par saouler.

Fin de mon coup de gueule<img data-src=" />




Je suis presque qu’entièrement d’accord sauf sur un point. BB c’est entêté à faire des curves de merde et des tactiles vraiment merdique pendant qu’Android et Iphone prenait le marché.

Ils sont tout de même un peu responsable de leur malheur. Et maintenant qu’ils sont dans la merde, tout le monde est la pour en rajouter.



Le 24/10/2013 à 21h 07

Pour avoir jouer avec un Z10, l’ergonomie est un peu contre-rpoductive au début lorsqu’on est habitué avec Android (bouton retour). Mais au final, le téléphone répond rapidement.

Et encore aujourd’hui, il n’y a pas plus sécuritaire pour le boulot. C’est le seul système a vraiment départager les données du travail des données personnelles.


Après cinq ans d'attente, Stardock annonce enfin Galactic Civilizations III

Le 16/10/2013 à 19h 23

Dans les premières versions de Galactic civ, ce qui était le plus frustrant, c’était de voir une Civ quasi détruite se rendre à une autre alors qu’on l’a presque détruite.

Autre chose : La gestion des constructeurs et des starbase est à mon avis à revoir. Ça vient trop lourd à la longue.

L’arbre de recherche est lourd aussi.

Avec la dernière extension, beaucoup de problème ont été réglé. Il est par exemple possible d’enlever l’option de se rendre pour l’IA. Les starbase indique le nombre de modules disponibles. L’arbre de recherche est beaucoup plus clair.


Je demeure tout de même sur ma faim concernant les starbase. Je trouve qu’un système ou on lierait une planète à une starbase pour permettre d’y construire des trucs serait beaucoup plus intuitif et moins lourd a gérer.

La customisation des vaisseaux peut être autant prenante que chiante, tout dépendant de nos envie. Endless space offre de le faire automatiquement, ça pourrait être une voie intéressante pour ceux qui ne souhaite pas faire toute sorte de vaisseaux. (tout en leur laissant la possibilité de le faire.)

Au final j’ai bien aimé. La partie que j’aime le plus est probablement les débarquement planétaire ou il faut escorté les transport de troupes vers les planète. Le combat pourrait cependant être un peu plus interactif et/ou intéressant. Mais tout de même, je trouve ça intéressant et réaliste.


Watch Dogs : la configuration minimale est encore plus musclée que prévu

Le 08/10/2013 à 18h 58






europa2097 a écrit :

Tout ca pour dire, mefiance. Ah et pour revenir au sujet de l’article. Faut pas se leurer, on a ete pas mal retenu niveau perf par les consoles PS3/Xoox 360. Une nouvelle generation de consoles ramenent forcement des config a la hausse. Et comme mentionne avant, une PS3, c’est quand meme 8Go de GDDR5 partagee, ainsi qu’un CPU de 8 cores. Ca peut tres bien dire que le systeme de jeu prend 3 Go et les graphismes 5Go avec des textures hi-res et beaucoup d’objets a l’ecran (car ca prend de la vram aussi ca). Enfin, n’oublions pas qu’une console est un systeme specifique homogene et qu’un PC est polyvalent, mais de par sa nature heterogene. Normal que les specs soient si elevees. En tout cas, je ne suis pas choque. C’est enfin du next gen apres tout, fallait s’y attendre…



Faut aussi dire que sur PC, si je ne me trompe pas, ce qui se trouve en VRAM se retrouve en RAM la plupart du temps. S’il y a 3 GO de texture, ça bouffera probablement 3 Go sur la carte graphique et 3 Go en ram.



Le 08/10/2013 à 15h 22






von-block a écrit :

Tout à fait d’accord. Par contre la plupart des options que tu nommes ne sont jamais implantées dans un jeu.

Je n’ai jamais vu l’option pour réduire la physique. Je n’ai jamais vu d’option pour réduire le nombre d’objets (sauf GTA avec le nbs de voitures).

J’en ai vu pour la qualité des objets, mais ce ne sont trop souvent que des textures différentes (basse définition vs haute définition).

Pour la distance d’affichage, il faut voir comment elle est gérée aussi. C’est certain que si l’AI et la physique des jeux est aussi calculé et si tous les petits objets sont aussi calculés, ça demande rapidement un monstre de puissance (on tombe dans l’exponentielle). Une distance d’affichage bien fait comme AC ou GTA remplit les attentes de la plupart des joueurs sans trop demander de CPU supplémentaire.

Je ne crois tout de même pas que ça explique la différence entre un i7 et un phenom, sauf bien sur pour monter en image seconde. Le phenom devrait faire du 30 fps et le i7 du 60+

Reste que j’aimerai voir les développeurs enfin mettre des options spécifiques CPU intensives.



TU ne vois pas les options simplement parce que ce n’est pas un paramètre que le développeur te laissera jouer puisque cela aura une influence notable sur le jeu. Prenons le jeu de la news, s’il diminue le nombre de personne, d’éléments et la qualité de la physique, ça ne sera probablement pas jouable. Donc on en met comme on a besoin et on base les config demandé sur ce.

Donc non, il n’y aura probablement pas d’options basé sur le traitement CPU. (sauf peux être lorsque ça peut être facilement fait comme le nombre d’unités dans les totals wars)

Concernant les phenom vs core X, les Cores d’intel sont super rapide en single thread. La plupart des optimisation d’intel ont été fait dans ce sens. C’est très payant lorsque :




  1. Il y a du code majoritairement monothread comme la plupart des jeux
    ou

  2. Il y a du code multithread mais dont la plupart des thread sont indépendant. (ne travaillent pas sur les mêmes données)

    Dans ces cas la, toutes leurs optimisations rapporte et donnent l’avantage sur les phenom et autre CPU. Cependant, lorsque vient le temps de faire du code multithread dont chaque thread travaillent sur les données de l’autres, les goulet d’étranglement des communications intercore viennent pas mal diminuer l’avantage des Cores d’intel.







[MàJ] Watch Dogs : Ubisoft revient en arrière au sujet des prérequis sur PC

Le 07/10/2013 à 14h 51






NonMais a écrit :

oui… faut vraiment que je vois à combien d’utilisation de RAM je monte en pic… y a moyen j’imagine d’enregistrer l’utilisation de la ram pendant un certain temps dans win 7.(Yep quand je joue, y a que ça d’ouvert… enfin + Origin et FireFox quand c’est BF3…mais je n’ai pas 40 onglets ou d’autres applis en arrière plan, donc je pense/j’espère que mes 6Go suffisent sans swaper)



Non probablement que c’est suffisant si tu fermes tous et ne garde que l’essentiel. De toute manière, le jeu n’est pas 64 bit et Windows 7 ne prendra pas 2 GB en temps normal pour lui seul.

Mais il faut faire attention durant les loading. la charge mémoire peux être plus importante qu’au final puisqu’il décompresse plusieurs trucs. Si tu dépasse pendant le loading, ça va être décidément plus long.

Comme je dit, l’important avec la RAM, c’est de toujours en avoir de libre. Si tu dépasse sa capacité, tu perds énormément en performance. De plus les OS moderne cache très bien le disque en mémoire, ça rend le système un peu plus agréable et réactif. Pour ma part, j’ai 16 GB. Pourquoi parce qu’au moment ou j’en ai fait l’Achat le surtout n’était pas si important versus 8 GB et je sais que ça va me durer plus longtemps.

Après, investir pour 3 autres barrettes sur ta config, est-ce rentable ? souhaitable ? ça reste à voir. Tout dépend de toute façon de combien de temps tu pense garder cette config.

Mais déjà par exemple, tu ne pourras probablement pas faire les plus grand combats de Planeraty Anihilation. Un jeu prévu pour supporté dès le début le 64 bit afin de faire des énormes batailles. (ils ont comme objectifs de faire des combats jusqu’à 40 joueurs dans tout un système solaire. Leur intention est de faire un jeu qui évoluera avec le matériel. De plus en plus de jeux vont sortir en 64 bit et ils prendront a eu seul 4 GB et plus, donc Si 6 GB est suffisant pour le moment, ça ne le sera pas pour l’avenir.

Et comme Planetary Anhilation le démontrera, ce n’est pas parce que le jeux ne sera pas optimisé. C’est simplement que le nombre d’éléments et la taille de la simulation sera énormément augmenté.

ça fait environ 5 ans que les jeux plafonne sur l’utilisation de mémoire afin de ne pas dépassé les limites du 32 bits (avec LAA on ou off). on est du pour plus.

Ça permettrait par exemple :

Sim city ou autre tycoon avec des cartes plus grande et des agents plus complexe.
Des MMO avec plus de joueur et d’éléments en même temps sans trop de lag client.
Des RTS avec plus de joueur, plus d’unités sur des cartes plus grandes.

Coté Shooter, ça permettra moins de FPS de corridors avec moins de chargement. Un RPG comme Dragon Age ou Skyrim pourrait avoir 2-3 fois moins de chargement. Etc…

Je ne comprend pas trop le discours du “Les jeux faut qu’ils soit full optimisé pour qu’il tourne sur un core 2 duo avec 2 GB de ram et une GTX 520, si ce n’est pas le cas, le jeux n’est pas optimisé”

Alors qu’en fait, en limitant les specs, on limite la créativité. Tout le monde reprendrons les mêmes optimisation pour s’assurer de respecté les specs “Beaucoup de chargement, Ensemble de corridors, “Brouillard à distance”, réutilisation massives des mêmes textures, Peu d’éléments interactifs, etc.”




Le 07/10/2013 à 13h 53






NonMais a écrit :

Ce n’est pas plutôt si tu as un SSD vs un HD standard?



non

Bien oui mais si tu as 4 GB de ram et que tu dois faire de la place et envoyé des données dans le SWAP avant de charger le niveau, ça prendra bien plus longtemps que si tout rentre en mémoire dès le début.



Le 04/10/2013 à 17h 23






kimsse a écrit :

Il à pas l’air beaucoup plus beau que Tomb Raider, qui pourtant, est déjà très jolie.

Sa sens le jeu très mal optimisé est bourré de technologie inutiles/gourmandes.

Sa me ferrais mal au fion que ma 780 et mon 4670 soit déjà à fond de cale même pas un ans après leur sortie …




Il n’y a pas que le graphisme qui nécessite de la puissance… Sinon aussi bien faire un personnage 3D très détaillé qui se problème dans un environnement pré-rendu en CGI avec plein de cinématique. On a alors un jeu très très beau mais avec peu d’interactivité…

l’IA, la physique, les interaction avec l’environnement, la gestion de l’environnement (météo, circulations, gens sur le trottoir), le son, les animations, etc. sont tous des choses qui n’apparaissent pas sur un screenshot et nécessite de la puissance.



Le 04/10/2013 à 02h 35

La question n’est pas est-ce qu’est vraiment 4 coeurs traditionnel ou 8 coeurs CMT de toute manière. Au final, la question ici est à savoir si les 8 thread du jeux profiteront des 8 coeur CMT des FX et la réponse est oui parce qu’ils y aura 8 unités d’instructions derrière.

L’hyperthreading dans une moindre mesure, en profitera aussi, les 2600k par exemple pourront se servir des temps morts dans le pipeline pour exécuté les autres thread avec moins de latence.

Cependant, la solution d’AMD sera celle qui verra le gain le plus important. Va t’elle être la plus performante ? il faudra voir.


Mais un module est plus qu’un coeur traditionnel, mais moins que 2 cores. Cependant il est plus proche de 2 cores au sens technique que d’un seul core avec hyperthreading. Et ça sera encore plus vrai avec les steamroller qui donnera des decoder INT dédié à chaque core.

En gros le vrai core traditionnel avait en gros tout ses éléments :

Instruction fetch
Instruction Decoder
Scheduler INT et FPU
INT and FPU execution
L1 Cache
L2 Cache

Dans certains CPU, le cache L2 est partagé, déjà la on perd un peu la notion de “core” puisqu’on ne peut plus désactivé l’autre “normalement” (Contrairement à ce que tu dis, les 2ième core d’un module peuvent être désactivé, mais qui désactive un core. Le fabriquant vendra les modules complet comme ceux vendant des cpu avec cache L2 partagé vendra les cpu dont les 2 coeurs sont actif.)

Schéma démontrant ce qui est partagé et ce qui ne l’est pas sur le Bulldozer (FX actuel) et ce qui le sera sur les futurs FX

La partie Singlethread profitera des 8 thread du jeux et il serait étonnant que le jeux fassent ses calculs en 256 bits, donc la FPU pourra fonctionner en 2 x 128 bit.


Le 03/10/2013 à 20h 38






FREDOM1989 a écrit :

Raté, le FX8350 est un quad core physique. Les commerciaux aiment bien parlé de 8 coeurs mais c’est totalement faux, un coeurs c’est un module complet, modulu qui gère deux thread par contre.


Vu qu’aun éditeur veut normalment que son jeu puisse tourner sur un max de pc je pense qu’ici Ubi a fait un portage à la va vite pas du tout optimisé pour contenter les gros joueurs pc fortuné.



Techniquement, il y a 8 Alu et 4 FPU “Double” (qui sont partager entre chaque core, mais qui peuvent être indépendante)

Ce n’est pas vrai de dire que ce n’est qu’un 4 core puisqu’on peut y envoyé en parallèle 8 thread d’ALU, et 8 thread FPU et chacun aura son unité de calcul physique propre.

C’est la gestion de la FPU qui mélange un peu tout le monde, et les performance final du CPU face à un Phenom par exemple. La FPU de 256 bit peux fonctionner en mode 1x256 bit partagé entre les 2 core ou 2x128 bit dédié à chaque core.

Au final c’est bien un 8 core qui a des performance d’un 4 core dans bien des situation. Mais lorsque le multithread embarque, ils se comporte mieux que les 4 cores.

Si un Atom dualcore a les performance d’un seul core de Core i3, est-ce qu’on dit que c’est un faux dualcore? non. Même chose pour les AMD FXxxxx.

Au final, les 8 core des FX se comporteront mieux probablement qu’un Quadcore phenom.



Le 03/10/2013 à 18h 29

Pour le 64 bit, ce n’était qu’une question de temps. Ce n’est pas parce que les jeux aujourd’hui n’utilise pas plus que 3 GB qu’il n’est pas souhaitable d’en utiliser plus. La plupart des jeux font des pieds et des mains pour justement ne pas prendre plus de mémoire que le mode 32 bit le supporte.

Le 64 bit permettra d’ajouter beaucoup plus d’éléments au environnements. (plus vaste, plus d’objets, plus de texture (si si, elle sont en ram même si elle sont exécuté en mémoire vidéo… et il est plus rapide de les charger de la mémoire vive que du disque…), etc.

Et puis bon, mettons ça au clair. Si vous avez 6 GB de mémoire et que vous utilisez 5.5 GB, je crois que c’est déjà le temps d’en profité pour en mettre plus. La ram le but ce n’est pas de tout l’utiliser mais de toujours avoir une marge. La mémoire inutilisé servira de toute manière de mémoire cache rendant le système plus réactif. Et les effets de manquer de mémoire sont désastreux en terme de performance alors il ne faut jamais en arriver la.

Concernant le multithreading et l’optimisation. Le problème est que plusieurs personne pense qu’il est faisable d’avoir un jeux qui exploitera les 8 cores mais qui pourra rouler pleinement sur 2.

Dans la réalité, les 4 cores se battrons pour les ressources du core et forceront un tas de changement de contexte et de vidage/remplissage des registres/cache. Il est plus efficace si on a 2 core de n’avoir que 2 thread. Mais cela veux dire 2 moteurs qu’il faudra débogué et cie… ce n’est pas une solution envisageable.

Donc, étant donné que les prochaines console seront 8 cores, les jeux ayant besoin de 8 thread vont devenir de plus en plus fréquent et les CPU ne pouvant pas exécuté ce nombre de thread seront très pénalisé malgré leur performance sur 1 ou 2 thread.


Steam : 31 nouveaux titres obtiennent leur feu vert

Le 03/10/2013 à 20h 40

C’est un programme de Valve qui permet a des éditeurs tiers d’appliquer pour vendre leur produit sur la plateforme Steam.

Les utilisateurs de steam sont sollicité pour savoir si oui ou non ils achèterait un tel jeux et au final les gagnants sont inclue dans le magasin Steam.


Le 03/10/2013 à 18h 38






TheKillerOfComputer a écrit :

A-Train 9… J’ai eu le malheur d’avoir pû mettre la main dessus, et je recommande à quiconque de l’éviter…

Non, d’éviter même la licence entière car c’est probablement la seule licence existante où chaque jeu souffre soit de bugs soit d’élements de détails/gameplay tellement pénibles que ça ruine tout le plaisir de jeu.

A-Train 9 donc, ne permet plus (contrairement aux précédents) d’utiliser directement les ressources fabriquées par les usines pour construire. Il faut donc d’abord les transporter dans un entrepôt peu importe où, ce qui est déjà TRES pénible car les gares ont une énorme zone de prélèvement/dépôt…

…Mais attention à où si vous voulez construire à une certaine hauteur - genre à 70 mètres de haut - car vous ne pourrez pas même si l’entrepôt est juste à côté. Il y a une règle qui fait que s’il y a plus de 30 mètres de hauteur de distance séparant le chantier de l’entrepôt, alors le chantier ne peut pas prendre de ressources.

MAIS A QUOI ILS PENSAIENT QUAND ILS L’ONT CONÇU ?!?

Ils sont cinglés ?

Et ce n’est que deux élements génants. J’en ai plein d’autres comme ça ! La façon de gérer les trajets des véhicules (on ne peut pas leur planifier un trajet ! il faut jouer sur les carrefours, et ça marche pour TOUS les véhicules même ceux qu’on veut pas), les voies surélevées trop difficile à faire, etc…

Artdink (le concepteur) a peut-être de bons développeurs (et encore, A-Train 4 était buggé ET mal pensé), mais ils ne savent pas jouer, clairement pas…



J’ai tester et effectivement. C’est moche pour la puissance demandé, l’interface est incompréhensible et vraiment mais vraiment mal foutu. Le nombre d’action non-volontaire que l’on fait est tout simplement ridicule et ça tue le plaisir de jouer.

Commençons cela simplement, il est déjà EXTRÈMEMENT pénible de se déplacer sur la carte. C’est pourtant quelque chose qui devrais être d’une simplicité enfantine. J,avais jouer sur playstation et j’Avais vraiment aimé mais la c’est juste totalement injouable.

Je déconseil fortement à quiquonque. Pire jeux que j’ai essayé ces dernières année. Pourtant sur papier, c’est en plein le genre de jeu que j’aime.



AMD dévoile ses Radeon R7 / R9, et déçoit

Le 26/09/2013 à 18h 51






HarmattanBlow a écrit :

Nous n’avons visiblement pas les mêmes souvenirs ! Pire, tu parlais dans ton précédent post d’une dégradation depuis la fin de Creative Labs, ce qui montre à quel point tu te laisses influencer par le marketing autour du matériel.


Pardon ?! Cela fait des années que le CPU est capable d’appliquer en temps-réel tous les effets que tu veux et avec n’importe quelle qualité, que l’on parle de modification de la hauteur du son ou de spatialisation, et ce sur des dizaines de pistes à la fois. D’ailleurs la techno d’AstoundSound que va reprendre AMD existe en version purement logicielle et est appliquée en temps réel avec une conso CPU dérisoire !

Aucun des algorithmes audio que je connais ne serait trop gourmand pour le CPU (loin de là), donc si tu souhaites continuer à défendre ta thèse merci d’être précis et de nous nommer l’algo en question. Parce qu’en réalité pas besoin de core i7 ou de GPU, loin de là, un P4 en était déjà capable, simplement il n’aurait pas resté grand chose pour le jeu. Pour rappel un coeur de CPU mouline plusieurs milliard d’opérations par seconde (je ne parle pas de “flops” mais de mon expérience de développeur) quand une piste audio n’a que 44k échantillons par seconde, soit 20k opérations possible par échantillon. Et les transformées peuvent être pré-calculées.

Tout ce dont les dévs de JV ont besoin aujourd’hui c’est de meilleures briques logicielles et peut-être d’échantillons enregistrées ou annotés de façon spécifique.




Le convolution reverb en autre qui oui peux être traité sur un CPU à un très haut taux d’utilisation CPU par source sonore, ou très rapidement sur un GPU.




Le 26/09/2013 à 13h 48






HarmattanBlow a écrit :

En fait, après des années de positionnement foireux avec des voix inaudibles à 10° près, nous avons aujourd’hui un positionnement correct et purement CPU, des effets d’écho et de doppler qui ne sont pas dix fois abusés, etc. Forcément ça se remarque moins mais c’est bel et bien un progrès.


Ca n’a pas de sens parce que :
* Les infos 3D sont au moins autant sur le CPU que sur le GPU, davantage sur le CPU en fait, de par son rôle de chef d’orchestre.
* Le GPU est très sollicité, le CPU tend a toujours un ou deux coeurs en train de se tourner les pouces et a bien plus que le nécessaire en puissance.
* Le GPU n’est jamais complètement autonome (techniquement incapable) et il faut des aller-retours coûteux entre CPU et GPU.
* La programmation du GPU est plus coûteuse, crade et casse-gueule que celle du CPU.

A mes yeux le seul intérêt c’est l’homogénéité avec les consoles qui utiliseront le GPU pour compenser leur CPU minable.



En réalité, ça fait 10-15 ans que ça stagne au niveau audio. Concernant le reste, le CPU ce tourne les pouces, mais il n’est pas adapté à l’application des effets sonores de qualités. Il applique plutôt des estimations sommaire parce qu’il n’a pas la puissance de traitement pour faire tout. Bon peux être que les dernier quadcore I7 avec l’AVX, SSE4 et cie peuvent avoir quelque chose de potable, mais un GPU avec ses unités de calculs massivement parallèle le battra sans problème.

Après oui, les GPU sont très utilisé, mais au final, ce qui craint dans le monde audio sur jeux vidéo, c’est le piètre effort fait par les développeurs aujourd’hui. J’ai l’impression même d’avoir regressé versus les jeux en EAX sur Audigy et consort. Il est temps que quelqu’un fassent quelque chose pour l’expérience audio sur PC et c’est un fabriquant qui a de forte chance de se retrouver dans bien des PC et console qui pourra le faire.

Ce n’est plus creative labs qui n’équipe presque plus d’ordinateur de nos jours qui pourra améliorer l’expérience…



Le 26/09/2013 à 13h 28






yeagermach1 a écrit :

Quelques questions :




  • La partie audio avec laquelle AMD nous a bassiné pendant une trop grosse partie de la conférence, c’est plus évolué que ce que fait Nvidia sur ces cartes ? Ou c’est la même chose ?



    Non, ici on parle d’un framework ou API pour augmenter le nombre et la qualité des effets sonores dans les jeux . La demo de Genaudio n’est pas exclusive à Truesound d’AMD mais cette dernière permet d’avoir de bonne performance en temps réel. Il ne s’agit plus vraiment aussi de d’avoir un DSP dédié au effets à la façon des EMU mais bien d’utiliser le GPGPU pour faire le traitement du son.

    Il faut aussi séparé le traitement du son et la sortie audio qui elle pourra être soit via HDMI, SPDIF, ou via une sortie Jack via un convertisseurs numérique -&gt; analogique. Ce dernier restera important pour garder une bonne qualité audio sur des écouteurs ou un système de son brancher avec les prise jacks.


  • Mantle est une API bas niveau ok. Est-ce que Nvidia planifie de sortir la sienne aussi ?

    On n’en sais rien pour le moment, mais AMD à l’avantage d’avoir le marché des consoles pour convaincre les développeurs. PhysX n’a pas très bien marché mais CUDA a beaucoup de succès. Faudra voir…


  • Est-ce que cela risque pas de faire des jeux vraiment galères avec 3-4 moteurs de rendu différents (Mantle, DirectX, OpenGL et la version de Nvidia si ce dernier en sort une) ?

    Déjà programmer pour Mantle sera plus une galère, mais il y a de forte chance que ce ne soit que les développeurs de moteurs de jeux qui vont se taper ce travail. Les jeux ne se basant que sur des moteurs déjà compatible Mantle risque de l’être aussi si le gain de performance versus l’Effort y est.


  • Est-ce que les perfs seront vraiment au rdv ? AMD parle de 9 fois plus d’appel que sous DirectX et OpenGL, cela semble énorme ? Sait on pourquoi ?

    De ma compréhension, les draw call (dessiné un objets) font en ce moment
    Moteur du jeux -&gt; directX -&gt; Drivers -&gt; carte graphique

    Avec Mantle, on élimine l’étape de directX qui ne parallélise pas les draw call. Certaine étapes préliminaire peuvent être multithreader, mais l’écriture des draw call se fait toujours en single thread.

    Dans Mantle, le jeux parlera directement avec le pilote qui sera optimisé pour ce genre de tache. Il faut prévoir un gain de performance et une augmentation du niveau du détail, mais ça ne rendra probablement pas plus fluide un jeux en 4K puisque la bande passante, le fillrate et cie seront toujours limitant.

    Mais des jeux comme Crysis avec énormément d’éléments affiché à l’écran et souvent CPU limited y verront un grand gain.



  • N’y a t il pas un risque que AMD néglige les autres API au profit de la sienne ?


    • Pourquoi mais pourquoi donc avoir invité toute la presse a Hawai ??? Pourquoi une entreprise qui est plus souvent dans le rouge que dans le vert c’est une sacré perte d’argent pour pas grand chose.


      Beaucoup ont du faire le voyage a leur frais. La salle n’était pas si grosse et même si ça la couté 2-3 millions il n’y a rien la overall versus le cout total du développement du chips. Et franchement tout le monde en parle en bien ou en mal dans le milieux donc l’effet est réussi.

      Je doute qu’AMD va négligé DirectX et OpenGL, trop de jeux et d’application continueront d’en tirer partie.




Le 26/09/2013 à 01h 50

Pour l’Audio, faut pas se le caché, seul Creative labs faisait des trucs qui fut un temps fut assez intégré au jeux mais depuis l’arrivé de Vista et Windows 7, c’est le silence radio de ce coté.

On se contente d’offrir un support audio basique et bien souvent aucun positionnement. Si AMD peut offrir une API qui permettra de simplifier la spatialisation et autres effets sonore, moi je dit que c’est un gros plus.

De toute manière, la place de l’audio 3D c’est ou sont les informations 3D, sur la carte graphique. Elle connais la disposition du décors, l’emplacement des objets etc. ça ne fait que du sens.


Pour Mantle, j’ai bien hate de voir et hate de voir si Linux sera de la partie. SteamOS + Mantle = jeux facilement portable entre windows - consoles - Linux donc un gros afflux de jeux récent et de qualité pour Linux.

on verra. Pour la carte, avant, oui il y avait plus de concurence, mais aussi les process diminuait beaucoup plus rapidement. Maintenant, ça fait une éternité qu’on est en 28 nm et on va s’en tapper pour un bout encore…

ça limite les constructeur. ça les forces à optimiser…


Le CPU de la Xbox One passe à 1,75 GHz : la stratégie du doigt mouillé

Le 04/09/2013 à 15h 20

Si je ne me trompe pas, l’EDRAM est gérer de manière transparente par l’OS, c’est plutôt Microsoft qui se tapera le boulot de l’optimiser et non les Dev. Ça ne sera pas une mémoire adressable par les développeurs. Mais je suppose, je n’affirme pas. Il semble que c’était ainsi sur la Xbox 360.

L’anti aliasing et autre effets de post processing) ne sont pas très demandant en puissance, mais ils le sont en bande passante mémoire. Si ça peut se faire en plus en écrivant et en lisant en même temps dans différent endroit de la mémoire, il sera probablement plus facile d’atteindre la bande passante théorique maximal que sur GDDR5 qui devra se partager entre le CPU et le GPU sur la PS4.

Niveau simplicité, la solution de Sony est cependant bien plus simple effectivement.

Mais pour relevé la fréquence du CPU, il est difficile de savoir avant d’avoir vraiment vu les yeild. Ce sont les premier CPU AMD produit en 28 nm avec ce procédé et c’est donc de l’inconnu. ça aurait pu très mal viré mais s’il se sente à l’aise, c’est que probablement une très large partie du yield tient cette fréquence sans problème

Plusieurs oublie d’ailleurs que sur la XBOX 360, ce n’était pas le CPU qui provoquait la surchauffe et les RROD, mais bien la puce graphique. Ça sera idem sur cette console.


Le 04/09/2013 à 14h 27






brokensoul a écrit :




  • tu compares deux truc qui n’ont rien à voir. le cache du i3 dont parle HFR est un L2 ou L3, le cache du xBoxOne c’est de la eDRAM, beaucoup moins bas niveau et beaucoup moins rapide


    • comme déjà dit sur un commentaire précédent, s’avancer sur les effets est à mon sens un peu aléatoire. Par exemple sur un jeu limité par la gestion des textures, les 32m ne serviront pas à grand chose par rapport à la ram de la PS4.

    • comme j’en faisais la remarque, ces 32M de ram embarquée sont marginalement plus rapides que la DDR5 de la PS4 (100GB/s duplex contre 176GB/s sur un flux), mais énormément plus petits. Même Intel a mis 128M de cache sur ses processeurs Iris Pro, ça me semble soit petit soit lent. Mais je ne m’avancerait pas pour autant à prévoir le résultat..

    • ce qui est amusant avec cette génération, c’est que la PS4 va être facile à programmer (spécialement avec l’espace mémoire unifié), alors que la xb1 demandera une adaptation pour améliorer les perfs. Situation inversée par rapport à la xbox360/ps3



      Enfin un commentaire avec un peu plus de sens !

      Notons que :






    1. 8 coeur jaguar à 1.75 GHz ne demanderont pas énormément de bande passante mémoire. En réalité, la majorité de la bande passante mémoire sera utilisé par le IGPU. La latence plus faible pourra cependant être bénéfique dans une moindre mesure… mais très minimalement.


    2. l’EDRAM sera presque exclusivement utilisé par le IGPU, le CPU ne l’utilisera pas ou en aura pas besoin la plupart du temps mais pourrait s’en servir pour faire des modification dans ce qui est dans cette mémoire.


    3. Parlant du contenu de cette mémoire, (L’EDRAM), ce sera principalement un buffer graphique. ça ne stockera pas probablement pas des données comme les textures mais des résultat intermédiaire de rendu ainsi que des images en cours d’être rendu.

      De nos jours avec les moteurs de rendu de type différé, l’image est pré-rendu et plusieurs filtre y sont appliquer par la suite. Avec cette EDRAM, ce processus pourra se faire de manière encore plus efficace puisque malgré sa bande passante qui ne semble pas être si supérieur à la GDDR5, son temps d’accès et le nombre d’accès concurent sont bien meilleurs.

      La XBOX One est un peu moins bourrin mais plus rafiné. Microsoft avec DirectX a bien vu l’orientation que les moteurs de jeu ont prit et le design de la console reflète très bien ça. Si l’EDRAM a pu très bien faire ce genre de chose sur Xbox 360, pourquoi pas sur cette console.

      Sinon, 175 mhz de plus sur un Jaguar? je doute que ça pose problème. En 40 mm les bobcat passe très bien à 2 GHz alors je ne verrait pas pourquoi un Jaguar ne passerait pas à 175 MHz. Oui il y a 8 coeur, mais encore la, rien d’extra ordinaire. ça demeure petit comparé à la partie graphique.




NVIDIA domine un marché des cartes graphiques moribond

Le 21/08/2013 à 18h 54

Les voodoo 3d dédié, c’est un peu avant 1999 en fait.


Le 21/08/2013 à 15h 01






Aloyse57 a écrit :

Question bête (j’ai jamais testé, c’est pas les occasions qui m’ont manqué) :
est-ce qu’on peut jouer correctement (World of Tanks, Call of Duty, etc,,,vous voyez le genre) avec un GPU onboard Intel par exemple ?

Par défaut, j’ai toujours mis une carte dédiée dans mes PC : même dans mon Apple //e j’avais une ChatMauve, c’est pour dire <img data-src=" />



Sur les dernier oui si tu met le niveau de détails en moyen. Le gros problème des GPU intégré demeure le gros manque de bande passante mémoire.

Dans les 2 cas, les jeux sont surtout dépendant de la puissance du CPU, ça tournera relativement bien.



Les consommateurs de tablettes préfèrent les petits formats

Le 05/08/2013 à 18h 52

J’avais une 10” transformer prime et puis je l’a trouvais déjà lourde à la longue. le dock clavier était sympa pour ça mais peu pratique dans certaine situation.

Mais bon, elle a fait une chute sur la céramique et la vitre est tout craquer. Alors la, en cherchant un peu sur le net on trouve un tas de mec disant que c’est quasi impossible de changer la vitre sans changer l’écran, je me dit à 100$ aussi bien attendre que les écran oled flexible et sans vitre fassent leur apparition sur le marché.

Des tablettes beaucoup plus mince(pas de vitre, pas de rétro éclairage) avec un meilleur contraste probablement plus performante (je trouvais le Tegra 3 de ma tablette très poussif sur certains site que j’aime visiter en mode Web normal… (pas web mobile).

Surtout versus mon Nexus 4 qui fera très bien l’affaire. un site comme lapresse.ca charge en 2 seconde sur le nexus tandis qu’il faut compté 10-20 seconde sur Tegra 3


Il y a de moins en moins de studios de jeux, mais leur taille croît fortement

Le 05/07/2013 à 14h 58

Pour faire une analogie simple : Construire une maison

Batir la structure est probablement la partie la plus visible et semble être à première vue la partie la plus longue. Mais en réalité, le coté finition peut prendre encore plus de temps que batir la structure.

C’est la même chose en jeux vidéo. Aujourd’hui on peut faire des structure de jeu beaucoup plus rapidement avec les outils. Mais faire les détails demeure ce qui prend le plus de temps et c’est ce qui augmente tant le temps de dev des jeux.

Les AAA sont toujours extrêmement jugé sur leur graphique. Ils doivent maximiser les détails pour rendre le tout beau.

Mais oui, on peut prendre un outils et faire une carte de base ou un modèle beaucoup plus rapidement qu’avant, c’est sur !


grilled !


EA envisage de doubler la taille des villes dans SimCity

Le 04/07/2013 à 15h 25

Des cartes 2 fois plus grande ne vont que mettre d’autant plus en évidence la piètre qualité du moteur de simulation du glassbox.

Ce dernier doit être drastiquement amélioré sous plusieurs points




  1. le pathfinding peux encore être amélioré
    2.. Les habitants et les jobs doivent être fixe, pas comme actuellement ou un habitant va au travail le plus proche pour revenir à l’habitation la plus proche.

  2. le transport en commun doit être un mimimum inteligent (faire au moins un trajet qui a de l’Allure, l’idéal serait des lignes off courses…) et non voir ton tram faire A-B-A-B-A-C-A-B-A-F-G-A-D etc…

    Il reste ensuite un tas de trucs à équilibrer. Ensuite, augmenté la taille des maps sera une option valide.



SimCity : 8,99 euros pour fluidifier votre autoroute

Le 27/06/2013 à 14h 22

Le problème du trafic n’est plus tellement un bug (bien que c’était le cas à la release, le trafic était complètement buggué) c’est plutôt un défaut de conception majeur dans le jeu.

Le seul point d’entré/sortie de ta ville c’est l’autoroute. Le jeu est fait en fonction d’avoir à faire plusieurs villes ou jouer avec d’autres joueurs puisqu’il est impossible de tout débloquer avec une seule ville. Et c’est la que le problème commence.

Plusieurs villes implique plusieurs échanges et les échangent implique du trafic. Une fois ton entré d’autoroute complètement congestionné, tu es un peu baisé. Et ça ne prend pas des record de populations pour y arriver….

Dans Sim City 4 sans le mod dont je ne me rapelle plus du nom qui rééquilibrais les moyen de transport, le trafic devenait infernale c’est vrai. Cependant on était bien moins dépendant de ce problème puisque la carte était plus grande et on ne disposait pas d’une seule entré/sortie.

Sans parler que tu avais plein d’espace et plein de moyen pour réduire le trafic et une fois une ville complété, c’était souvent l’objectif.

L’autre chose qui gache beaucoup, c’est la piètre qualité de simulation du glassbox. Les fameux agents sont en fait des dummies très stupide. Par exemple, à chaque jour, les habitant vont prendre une marche ou prendre leur auto, vont trouver l’emplois le plus proche, travailler la pour la journée et retourner vers les zones résidentiel et dormir dans l’habitation la plus proche.

Je préfère de loin Tropico 4, les villes sont peux être moins jolie, mais la profondeur du jeu est 1000 fois plus grande.


Radeon : AMD prépare une « grande nouvelle » pour le CrossFire

Le 21/06/2013 à 19h 44






Anna Lefeuk a écrit :

Je suis chez ATI et NVIDIA qui font à mon avis de bonnes cartes. Je prend ATI si j’ai pas trop de tune sur le moment et si c’est un PC secondaire: ATI me correspond très bien sur ces besoins. Quand j’ai pas de souci de tune , je prend une bonne grosse Nvidia (actuellement GTX 680 avant GTX 8800): mieux optimisées pour les drivers, conso energie, ecosystème. Après Nvidia sont un brin arrogant, élitiste bref je leur mettrai des coups de boule mais leurs produits sont très bons. Ce n’est que mon avis



Encore la, ton message c’est basé sur la situation actuelle

Parce que ce n’est pas une situation permanente loin de la. Les Geforce FX était une catastrophe niveau consommation et prix. aurait tu prix une de ces cartes simplement parce que c’était une Nvidia.

Ton commentaire n’a de la valeur que dans la situation actuelle et rien ne dit que ça sera le cas l’an prochain.

Idem du coté des processeurs, la situation à changé, maintenant c’est AMD qui consomme en fou et intel qui est performant et économe. On remonte à l’époque des PIV et c’éait l’inverse.



Le 21/06/2013 à 19h 15

J’ai pas mal tout le temps été pour la meilleur carte dans les environs de 300-350$ mon budget, et ça la fait ATI -&gt; ATI -&gt; NVIDIA - AMD -&gt; NVIDIA

ma 570 va toujours très bien. Mais j’ai plusieurs bug de drivers avec World of Tanks le seul jeux que je joue. C’est vraiment fachant, si c’était une AMD, je n’aurais pas de problème.

J’ai jamais trouver les drivers nvidia mieux que ceux d’ATI ou vice versa à part peut être sur ma radeon 8500 LE ou les bugs d’affichage dans plusieurs jeux était légion !


Le champ d'éoliennes d'OVH finit de pousser : 6,5 MW à partir de mi-juillet

Le 17/06/2013 à 20h 57

Il y a les petites éoliennes à voiles qui sont en tests en france. Une belle petite idée de votre pays.

Mais bon, faisons quelques corrections :






Commentaire_supprime a écrit :

Au passage, j’avais vu que l’une des solutions pour parer à l’intermittence de la production des éoliennes, c’était de les associer avec des turboalternateurs marchant à l’air comprimé.

Quand il n’y a pas de demande mais de la production, l’éolienne produit de l’électricité pour compresser de l’air. Quand il n’y a pas de production mais de la demande, l’air compressé fait tourner une turbine qui entraine un alternateur pour produire de l’électricité.

Et après, c’est plus dans un panel de sources d’énergie, dont l’éolien est l’un des composants, qu’il faut chercher les solutions du futur à la fin du pétrole et la sortie du nucléaire.



l’air comprimé comme méthode de stockage à un rendement trop faible. Il y a cependant des études faites pour générer de l’électricité en utilisant la chaleur dégagé par la compressions des gas. Mais à grande échèlle, il faudra de trop gros réservoir pour que ça soit utilisable sérieusement. La meilleur méthode pour le moment demeure le pompage d’eau dans un réservoir qui sera ensuite turbiné.

Autre chose: L’idée de ne pas chauffer lorsque la maison est vide est une fausse bonne idée. En réalité, les test démontre que de baisser la température de jours pour tout rechauffer le soir lorsqu’on arrive demande plus d’énergie qu’un bon thermostat électronique qui régulera la température toute la journée au même niveau.

Mieux vaut bien isoler habitations et laisser la température à 21 degré celcius. Une température très confortable s’il n’y a pas de courrant froids.

Ensuite personne n’en parlent mais ne négligez pas le solaire thermique. Il existe plusieurs méthode aujourd’hui à a base de sel fondu qui permettre de stocker la chaleur capté pendant le jour pour continuer à produire de l’électricité pendant la nuit. Les matériaux des mirroirs ont beaucoup progressé aussi.

http://fr.wikipedia.org/wiki/Nevada_Solar_One

Ce n’est pas installable partout, mais le gros avantage de cette technologies, c’est qu’elle s’installe dans des terrains souvent peu dispendieux…



World of Tanks veut se débarasser de sa réputation de « pay-to-win »

Le 04/06/2013 à 18h 42






Ayperos a écrit :

Mouais. Sans compter les modifications de paramètres des blindés et des armes par Wargaming, cela fait peur.

J’ai beau les relancer sur des inepties, ils en ont rien à battre.

Par exemple, mon jouet KV-2 152mm, sur WoT il a 75mm de blindage de tourelle et 75mm de châssis. Portée de tir 750m. Réalité: jusqu’à 110mm de tourelle, 130mm de châssis, 15000m de portée, les alliés le surnommaient “Dreadnought”. Seul le 88mm allemand était en mesure de l’arrêter.

Avec la sortie des unités terrestres de War Thunder, World of Tanks va prendre un sacré coup.
Déjà le graphisme est meilleur, la jouabilité meilleure avec le même ping, pas de “packet lost”, le réalisme meilleur (règles balistiques, météo -vent, pluie, nuages, orage, brouillard,..-, portées de vue, portées de tir, blindage, carburant,..).
Sans compter les parties en “peloton”: 3 joueurs pour WoT, 4 pour WT.
Plus le fait que Wargaming modifie les chars efficaces en les affaiblissant (les “nerfant”) au fûr et à mesure des plaintes des joueurs qui les ont en face, au détriment de toute logique historique, alors que Gaijin Entertaiment ne modifie le fait que lorsqu’une erreur historique est décelée, du paramètre jusqu’au son (d’ailleurs même le son des moteurs -jusqu’aux armes- est celui de réels moteurs enregistré).
Vue 3ème personne, vue 1ère personne, vue simulateur, vue bombardier/artilleur, vue canonniers 3ème personne,.. alors que WoT a vue 3ème personne, vue sniper, vue artillerie.
Possibilité de basculer d’un serveur en un autre en un simple clic, voire de laisser le jeu trouver par lui-même les parties joignables sur l’ensemble des serveurs (US, EU, RU, bientôt asia), alors que WoT a un client spécifique par serveur.
La possibilité aux joueurs en avion de rencontrer ceux en chars puis plus tard ceux en navires pour WT alors que c’est tout simplement impossible pour WoT, WoWp et WoB…
Dans WoT une seule arme du char peut faire feu même si plusieurs tourelles, alors que WT considère toutes les armes, le commandant considère la sienne, le reste est géré par de l’IA.
Pas d’infanterie dans WoT, mais infanterie dans WT (attention, non jouable: 100% IA).
Les premiers Alpha testers sur les chars de WT prennent leur pied en beauté et les croiser sur les maps quand on est en avion, déjà que les chars sont beaux comparés à WoT, les voir réagir en esquivant, se cachant, utilisant les couverts pour esquiver les tirs, essayer de se couvrir mutuellement en tirant sur les avions: c’est extra.
Déjà War Thunder vs World of Warplane: 1 - 0
Et maintenant War Thunder vs World of Tanks: 0.8 - 0, quant les unités terrestres vont sortir de l’alpha test il est déjà clair que ça sera 1 - 0.

Je vous suggère de jeter un oeil sur Youtube pour voir la différence des unités sols de War Thunder.



On parle d’un jeu sortit il y a + de 2 avec une très longue closed beta, open beta alpha avant versus un jeu qui est toujours en Alpha.

C’est déjà la moindre des choses… mais ensuite, pour que tout colle à la réalité, j’espère que ton WarThunder va faire en sorte que le Tiger n’affronte que des pauvres M4 sherman stock et qu’il puisse les abattres à 2000 m alors que les autres ne pourront que difficilement à 100m.

Si c’est le cas, alors ça sera réaliste et tu sera content ? (sauf si bien sur… tu joue en M4.

Et pour Ton KV-2, j’espère qu’il implémenteront le fait que la tourelle se bloquait si le char n’était pas au niveau du à l’énorme poids de celle ci.

Parce qu’après tout, on parle de jeux vidéos et non de simulateur.



Le 04/06/2013 à 18h 20






Mamamia a écrit :

WOT, l’un des jeux les plus bugué que j’ai connu, avec un nombre ahurrissant de retour windows sans le moindre message d’erreur … et dire que certains payent pour ça <img data-src=" /> …

Le match-maker est aussi parfois completement à la ramasse, surtout quand on joue avec des potes, où bizarrement on se retrouve avec des des tanks 2 ou 3 niveau au dessue des nôtres.

Ils ont du boulot avant de vouloir prétendre à quelque chose <img data-src=" />




Toi tu as une Nvidia :P



Le 04/06/2013 à 15h 39

Les tank gold sont légèrement meilleur qu’un char fraichement débloqué à ce tiers, mais a tiers égale, un char pleinement équipé normal sera plus performant qu’un char premium.

Les chars premium sont généralement basé sur 2 gros avantages 2-3 gros inconvéniant.

Exemple :

T34, chard lourd premium T8 américain : Gros canon avec un bon Alpha (dégats par obus), bonne pénétration, mais blindage de caisse médiocre et temps de visé très long.

FCM 50t, Bonne pénétration, très mobile mais immense et peu blindé avec un alpha faible.

IS-6 : Bon alpha, bon blindage, mais précision médiocre, temps de visé médiocre et pénétration médiocre.

etc…

Tu n’achète pas un Premium pour PWNER, tu l’achète parce qu’ils génère un revenus en crédits (monaie du jeu) beaucoup plus important qu’un char normal tout en étant beaucoup moins cher à réparer.

Dans les bas tiers, les chars premium on l’air OP mais c’est principalement du à des joueurs avec des équipages expérimenté (à 100% de leur compétence principale + compétence secondaire) qui se battre contre des joueurs en progressions avec souvent un équipage à 50%. Dès le tiers 3, il faut penser à entrainer son équipage à au moins 75% pour être efficace, après c’est un prérequis. ceci ce fait en crédit du jeu gratuit. Il faut juste farmer un peu, mais c’est la que l’expérience rentre.

Les chars léger, il faut les éviter si l’on débute. Je conseil plutôt une branche lorude tel que les KV russes pour débuté.

Les chars Léger et dans une moindre mesure medium demande une certaine expertise pour bien les jouer. Il faut vraiment bien comprendre les mécanisme de jeu et avoir une bonne analyse du déroulement des combats.

Moi ce que j’aime de ce jeu, c’est le coté rapidité du plaisir. Je fait que très peu de clan war même si j’ai 2 tiers-10 et un clan. Ce n’est pas dans mon horraire de jeu qui est très disparate.

J’ai 30 min ? je me connecte, je choisis mon char, je fait Battle et déjà je suis en train d’avoir du plaisir. 30 min plus tard, je joue une dernière partie et je passe à autre chose. Chose impossible à faire avec un MMO.

30 minute c’est souvent ce que ça prend simplement pour se mettre à l’aise dans le jeu et planifier quelque chose avec sa corpo/guild.


Chrome 27 accélère encore le chargement des pages web

Le 22/05/2013 à 20h 37

J’ai fait la modification pour mes 3 navigateurs (Mais j’utilise principalement Chrome)

Ça marche très bien ! merci !!! <img data-src=" />


Google Timelapse : 30 ans d'évolution de la Terre vue du ciel

Le 13/05/2013 à 19h 40

Bah il est vrai qu’un pays peut piller ses ressources naturel pour promouvoir son économie. Mais au final, une fois qu’elle auront disparue, si le pays n’a pas été prévoyant, il ne restera que les ruines.

Faut pas non plus rêver en couleurs, la plupart des compagnies vont exploiter un secteurs, promettre de le restaurer une fois l’exploitation fini mais au final, une simple passe passe comptable les fera s’en tirer sans rien à faire et le gouvernent aura a payer la facture.

La passe passe ? c’est bien simple mais vous remarquerai que beaucoup de compagnie vont exploiter un site en créant une division. Une division qui sera revendu à un prête nom qui la déclarera en faillite le temps venu…

ça c’est vu et ça se fait toujours aujourd’hui. Dans bien des cas le gouvernement fini par payer avec l’argent qu’il a récolté pour réhabilité le site dans un état respectable.

Le développement économique par l’exploitation des ressources naturel, c’est un couteau à double tranchant. Mieux vaut laisser les autres le faire et utiliser la transformation et l’innovation pour prospérer.

Au final, il y a un temps et une manière d’exploité ses ressources. Il faut prendre le coût réel et non le pure coût économique et voir si ça vaut la peine. Protégé les rives si on peu y péché encore dans 50 ans aura été plus que rentable si en plus ont peut y faire du tourisme.

Et dans 50 ans, la demande de ces fameuse ressource sera peux être si élevé qui sera rentable de les extraire malgré toute les contrainte environnementale…


Le système de fichiers ReFS est bien présent dans Windows 8.1

Le 18/04/2013 à 16h 02

Effectivement, ZFS, il est recommandé de l’utilisé que sur un serveur totalement dédier au stockage avec beaucoup de ram et beaucoup de puissance machine.

Cependant, c’est vraiment flexible et ça fait des trucs que les raid hardware ne peuvent offrir à coût comparable. (et souvent, ces vendeurs de stockage… c’est des voleurs de grand chemin … des disques de 300 GB sata à 1500$, etc.)

Pour une solution payante, abordable avec support il y a :

http://nexentastor.org/

Plusieurs studio de postproduction l’utilise sur de très gros file-system et il est très apprécié.


AMD lève le voile sur sa Radeon HD 7990 Malta et sa gamme Radeon Sky

Le 29/03/2013 à 18h 13






Zimt a écrit :

Franchement où est le rapport entre un Cloud et les performances 3D d’une carte ??

Est-ce qu’AMD se rend compte de la connerie ou du sophisme de cet argument marketeu ?



C’est pour le Cloud gaming. Le jeu tourne sur le serveur et on te stream la sortie vidéo et sonore vers ton périphérique.

Ce n’est pas du cloud type office 365 ou cie la….<img data-src=" />



L'architecture de la PS4 répond à une demande des développeurs

Le 13/03/2013 à 18h 58

L’avantage de la mémoire unifié, c’est que le GPU et le CPU se partage les information.

Si par exemple, pour une image, tu as des informations (comme la physique, l’IA et cie) qui joue avec les vertices bah tu n’as pas besoins de faire du va et viens entre la mémoire centrale et la mémoire embarqué.

Tu as une texture que tu applique un effet procédurale ou autre selon divers actions (un traitement ou il y a de multiple branchement, ce qui fait qu’il sera plus rapide a exécuté sur le CPU), bah tu n’as pas besoin de la copier. Le GPU n’a qu’à la déverrouiller le temps que le processeurs fasse sont boulot et ensuite il reprend le relais.

En pratique, ça sauve un tas de bande passante et ça simplifie grandement le travail des développeurs. Et il ne faut pas comparé cela au bas de gamme PC ou le GPU est castré et doit partagé un bus 128 bit en DDR3. On va plutôt avoir un GPU relativement haut de gamme avec un bus 256 bit en GDDR5. Les perf de la mémoire seront beaucoup plus proche des cartes graphiques actuel.

Autre point pour les développeurs, la flexibilité.

Le dev 1, veux faire un jeu avec beaucoup d’information à gérer, (ex un SimCity par exemple) mais ou les graphismes seront simpliste.
Le Dev 2 veux surtout faire un jeu ou il vise le photoréalisme mais le jeu gérera peu d’information (ex Crysys X)

Avec une mémoire vidéo Fixe, le premier manquerait peux être de mémoire vive et le deuxième manquerais peux être de mémoire vidéo. Avec une mémoire partagé, le premier peux très bien utilisé 6 Go pour le moteur du jeu et 2 Go pour les graphisme et le second peux très bien faire l’inverse.


De plus grandes villes dans SimCity ? Maxis y pense mais ne promet rien

Le 04/03/2013 à 19h 34






Cacao a écrit :

Je dirai même plus :
Qui n’a pas vu un seul jeu de simulation ne pas ramer lorsqu’on arrive avec une map remplie de stuff/monde ? Tous les jeux de simu finissent par faire ralentir le jeu.

J’ai envie de dire ET ALORS ? Crysis 3 tourne pas sur tous les PC en full ET ALORS ?

Si ils veulent que le PC fasse tourner le jeu quoiqu’il arrive, ils pouvaient (au choix) :




  • Le sortir sur facebook ou android ou console

  • Permettre de créer des maps plus grandes en recommandant une petite suivant les perfs du PC



    pour avoir jouer sur la Beta sur un I7 2600 avec 8 GB de ram et une GTX 570, sur la carte remplis avec tout au maximum, le processeurs était a 80% de sa fréquence maximal et la fan de la carte graphique ne décollait pas si je laissait activé la limitation du framerate à 60 images par seconde.

    Mais ça prenait un peu plus qu’1 go de mémoire. Il y a de la place pour plus, ça c’est sur pcq si 1 go = 2km2km, on pourrais dire que 4km4km = plus ou moins 4 Go. 3kmx3km étant une valeur plus sécuritaire entre les deux.

    Il veulent probablement évité les crash à cause du dépassement de la mémoire alouable. certe c’est louable, mais en 2013, on s’attendrait à pouvoir un jour profité d’un qui tirrent partit du 64 bit, surtout quand la mémoire est le facteur limitant et que les processeurs et la carte graphique se tourne les pouces.



Le 04/03/2013 à 18h 57

Le plus gros problème technique, c’est qu’il veulent s’assurer que dans les limites maximal sur une carte 100% remplis de manière optimal, le jeu ne dépasse pas les 2GB de mémoire vive.


Pour rester grand public et toucher le maximum de gens, il ne veulent pas faire un build 64 bit ou activé le flag Large Adresse Aware pour aller chercher jusqu’à 3GB sur un OS 32bit avec les bon flag d’activé (pas très grand publique) ou jusqu’à 4 GB sur un OS 64 bit. Ce qui est regrettable.

Pourquoi ne pas faire un simple check au démarrage, OS 64 bit ? ok, donc maps 4x4km activé.


EVE Online franchit la barre des 500 000 abonnés à l'aube de ses 10 ans

Le 28/02/2013 à 15h 02

2 comptes ? petit joueurs

certains n’hésite pas à se payé des centaines de comptes pour camper le nulsec des alliances adverse en étant invisible, histoire de faire des hotdrop (débarquement en provenance d’un autre système beaucoup plus loin) à l’improviste sur les pauvres petites proies laisser à eux même ^^

http://s9.postimage.org/ndsx1nad9/replicators.jpg

Je pense que le jeu est très mature dans bien des domaines mais l’état du nulsec en ce moment n’est pas très optimal.


PS4 : huit coeurs Jaguar d'AMD, mais une Radeon de prochaine génération

Le 21/02/2013 à 20h 14






237domingo a écrit :

AMD a gagné le gros lots!! espérons qu’avec çà il vont sortir du rouge et pourront investir plus dans la rd question de rattraper intel (coté proco) et nvidia coté (gpu).

en même temps intel va aussi se frotter les mains parce que c’est quand même eux la locomotive du x86 la plupart des extensions et améliorations du x86 sont introduites par intel.
Tout çà ne fait qu’asseoir la position ultra dominante d’intel <img data-src=" />



Ce n’est pas encore clair si AMD a gagné le gros lot. Oui, il vendront un max de puce, mais si les bénéfices sur ces puces sont faibles, ça ne changera pas grand chose.

La ou il pourrais y avoir des gains, c’est avec la publicité induite. Cela pourrais booster les ventes sur PC la ou les marges sont plus grande.

Les 8 cores aideront surement à faire des jeux plus multithreader et donc aider les cpu haut de gamme qui ont plus de cores que ceux d’intel (pour des performances inférieur par core)

Mais après, rien ne dit qu’intel ne se gènera pas pour déchainer les cores si c’est ce qui vend…



Le 21/02/2013 à 17h 07

Le point de l’HDMI est une autre raison comme quoi le 4K n’est pas une technologie mature. Ça et le fait qu’il n’y en a pas encore de disponible <img data-src=" />

Donc ce n’est pas un mal qu’un produit grand publique fasse l’impasse la dessus. Les PC pourront la supporté et rendu la, les cartes graphiques auront la puissance et la mémoire nécessaire pour tout faire tourner.

Ensuite, le choix des CPU Jaguar, c’est lier à la consomation c’est certain. Ces petits CPU ont cependant de bonne performances si on leur donne une fréquence raisonnable.

Ils sont Out of order contrairement au Atom (enfin je ne sais plus si les dernier sont toujours In Order)


iOS 6.1.2 : Apple corrige le bug d'Exchange via une mise à jour

Le 19/02/2013 à 20h 58

Faut t’il avoir la 6.1.1 pour pouvoir passé à la 6.1.2, le Iphone du patron est toujours en 6.0.1 et ne se fait proposé que la 6.1.1…


EVE Online : CCP dresse le bilan de la bataille ayant opposé 2 700 joueurs

Le 31/01/2013 à 20h 00

De ce que j’ai pu comprendre lorsque j’ai joué un peu au jeu (mais laché faute de temps)

Quand tu meurt, tu as une capsule d’évacuation qui permettre à ton corp de se sauver. Les autres joueurs peuvent te tuer cependant, dans ce cas, il y a des clones dans le jeu qui protège un certains nombre de points de skill. Plus tu en as a protégé, plus ton clone est cher.

Il est possible d’avoir une assurances sur les vaisseaux. Mais franchement, je ne sais pas si le mec a assurer son Titan… ça doit coûter vachement cher !

Donc il a perdu son vaisseaux, irrécupérable, le fric qu’il a du mettre dans le vaisseaux et peux être son personnage aussi. mais il devait surement avoir un clone de niveau équivalent.


Steam : Half-Life et Counter Strike 1.6 disponibles sous Linux

Le 29/01/2013 à 18h 15

Je crois que ceci résume très bien ce qui est en train de se passé ici

http://imgs.xkcd.com/comics/argument.png


Le 28/01/2013 à 16h 54

Sinon, Planetary Anhilation sortira sous Linux et sera 64 bit de base. Et comme leur précédent jeu est sur Steam, il y a fort a parier qu’ils auront un blockbuster linux de plus sur Steam.


Xbox « Durango » : les supposées caractéristiques complètes

Le 22/01/2013 à 19h 59






wgg71 a écrit :

Ce qui me choque le plus ce n’est pas le TPD, mais bien la DDR3. La bande passante d’un bon kit de DDR3 pour PC c’est environ 30 Go/s alors que pour une carte graphique ça tape plus dans les 200 Go/s. Si la DDR3 est commune au CPU et GPU risque de bouchonner non ?



De 1, l’architecture comme le diagramme le démontre aura 32 MB de EDRAM on board. Ça va servir de mémoire tempons hyper rapide et ça fera sauver beaucoup de bande passante.

Ensuite, on ne sait pas encore la largeur du bus, sur un bus 64 bit, on pourra très bien avoir près de 70 Go/s de bande passante et le CPU n’en consommera qu’une partie. (il aura déjà un cache important et je doute que les 8 cores en exploiteront autant)

De ce que j’ai pu lire sur le net, ce sera des cores Jaguar (Bobcat) et non Trinity donc un TDP moins important pour la partit CPU. Faudra voir les performance, mais à basse fréquence ses performances sont très bonnes.



NVIDIA certifie son pilote 310.32 sous Linux

Le 22/01/2013 à 14h 00

Effectivement, sous Ubuntu, l’installation est simple. Tu as une notification dans la barre de haut que des pilotes propriétaires sont disponible. Tu cliques, tu active le pilote Nvidia, ATI ou autre, tu attend que ça télécharge et ça t’installe. Ensuite ça t’invite a redémarrer et puis voila !

La pizza n’a même pas le temps d’arrivé !<img data-src=" />