votre avatar

Tkop

est avec nous depuis le 26 juin 2012 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

318 commentaires

L'architecture de la PlayStation 4 décortiquée par son concepteur

Le 26/04/2013 à 10h 07






methos1435 a écrit :

Ca me fait marrer tous ces commentaires sur la puissance des consoles….

Sérieux, vous passez vos journées à vous branler sur des spécifications matérielles ?

Non, parce que moi j’achète une console pour jouer. Et si le jeu me plait, j’en ai rien à battre que la console soit dépassée par un PC….



C’est ca le problème avec les casus, ils ne se rend pas compte que acheter des jeux sur des consoles dépassées ralenti certain aspects de l’innovation vidéo ludique et en plus ne leur revient pas forcément moins chère.



Le 26/04/2013 à 10h 04






Tourner.lapache a écrit :

J’ai mis “config équivalente” pour pas me prendre la tête. Mais pour avoir cherché un minimum les données avec des dates précises, si les consoles sont ridicules coté CPU (comme d’hab, pas d’OS à gérer et pas multitaches notamment) coté GPU elles ont toujours été au niveau. Fait quelques recherches.


What ??? <img data-src=" />
Alors là je ne suis pas vraiment d’accord
Je n’ai jamais vue de PS3 ou de Xbox 360 booter directement sur un CD de jeux.
Les consoles se mettent à jour maintenant
Pas de multitâche, tu y crois encore ? Les trucs pour communiquer, l’acces au dashboard ingame, les succès.
La PS4 enregistre mème les 10 dernière minutes de jeux pour pouvoir les mettre sur youtube pendant que tu joue et tu parle de “pas multitaches”
Les consoles ont maintenant un vrai OS. Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).



Le 26/04/2013 à 09h 34






azedrummer a écrit :

Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment) mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix.


Pas besoin d’un PC à 2000€ pour dépasser la PS4, malgrès les optimisation faites pour son archi



Le 26/04/2013 à 08h 28






calimero1 a écrit :

AMHA, elle risque donc d’être bien plus puissante qu’une config à base de HD7850 ou de GTX660. (ma config actuelle est à base de GTX660)
Mais elle ne creusera pas l’eccart avec des configs très haut de gamme qui combleront leur manque d’optimisation par leur puissance brute.
Disons que le matos moyen de gamme va rattraper plus rapidement cette PS4 qu’à l’époque de la PS2 ou de la xbox360.



Le plus drole c’est la PS3. Sortie en europe 3 moi après le G80, ou comment se faire pré-poutrer. La console n’est pas sortie que la technologie est pire que démodée, mais plutôt totalement obsolète quand on voit la différence technologique entre G70/RSX et G80



Le 25/04/2013 à 18h 16






kail a écrit :

De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?



Ca exite depuis les geforce 6200LE Turbocache <img data-src=" />
Ca fait tourner Crysis 3 à fond il parait <img data-src=" />



Le 25/04/2013 à 18h 14






AxelDG a écrit :

Donc pour répondre à ta question, ça ne devrait pas influencer le comportement des développeurs en terme d’algorithmie. <img data-src=" />



Objection !!!

Je pensais comme toi il y a peu que l’archi osf qu’il n’y avait que l’algo utilisé qui importait et que de toute façon c’était à ton compilo de faire bien bien les choses pour supporter ton archi.

Sauf qu’un jour j’ai commencé à faire de l’OpenCL sur GPU. Je ne suis pas encore un expert du calcul haute performance, mais j’ai tenté de faire un algo de produit de matrice le plus perf possible (pour moi). J’ai donc commencé à faire un con algo en n^3 en C puis en OpenCL, et à constater que c’était 20x plus rapide sur GPU. Puis un jour j’ai décider d’inverser 2 ligne dans mon code en C: inverser l’ordre de 2 boucles !! c’est rien, ca ne change pas la complexité, ca ne change pas le nombre d’opération à faire, en théorie ca ne change rien !!

En pratique ca divise par 5 le temps de calcul sur CPU parce que du coup celui ci arrive à bien charger dans le cache les données. Du coup j’ai tenté l’astuce sur GPU: ben ca diminue les perf de 20% <img data-src=" /> .



Le 25/04/2013 à 16h 18






pxidr a écrit :

Pour avoir une seule machine tout simplement ?

Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…


Si
je pense que pour 700€ (sans Windows) tu peux faire mieux
Si tu veux un exemple demande .



Le 25/04/2013 à 16h 14

Je doute de la réelle utilisé de la mémoire partagée entre CPU et GPU pour faire du graphisme, pour du GPGPU oui mais pour du graphisme. A l’époque des 8800, j’avais un bug sur ma carte mère qui forçait mon bus PCI express 1.0 à fonctionner en 1x (250mo/s) , l’ai réussi à corriger partiellement le bug et à repasser en 8x (2Go/s), j’ai gagner 20% d’ips sous crysis 1, le jeux en 1x était déjà fluide.

A la limite ca peut augmenter les perf CPU car celui ci disposera de plus de bande passante et en utilisera moins pour les transfert avec la carte graphique. Mais aussi ca laisse plus de liberté dans la répartition de la mémoire entre CPU et GPU.
Là où ca aurait pu etre vraiment impressionnant c’est s’il avait fait un contrôleur mémoire commun avec un joli cache.

Enfin petite précision: les débits théorique affiché sur les bus sont joli mais aprés faut voir ce qu’il en est dans la pratique, car le débit entre deux zone mémoire ne dépend pas uniquement du bus. Par exemple sur mon PC (i5 3550k, HD78870, PCIex 3.0) le débit RAM VRAM est de 9Go/s et non de 16Go/s. Du coup à 60 ips on a 153Mo/image de transfert entre CPU et GPU 300Mo à 30ips (ce qui est plus la norme pour les console)


Insolite : Un petit café avec Tim Cook pour 180 000 dollars ?

Le 25/04/2013 à 15h 46






Vachalay a écrit :

Gagner l’enchère et puis ne pas y aller en prétextant avoir un emploi du temps chargé. Mon rêve si j’avais quelques millions à dépenser.<img data-src=" />


J’ai pensé à la mème chose <img data-src=" />

Edit remarque ce qui serait marrant c’est qu’il remporte lui même l’enchère.



AMD publie ses pilotes Catalyst 13.4 et 13.5 : gains de performances à la clef

Le 25/04/2013 à 06h 24


Comme bien souvent, il n’y a pas grand-chose à se mettre sous la dent si ce n’est le support du mode console pour OpenCL


Vous déconner là, ci c’est ce que je pense c’est fantastique !!
Parce que actuellement si on ne fait pas “export DISPLAY=:0” quand on se connecte en ssh à sa machine, ben on peut pas faire d’openCL sur sa carte graphique.
De-mème pour utiliser l’overdrive (pour connaitre la température de la caret par exemple) il faut en plus ouvrir un session X.


Le Caterpillar B15 certifié IP67 sous Android 4.1 référencé à 389,90 €

Le 10/04/2013 à 16h 57






spidermoon a écrit :

Le plus fragile, c’est toujours l’écran. Je me demande comment résiste celui-ci lorsque qu’il tombe sur un coin de table écran en premier.
Plus sérieusement <img data-src=" /> will it blend ? résiste-il à un calibre .50 ?



peut etre que la vitre est blidée ?


sinon t’as qu’a rajouter un grillage de protection devant <img data-src=" />
Le laisser dans sa boite aussi ca peut marcher



YouTube veut intégrer des fonctionnalités de streaming dans les jeux vidéo

Le 01/04/2013 à 16h 14

Je regarde beaucoup les lives des lcs ( League of legend) et ceux ci sont disponibles sur twitch.tv et YouTube
l’avantage de Youtube c’est que tous le début du Stream est disponible au visionage
l’avantage de twitch c’est que ca marche super bien, avec beaucoup moins de lag que youtube


Une russe accusée d'avoir tué et découpé son fils pour un blocage du Net

Le 29/03/2013 à 08h 13

Sans les russes l’Internet serait beaucoup moins marrant


Logan : la prochaine puce Tegra de NVIDIA pourra gérer CUDA

Le 19/03/2013 à 19h 44






ffvsdoom a écrit :

ça on sait pas, mais la puce Logan, elle, elle va déchirer sec… (à coups de griffes !) <img data-src=" /><img data-src=" /><img data-src=" />


Ahah t’es pire que moi <img data-src=" />





j’ai du utiliser google pour comprendre <img data-src=" />



Le 19/03/2013 à 18h 22






David_L a écrit :

C’est de haut niveau ce soir dites donc… ;)


Désolé ça fait longtemps que je ne poste plus beaucoup sur PCI, faudrait que je me remette à niveau.



Le 19/03/2013 à 18h 12

Leur puce Parker, elle sera compatible avec la plateforme spider d’AMD ?


NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

Le 19/03/2013 à 19h 38






yeagermach1 a écrit :

Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.



Pendant longtemps il fallait des carte mère spéciale pour profiter du multi-GPU, d’abord des cm avec les chipset des constructeurs puis ensuite seulement des puce additionnelle.
Une carte mère avec un gestion spécifique de la ram pour le monde du calcul je ne trouve pas ça exceptionnel surtout que quand tu change ce genre de machine t’as tendance à tout changer et pas changer pièce par pièce .
Mais je pense que t’as raison.



Le 19/03/2013 à 19h 26






yeagermach1 a écrit :




  • memoire sur la cg


    • le debit memoire vers CM sera celui du PCI express au mieux.

    • donc acces asymetrique

      Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?


      Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP <img data-src=" />




Le 19/03/2013 à 19h 25






Skeeder a écrit :

Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.


Ouai mais je ne suis pas certain que l’on puisse accéder à la mémoire GPU en dehors de l’API cuda



Le 19/03/2013 à 18h 20






David_L a écrit :

Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)

Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :

http://developer.download.nvidia.com/CUDA/training/cuda_webinars_GPUDirect_uva.p…



J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU



Le 19/03/2013 à 18h 08

Edit: double ?


Le 19/03/2013 à 18h 08






David_L a écrit :

L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?


Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
La mémoire est sur la CM, sur la CG?
accès est il symétrique entre CPU et GPU?
Quel débit ?
Quelle latence ?
Interchangeable ?
Faut -il une CM spéciale ?



MSI G Series : des cartes mères et des machines AIO pensées pour les joueurs

Le 01/03/2013 à 19h 56






sniperdc a écrit :

OMG la finition dragon de la carte <img data-src=" />

Vivement les Bench’s <img data-src=" />

J’ai décidé d’upgrader ma conf, pour l’allim et la carte graphique c’est déjà fait (Corsair AX1200i, GTX690) maintenant je suis curieux de voir les perf avec un Raid 0 de SSD, Carte mère en Z77 et Intel Core i7 3930K <img data-src=" />


Je suppose que tu fait autre chose que jouer avec cette config, parce-que sinon c’est un peu la bombe atomique pour tuer des mouches



La PlayStation 4, un PC « Supercharged » qui arrivera pour Noël 2013

Le 21/02/2013 à 08h 14






Lemon Pie a écrit :

32-bit x86 RAM limit
See also: 3 GB barrier and PCI hole
In non-PAE modes of x86 processors, the RAM is always limited to 4 GB.
Limits on memory and address space vary by platform and operating system, and on Windows by whether the IMAGE_FILE_LARGE_ADDRESS_AWARE value of the LOADED_IMAGE structure and 4-gigabyte tuning (4GT) are in use.
Limits on physical memory for 32-bit platforms also depend on the Physical Address Extension (PAE), which allows 32-bit systems to use more than 4 GB of physical memory.
PAE and 64-bit systems can address up to the full address space of the x86 processor.

Source Wikipedia.

J’aimerais voir ta configuration copain <img data-src=" />


<img data-src=" />

un Pc 64bit ca ne te dit rien ?
le x86-64 ?
t’as jamais vu de PC avec plus de 4Go de RAM ?!!

et puis comme t’aime bien parler le wikipedia :

Sans EAP, ni (en)PSE, les processeurs 32 bits ne peuvent pas adresser plus de 4 gibioctets (232) de mémoire centrale, tandis que les processeurs 64 bits peuvent adresser 16 exbioctets (264) de mémoire. C’est pourquoi dès qu’il y a plus de 4 gibioctets sur une machine, la mémoire au-delà de 4 gibioctets ne sera utilisable qu’en 64 bits.



Le 21/02/2013 à 08h 07

Personnellement je suis agréablement surpris par cette PS4, elle est bien plus puissante que ce que je pensais. La carte graphique qui semble etre un genre de HD7850 est vraiment bien (y a mieux mais quand on voit le niveau de la wii U et de la ps3 …).
Et pour la mémoire vive je suis carément bluffé, je pensais pas qu’il en mettrait autant: 8Go GDDR5 unifié qui fournie 150Go/s de BP. Pas mal, d’autant plus que je suppose qui l’on peut enlever de l’utilisation de la bande passante les transferts de donnée CPUGPU (les fans d’OpenCL vont etre ravis). C’est aussi pas mal car la GDDR5 est deux foi plus chère que la DDR3, c’est donc un choix couteux auquel ils ont du faire face.

En ce qui concerne les demo techniques: Je pense que killzone c’est du ingame jusqu’à ce qu’il tombe sur la frontière et que l’on a un gros plan sur les deux ville.
J’ai trouvé la demo de square enix vraiment nul, on l’a déjà vue, ce n’est pas du real time, et leur utilisation des particules et assez mal faite à mon gout.

L’accent de Yves et toujours aussi tripant. J’attendais une super annonce du genre BGE2 lorsque je l’ai vu arriver sur le plateau, en faite c’est watchdogs, qui au passage m’a paru bien sympas.

Enfin j’aime bien leur speech sur la possibilité de nouveaux buisness models, on comprend mieux pourquoi crytec veut faire que du free to play.

J’ai bien hâte de voir les jeux de cette génération débarquer, et y jouer …














… sur mon PC.


Selon le 1er ministre, 20 Mds d'euros seront investis pour la fibre d'ici 2023

Le 20/02/2013 à 21h 01






sebtx a écrit :

C’est pas comme si la dizaine de millions était payée juste une fois, sans compter les frais de mise en place… C’est chaque année que c’est payé…



J’ai bien dis par an dans mon premier commentaire <img data-src=" />



Le 20/02/2013 à 16h 56






Virtual_Spirit a écrit :

C’est sympa. En gros si t’habite à la campagne, tu va payer une taxe pour que tes voisins en ville qui ont déjà un débit 10x meilleur que le tiens, puisse en avoir un 100x meilleurs <img data-src=" />



Je ne sais pas si tu as lu la news, mais il y est bien écrit que les 20 milliards d’investissements ont pour but de relancer la croissance. Ce n’est pas en fibrant des villages que tu va avoir les plus gros retours sur investissements. Économiquement se sont les grandes villes qui ont le plus besoins de la fibre.



Le 20/02/2013 à 16h 52






sebtx a écrit :

Dire qu’en supprimant les trucs inutiles (et nuisibles) comme Hadopi on pourrait gagner assez pour donner un bon coup de boost au déploiement de la fibre en France.

Mais bon si en France on était bon ça se saurait…



Je totalement contre le concept de la hadopi, mais il faut quand même rester lucide: le budget de la hadopi c’est de l’ordre de la dizaine de million pas de milliards; même pas de quoi équiper une ville de 50k par an, ie ca ne changerait pas grand chose.

Mais bon en France si on n’était pas de mauvaise foi ça se saurait <img data-src=" />



Crytek veut s'investir dans le free-to-play « AAA » avec Warface

Le 03/01/2013 à 11h 57

Ca me manque l’époque de FEAR Combat.
Là le feeling était excellent


L'injonction d'Apple contre les smartphones Samsung rejetée aux États-Unis

Le 18/12/2012 à 12h 05






Ti Gars du Nord a écrit :

ahhh lala dire que les sommes dépenser par les 2 firmes pourraient etre utilisé a de meilleurs usage:

en R&D par exemple ou alors à une reduction des prix du matos, car qu’on se le dise dans le tarif des i-bidule et des galaxy-machin: on paye les avocats


<img data-src=" />
Avocat ou pas avocat le prix est le mème: le plus chère du moment que ca se vend.

Et puis en temps de crise il faut bien diversifier son activité pour réduire les risques <img data-src=" />



Le Hobbit de Peter Jackson : ce qu'il faut savoir de la diffusion HFR 3D à 48 fps

Le 11/12/2012 à 20h 22






Baldurien a écrit :

Et dire qu’ils ont supprimés Tom Bombadil :/
(Et dans le Hobbit, il nous colle Galadriel… qui n’est pas dans le livre, super :/)


Après ca n’empèche pas de faire une bonne histoire et un bon film, faudra regarder le critiques.



Le 11/12/2012 à 20h 21






psikobare a écrit :

J’attendais avec impatience, marre de voir de la 3d à 12fps par oeuil avec cette impression de lagger à chaque mouvement



Dans les cinéma ca a toujours été 24 images pas secondes pour chaque oeil, chaque 24ème de seconde, 2 images sont projetées, il y a deux projecteurs dont la polarisation est orthogonale.



Le Parti Pirate va défendre le contournement du blocage de The Pirate Bay

Le 11/12/2012 à 11h 02






Khalev a écrit :

Un sous-entendu s’est glissé dans cette pseudo explication. Sauras-tu le trouver?


PCi publie plus de news sur l’industrie du pr0n que sur l’industrie phonographique <img data-src=" />



La future console de Valve serait un PC de salon

Le 10/12/2012 à 10h 09

Ce qui serait cool c’est qu’ils rajoutent la gestion des bibliothèques d’images, de videos et de musique dans big-picture pour faire une interface mediacenter complète.
Sinon je trouve vos critiques un peu dure alors que l’on ne sait pas ce qu’ils ont prévu de sortir.


Ils l'ont fait : des écrans LCD sphériques dans des lentilles de contact

Le 05/12/2012 à 18h 13

On le branche comment l’écran ? avec de l’HDMI ?


Le jeu vidéo entre au Museum of Modern Art de New York

Le 30/11/2012 à 10h 27

et Rayman ?
Je veux voir Rayman !!
et BGE


Roussel (SFR) : « Avec la 4G, Free va arriver à ses limites techniques »

Le 29/11/2012 à 15h 50

Je trouve la plus part des commentaires un peu idiot:
Vous critiquez les opérateurs qui vont proposer des offres 4G






Cacao a écrit :

A lire les commentaires, je crois que tout le monde s’en tape de la 4G, moi y compris :)



Il y en a même qui critiquent le fait qu’ils proposent la 4G avant qu’il y ait des smartphones compatibles. On peut penser que vous auriez critiqué Apple ou Samsung s’ils avaient sorti un smartphone 4G sans le réseaux des opérateurs.
Peut être que pour vous satisfaire il faudrait que tous les vendeurs de smartphones et tous les opérateurs se mettent d’accord pour annoncer les 2 le même jour?


Enfin vous dites: la 4g j’en ai rien à faire, les débits qu’ils proposent sont inutiles, déjà qu’ils mettent de la bonne 3G partout.

La 4G ce n’est pas seulement une augmentation du débit, c’est juste le seul argument commerciale pour les néophytes !! La 4G permet d’améliorer la qualité du réseau, d’augmenter le nombre de personne sur une antenne …
Et ensuite peut être que les application originales de la 4G arriveront lorsque celle ci aura déjà des utilisateurs.



[Dossier PCi] Les nouveautés de Lenovo sous Android et Windows 8 / RT

Le 22/11/2012 à 20h 59

J’aime beaucoup les ideaPad, surtout le fait qu’ils aient de la couleur et un modele 14”. Le gris de mon série 5 ultra est un peu triste, par contre son écran matte est géniale, ca manque à l’ideaPad


Nouvelle Livebox Play d'Orange : les détails du boîtier multimédia

Le 20/11/2012 à 18h 52


La télécommande disposera pour sa part d’un pointeur et d’un gyroscope. Elle gèrera à la fois l’infrarouge et la radiofréquence (RF4CE). Le tout tiendra dans des dimensions de 386 x 242 x 42mm et un poids de 2,3 kg.


C’est pas un peu lourd et grand pour une télécommande? <img data-src=" />

J’espère que l’on pourra échanger rapidement pour cette nouvelle livebox.


Xbox : de nouvelles rumeurs autour la prochaine console de Microsoft

Le 20/11/2012 à 18h 30






Idiot Proof a écrit :

en 64 bits elle prennent juste 2x plus de place qu’en 32 <img data-src=" />



Non pas les données. Par exemple tu n’as absolument aucune raison de stoker un Char (un caractere ASCII) sur plus de 8bit.

Utiliser un adressage 64bit permet d’adresser 2^64 “cases mémoires” (qui font 1 octet soit 8bits). Lorsque l’on passe de 32bit à 64bits seul la taille des adresses change, la taille des “cases mémoire” reste d’un octet (8bits), on n’alloue pas la mémoire par paquet de 32 ou 64bits

Maintenant quand on code (par exemple en C) et que l’on veut que celui ci soit joli, on utilise des type du genre uint64_t , int16_t, et ca permet de se poser moins de question sur la place que va prendre notre variable.



Le 20/11/2012 à 17h 57






jpriton a écrit :

8go <img data-src=" /> pas de quoi s’extasier, mon téléphone en a 32go <img data-src=" />

Et puis c’est bien connu, dès sa sortie, une console est déjà dépassée.


<img data-src=" />:eeek:<img data-src=" /><img data-src=" />



Le 20/11/2012 à 15h 38






Beginner a écrit :

Alors les nouvelles consoles ne vont vraiment pas faire baisser le prix de développement des jeux.
En production il a fallu qu’on augmente les specs de nos workstations, tant coté CPU que GPU, et vitesse/capacités des périphériques de stockage. Même coté moniteur il va falloir qu’on s’adapte pour travailler en ayant des moniteurs ayant minimum 1200 pixels de hauteur, pour travailler du 1080p tout en ayant des menus disponibles. Et coté serveurs/stockage, prévoir également masse investissements pour stocker encore plus de data…
Mais bon c’est pareil à chaque nouvelle génération de consoles, il y a des gros investissements pour lancer les développement sur la nouvelle génération.



Si je comprend bien tu travailles dans une boite qui fait des jeux vidéos, c’est cool ça.

Donc vous changer de poste uniquement à chaque génération de console?
Vous n’avez toujours pas de moniteur 1080p pour travailler ?

J’avoue que dans ma réflexion je n’ai pensé qu’aux couts de production et pas aux investissements. Mais sinon l’utilisation de nouvelles technologies (notamment en ce qui concerne le développement) ca vous simplifie la tache non?



Le 20/11/2012 à 15h 27






DIKK3N a écrit :

Mouai… Mieux vaut attendre la confirmation, car un quad-core , je trouve ça peu…
La 360 a un tri-core <img data-src=" />


Les performances par cœur ne sont peut-être pas les même non plus.



Le 20/11/2012 à 15h 15






GrosRaisin a écrit :

Tu comptes être un investisseur pour les studios ^^ ?? Ils ont déjà beaucoup trop de mal à assumer les coûts de développement alors si tu leur demande de travailler encre plus, seule les gros studios subsisteront.


Hé bien figure toi que je pense que les nouvelles consoles peuvent diminuer le prix de développement d’un jeux vidéo. Plus exactement je pense que le surplus de performance et de mémoire vive peut permettre aux studios de taille moyenne de plus se concentrer sur le contenue artistique du jeux ou sur son gameplay au lieu de se concentrer sur l’optimisation des performance de chaque lvl (en cherchant quel partie du lvl il faut pré-calculer …), au de passer moins de temps à débugger leur code grâce à des outils de développement plus haut niveau.
Après je ne travaille pas dans le jeux vidéo, on peut me corriger si je me trompe.



Le 20/11/2012 à 15h 05






Much a écrit :

J’aime le sous titre. <img data-src=" />

Bon par contre si tout est vrai, j’imagine pas le prix du bordel…
Blu-ray, 8 Go de ram, Kinect… rien que ça.


8Go de ram <img data-src=" /> ca doit couter genre \(20 au lieu de \)10, ce n’est pas ca qui détermine le prix d’une console.
Pour le blu-ray je pense que les prix de production ont largement baissé en 6ans
Enfin le Kinect peut alourdir l’addition, mais c’est aussi ce qui donne à la console une grosse partie de sa valeur.



Le 20/11/2012 à 15h 00

J’espère que la console aura strictement plus de 4Go de mémoire vive afin de garantir le développement des jeux en 64bits (Pour les portages PC). D’un autre coté si le kit de développement a 8Go de mémoire vive, les versions non finales devront être 64bits pour en profiter.
Dans tous les cas j’ai hâte de la voire débarquer afin de relever un peu le niveau technique des jeux actuels (sur PC) et pas uniquement d’un point de vue rendu graphique mais dans la gestion de la physique (suppression du moteur physique de Crysis 2 à cause des consoles), de l’IA, des niveaux (augmentation de la taille de ceux ci, mais aussi augmentation du nombre d’objet, Halo 4 a un rendu impressionnant pour une Xbox 360 mais c’est assez vide).
Ca va permettre de relancer l’innovation, du moins j’espère.


 : le « made in France » en high-tech

Le 17/11/2012 à 07h 27

Suffit d’aller à Grenoble (Isère) pour en prendre conscience, Les trois quart des entreprises citées dans l’article y sont (ou sont dans la banlieue (Crolles Montlucont)), et il y a plein d’autres entreprises (certainement des labo de recherche) comme siemens, ericson, schneider … et ce sans compter les startups (Heliodel …).


Un abandon des processeurs Intel par Apple est-il possible ?

Le 07/11/2012 à 13h 03






Kytrix a écrit :

Merci c’est déjà plus parlant :)

mais ce qui serait aussi intéressant c’est de savoir à quel processeur de bureau “normal” c’est équivalent

par exemple pour avoir une idée du décalage entre puissance desktop et mobile !

du style GlaxyS3 = Amd Thunderbird 1Ghz (il y a 10 ans en gros)



Je ne crois pas que des processeurs avec une telle différence d’age soient trés comparables. L’augmentation des performances des proc n’est pas homogène à toute les taches, une nouvelle architecture n’augmente pas que les perf globales (voir même peu, et je crois que ca se fait la plus part du temps sur les accès mémoire), mais rajoute des unités dédiées à des calculs spécifique pour les réaliser plus rapidement. (unité dédiée au décodage vidéo ..)
Aussi l’augmentation des performances c’est pas uniquement faire les calculs plus vite mais en faire plus en même temps, grâce au calculs parallélisé (SSE, multicoeur …), ou aussi en avoir moins à faire en déportant sur le gpu.



La version finale d'Office 2013 ne force plus l'interface blanche

Le 25/10/2012 à 15h 12

Ils ont du attendre la version finale pour vérifier si les autres couleurs n’avaient pas été brevetées. <img data-src=" />

edit: mince c’est pas une new Samsung.


[Revue de presse] AMD lance de nouveaux processeur FX : la revanche ?

Le 23/10/2012 à 13h 29






brokensoul a écrit :

edit : exemple de test sur HFR sur l’impact des compilateurs



C’est ce test que j’avais en tête lorsque je parlais des performances supérieures de ICC