Ca me fait marrer tous ces commentaires sur la puissance des consoles….
Sérieux, vous passez vos journées à vous branler sur des spécifications matérielles ?
Non, parce que moi j’achète une console pour jouer. Et si le jeu me plait, j’en ai rien à battre que la console soit dépassée par un PC….
C’est ca le problème avec les casus, ils ne se rend pas compte que acheter des jeux sur des consoles dépassées ralenti certain aspects de l’innovation vidéo ludique et en plus ne leur revient pas forcément moins chère.
Le
26/04/2013 à
10h
04
Tourner.lapache a écrit :
J’ai mis “config équivalente” pour pas me prendre la tête. Mais pour avoir cherché un minimum les données avec des dates précises, si les consoles sont ridicules coté CPU (comme d’hab, pas d’OS à gérer et pas multitaches notamment) coté GPU elles ont toujours été au niveau. Fait quelques recherches.
What ??? " />
Alors là je ne suis pas vraiment d’accord
Je n’ai jamais vue de PS3 ou de Xbox 360 booter directement sur un CD de jeux.
Les consoles se mettent à jour maintenant
Pas de multitâche, tu y crois encore ? Les trucs pour communiquer, l’acces au dashboard ingame, les succès.
La PS4 enregistre mème les 10 dernière minutes de jeux pour pouvoir les mettre sur youtube pendant que tu joue et tu parle de “pas multitaches”
Les consoles ont maintenant un vrai OS. Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).
Le
26/04/2013 à
09h
34
azedrummer a écrit :
Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment) mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix.
Pas besoin d’un PC à 2000€ pour dépasser la PS4, malgrès les optimisation faites pour son archi
Le
26/04/2013 à
08h
28
calimero1 a écrit :
AMHA, elle risque donc d’être bien plus puissante qu’une config à base de HD7850 ou de GTX660. (ma config actuelle est à base de GTX660)
Mais elle ne creusera pas l’eccart avec des configs très haut de gamme qui combleront leur manque d’optimisation par leur puissance brute.
Disons que le matos moyen de gamme va rattraper plus rapidement cette PS4 qu’à l’époque de la PS2 ou de la xbox360.
Le plus drole c’est la PS3. Sortie en europe 3 moi après le G80, ou comment se faire pré-poutrer. La console n’est pas sortie que la technologie est pire que démodée, mais plutôt totalement obsolète quand on voit la différence technologique entre G70/RSX et G80
Le
25/04/2013 à
18h
16
kail a écrit :
De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?
Ca exite depuis les geforce 6200LE Turbocache " />
Ca fait tourner Crysis 3 à fond il parait " />
Le
25/04/2013 à
18h
14
AxelDG a écrit :
Donc pour répondre à ta question, ça ne devrait pas influencer le comportement des développeurs en terme d’algorithmie. " />
Objection !!!
Je pensais comme toi il y a peu que l’archi osf qu’il n’y avait que l’algo utilisé qui importait et que de toute façon c’était à ton compilo de faire bien bien les choses pour supporter ton archi.
Sauf qu’un jour j’ai commencé à faire de l’OpenCL sur GPU. Je ne suis pas encore un expert du calcul haute performance, mais j’ai tenté de faire un algo de produit de matrice le plus perf possible (pour moi). J’ai donc commencé à faire un con algo en n^3 en C puis en OpenCL, et à constater que c’était 20x plus rapide sur GPU. Puis un jour j’ai décider d’inverser 2 ligne dans mon code en C: inverser l’ordre de 2 boucles !! c’est rien, ca ne change pas la complexité, ca ne change pas le nombre d’opération à faire, en théorie ca ne change rien !!
En pratique ca divise par 5 le temps de calcul sur CPU parce que du coup celui ci arrive à bien charger dans le cache les données. Du coup j’ai tenté l’astuce sur GPU: ben ca diminue les perf de 20% " /> .
Le
25/04/2013 à
16h
18
pxidr a écrit :
Pour avoir une seule machine tout simplement ?
Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…
Si
je pense que pour 700€ (sans Windows) tu peux faire mieux
Si tu veux un exemple demande .
Le
25/04/2013 à
16h
14
Je doute de la réelle utilisé de la mémoire partagée entre CPU et GPU pour faire du graphisme, pour du GPGPU oui mais pour du graphisme. A l’époque des 8800, j’avais un bug sur ma carte mère qui forçait mon bus PCI express 1.0 à fonctionner en 1x (250mo/s) , l’ai réussi à corriger partiellement le bug et à repasser en 8x (2Go/s), j’ai gagner 20% d’ips sous crysis 1, le jeux en 1x était déjà fluide.
A la limite ca peut augmenter les perf CPU car celui ci disposera de plus de bande passante et en utilisera moins pour les transfert avec la carte graphique. Mais aussi ca laisse plus de liberté dans la répartition de la mémoire entre CPU et GPU.
Là où ca aurait pu etre vraiment impressionnant c’est s’il avait fait un contrôleur mémoire commun avec un joli cache.
Enfin petite précision: les débits théorique affiché sur les bus sont joli mais aprés faut voir ce qu’il en est dans la pratique, car le débit entre deux zone mémoire ne dépend pas uniquement du bus. Par exemple sur mon PC (i5 3550k, HD78870, PCIex 3.0) le débit RAM VRAM est de 9Go/s et non de 16Go/s. Du coup à 60 ips on a 153Mo/image de transfert entre CPU et GPU 300Mo à 30ips (ce qui est plus la norme pour les console)
Comme bien souvent, il n’y a pas grand-chose à se mettre sous la dent si ce n’est le support du mode console pour OpenCL
Vous déconner là, ci c’est ce que je pense c’est fantastique !!
Parce que actuellement si on ne fait pas “export DISPLAY=:0” quand on se connecte en ssh à sa machine, ben on peut pas faire d’openCL sur sa carte graphique.
De-mème pour utiliser l’overdrive (pour connaitre la température de la caret par exemple) il faut en plus ouvrir un session X.
Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.
Pendant longtemps il fallait des carte mère spéciale pour profiter du multi-GPU, d’abord des cm avec les chipset des constructeurs puis ensuite seulement des puce additionnelle.
Une carte mère avec un gestion spécifique de la ram pour le monde du calcul je ne trouve pas ça exceptionnel surtout que quand tu change ce genre de machine t’as tendance à tout changer et pas changer pièce par pièce .
Mais je pense que t’as raison.
Le
19/03/2013 à
19h
26
yeagermach1 a écrit :
memoire sur la cg
le debit memoire vers CM sera celui du PCI express au mieux.
donc acces asymetrique
Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?
Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP " />
Le
19/03/2013 à
19h
25
Skeeder a écrit :
Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.
Ouai mais je ne suis pas certain que l’on puisse accéder à la mémoire GPU en dehors de l’API cuda
Le
19/03/2013 à
18h
20
David_L a écrit :
Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)
Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :
J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU
Le
19/03/2013 à
18h
08
Edit: double ?
Le
19/03/2013 à
18h
08
David_L a écrit :
L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?
Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
J’ai décidé d’upgrader ma conf, pour l’allim et la carte graphique c’est déjà fait (Corsair AX1200i, GTX690) maintenant je suis curieux de voir les perf avec un Raid 0 de SSD, Carte mère en Z77 et Intel Core i7 3930K " />
Je suppose que tu fait autre chose que jouer avec cette config, parce-que sinon c’est un peu la bombe atomique pour tuer des mouches
In non-PAE modes of x86 processors, the RAM is always limited to 4 GB.
Limits on memory and address space vary by platform and operating system, and on Windows by whether the IMAGE_FILE_LARGE_ADDRESS_AWARE value of the LOADED_IMAGE structure and 4-gigabyte tuning (4GT) are in use.
Limits on physical memory for 32-bit platforms also depend on the Physical Address Extension (PAE), which allows 32-bit systems to use more than 4 GB of physical memory.
PAE and 64-bit systems can address up to the full address space of the x86 processor.
Source Wikipedia.
J’aimerais voir ta configuration copain " />
" />
un Pc 64bit ca ne te dit rien ?
le x86-64 ?
t’as jamais vu de PC avec plus de 4Go de RAM ?!!
et puis comme t’aime bien parler le wikipedia :
“
Sans EAP, ni (en)PSE, les processeurs 32 bits ne peuvent pas adresser plus de 4 gibioctets (232) de mémoire centrale, tandis que les processeurs 64 bits peuvent adresser 16 exbioctets (264) de mémoire. C’est pourquoi dès qu’il y a plus de 4 gibioctets sur une machine, la mémoire au-delà de 4 gibioctets ne sera utilisable qu’en 64 bits.
“
Le
21/02/2013 à
08h
07
Personnellement je suis agréablement surpris par cette PS4, elle est bien plus puissante que ce que je pensais. La carte graphique qui semble etre un genre de HD7850 est vraiment bien (y a mieux mais quand on voit le niveau de la wii U et de la ps3 …).
Et pour la mémoire vive je suis carément bluffé, je pensais pas qu’il en mettrait autant: 8Go GDDR5 unifié qui fournie 150Go/s de BP. Pas mal, d’autant plus que je suppose qui l’on peut enlever de l’utilisation de la bande passante les transferts de donnée CPUGPU (les fans d’OpenCL vont etre ravis). C’est aussi pas mal car la GDDR5 est deux foi plus chère que la DDR3, c’est donc un choix couteux auquel ils ont du faire face.
En ce qui concerne les demo techniques: Je pense que killzone c’est du ingame jusqu’à ce qu’il tombe sur la frontière et que l’on a un gros plan sur les deux ville.
J’ai trouvé la demo de square enix vraiment nul, on l’a déjà vue, ce n’est pas du real time, et leur utilisation des particules et assez mal faite à mon gout.
L’accent de Yves et toujours aussi tripant. J’attendais une super annonce du genre BGE2 lorsque je l’ai vu arriver sur le plateau, en faite c’est watchdogs, qui au passage m’a paru bien sympas.
Enfin j’aime bien leur speech sur la possibilité de nouveaux buisness models, on comprend mieux pourquoi crytec veut faire que du free to play.
J’ai bien hâte de voir les jeux de cette génération débarquer, et y jouer …
C’est pas comme si la dizaine de millions était payée juste une fois, sans compter les frais de mise en place… C’est chaque année que c’est payé…
J’ai bien dis par an dans mon premier commentaire " />
Le
20/02/2013 à
16h
56
Virtual_Spirit a écrit :
C’est sympa. En gros si t’habite à la campagne, tu va payer une taxe pour que tes voisins en ville qui ont déjà un débit 10x meilleur que le tiens, puisse en avoir un 100x meilleurs " />
Je ne sais pas si tu as lu la news, mais il y est bien écrit que les 20 milliards d’investissements ont pour but de relancer la croissance. Ce n’est pas en fibrant des villages que tu va avoir les plus gros retours sur investissements. Économiquement se sont les grandes villes qui ont le plus besoins de la fibre.
Le
20/02/2013 à
16h
52
sebtx a écrit :
Dire qu’en supprimant les trucs inutiles (et nuisibles) comme Hadopi on pourrait gagner assez pour donner un bon coup de boost au déploiement de la fibre en France.
Mais bon si en France on était bon ça se saurait…
Je totalement contre le concept de la hadopi, mais il faut quand même rester lucide: le budget de la hadopi c’est de l’ordre de la dizaine de million pas de milliards; même pas de quoi équiper une ville de 50k par an, ie ca ne changerait pas grand chose.
Mais bon en France si on n’était pas de mauvaise foi ça se saurait " />
ahhh lala dire que les sommes dépenser par les 2 firmes pourraient etre utilisé a de meilleurs usage:
en R&D par exemple ou alors à une reduction des prix du matos, car qu’on se le dise dans le tarif des i-bidule et des galaxy-machin: on paye les avocats
" />
Avocat ou pas avocat le prix est le mème: le plus chère du moment que ca se vend.
Et puis en temps de crise il faut bien diversifier son activité pour réduire les risques " />
(Et dans le Hobbit, il nous colle Galadriel… qui n’est pas dans le livre, super :/)
Après ca n’empèche pas de faire une bonne histoire et un bon film, faudra regarder le critiques.
Le
11/12/2012 à
20h
21
psikobare a écrit :
J’attendais avec impatience, marre de voir de la 3d à 12fps par oeuil avec cette impression de lagger à chaque mouvement
Dans les cinéma ca a toujours été 24 images pas secondes pour chaque oeil, chaque 24ème de seconde, 2 images sont projetées, il y a deux projecteurs dont la polarisation est orthogonale.
Ce qui serait cool c’est qu’ils rajoutent la gestion des bibliothèques d’images, de videos et de musique dans big-picture pour faire une interface mediacenter complète.
Sinon je trouve vos critiques un peu dure alors que l’on ne sait pas ce qu’ils ont prévu de sortir.
Je trouve la plus part des commentaires un peu idiot:
Vous critiquez les opérateurs qui vont proposer des offres 4G
Cacao a écrit :
A lire les commentaires, je crois que tout le monde s’en tape de la 4G, moi y compris :)
Il y en a même qui critiquent le fait qu’ils proposent la 4G avant qu’il y ait des smartphones compatibles. On peut penser que vous auriez critiqué Apple ou Samsung s’ils avaient sorti un smartphone 4G sans le réseaux des opérateurs.
Peut être que pour vous satisfaire il faudrait que tous les vendeurs de smartphones et tous les opérateurs se mettent d’accord pour annoncer les 2 le même jour?
Enfin vous dites: la 4g j’en ai rien à faire, les débits qu’ils proposent sont inutiles, déjà qu’ils mettent de la bonne 3G partout.
La 4G ce n’est pas seulement une augmentation du débit, c’est juste le seul argument commerciale pour les néophytes !! La 4G permet d’améliorer la qualité du réseau, d’augmenter le nombre de personne sur une antenne …
Et ensuite peut être que les application originales de la 4G arriveront lorsque celle ci aura déjà des utilisateurs.
J’aime beaucoup les ideaPad, surtout le fait qu’ils aient de la couleur et un modele 14”. Le gris de mon série 5 ultra est un peu triste, par contre son écran matte est géniale, ca manque à l’ideaPad
La télécommande disposera pour sa part d’un pointeur et d’un gyroscope. Elle gèrera à la fois l’infrarouge et la radiofréquence (RF4CE). Le tout tiendra dans des dimensions de 386 x 242 x 42mm et un poids de 2,3 kg.
C’est pas un peu lourd et grand pour une télécommande? " />
J’espère que l’on pourra échanger rapidement pour cette nouvelle livebox.
en 64 bits elle prennent juste 2x plus de place qu’en 32 " />
Non pas les données. Par exemple tu n’as absolument aucune raison de stoker un Char (un caractere ASCII) sur plus de 8bit.
Utiliser un adressage 64bit permet d’adresser 2^64 “cases mémoires” (qui font 1 octet soit 8bits). Lorsque l’on passe de 32bit à 64bits seul la taille des adresses change, la taille des “cases mémoire” reste d’un octet (8bits), on n’alloue pas la mémoire par paquet de 32 ou 64bits
Maintenant quand on code (par exemple en C) et que l’on veut que celui ci soit joli, on utilise des type du genre uint64_t , int16_t, et ca permet de se poser moins de question sur la place que va prendre notre variable.
Le
20/11/2012 à
17h
57
jpriton a écrit :
8go " /> pas de quoi s’extasier, mon téléphone en a 32go " />
Et puis c’est bien connu, dès sa sortie, une console est déjà dépassée.
" />" />" />
Le
20/11/2012 à
15h
38
Beginner a écrit :
Alors les nouvelles consoles ne vont vraiment pas faire baisser le prix de développement des jeux.
En production il a fallu qu’on augmente les specs de nos workstations, tant coté CPU que GPU, et vitesse/capacités des périphériques de stockage. Même coté moniteur il va falloir qu’on s’adapte pour travailler en ayant des moniteurs ayant minimum 1200 pixels de hauteur, pour travailler du 1080p tout en ayant des menus disponibles. Et coté serveurs/stockage, prévoir également masse investissements pour stocker encore plus de data…
Mais bon c’est pareil à chaque nouvelle génération de consoles, il y a des gros investissements pour lancer les développement sur la nouvelle génération.
Si je comprend bien tu travailles dans une boite qui fait des jeux vidéos, c’est cool ça.
Donc vous changer de poste uniquement à chaque génération de console?
Vous n’avez toujours pas de moniteur 1080p pour travailler ?
J’avoue que dans ma réflexion je n’ai pensé qu’aux couts de production et pas aux investissements. Mais sinon l’utilisation de nouvelles technologies (notamment en ce qui concerne le développement) ca vous simplifie la tache non?
Le
20/11/2012 à
15h
27
DIKK3N a écrit :
Mouai… Mieux vaut attendre la confirmation, car un quad-core , je trouve ça peu…
La 360 a un tri-core " />
Les performances par cœur ne sont peut-être pas les même non plus.
Le
20/11/2012 à
15h
15
GrosRaisin a écrit :
Tu comptes être un investisseur pour les studios ^^ ?? Ils ont déjà beaucoup trop de mal à assumer les coûts de développement alors si tu leur demande de travailler encre plus, seule les gros studios subsisteront.
Hé bien figure toi que je pense que les nouvelles consoles peuvent diminuer le prix de développement d’un jeux vidéo. Plus exactement je pense que le surplus de performance et de mémoire vive peut permettre aux studios de taille moyenne de plus se concentrer sur le contenue artistique du jeux ou sur son gameplay au lieu de se concentrer sur l’optimisation des performance de chaque lvl (en cherchant quel partie du lvl il faut pré-calculer …), au de passer moins de temps à débugger leur code grâce à des outils de développement plus haut niveau.
Après je ne travaille pas dans le jeux vidéo, on peut me corriger si je me trompe.
Le
20/11/2012 à
15h
05
Much a écrit :
J’aime le sous titre. " />
Bon par contre si tout est vrai, j’imagine pas le prix du bordel…
Blu-ray, 8 Go de ram, Kinect… rien que ça.
8Go de ram " /> ca doit couter genre \(20 au lieu de \)10, ce n’est pas ca qui détermine le prix d’une console.
Pour le blu-ray je pense que les prix de production ont largement baissé en 6ans
Enfin le Kinect peut alourdir l’addition, mais c’est aussi ce qui donne à la console une grosse partie de sa valeur.
Le
20/11/2012 à
15h
00
J’espère que la console aura strictement plus de 4Go de mémoire vive afin de garantir le développement des jeux en 64bits (Pour les portages PC). D’un autre coté si le kit de développement a 8Go de mémoire vive, les versions non finales devront être 64bits pour en profiter.
Dans tous les cas j’ai hâte de la voire débarquer afin de relever un peu le niveau technique des jeux actuels (sur PC) et pas uniquement d’un point de vue rendu graphique mais dans la gestion de la physique (suppression du moteur physique de Crysis 2 à cause des consoles), de l’IA, des niveaux (augmentation de la taille de ceux ci, mais aussi augmentation du nombre d’objet, Halo 4 a un rendu impressionnant pour une Xbox 360 mais c’est assez vide).
Ca va permettre de relancer l’innovation, du moins j’espère.
Suffit d’aller à Grenoble (Isère) pour en prendre conscience, Les trois quart des entreprises citées dans l’article y sont (ou sont dans la banlieue (Crolles Montlucont)), et il y a plein d’autres entreprises (certainement des labo de recherche) comme siemens, ericson, schneider … et ce sans compter les startups (Heliodel …).
mais ce qui serait aussi intéressant c’est de savoir à quel processeur de bureau “normal” c’est équivalent
par exemple pour avoir une idée du décalage entre puissance desktop et mobile !
du style GlaxyS3 = Amd Thunderbird 1Ghz (il y a 10 ans en gros)
Je ne crois pas que des processeurs avec une telle différence d’age soient trés comparables. L’augmentation des performances des proc n’est pas homogène à toute les taches, une nouvelle architecture n’augmente pas que les perf globales (voir même peu, et je crois que ca se fait la plus part du temps sur les accès mémoire), mais rajoute des unités dédiées à des calculs spécifique pour les réaliser plus rapidement. (unité dédiée au décodage vidéo ..)
Aussi l’augmentation des performances c’est pas uniquement faire les calculs plus vite mais en faire plus en même temps, grâce au calculs parallélisé (SSE, multicoeur …), ou aussi en avoir moins à faire en déportant sur le gpu.
318 commentaires
L’architecture de la PlayStation 4 décortiquée par son concepteur
25/04/2013
Le 26/04/2013 à 10h 07
Le 26/04/2013 à 10h 04
Le 26/04/2013 à 09h 34
Le 26/04/2013 à 08h 28
Le 25/04/2013 à 18h 16
Le 25/04/2013 à 18h 14
Le 25/04/2013 à 16h 18
Le 25/04/2013 à 16h 14
Je doute de la réelle utilisé de la mémoire partagée entre CPU et GPU pour faire du graphisme, pour du GPGPU oui mais pour du graphisme. A l’époque des 8800, j’avais un bug sur ma carte mère qui forçait mon bus PCI express 1.0 à fonctionner en 1x (250mo/s) , l’ai réussi à corriger partiellement le bug et à repasser en 8x (2Go/s), j’ai gagner 20% d’ips sous crysis 1, le jeux en 1x était déjà fluide.
A la limite ca peut augmenter les perf CPU car celui ci disposera de plus de bande passante et en utilisera moins pour les transfert avec la carte graphique. Mais aussi ca laisse plus de liberté dans la répartition de la mémoire entre CPU et GPU.
Là où ca aurait pu etre vraiment impressionnant c’est s’il avait fait un contrôleur mémoire commun avec un joli cache.
Enfin petite précision: les débits théorique affiché sur les bus sont joli mais aprés faut voir ce qu’il en est dans la pratique, car le débit entre deux zone mémoire ne dépend pas uniquement du bus. Par exemple sur mon PC (i5 3550k, HD78870, PCIex 3.0) le débit RAM VRAM est de 9Go/s et non de 16Go/s. Du coup à 60 ips on a 153Mo/image de transfert entre CPU et GPU 300Mo à 30ips (ce qui est plus la norme pour les console)
Insolite : Un petit café avec Tim Cook pour 180 000 dollars ?
25/04/2013
Le 25/04/2013 à 15h 46
AMD publie ses pilotes Catalyst 13.4 et 13.5 : gains de performances à la clef
25/04/2013
Le 25/04/2013 à 06h 24
Comme bien souvent, il n’y a pas grand-chose à se mettre sous la dent si ce n’est le support du mode console pour OpenCL
Vous déconner là, ci c’est ce que je pense c’est fantastique !!
Parce que actuellement si on ne fait pas “export DISPLAY=:0” quand on se connecte en ssh à sa machine, ben on peut pas faire d’openCL sur sa carte graphique.
De-mème pour utiliser l’overdrive (pour connaitre la température de la caret par exemple) il faut en plus ouvrir un session X.
Le Caterpillar B15 certifié IP67 sous Android 4.1 référencé à 389,90 €
10/04/2013
Le 10/04/2013 à 16h 57
YouTube veut intégrer des fonctionnalités de streaming dans les jeux vidéo
01/04/2013
Le 01/04/2013 à 16h 14
Je regarde beaucoup les lives des lcs ( League of legend) et ceux ci sont disponibles sur twitch.tv et YouTube
l’avantage de Youtube c’est que tous le début du Stream est disponible au visionage
l’avantage de twitch c’est que ca marche super bien, avec beaucoup moins de lag que youtube
Une russe accusée d’avoir tué et découpé son fils pour un blocage du Net
29/03/2013
Le 29/03/2013 à 08h 13
Sans les russes l’Internet serait beaucoup moins marrant
Logan : la prochaine puce Tegra de NVIDIA pourra gérer CUDA
19/03/2013
Le 19/03/2013 à 19h 44
Le 19/03/2013 à 18h 22
Le 19/03/2013 à 18h 12
Leur puce Parker, elle sera compatible avec la plateforme spider d’AMD ?
NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta
19/03/2013
Le 19/03/2013 à 19h 38
Le 19/03/2013 à 19h 26
Le 19/03/2013 à 19h 25
Le 19/03/2013 à 18h 20
Le 19/03/2013 à 18h 08
Edit: double ?
Le 19/03/2013 à 18h 08
MSI G Series : des cartes mères et des machines AIO pensées pour les joueurs
01/03/2013
Le 01/03/2013 à 19h 56
La PlayStation 4, un PC « Supercharged » qui arrivera pour Noël 2013
20/02/2013
Le 21/02/2013 à 08h 14
Le 21/02/2013 à 08h 07
Personnellement je suis agréablement surpris par cette PS4, elle est bien plus puissante que ce que je pensais. La carte graphique qui semble etre un genre de HD7850 est vraiment bien (y a mieux mais quand on voit le niveau de la wii U et de la ps3 …).
Et pour la mémoire vive je suis carément bluffé, je pensais pas qu’il en mettrait autant: 8Go GDDR5 unifié qui fournie 150Go/s de BP. Pas mal, d’autant plus que je suppose qui l’on peut enlever de l’utilisation de la bande passante les transferts de donnée CPUGPU (les fans d’OpenCL vont etre ravis). C’est aussi pas mal car la GDDR5 est deux foi plus chère que la DDR3, c’est donc un choix couteux auquel ils ont du faire face.
En ce qui concerne les demo techniques: Je pense que killzone c’est du ingame jusqu’à ce qu’il tombe sur la frontière et que l’on a un gros plan sur les deux ville.
J’ai trouvé la demo de square enix vraiment nul, on l’a déjà vue, ce n’est pas du real time, et leur utilisation des particules et assez mal faite à mon gout.
L’accent de Yves et toujours aussi tripant. J’attendais une super annonce du genre BGE2 lorsque je l’ai vu arriver sur le plateau, en faite c’est watchdogs, qui au passage m’a paru bien sympas.
Enfin j’aime bien leur speech sur la possibilité de nouveaux buisness models, on comprend mieux pourquoi crytec veut faire que du free to play.
J’ai bien hâte de voir les jeux de cette génération débarquer, et y jouer …
… sur mon PC.
Selon le 1er ministre, 20 Mds d’euros seront investis pour la fibre d’ici 2023
20/02/2013
Le 20/02/2013 à 21h 01
Le 20/02/2013 à 16h 56
Le 20/02/2013 à 16h 52
Crytek veut s’investir dans le free-to-play « AAA » avec Warface
03/01/2013
Le 03/01/2013 à 11h 57
Ca me manque l’époque de FEAR Combat.
Là le feeling était excellent
L’injonction d’Apple contre les smartphones Samsung rejetée aux États-Unis
18/12/2012
Le 18/12/2012 à 12h 05
Le Hobbit de Peter Jackson : ce qu’il faut savoir de la diffusion HFR 3D à 48 fps
11/12/2012
Le 11/12/2012 à 20h 22
Le 11/12/2012 à 20h 21
Le Parti Pirate va défendre le contournement du blocage de The Pirate Bay
11/12/2012
Le 11/12/2012 à 11h 02
La future console de Valve serait un PC de salon
10/12/2012
Le 10/12/2012 à 10h 09
Ce qui serait cool c’est qu’ils rajoutent la gestion des bibliothèques d’images, de videos et de musique dans big-picture pour faire une interface mediacenter complète.
Sinon je trouve vos critiques un peu dure alors que l’on ne sait pas ce qu’ils ont prévu de sortir.
Ils l’ont fait : des écrans LCD sphériques dans des lentilles de contact
05/12/2012
Le 05/12/2012 à 18h 13
On le branche comment l’écran ? avec de l’HDMI ?
Le jeu vidéo entre au Museum of Modern Art de New York
30/11/2012
Le 30/11/2012 à 10h 27
et Rayman ?
Je veux voir Rayman !!
et BGE
Roussel (SFR) : « Avec la 4G, Free va arriver à ses limites techniques »
29/11/2012
Le 29/11/2012 à 15h 50
Je trouve la plus part des commentaires un peu idiot:
Vous critiquez les opérateurs qui vont proposer des offres 4G
[Dossier PCi] Les nouveautés de Lenovo sous Android et Windows 8 / RT
22/11/2012
Le 22/11/2012 à 20h 59
J’aime beaucoup les ideaPad, surtout le fait qu’ils aient de la couleur et un modele 14”. Le gris de mon série 5 ultra est un peu triste, par contre son écran matte est géniale, ca manque à l’ideaPad
Nouvelle Livebox Play d’Orange : les détails du boîtier multimédia
20/11/2012
Le 20/11/2012 à 18h 52
La télécommande disposera pour sa part d’un pointeur et d’un gyroscope. Elle gèrera à la fois l’infrarouge et la radiofréquence (RF4CE). Le tout tiendra dans des dimensions de 386 x 242 x 42mm et un poids de 2,3 kg.
C’est pas un peu lourd et grand pour une télécommande? " />
J’espère que l’on pourra échanger rapidement pour cette nouvelle livebox.
Xbox : de nouvelles rumeurs autour la prochaine console de Microsoft
20/11/2012
Le 20/11/2012 à 18h 30
Le 20/11/2012 à 17h 57
Le 20/11/2012 à 15h 38
Le 20/11/2012 à 15h 27
Le 20/11/2012 à 15h 15
Le 20/11/2012 à 15h 05
Le 20/11/2012 à 15h 00
J’espère que la console aura strictement plus de 4Go de mémoire vive afin de garantir le développement des jeux en 64bits (Pour les portages PC). D’un autre coté si le kit de développement a 8Go de mémoire vive, les versions non finales devront être 64bits pour en profiter.
Dans tous les cas j’ai hâte de la voire débarquer afin de relever un peu le niveau technique des jeux actuels (sur PC) et pas uniquement d’un point de vue rendu graphique mais dans la gestion de la physique (suppression du moteur physique de Crysis 2 à cause des consoles), de l’IA, des niveaux (augmentation de la taille de ceux ci, mais aussi augmentation du nombre d’objet, Halo 4 a un rendu impressionnant pour une Xbox 360 mais c’est assez vide).
Ca va permettre de relancer l’innovation, du moins j’espère.
: le « made in France » en high-tech
17/11/2012
Le 17/11/2012 à 07h 27
Suffit d’aller à Grenoble (Isère) pour en prendre conscience, Les trois quart des entreprises citées dans l’article y sont (ou sont dans la banlieue (Crolles Montlucont)), et il y a plein d’autres entreprises (certainement des labo de recherche) comme siemens, ericson, schneider … et ce sans compter les startups (Heliodel …).
Un abandon des processeurs Intel par Apple est-il possible ?
07/11/2012
Le 07/11/2012 à 13h 03
La version finale d’Office 2013 ne force plus l’interface blanche
25/10/2012
Le 25/10/2012 à 15h 12
Ils ont du attendre la version finale pour vérifier si les autres couleurs n’avaient pas été brevetées. " />
edit: mince c’est pas une new Samsung.
[Revue de presse] AMD lance de nouveaux processeur FX : la revanche ?
23/10/2012
Le 23/10/2012 à 13h 29