ockiller
est avec nous depuis le 20 juillet 2006 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
35 commentaires
Retour de 3DFX : le compte Twitter « officiel » supprimé
Le 06/08/2021Le 03/08/2021 à 13h 18
Nexgen et son Nx586 ?
Donc “à la bonne époque” on n’avait jamais de bonnes conditions alors, cqfd.
Le 02/08/2021 à 18h 44
Je ne comprends pas cet argument. Je montre qu’aujourd’hui on peut profiter des jeux récents dans de relativement bonnes conditions (720p à 30 fps) avec du matériel qui 5 ans auparavant était déjà modeste. Une GTX 960 c’est équivalent à une GTX 680 de 2012, 8 ans avant CP77.
En 96 avec Quake sur Voodoo, le top de l’époque, ça tournait dans des conditions moins bonnes que ça, et au bout de 5 ans la carte avait déjà depuis longtemps rendu les armes.
Le 02/08/2021 à 07h 29
Oui, mais les logiciels/jeux aussi. Quelque part on pourrait se dire que ça évolue à la même vitesse. Si par exemple Quake 1 tournat en 512x384 pour atteindre 30 fps sur une Voodoo 1, on aurait pu imaginer que Cyberpunk 2077 ne tourne pas mieux sur une RTX en 2020.
Pour moi ça montre qu’à l’époque, acheter du matériel à la pointe permettait de jouer aux jeux dans des conditions tout juste bonnes. Et ça évoluait tellement vite que ton matériel était très rapidement périmé. Aujourd’hui c’est beaucoup plus facile de jouer aux jeux récents dans d’excellentes conditions, et de pouvoir le faire beaucoup plus longtemps qu’avant.
J’ai encore une GTX 960 2 Go que j’ai acheté il y a 6 ans. Je joue à CP77 et Control avec sur mon PC d’appoint, 720p en low à 30 fps, c’est tout à fait jouable. À l’époque il fallait nettement moins de temps pour devoir supporter du 320x200 à 5~10 fps, quand ça se lançait.
Le 01/08/2021 à 16h 59
@skankhunt42, faut tenir compte des circonstances exceptionnelles actuelles. Remonte juste quelques années en arrière, pour 200€ tu avais une carte moyen de gamme qui tenait tout à fait la route, pour viser du 1080p à 60 fps, pas du 512x384 à 30 fps comme à l’époque ;).
Processeurs Core de 10e génération (Comet Lake-S) : Intel grimpe à 5,3 GHz… mais baisse ses prix
Le 29/04/2020Le 29/04/2020 à 09h 54
Leur TDP est très différent, et c’est ça qui conditionne quelle fréquence ils vont pouvoir atteindre en pratique.
Crytek annonce Crysis Remastered, avec le ray tracing agnostique de son CryEngine
Le 17/04/2020Le 20/04/2020 à 07h 25
Rien que côté technique il y a énormément à gagner tellement l’original exploite mal le matériel moderne. Du coup je m’attends à ce que le remaster tourne mieux que l’original sur une machine récente, tout en étant plus beau.
NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6
Le 06/04/2020Le 06/04/2020 à 08h 17
Je pense que c’est pour que deux produits qui ont le même nom aient les mêmes performances (ou à peu près). Mais rajouter GDDR6 dans le nom de la carte et profiter des perfs en plus ça me parait être une meilleure idée à moi aussi…
Microsoft corrige une faille critique affectant l’ensemble des Windows
Le 21/07/2015Le 21/07/2015 à 07h 15
Windows XP a droit à une mise à jour ? " />
Revue de presse : Batman Arkham Knight à l’École des Fans
Le 22/06/2015Le 22/06/2015 à 14h 26
Pour moi l’ordre d’intérêt correspond parfaitement à l’ordre chronologiques des jeux. Sur ce point Origin est effectivement moins intéressant que Asylum " />. Et pour City j’ai été épaté, c’est bien la première fois qu’un jeu m’a donné autant de motivation, et ce du début jusqu’à la fin (fin énormissime d’ailleurs !). D’après les critiques le Arkham Knight est encore mieux que les autres, je ne vois pas comment c’est possible…
NVIDIA dévoile son SoC Tegra X1 : 256 cœurs Maxwell, HDMI 2.0, 10 watts et 20 nm
Le 05/01/2015Le 05/01/2015 à 09h 07
Remarque, on l’attendait aussi le Maxwell dans les Tegra. Par contre je m’attendais à ce que ça leur permette de faire un GPU puissant mais avec une consommation raisonnable pour une tablette voire un smartphone, mais là, 10 Watts ??? Ils ont pas visé un peu trop haut ?
Bethesda publie un premier teaser pour DOOM
Le 10/06/2014Le 11/06/2014 à 07h 25
Ils veulent mettre un scénario ?
Dans DOOM ? " />
Opera 22 inaugure ses mises à jour silencieuses sous Windows
Le 04/06/2014Le 04/06/2014 à 16h 13
Ubisoft : l’optimisation des jeux sur PC profite également aux consoles
Le 25/11/2013Le 25/11/2013 à 15h 20
Si le concept de l’ubiquité a donné son nom à l’éditeur, il est également parfois présent dans sa communication.
Moi je croyais que UBI c’était Union des Bretions Indépendants " />
Revue de Presse : Batman répond au bat-signal dans Arkham Origins
Le 25/10/2013Le 25/10/2013 à 11h 48
Bah, si la partie solo est à la hauteur du précédent, il n’en faut pas plus pour me convaincre " />
Betrayer : un FPS à l’époque coloniale créé par d’ex-développeurs de FEAR
Le 06/08/2013Le 06/08/2013 à 13h 30
Conçu sur l’Unreal Engine 3 d’id Software…
Uh… Canicule ? " />
AMD FX à 5 GHz, Gigabyte semble confirmer
Le 06/06/2013Le 06/06/2013 à 09h 22
Bah, en overclockant par nous même on peut bien arriver à 300 W de consommation pour le CPU, là au moins c’est garanti. Et qui achètera ça le fera en connaissance de cause.
Et si c’est juste pour qu’AMD puisse dire qu’ils ont un CPU qui se bat contre les meilleurs CPU haut de gamme d’Intel, ça peut valoir le coup…
Rumeurs : la montre intelligente d’Apple armée d’un écran OLED de 1,5″
Le 22/05/2013Le 22/05/2013 à 07h 55
Pour moi l’OLED serait obligatoire pour une montre. Si elle doit afficher l’heure en permanence, la grande majorité de l’écran peut être éteint, contrairement à un LCD.
Smartphones et tablettes, les usages des lecteurs de PC INpact
Le 15/05/2013Le 15/05/2013 à 16h 19
Si seule la version mobile de PCI est comptabilisée, je trouve normal le graphique des résolutions. Quand on a du HD on peut très bien prendre la version “desktop” des sites, j’ai pas hésité à changer mon user agent perso…
Galaxy S4 : Exynos 5 Octa ou Snapdragon 600, quel est le meilleur ?
Le 30/04/2013Le 30/04/2013 à 15h 56
Je pense quand même que dans les scénarios de charge lourde (suffisant pour que les Cortex A15 passent à l’action), le Snapdragon doit dépenser moins d’énergie. Ca bouffe pas mal un A15, mais j’attends de savoir comment ils se situent par rapport aux Snapdragon.
Microsoft affiche d’excellents résultats, dopés par Windows 8 et Office
Le 19/04/2013Le 19/04/2013 à 13h 00
Pour moi les résultats de la division Windows est aussi très surprenante. Je ne connaissais pas les chiffres des ventes sur tablettes, mais après avoir longtemps entendu que Windows 8 faisait un bide sur PC…
3DMark pour Android : quels scores pour les deux versions du Galaxy S4
Le 03/04/2013Le 03/04/2013 à 14h 51
Le 03/04/2013 à 14h 39
Le 03/04/2013 à 14h 35
3DMark semble aussi plutôt bien apprécier les Adreno (cf Anandtech). Y a plusieurs hypothèses, Futuremark a une bonne expérience avec entre autres les Radeon dont les Adreno en sont un lointain parent (mais ça me semble quand même capilotracté), et le fait que les pilotes ne soient encore pas matures.
Y a pas des chiffres avec le dernier GLBenchmark ?
Et les fréquences de l’Exynos sont officielles ou supposées ? Parmis tout ce que j’ai lu, les A15 peuvent même être limités à 1.2 GHz et les A7 à 1.6 GHz, ce qui me semble bien plus réaliste pour faire rentrer 4 A15 dans un téléphone…
MSI dévoile quatre cartes mères au socket LGA 1155 pour les joueurs
Le 03/04/2013Le 03/04/2013 à 11h 40
Ce que j’aime surtout chez MSI, et qui se voit pas forcément, c’est qu’ils proposent généralement un bon niveau de fonctionnalité, ne font pas dans la surenchère (pas de branlette sur le nombre de phases, des puces additionnelles que si c’est vraiment nécessaire, …), et proposent des cartes très efficaces notament du côté consomation énergétique pour un prix légèrement inférieur aux concurrentes.
J’attends de voir celles-ci comment elles se situent à ce niveau là.
Exynos 5 Octa : Samsung dévoile des détails du SoC de son futur Galaxy SIV
Le 22/02/2013Le 22/02/2013 à 15h 22
Le 22/02/2013 à 15h 12
Le 22/02/2013 à 13h 01
Epic Citadel sous Android : smartphones et tablettes, qui est le meilleur ?
Le 01/02/2013Le 01/02/2013 à 11h 25
Le 01/02/2013 à 09h 03
Après avoir joué aussi un peu avec, l’application a aussi un comportement bizarre chez moi (Galaxy SII). Le meilleur score est atteint avec la plus haute qualité, et il semblerait qu’en plus de la limite à 60 fps (qui est normale car tous les téléphones bloquent là), l’application utilise un classique double buffering qui fait que le téléphone tombe souvent à 30 fps s’il ne tient pas les 60, puis à 20, etc. Ca explique vos résultats mais je trouve que c’est un peu limite pour un benchmark.
À part ça c’est quand même une belle démo :-)
3DMark pour Android, iOS et Windows RT / 8 : c’est imminent
Le 14/11/2012Le 14/11/2012 à 18h 10
Bouygues Télécom réclame des milliards d’euros à une ex-abonnée
Le 10/10/2012Le 10/10/2012 à 12h 07
“La prince, elle dit, Bouygues Télécom, c’est pas cher.”
Les Guignols de l’Info
Intel publie l’image d’Android 4.1.1 (Jelly Bean) pour x86
Le 10/09/2012Le 11/09/2012 à 06h 12
Il faudra néanmoins qu’Intel travaille avec ses partenaires pour que la présence d’un SoC x86 ne soit pas pour les utilisateurs un indicateur d’un modèle qui aura systématiquement plusieurs versions de retard au niveau du système d’exploitation…
Là dessus ils ne sont pas trop désavantagés encore, ils me semblent qu’ils sont vraiment en retard que par rapport aux Nexus, ils sont en avance même sur beaucoup d’autres…
GeForce GTX 660 : une puce GK106 dotée de 960 CUDA Cores selon MSI
Le 31/08/2012Le 31/08/2012 à 19h 43
Je ne sais pas qui c’est qui disait que ça ne serait pas une nouvelle puce, mais c’était bien des conneries " />
NVIDIA dévoile une GeForce GTX 660 avec 1152 CUDA Cores
Le 21/08/2012Le 21/08/2012 à 19h 10
Le 21/08/2012 à 17h 00
Pourquoi pas un GK104 ? Les specs sont très très proches de la 660 Ti " />.
Et nVidia n’a pas vraiment de GPU moyen de gamme, ils s’en sont servi pour faire autre chose…