votre avatar

ockiller

est avec nous depuis le 20 juillet 2006 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

35 commentaires

Retour de 3DFX : le compte Twitter « officiel » supprimé

Le 03/08/2021 à 13h 18


horrus a dit:


si je me souviens bien c était aussi la grande époque du pc tout assemblé made in TaÏwan , il y avait aussi le fabricant Cyrix en processeurs X86, sur le marché du proc : Intel, Amd et Cyrix et , (je crois aussi, je suis pas sur) un quatrième dont je me rappel plus le nom ( please si quelqu’un s en souviens…)




Nexgen et son Nx586 ?




(quote:58995:skankhunt42 )
720 à 30 fps c’est loin d’être de bonnes conditions…




Donc “à la bonne époque” on n’avait jamais de bonnes conditions alors, cqfd.


Le 02/08/2021 à 18h 44


(quote:58956:skankhunt42 )
Cyperpunk en ultra + 4k natif ne tourne qu’a 20 fps…




Je ne comprends pas cet argument. Je montre qu’aujourd’hui on peut profiter des jeux récents dans de relativement bonnes conditions (720p à 30 fps) avec du matériel qui 5 ans auparavant était déjà modeste. Une GTX 960 c’est équivalent à une GTX 680 de 2012, 8 ans avant CP77.
En 96 avec Quake sur Voodoo, le top de l’époque, ça tournait dans des conditions moins bonnes que ça, et au bout de 5 ans la carte avait déjà depuis longtemps rendu les armes.


Le 02/08/2021 à 07h 29


(quote:58925:skankhunt42 )
En même temps c’est un peu logique que le matériel évolue au fil du temps non ?




Oui, mais les logiciels/jeux aussi. Quelque part on pourrait se dire que ça évolue à la même vitesse. Si par exemple Quake 1 tournat en 512x384 pour atteindre 30 fps sur une Voodoo 1, on aurait pu imaginer que Cyberpunk 2077 ne tourne pas mieux sur une RTX en 2020.



Pour moi ça montre qu’à l’époque, acheter du matériel à la pointe permettait de jouer aux jeux dans des conditions tout juste bonnes. Et ça évoluait tellement vite que ton matériel était très rapidement périmé. Aujourd’hui c’est beaucoup plus facile de jouer aux jeux récents dans d’excellentes conditions, et de pouvoir le faire beaucoup plus longtemps qu’avant.



J’ai encore une GTX 960 2 Go que j’ai acheté il y a 6 ans. Je joue à CP77 et Control avec sur mon PC d’appoint, 720p en low à 30 fps, c’est tout à fait jouable. À l’époque il fallait nettement moins de temps pour devoir supporter du 320x200 à 5~10 fps, quand ça se lançait.


Le 01/08/2021 à 16h 59

@skankhunt42, faut tenir compte des circonstances exceptionnelles actuelles. Remonte juste quelques années en arrière, pour 200€ tu avais une carte moyen de gamme qui tenait tout à fait la route, pour viser du 1080p à 60 fps, pas du 512x384 à 30 fps comme à l’époque ;).


Processeurs Core de 10e génération (Comet Lake-S) : Intel grimpe à 5,3 GHz... mais baisse ses prix

Le 29/04/2020 à 09h 54


diseqc a dit:


En fait, je ne vois je ne vois pas ce qu’en réalité un 10700k peut apporter de plus que le 10700 à part la possibilité d’overclocker. En effet, même si il y a une différence importante sur la fréquence “Base clock speed”, la fréquence max “All cores turbo” est très proche sur ces deux processeurs.




Leur TDP est très différent, et c’est ça qui conditionne quelle fréquence ils vont pouvoir atteindre en pratique.


Crytek annonce Crysis Remastered, avec le ray tracing agnostique de son CryEngine

Le 20/04/2020 à 07h 25

Rien que côté technique il y a énormément à gagner tellement l’original exploite mal le matériel moderne. Du coup je m’attends à ce que le remaster tourne mieux que l’original sur une machine récente, tout en étant plus beau.


NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6

Le 06/04/2020 à 08h 17

Je pense que c’est pour que deux produits qui ont le même nom aient les mêmes performances (ou à peu près). Mais rajouter GDDR6 dans le nom de la carte et profiter des perfs en plus ça me parait être une meilleure idée à moi aussi…


Microsoft corrige une faille critique affectant l'ensemble des Windows

Le 21/07/2015 à 07h 15

Windows XP a droit à une mise à jour ?&nbsp;<img data-src=" />


Revue de presse : Batman Arkham Knight à l'École des Fans

Le 22/06/2015 à 14h 26

Pour moi l’ordre d’intérêt correspond parfaitement à l’ordre chronologiques des jeux. Sur ce point Origin est effectivement moins intéressant que Asylum <img data-src=" />. Et pour City j’ai été épaté, c’est bien la première fois qu’un jeu m’a donné autant de motivation, et ce du début jusqu’à la fin (fin énormissime d’ailleurs !). D’après les critiques le Arkham Knight est encore mieux que les autres, je ne vois pas comment c’est possible…


NVIDIA dévoile son SoC Tegra X1 : 256 cœurs Maxwell, HDMI 2.0, 10 watts et 20 nm

Le 05/01/2015 à 09h 07

Remarque, on l’attendait aussi le Maxwell dans les Tegra. Par contre je m’attendais à ce que ça leur permette de faire un GPU puissant mais avec une consommation raisonnable pour une tablette voire un smartphone, mais là, 10 Watts ??? Ils ont pas visé un peu trop haut ?


Bethesda publie un premier teaser pour DOOM

Le 11/06/2014 à 07h 25

Ils veulent mettre un scénario ?
Dans DOOM ? <img data-src=" />


Opera 22 inaugure ses mises à jour silencieuses sous Windows

Le 04/06/2014 à 16h 13






jinge a écrit :

Il me semblait que c’était déjà le cas? <img data-src=" />
J’ai déjà une popup qui me dit de temps en temps voulez vous installer la mise à jour, et si je ne clique pas, sur le speed dial ou dans le a propos il dit qu’il installera la nouvelle mise à jour au prochain redémarrage.


Pareil, il me semble bien que chez moi Opera se mettait à jour sans que je ne fasse rien. J’ai d’ailleurs un vieux PC avec un Athlon XP où ça me pose problème justement, à partir de la version 21 il faut les instructions SSE2 donc Opera me spamme une erreur à chaque démarrage à cause de la mise à jour qui plante.



Ubisoft : l'optimisation des jeux sur PC profite également aux consoles

Le 25/11/2013 à 15h 20


Si le concept de l’ubiquité a donné son nom à l’éditeur, il est également parfois présent dans sa communication.

Moi je croyais que UBI c’était Union des Bretions Indépendants <img data-src=" />


Revue de Presse : Batman répond au bat-signal dans Arkham Origins

Le 25/10/2013 à 11h 48

Bah, si la partie solo est à la hauteur du précédent, il n’en faut pas plus pour me convaincre <img data-src=" />


Betrayer : un FPS à l'époque coloniale créé par d'ex-développeurs de FEAR

Le 06/08/2013 à 13h 30


Conçu sur l’Unreal Engine 3 d’id Software…

Uh… Canicule ? <img data-src=" />


AMD FX à 5 GHz, Gigabyte semble confirmer

Le 06/06/2013 à 09h 22

Bah, en overclockant par nous même on peut bien arriver à 300 W de consommation pour le CPU, là au moins c’est garanti. Et qui achètera ça le fera en connaissance de cause.

Et si c’est juste pour qu’AMD puisse dire qu’ils ont un CPU qui se bat contre les meilleurs CPU haut de gamme d’Intel, ça peut valoir le coup…


Rumeurs : la montre intelligente d'Apple armée d'un écran OLED de 1,5

Le 22/05/2013 à 07h 55

Pour moi l’OLED serait obligatoire pour une montre. Si elle doit afficher l’heure en permanence, la grande majorité de l’écran peut être éteint, contrairement à un LCD.


Smartphones et tablettes, les usages des lecteurs de PC INpact

Le 15/05/2013 à 16h 19

Si seule la version mobile de PCI est comptabilisée, je trouve normal le graphique des résolutions. Quand on a du HD on peut très bien prendre la version “desktop” des sites, j’ai pas hésité à changer mon user agent perso…


Galaxy S4 : Exynos 5 Octa ou Snapdragon 600, quel est le meilleur ?

Le 30/04/2013 à 15h 56

Je pense quand même que dans les scénarios de charge lourde (suffisant pour que les Cortex A15 passent à l’action), le Snapdragon doit dépenser moins d’énergie. Ca bouffe pas mal un A15, mais j’attends de savoir comment ils se situent par rapport aux Snapdragon.


Microsoft affiche d'excellents résultats, dopés par Windows 8 et Office

Le 19/04/2013 à 13h 00

Pour moi les résultats de la division Windows est aussi très surprenante. Je ne connaissais pas les chiffres des ventes sur tablettes, mais après avoir longtemps entendu que Windows 8 faisait un bide sur PC…


3DMark pour Android : quels scores pour les deux versions du Galaxy S4

Le 03/04/2013 à 14h 51






Zantetsuken a écrit :

Le GS4 a pas de Mali, et il met pourtant une violente rouste à tout le monde sur Antutu et Quadrant…


C’est vrai, mais dans mon 2ème message je ne parlais pas du GS4 <img data-src=" />

Et Antutu et Quadrant, le GPU n’a pas beaucoup d’influence, pour Quadrant il n’en a même plus aucune depuis pas mal de temps.



Le 03/04/2013 à 14h 39






Zantetsuken a écrit :

Moi j’ai quand même l’impression que les SoC Exynos se font fumer par cette première mouture de 3DMark… Ils sont tous en fort retrait comparé à leur équivalent chez la concurrence…


Ca c’est je pense dû à la faiblesse des GPU ARM, les Mali, et particulièrement le Mali 400 MP4, sont vraiment à la traîne côté traitement géométrique, et dans les tests comme 3DMark, Egypt HD, leurs unités de traitement de pixels se tournent les pouces plus qu’autre chose…



Le 03/04/2013 à 14h 35

3DMark semble aussi plutôt bien apprécier les Adreno (cf Anandtech). Y a plusieurs hypothèses, Futuremark a une bonne expérience avec entre autres les Radeon dont les Adreno en sont un lointain parent (mais ça me semble quand même capilotracté), et le fait que les pilotes ne soient encore pas matures.

Y a pas des chiffres avec le dernier GLBenchmark ?

Et les fréquences de l’Exynos sont officielles ou supposées ? Parmis tout ce que j’ai lu, les A15 peuvent même être limités à 1.2 GHz et les A7 à 1.6 GHz, ce qui me semble bien plus réaliste pour faire rentrer 4 A15 dans un téléphone…


MSI dévoile quatre cartes mères au socket LGA 1155 pour les joueurs

Le 03/04/2013 à 11h 40

Ce que j’aime surtout chez MSI, et qui se voit pas forcément, c’est qu’ils proposent généralement un bon niveau de fonctionnalité, ne font pas dans la surenchère (pas de branlette sur le nombre de phases, des puces additionnelles que si c’est vraiment nécessaire, …), et proposent des cartes très efficaces notament du côté consomation énergétique pour un prix légèrement inférieur aux concurrentes.

J’attends de voir celles-ci comment elles se situent à ce niveau là.


Exynos 5 Octa : Samsung dévoile des détails du SoC de son futur Galaxy SIV

Le 22/02/2013 à 15h 22






Cypus34 a écrit :

Mine de rien on se rapproche au fur et à mesure des processeurs décrits par Werber dans “Les fourmis” : un “gros” qui trie les informations et les sous-traite à de plus petits, spécialisés dans certaines taches et consommant moins.
Et ça paraît pas plus mal !


Mmmh… le Cell d’IBM ? <img data-src=" />



Le 22/02/2013 à 15h 12






ldesnogu a écrit :

Alors juste parce que les mouches et moi c’est une longue histoire d’amour : A7 et A15 ont exactement la meme architecture ARM (ARMv7A + LPAE + virtualisation + VFPv4), mais pas la meme micro-architecture :)


Merci pour la précision <img data-src=" />



Alucard63 a écrit :

Si je ne m’abuse ils peuvent aussi fonctionner en même temps si besoin avec l’architecture big.LITTLE…par contre je donne pas cher de la batterie d’un smartphone dans ce cas de figure.<img data-src=" />


J’ai vu aussi que les 8 coeurs pouvaient fonctionner en même temps. En pratique, là où je suis sceptique, c’est surtout de voir 4 coeurs A15 tourner à fond en même temps, ce sont de vrais gouffres à énergie (cf les courbes perf/conso). Les 4 coeurs peuvent monter à pas loin de 6 W, ce qui est vraiment énorme pour un téléphone. D’ailleurs, la conso des coeurs A7 est presque négligeable à côté, si ça passe pour 4 coeurs A15, ça passera pour 4 coeurs A15 + 4 coeurs A7…



Le 22/02/2013 à 13h 01






BrainZERO a écrit :

Pour info, le switch de processeur est immédiat car les deux processeurs partagent les mêmes registres, caches, pipelines etc (la mention d’architectures ARM identiques est essentielle au concept de partage dans ce cas). Il est alors possible de partager tout ce qui fait un contexte d’exécution pour un processeur et, selon le besoin, faire en sorte que ce soit l’un ou l’autre qui fasse le boulot. Bef, vous pouvez voir cela comme une virtualisation du processeur ce qui permet de passer de l’un à l’autre de façon transparente.


Euh… non, c’est pas vraiment possible ça. Il n’y a pas de partage de ressources comme les modules d’un AMD FX le font par exemple, les A7 et les A15 sont bel et bien disctincts. Ils n’ont d’ailleurs pas la même architecture (sinon comment expliquer les différences de taille, de perf, de consommation, …), mais implémentent le même jeu d’instructions (donc mêmes batteries de registres, …), et c’est vraiment ça qui facilite la transition de l’un vers l’autre. On peut faire exactement la même chose avec un A7 et un A15, après chaque coeur s’y prend différemment.



Epic Citadel sous Android : smartphones et tablettes, qui est le meilleur ?

Le 01/02/2013 à 11h 25






Galactik a écrit :

Le double buffering n’a aucun lien avec un quelconque drop de framerate. Il sert uniquement a eviter le clignotement de l’image, il y a bien longtemps qu’absolument tout utilise du double buffering (sauf ces rétrogrades de windows, et encore pas partout).

Le phénomène que tu décris la est du a la synchronisation verticale (vblank) qui elle force l’application a attendre que l’ecran soit pret a afficher une image, et qui fait que si le moteur de rendu va moins vite que l’ecran, on peut “perdre du temps” a attendre de pouvoir afficher son image.

Il est cependant surprenant que la vblank soit active pour application de “bench”.


Je voulais dire que l’application aurait dû utiliser le triple buffering, car effectivement le problème est que la synchro verticale est forcément active sur les téléphones.

Mais c’est vrai que la meilleure solution pour un benchmark est de faire un test offscreen…



Le 01/02/2013 à 09h 03

Après avoir joué aussi un peu avec, l’application a aussi un comportement bizarre chez moi (Galaxy SII). Le meilleur score est atteint avec la plus haute qualité, et il semblerait qu’en plus de la limite à 60 fps (qui est normale car tous les téléphones bloquent là), l’application utilise un classique double buffering qui fait que le téléphone tombe souvent à 30 fps s’il ne tient pas les 60, puis à 20, etc. Ca explique vos résultats mais je trouve que c’est un peu limite pour un benchmark.

À part ça c’est quand même une belle démo :-)


3DMark pour Android, iOS et Windows RT / 8 : c'est imminent

Le 14/11/2012 à 18h 10






kronoss a écrit :

Je vois pas comment ils peuvent faire des comparaisons entre plusieurs plate forme alors que se sont des technologie différentes utilisées pour chacune d’entre elles (opengl, direct x)


OpenGL et DirectX ne sont que deux moyens pas très différents de faire la même chose. Par contre ce que tu dis est vrai mais dans le sens où l’architecture des “gros” GPU desktop est bien plus complexe que celle des GPU de téléphones. En gros un GPU desktop sera efficace pour traiter une grande variété de cas complexes, mais pour des rendus tous simples ils ne sont pas adaptés. Ça découle du fait que les GPU modernes ont évolué pour traiter des pixels plus complexes, et pas plus de pixels (“more pixels vs better pixels”).

Du coup pour comparer directement les deux c’est pas très représentatif car les GPU desktop seront largement sous exploités…



Bouygues Télécom réclame des milliards d’euros à une ex-abonnée

Le 10/10/2012 à 12h 07

“La prince, elle dit, Bouygues Télécom, c’est pas cher.”
Les Guignols de l’Info


Intel publie l'image d'Android 4.1.1 (Jelly Bean) pour x86

Le 11/09/2012 à 06h 12


Il faudra néanmoins qu’Intel travaille avec ses partenaires pour que la présence d’un SoC x86 ne soit pas pour les utilisateurs un indicateur d’un modèle qui aura systématiquement plusieurs versions de retard au niveau du système d’exploitation…

Là dessus ils ne sont pas trop désavantagés encore, ils me semblent qu’ils sont vraiment en retard que par rapport aux Nexus, ils sont en avance même sur beaucoup d’autres…


GeForce GTX 660 : une puce GK106 dotée de 960 CUDA Cores selon MSI

Le 31/08/2012 à 19h 43

Je ne sais pas qui c’est qui disait que ça ne serait pas une nouvelle puce, mais c’était bien des conneries <img data-src=" />


NVIDIA dévoile une GeForce GTX 660 avec 1152 CUDA Cores

Le 21/08/2012 à 19h 10






von-block a écrit :

Je croyais que le Gk 104 était le moyen de gamme déjà.


J’ai pas dit le contraire <img data-src=" />. Le GK104 était le GPU milieu de gamme mais il a du faire le haut de gamme par intérim. Du coup je ne pense pas qu’il y aura un nouveau GPU milieu de gamme car c’était pas prévu… On n’aura droit qu’à des versions castrées du GK104.

Il y aura peut-être un GPU plus petit mais ça sera celui prévu pour le segment “mainstream”, et ça devrait plutôt être un demi GK104. Soit ça, soit un renommage des cartes d’ancienne génération…

Je dis ça mais c’est peut-être que des conneries <img data-src=" />



Le 21/08/2012 à 17h 00

Pourquoi pas un GK104 ? Les specs sont très très proches de la 660 Ti <img data-src=" />.

Et nVidia n’a pas vraiment de GPU moyen de gamme, ils s’en sont servi pour faire autre chose…