votre avatar

stb007

est avec nous depuis le 23 août 2003 ❤️

39 commentaires

Le 11/03/2022 à 20h 12


Gilbert_Gosseyn a dit:


Le gros problème d’Intel est qu’ils sont encore sur un process 10nm, voire pire. La ou AMD en est à 7nm (bientôt 6nm) et Apple en est à 5nm. Le jour ou Intel pourra descendre en finesse de gravure, leurs CPU consommeront (normalement) moins.


Ça changera rien ils seront derrière Apple j’en mettrais ma main à couper. Apple a trop d’avance et de moyens. Quand à l’argument finesse de gravure j’y crois pas une seconde, y’a qu’à voir ce qui est annoncé par Nvidia avec les prochains rtx en terme de conso alors que c grave en 5nm

Le 10/03/2022 à 16h 48


yvan a dit:


C’est super qu’ils reviennent dans la course ainsi, ça va booster intel/nvidia/AMD derrière à ne pas se faire distancer.


Je pense qu’Apple va très bientôt eclater Intel/Nvidia/AMD, même en terme de perfs brutes, quand on voit ce qu’Intel est obligé de sortir comme conso electrique avec ses derniers core 12xxx et Nvidia j’en parle pas avec les RTX 4xxx (800w !!!)
Je n’ose imaginer les perfs de leurs puces Mx s’ils décident de d’ouvrir le barrage niveau conso electrique..

Le 24/06/2021 à 16h 29

Le plus beau jour de ma vie sera le support de ZFS :(

Le 22/05/2019 à 08h 09

Et sinon ils vont arriver à sortir des polices retina comme sur macOS ? Vraiment aucun effort sur l’UI c’est terrible…

Le 06/05/2016 à 07h 53

Overwatch est une bombe, j’y ai passé quelques heures (sur PC) et je peux déjà dire que c’est un des meilleur FPS de tous les temps, une vrai DA, des perso charismatiques, et des possibilités de stratégie infinie.

Le 28/04/2016 à 07h 51







sr17 a écrit :



Parce que raisonnablement, il faudrait passer des heures, voir des jours de discussion pour vous faire entrevoir les justifications de conclusions qui sont le fruit d’années de métier.



Un avis, c’est déjà une information précieuse qu’il faut savoir apprécier comme tel. <img data-src=" />





Tu sais moi aussi je vieillit mais cela ne m’empêche pas de ne pas devenir un vieux con, ca sert à ça la veille technologique, et aussi s’amuser à tester avant de parler et dire des conneries.

T’es génération COBOL ou JAVA en fait ?&nbsp; :p


Le 18/02/2016 à 12h 33

Client depuis le RivaTNT jamais eu d’emmerdes avec Nvidia. Bref je pense que leur succès est relativement mérité. Certes un peu plus cher que la concurrence mais pour un niveau de qualité générale plus élevé globalement.

Le 28/12/2015 à 20h 08

Je suis étonné étant donné le niveau de geekeri des lecteurs de ce site que personne n’ai pensé à l’intérêt de l’IGP quand dx12 sortira avec sa possibilité de mixer plusieurs gpu de manière transparente la les personnes ayants achetée du xeon s’en mordrons les doigts :)

Le 14/10/2015 à 15h 27







Alucard63 a écrit :



Oui 4 Xeon HdG pour battre 2 Power8…



Niveau perfs sur un seul die IBM est quand même loin devant…





A quel prix lol…

Sinon penche toi un peu plus dans le détail : on a 2x E5 a 2,3Ghz vs 2x Power8 a 3,56Ghz et ça donne un très faible écart sur le bench SAP, donc en terme de perf/watt pas certain que le Power8 soit devant, je parle même pas de la différence de tarif….


Le 14/10/2015 à 08h 21







coket a écrit :



OK, merci pour vos lumières.





Pas de soucis, d’ailleurs je t’invite à aller lire ce test très interessant si l’anglais ne te rebute pas, tu vas voir que les Xeon les plus haut de gamme n’ont rien à envier aux Power8 d’IBM :&nbsp;

http://www.anandtech.com/show/9193/the-xeon-e78800-v3-review

&nbsp;


Le 14/10/2015 à 08h 12







coket a écrit :



[Quote]Si les revenus issus de la branche serveur de l’entreprise sont en hausse de 12 % sur un an (4,1 milliards de dollars) [/Quote]



Ça m’étonne que les nouveaux procs IBM n’aient pas fait mal à intel…



Un problème de positionnement prix? Les besoins de CPU surpuissants sont minces? Pourtant avec le développement du big data j’aurais pensé autrement…





Qui dit le contraire ? Certainement que les grosses boites qui font du big data utilisent pas mal de Power8 on en sait rien.. Mais bon si tu changes de perspective, tu te rend compte que c’est un marché de niche, de plus la plupart des sociétés dans ce domaine préfèrent scaller horizontalement que verticalement au niveau puissance (cad on met plein de machines plutôt qu’une machine très puissante pour résumer grossièrement). Puis bon l’intérêt de ces proc pour héberger des sites web me semble assez limité, hors ça représente une énorme partie des ventes serveurs à mon avis. De + : ticket d’entrée à 10k€ pour info sur un serveur 1U Power8, et à ce prix t’as mieux chez Intel en puissance brute.


Le 21/09/2015 à 12h 07







Agent Orange a écrit :



De toute façon, ce spyware est condamné à brève échéance !





A la vu de tes commentaires récurents dés qu’il s’agit de microsoft, on voit le hater de base.

&nbsp;Mais merci d’être passé quand même.


Le 02/09/2015 à 18h 45

Un modèle GT4e dans le lot ?

Le 01/09/2015 à 09h 03

100mbit par antenne c’est ridicule non&nbsp; ? c’est limité par le cable réseau qui est au pied de l’antenne ou par l’antenne elle meme ? Car dans ce cas ils mettent une grosse fibre a 10gbit et le tours est joué ?

Le 01/09/2015 à 08h 34

ça c’est une donnée ineterrante à connaitre, ça se sature comment une antenne 4G ? Nombre de connexion simultanée limitée ? Bande passante limité par le cable qui relie l’antenne au reste du réseau ? les deux ?

&nbsp;

On peut mettre combien d’abonnés à disont 20mbit sur une antenne 4G en simultané ?

&nbsp;

Tout ça je ne connais pas et ça m’intéresserait de connaitre.

Le 01/09/2015 à 08h 09

Mais en admettant que cette hypothétique box soit livrée avec une antenne externe puissante (genre à mettre dans le grenier ou sur le toit) ça augmenterait le rayon de réception non ? Je suis vraiment convaincu de mon truc, enfin l’avenir nous le dira ?

&nbsp;

&nbsp;Edit : et oui effectivement avec l’arrivée du 700 mhz ça pourrait le faire encore plus.

Le 01/09/2015 à 07h 50

Depuis plusieurs moi j’ai une prémonition, Free va sortir une Freebox

v7 4G et se passer completement des cables. J’en suis persuadé !

Stratégiquement c’est imparable, ils se débarassent de tout ce qui les

fait chier d’un seul coup, les frais réseaux cuivre FT, le déploiement

Fibre couteux et avec toutes les péripéties légales associées.

&nbsp;

&nbsp;Ils redonnent un coup de fouet à leur offre fixe avec une vitesse de

connexion accrue et une couverture améliorée, je pensent qu’ils mettent

le paquet sur le déploiement pour cette raison entre autre (et aussi

virer Orange qui leur pompent un max).

&nbsp;

&nbsp;J’aurais besoin d’un avis

d’expert en réseaux célulaire s’il y en un qui lit ce message, est-il

possible d’abosorber un forfait data illimité pour tous les abonnées

fixes en passant par du réseaux celulaire ? ET si pas possible

actuellement est-ce possible techniquement ?

&nbsp;

&nbsp;

Le 03/07/2015 à 12h 53

Le jeu PC doit rester celui des FPS insipides, laissons vrais jeux avec un scénario pour les consoles.

Le 29/06/2015 à 07h 39







Bylon a écrit :



C’est un peu l’impression que j’avais, mais ça veut dire quitter le monde des particuliers… pas sûr que ce soit un bon calcul à long terme !





Ha non ce n’est pas ce que j’ai dis, au contraire pour couper l’herbe sous le pied d’une éventuelle concurence (macos X et autre ubuntu) ils vont finir par proposer windows gratuitement à tout le monde un peu comme fait apple, et se rattraper sur ce que claqueront les gens sur leur appstore et autre licence cloud. Enfin peut-être que je me trompe aussi…

&nbsp;

&nbsp;

&nbsp;


Le 25/06/2015 à 18h 30







Bylon a écrit :



En effet, M$ reste le dernier acteur à forcer la vente de licence, et ce modèle a de plus en plus de mal à passer.

Article intéressant (en anglais) à ce sujet : http://www.zdnet.com/article/windows-10-the-only-major-os-still-trying-to-squeeze-a-buck-from-consumers/





Leur nouveau modèle économique ils l’ont trouvé depuis un moment, licences Office en mode cloud (j’aime pas ce terme !!) par exemple. M’est avis que la récente annonce de la migration W10 gratos n’est que le début, leur nouvelle stratégie c’est se concentrer sur les services cloud, et les entreprises, c’est là qu’ils vont gagner du pognon.


Le 25/06/2015 à 12h 10







KP2 a écrit :



Proxmox, c’est de la virtualisation, pas vraiment des conteneurs.

Les conteneurs sont beaucoup plus proches du systemes donc fatalement ils ont des “lacunes” au niveau reseau et stockage.





Heu openvz c’est pas de la conteneurisation ? Dans proxmox t’as le choix entre KVM et Container pour info.


Le 24/06/2015 à 07h 16

J’ai fais un benchmark sur les différents systemes de virtualisation/contenerisation dispo en gratuit car j’ai plusieurs clients qui me demandent de gérer leur hébergement, et bien la conclusion de tout ça c’est que Proxmox c’est de la balle, Docker j’y ai passé 1 semaine et j’ai clairement été très déçu, impossible de fixer un quota disque de manière simple, obligation d’utiliser un systeme de “volumes” pour étendre l’espace disque en créant au passage un autre conteneur, impossible de faire un “snapshot”, impossible d’assigner une adresse privée fixe sans se faire chier à écrire des règles pour les interfaces réseaux… Bref totalement à proscrire pour mon utilisation.

Alors certe Proxmox se base en partie sur openvz mais putain qu-est-ce-que c’est simple d’utilisation et rapide !

Le 25/06/2015 à 12h 08

Pas grave je vais prendre la superior version sur PS4

Le 19/09/2014 à 10h 30







jeje07 a écrit :



c’est quoi que tu appelles assez loin ?







Je dirais entre 3M et 4M


Le 19/09/2014 à 10h 27







jeje07 a écrit :



ca dépend….. sur un moniteur 24-27 pouces à 50-60 cm de recul, oui la différence est énorme.



sur une TV 40-55 pouces à 2m50 - 3m de recul, tu ne feras aucune différence.







Sans vouloir épiloguer sur le sujet, ça dépend des gens, je sais que j’ai une trés bonne vue et que même en me placant assez loin (test effectué à la FNAC) l’image me semble bcp plus net et plus limpide qu’un 1080p


Le 19/09/2014 à 10h 25







Adakite a écrit :



Certes, mais on peut pas tout avoir…Et puis les prix évoluent toujours à la baisse une fois le produit sur le marché (en dehors des “hors-classes” comme les Titan et les Dual-GPU).







Et puis faut pas perdre de vu un truc, Nvidia serait complétement con d’un point de vu marketing à vendre leur puce haut de gamme 200 Euros de moins qu’une 290x alors qu’elle est plus performante, ça fonctionne comme ça partout, on segmente en fonction des perf, pas du coup de fabrication.


Le 19/09/2014 à 10h 22

Le débat 4K c’est un peu comme le débat 30fps / 60fps; chacun à son avis, t’as des mecs qui prétendent que l’œil voit pas de différence au delà de 30, moi je suis absolument pas de cet avis, idem pour le 4K, suffit d’aller voir un écran en vrai à la FNAC pour voir que la différence est monstrueusement visible par rapport au même écran en 1080p…

Le 27/05/2013 à 13h 10

de ma bonne bouse cette console, je pense que Sony va les fumer sur cette gen

Le 26/03/2013 à 14h 13







Alucard63 a écrit :



Je pense que ce qu’il a besoin c’est de vrais codeurs.



Nos écoles d’ingénieurs forment avant tout des managers pas vraiment de vrais techos( enfin ça c’est surtout parce que la technique ça paye pas en France…mais bon ).<img data-src=" />



Un X, Centrale ou même un Telecom Paris a moyennement envie de pisser du code en sortie d’école parce qu’il s’est pas cassé le cul à faire des études pour être payer une misère.<img data-src=" />







Je partage cet avis, ça fait 10 ans que je fais du développement, et j’ai jamais vu de Supelec / X/ Central coder ni même être vraiment intéressés par la technique, ils étaient tous Manager et c’était en général les N+1à3.



Donc après il faut voir la définition qu’on donne à “ingénieur”, c’est un mec qui fait de l’ingénierie ou c’est un mec qui est manager ?



Les mecs qui font du développement sortent pas d’X, ils sortent de l’université ou d’écoles d’ingénieurs public lambda (public ou privées osef), donc l’idée de Niel est pas forcément mauvaise…







Le 26/03/2013 à 14h 13







Alucard63 a écrit :



Je pense que ce qu’il a besoin c’est de vrais codeurs.



Nos écoles d’ingénieurs forment avant tout des managers pas vraiment de vrais techos( enfin ça c’est surtout parce que la technique ça paye pas en France…mais bon ).<img data-src=" />



Un X, Centrale ou même un Telecom Paris a moyennement envie de pisser du code en sortie d’école parce qu’il s’est pas cassé le cul à faire des études pour être payer une misère.<img data-src=" />







Je partage cet avis, ça fait 10 ans que je fais du développement, et j’ai jamais vu de Supelec / X/ Central coder ni même être vraiment intéressés par la technique, ils étaient tous Manager et c’était en général les N+1à3.



Donc après il faut voir la définition qu’on donne à “ingénieur”, c’est un mec qui fait de l’ingénierie ou c’est un mec qui est manager ?



Les mecs qui font du développement sortent pas d’X, ils sortent de l’université ou d’écoles d’ingénieurs public lambda (public ou privées osef), donc l’idée de Niel est pas forcément mauvaise…







Le 07/02/2013 à 17h 23







David_L a écrit :



Parce que si on ne le fait pas on nous dit :





  1. “Vous avez pas testé en 3D”

  2. “On peut trop jouer avec ce truc et vous le cachez à vos lecteurs”



    <img data-src=" />







    Ok effectivement :)

    Par contre je ne sais pas si c’est encore possible (codec dispo en béta ?) rajouter un test de décodage fichier HD 4k, là, ça serait intéressante de voir ce que donne les stations multimédia.


Le 07/02/2013 à 15h 31

Je comprends pas l’intérêt de faire des tests “jeux 3D” c’est évident que ça va ramer comme pas possible, ce genre de PC est à mettre sous la TV avec un disque de 1To blindé de films et de musique…

Le 05/02/2013 à 12h 11







Industriality a écrit :



Le fait qu’il soit incapable de gérer des envionnement de plus de 50 mètres de large <img data-src=" />







Pourtant c’était un des avantages du CryEngine de gérer des paysages immenses non ?


Le 05/02/2013 à 11h 48







Industriality a écrit :



“CryEngine 3” et “énorme” sont antinomiques.



<img data-src=" />







Moi je le trouve plutôt bien foutu ce moteur, qu’est-ce-que tu lui trouves de pas bien ?


Le 21/01/2013 à 10h 07







Awax a écrit :



Avec un 50” en 1080p et à 2.5m, tu as 1 pixel de l’écran qui correspond à 1 “pixel” de l’oeil.

……







Ca me rappelle les mecs qui disaient qu’un jeu vidéo a + de 30 ips servait à rien en sortant tout un tas d’explications pseudos scientifiques à deux balles… Maintenant les gens ne jurent que par le 60ips (minimum)…

Pour info j’ai une TV 37” et même sur les blue-ray je vois les defauts à l’image (distance de 2m50 à peu pret), donc faut arrêter de dire n’importe quoi…


Le 22/11/2012 à 08h 23







Locke a écrit :



On notera que celle avec qui à le plus gros chiffre d’affaire est celle qui a le plus petit impôt en terme de %..







Comme son nom l’indique il s’agit d’impot sur les bénéfices, le CA != bénéfice, tu peux faire 200 milliards de CA et 10 millions de bénéfices si tu as de grosses charges par exemple…


Le 24/08/2012 à 15h 07







TBirdTheYuri a écrit :



D’où mon post… Pour un contexte utilisateur “classique” (jeu, bureaique, web), le gain est quasiment nul.



Mais on peut aussi gagner sur autre chose qu’une base Oracle ultra-sollicitée

Sur de la CAO ou des applications de calcul ou d’encodage on peut noter de belles différences.







Je vois pas trop là, sur un logiciel d’encodage par exemple, c’est plutôt ton CPU qui va galérer, pas ton SSD, en plus de l’encodage sur des grosses vidéos, a moins d’être riche et d’avoir un gros SSD, tu stock sur du disque classique…

sur la CAO je vois pas non plus l’intérêt, c’est des tâches lourdes en CPU, pas en IO.


Le 24/08/2012 à 14h 56







Dark-Jedi a écrit :



Sur le ressentit utilisateur, sur les derniers SSD, il n’y aucune différence. Sur les tout premiers SSD, c’est possible vu que le firmware ou le controleur etait pas forcément bien optimizé.



Bref c’est pour ca que j’ai pris un crucial m4 en fin de vie, que le dernier samsung 830, au moins je sais que le m4 est ultra fiable même s’il est un peu moins rapide en écriture.



La seule différence pourra éventuellement se voir, si tu copie des films de vac à longueur de journée d’un disque à l’autre :)









Merci pour la confirmation, l’argument qui m’a fait choisir le m4 c’est la fiabilité (et le prix car pas trop cher), donc cela confirme que toutes ces histoires de perfs ne sont la que pour amuser la galerie.



@TBirdTheYuri : je parlais d’un contexte utilisateur particulier, sur du serveur à haute concurrence d’accès au filesystem évidement que ça à un intérêt du SSD haut de gamme et performant.


Le 24/08/2012 à 13h 33

J’ai une question pour Geek, est-ce-que l’on voit une différence de vitesse entre deux SSD ou c’est du flanc ? Perso j’ai un Crucial M4 de 128Go et pendant un temps il était branché en SATA 3gb au lieu de 6Gb, aprés changement de cable et passage à 6Gb (confirmé par benchmark) je ne vois pas vraiment de différence, entre instantané et instantané+ pour moi c’est du pareil au même, les applis ce lance instantanément et windows démarre au quart de tour. Pour moi ces histoires d’iops et de débits c’est juste pour vendre, mais au final ca n’a aucun intérêt…