votre avatar

ZoZo

est avec nous depuis le 19 décembre 2003 ❤️

359 commentaires

Le 03/11/2020 à 07h 47

Mouai c’est même pire que BlackMirror : là ça concerne “la vie vrais” !

Enfin, la frontière entre la fiction (qui est censé être cette série) et la réalité devient de plus en plus étroite. :craint:

Quand on compare à une fiction, on compare à ce que serait la vraie vie si elle était calquée sur cette fiction, sinon la comparaison n’aurait aucun sens. Donc je ne vois pas trop l’intérêt de dire que c’est pire que Black Mirror parce que c’est la vraie vie.

Le 11/10/2020 à 17h 05

Et non, entre 312 500 000 et 2 500 000 000 caractères par seconde, selon l’encodage et/ou quels caractères. Le haut de la fourchette c’est si ce ne sont que des caractères de la table ASCII.

Le 10/10/2020 à 01h 32

Les cœurs Willow Cove ont l’air tout de même d’avoir un IPC qui pourrait plus que rivaliser avec ces Ryzen 5000. S’ils arrivent à faire tourner ça sur desktop à 5Ghz sur du 14nm en fermant les yeux sur la conso, ça peut redonner techniquement la couronne des performances brutes à Intel sur certains cas d’utilisation, notamment le gaming. C’est extrêmement hypothétique et je ne parierais pas d’argent dessus, mais c’est la première fois depuis presque 6 ans qu’on aura une nouvelle architecture desktop de chez Intel, donc on peut avoir un peu d’expectative.
Bien entendu avec seulement 8 coeurs max sur RKL, le Ryzen 5950X restera intouchable en multi et le 5900X probablement aussi.

Le 09/10/2020 à 08h 17


revker a dit:


Bonne nouvelle, je les attendais pour revoir ma configuration.Si ils sont meilleurs qu’Intel en jeu, il ne restera plus rien pour sauver le bateau bleu…En tout cas, chez les particuliers. A part peut-être une certaine aura. Certains joueurs ne veulent que du Intel/nVidia.


Le bateau bleu va rester à flot, et comme ils sont revenus en 2006 avec les Core 2, vont probablement revenir à un moment ou un autre avec le 10nm ou 7nm. Et pourquoi pas en partie avec Rocket Lake, au prix d’une consommation élevée. Le plus tôt sera le mieux pour le consommateur.

Le 04/09/2020 à 12h 44

Ce qui manque vraiment ce sont les switchs à plusieurs ports RJ45 multi-gigabit et abordables. Il n’y a guère que le nouveau QNAP.

Le 04/09/2020 à 09h 42

C’est bien ce que la grande majorité font, d’aller utiliser Chrome.
Tu peux remercier ceux qui prennent la peine de râler, parce que sinon Mozilla se retrouvera à 1% d’utilisateurs sans comprendre pourquoi.
Et là Google ne verra plus d’intérêt à les payer pour avoir leur moteur de recherche par défaut, ce sera la faillite de Mozilla. Le projet se retrouvera sur GitHub, avec trop peu de contributeurs pour arriver à suivre Chromium. Ou alors Mozilla vivotera juste assez pour faire de Firefox une variante de Chromium axée sur la vie privée (mais je crois que ce créneau est déjà occupé par Vivaldi).

Le 25/04/2020 à 11h 58

Oui pour le matériel d’un certain âge, Linux peut être une aubaine. Mais le nerf de la guerre, c’est le support du matériel récent.

Le 25/04/2020 à 11h 55

Pour le matériel d’un certain âge, Linux peut donner une 2ème chance quand une version de Windows récente est sans pitié.

Pour le matériel récent, faut pas être de mauvaise foi, même si on pourra certainement trouver une exception à la règle, le support sous Windows est le mieux assuré. Or ce qui fait gagner une adoption massive, c’est le matériel récent.



Ton câble Realtone a-t-il pu trouver une utilité sous Linux ?

Apparemment pour certains il fonctionne bien sous Windows 10 :

https://www.reddit.com/r/rocksmith/comments/5ki284/is_the_real_tone_cable_seriou…

Après il y a peut-être aussi eu une histoire de permissions :

http://customsforge.com/index.php/topic/45451-windows-10-april-2018-update-real-…

Le 24/04/2020 à 22h 28

Dernière chose : Après avoir terminé d’installer une Fedora ou Ubuntu ou Mint ou je ne sais quoi, en cherchant à comparer avec Windows, faudra s’attendre plus à “mouais, ok” qu’à “waouh”.

Le 24/04/2020 à 22h 16

Je suis utilisateur convaincu de Windows, mais j’ai beaucoup, beaucoup bidouillé avec Linux aussi. Je ne changerai pas mon OS de tous les jours pour Linux pour plein de raisons pratiques (jeux, travail, hardware), mais aussi parce que sur le plan fonctionnel je n’y verrais pas de gain. Certes c’est gratuit et open source, mais ce ne seront jamais des arguments de poids quand la facture de Windows ne se sent quasiment jamais et qu’on a suffisamment confiance en Microsoft (soit par conviction, soit par ignorance). Les malwares sont moins nombreux sous Linux et s’y propagent moins, mais la sécurité est devenue très sérieuse chez Microsoft et je n’ai pas souvenir avoir subit de désagrément depuis Blaster sous XP en 2003. Ce dernier point est quand même une raison pour laquelle dans les années 2000 j’avais installé pour ma grand-mère qui n’y connaissait rien une Ubuntu. Elle n’avait besoin que d’un navigateur, pour consulter ses comptes, ses e-mails, et quelques sites d’information, et j’avais du matos à récycler.



             

Toutefois, je vais dire que l'installation et l'utilisation de Linux sont très faciles si on suit ces principes :

- Ne pas avoir du matériel plus jeune que la dernière version de la distro, ou dont la version de kernel n'a pas au moins 6 mois de plus que le matériel. Idéalement, utiliser du matériel qui date de plus d'un an, ou qui n'est qu'un "refresh" de matériel datant de plus d'un an, par exemple les derniers CPU Intel ou les cartes graphiques "Super" de NVIDIA. Les plateformes Threadripper 3ème génération par contre commencent seulement avec Ubuntu 20.04 et Fedora 32 à être supportées correctement de l'installation à l'utilisation (je parle d'expérience, l'installation de Fedora 31 n'arrive pas à se lancer dessus).

- Ne rien chercher d'exotique, rester dans les sentiers battus, se contenter de ce qui est proposé.

 

Et une installation de Linux ne peut être désirable que si on vérifie ces principes :

- Ne pas vouloir utiliser du matériel qui n'a aucun chance d'être supporté, ou d'avoir le même niveau de support que sous Windows. Par exemple un contrôleur de LEDs RGB si on a un PC sapin de Noël.

- Ne pas vouloir utiliser des logiciels qui ne sont prévus que pour Windows.






   J'ajouterai que pour moi qu'un des plus gros points faibles de Linux est le système de pilotage du hardware.         

Sous Windows on peut en général prendre un ISO vieux de 3 ans et l'installer sur du matériel dernier cri. Si le contrôleur réseau est reconnu d'emblée, Windows Update quasiment de tout avoir à jour en terme de pilotes et OS. Sinon, on trouve facilement les pilotes sur Internet et ils sont faciles à installer.

Sous Linux, vaut mieux avoir au moins le dernier ISO de la dernière version de la distro de l'époque où le matériel est sorti, sinon on cherche les ennuis. Si le pilote n'est pas déjà intégré dans la distro, c'est le début du casse-tête. Et même si c'est dans le dépôt de packages de la distro, il n'y a à ma connaissance dans les distros aucun mécanisme comme sous Windows de recherche automatique des pilotes.

Le 09/10/2019 à 10h 45

Je pense que là on est bien au-delà de 21:9, probablement entre 4:1 et 5:1 (36:9 et 45:9)

Le 03/09/2019 à 12h 03

Oui, et heureusement qu’on peut continuer d’acheter des catastrophes écologiques (et sanitaires !) encore pires.

Le 03/09/2019 à 12h 01

Attention à réduire l’écologie à l’anti-nucléaire. Je refuse qu’accepter le nucléaire soit considéré comme une position anti-écologique alors que cela apporte plus de solutions que de problèmes.

Le 03/09/2019 à 11h 59

Je vais répondre par rapport aux déchets produits par les centrales en fonctionnement :

Si, on sait ce qu’on va en faire, on va les enfouir dans des sarcophages à plusieurs centaines de mètres sous la surface, largement en-dessous des nappes phréatiques.

95% de la radioactivité des déchets est dans des déchets dits HAVL (haute activité, vie longue) dont le volume total depuis les débuts du nucléaire en France atteint aujourd’hui celui d’une piscine olympique (de 3m de profondeur). C’est… une broutille.

Des 5% restants, une partie va aussi être enfouie, le reste va être dilué dans les matériaux de construction et autres retraitements de manière à passer sous les seuils sanitaires.

Je ne dis pas que ce n’est pas un défi, ni que c’est parfait, mais en terme de pollution c’est complètement anecdotique par rapport à beaucoup d’autres choses. Même si on avait une fuite radioactive, cela mettrait moins en danger un écosystème naturel qu’un barrage hydroélectrique, alors ne parlons même pas du réchauffement climatique.

Il faut arrêter avec la psychose obscurantiste.

Le 03/09/2019 à 11h 50

Bah, il a simplement suivi le conseil de Macron et ça a marché

Le 12/06/2019 à 10h 56

Je pense que ça n’a aucune importance par rapport à l’enjeu

Le 23/05/2019 à 09h 00

Ahhh, les marketplaces… avec leur descriptifs approximatifs, leurs vendeurs suspects, leurs CGV différentes, leurs frais de port supplémentaires, etc. Que n’y a-t-il pas à aimer ?

Le 23/04/2019 à 23h 16


infocast a dit:


Intel insulte la définition du terme génération avec ce lancement ^^


Les générations 6, 7, 8 et 9 sont toutes quasiment identiques en terme d’architecture et de procédé de gravure. Le seul bond notable fut l’augmentation du nombre de cœurs, et c’est un bonne raison de changer, mais c’est la seule pour la plupart des gens.
Il va falloir attendre le 2ème semestre de cette année (à commencer par les puces d’ultrabook) pour voir la l’évolution technologique que représente Ice Lake / Sunny Cove.

Le 29/03/2019 à 11h 17

De toute façon même avant que ça se fasse racheter, ils ne faisaient à peine plus que produire des cahiers des charges (en gros, une liste des spécifications des smartphones) et c’était Tinno qui avait les ingénieurs pour réellement concevoir les produits. Donc parler de fabricant c’est tirer la définition à l’extrême et tomber dans leur piège marketing. Le terme importateur me paraît plus proche de la réalité.

Le 28/03/2019 à 09h 54

Désolé, j’avais pas saisi le private joke entre administrateurs d’un équipement particulier d’une marque particulière <img data-src=" />

Le 27/03/2019 à 10h 47

Si tu veux qu’on répète après toi, dis-le dans une langue que tu maîtrises <img data-src=" />

“No daylight saving time”

Le 27/03/2019 à 10h 58

En lisant le titre j’ai cru que Microsoft avait signé un partenariat avec Amazon <img data-src=" />

Le 12/03/2019 à 14h 25

Quelques Xeon W Cascade-Lake X socket 2066 avec coeffs débloqués seraient pas mal. J’aimerais avoir le support de l’ECC tout en maximisant les perfs single-thread et profiter du quad-channel (ou mieux ?).
Au passage, sur la gamme inférieure, à quoi sert la distinction entre Xeon E et Core, puisque les Xeon E ne sont pas vendus plus chers ? Autant ne vendre que des Core et leur activer toutes les fonctions des Xeon E.
Et s’ils pouvaient soit augmenter le nombres de lignes PCI-E du CPU, soit remplacer le DMI 3.0 par quelque chose de plus sérieux, ce serait bien aussi (bien entendu ça demanderait une évolution des sockets)
Cela dit, maintenant qu’il existe au moins une carte mère Ryzen avec IPMI, le camp AMD va peut-être (re-)gagner un client…

Le 01/03/2019 à 18h 57


ZoZo a dit:


Si USB 3.0, 3.1 Gen 1 et 3.2 Gen 2 sont électriquement la même chose, ils auraient dû simplement appeler cela 3.0. L’USB 3.1 Gen 2 devrait être 3.1 tout court. L’USB 3.2 Gen 2x2 devrait être 3.1x2USB 3.0 - 5 Gb/s USB 3.1 - 10 Gb/s USB 3.1x2 - 20 Gb/sQuant au terme SuperSpeed, il ne sert à rien.


Je n’ai pas pu éditer mon commentaire pour corriger les problèmes de saut de ligne. Je ne sais pas si ces derniers sont dus à Firefox, mais je n’ai pu éditer ni dans Chrome, ni dans Firefox.

Le 01/03/2019 à 18h 53

Si USB 3.0, 3.1 Gen 1 et 3.2 Gen 2 sont électriquement la même chose, ils auraient dû simplement appeler cela 3.0.
L’USB 3.1 Gen 2 devrait être 3.1 tout court.
L’USB 3.2 Gen 2x2 devrait être 3.1x2



USB 3.0 - 5 Gb/s
USB 3.1 - 10 Gb/s
USB 3.1x2 - 20 Gb/s



Quant au terme SuperSpeed, il ne sert à rien.

Le 13/02/2019 à 23h 17







Krogoth a écrit :



Un simple effacage par desindexation c’est rapide mais les données sont “facilement” récupérable. Un véritable effacement et un peu plus long normalement.





Elles ne sont récupérables que si elles sont sur disque dur mécanique, sous des formats facilement identifiables (avec des entêtes clairs), et pas fragmentées.Si c’est sur SSD et que les commandes “discard” (TRIM/UNMAP) sont actives, les cellules NAND auront toutes été marquées pour effacement, et là c’est certainement mort.


Le 07/02/2019 à 09h 48

Ce n’est une mauvaise nouvelle que s’ils voulaient faire une levée de fond ou s’ils craignent une OPA, mais sinon, sauf erreur, ça ne change rien à leur santé financière.

Le 08/01/2019 à 17h 58

C’est bien que les cartes mères s’y mettent, mais c’est encore le vide côté switchs.

Le 07/01/2019 à 10h 58


(quote:38765:UtopY-Xte)
Du coup c’est la mort de g-sync classic?


C’est la façon que NVIDIA a trouvée pour tenter de sortir de son impasse par la tête haute. Mais on peut interpréter cela comme un aveu de défaite, et le début de la mort de G-Sync. Les constructeurs n’auront plus de motivation à sortir le même écran en version G-Sync s’ils peuvent simplement faire l’effort d’obtenir la certification G-Sync compatible sur celui compatible VESA Adaptive Sync.

Le 17/12/2018 à 11h 34



Lui aussi était très performant, mais son prix le rendait inintéressant.





Les premières semaines. Maintenant on peut le trouver sous les 600€, ce qui est une somme importante, mais n’est pas stratosphérique.

Edit: je parle du i79-9900K

Le 07/12/2018 à 14h 25







Kevsler a écrit :



C’est jamais qu’un moteur de rendu de pages





Non, Chromium c’est un navigateur complet, interface comprise. Microsoft en fera une version customisée pour ressembler au Edge actuel.

&nbsp;



Kevsler a écrit :



Un moteur de rendu unique c’est tout ce dont j’ai rêvé.





Tu aurais adoré l’époque de gloire d’IE6.



Là heureusement c’est open source, mais ce qui est sûr c’est que c’en sera fini du W3C. La norme du web, ce sera ce que décidera d’implémenter ou pas Chromium. Ce n’est pas nécessairement un mal en soi, il faut simplement ne pas se faire d’illusions.

&nbsp;


Le 08/10/2018 à 21h 26

J’ajouterai qu’ils essayent vraiment de nous enfumer avec leur “platform PCI-E lanes”, comme si les lignes provenant du chipset étaient équivalentes à celles provenant du CPU. Il suffit d’un seul SSD m.2 pour saturer le lien entre le chipset et le CPU, alors faut pas espérer y ajouter un contrôleur USB 3.1 gen 2 ou de l’Ethernet 10Gb.

Le 08/10/2018 à 21h 02

Les lignes PCI-E hors CPU ne comptent pour rien de toute façon, Leur intégralité passe par des goulots d’étranglements équivalents à 4 lignes PCI-E (cf DMI 3.0).

Le 23/09/2018 à 15h 11

Donc s’il y a un cambriolage chez toi, et que par chance la police passe devant, elle ne devrait pas intervenir ?

&nbsp;Après tout, si tu te fais cambrioler, t’es le seul impacté. Ce qui est chez toi c’est ton intérêt privé, et la police est payée par les fonds publics.

Le 17/09/2018 à 11h 17

On voit qu’ils se sont fortement inspirés de la A4-SFX de Dan Cases (produit par Lian-Li) sur le principe de la carte graphique derrière la carte mère.

Le 14/09/2018 à 18h 37

Si c’est pour un 1080p vaut mieux une 1080. Les 2080 c’est pour du 2080p.

Le 14/09/2018 à 18h 35

C’est normal, car de la série 900 à la série 1000, on est passé de la gravure planaire 28nm qui traînait depuis 4 ans à la gravure FinFET 14/16nm. Si cette proportion est conservée sur les deux dimensions, cela veut dire que les transistors sont devenus jusqu’à 3 fois plus petits. C’est un grand bond générationnel difficile à reproduire en restant sur la même finesse de gravure, ce qui est le cas pour le passage de la série 1000 à 2000. NVIDIA a poussé cette génération de gravure au max (12nm et dés de siliciums plus larges) pour augmenter tout de même le nombre de transistors, mais dans une proportion bien moins importante que s’ils avaient pu passer au 7nm par exemple.

Le 11/09/2018 à 16h 18

Ce qui est bien, c’est que chaque nouvelle capacité ne vient pas prendre la place tarifaire de la précédente pour la rendre moins chère mais se crée une place à un tarif supérieur. J’attends les 20 To à 999,99$, sinon ce n’est pas assez cher.

Le 20/08/2018 à 20h 35

Personne ne vous oblige à acheter ces cartes, et soyez au moins contents que cela va faire baisser les prix des 1070, 1080 et 1080 Ti, sans parler des cartes AMD, pour ceux qui ne sont pas encore équipés de générations récente.

Le 21/05/2018 à 12h 42

Non, le raccordement et l’abonnement sont deux choses différentes. Tu peux être raccordé mais ne pas t’abonner.

Le 14/05/2018 à 10h 20

Ce qui est malheureux c’est ce lien ridicule DMI 3.0 (équivalent PCI-E 3.0 x4) entre CPU et PCH qui est tellement sous-dimensionné pour 6 ports USB 3.1 gen 2, WiFi gigabit, 6 ports SATA + mémoire Optane, et 24 liens PCI-E 3.0.

On pourrait dire que pour l’utilisateur moyen ça peut aller, mais même la plateforme 2066 est affligée de ce goulot d’étranglement.



Maintenant il faut regarder attentivement le diagramme des cartes mères, car certains constructeurs (y compris les plus “prestigieux” sur leurs produits haut de gamme) se permettent de mettre le port M.2 sur le PCH, ce qui veut dire que rien que le SSD va saturer tout le lien entre CPU et PCH.

Le 05/04/2018 à 09h 11

Il n’y aura pas d’information pour l’Europe car Samsung ne vend plus de portables en Europe depuis plusieurs années :

http://www.01net.com/actualites/samsung-abandonne-le-marche-du-pc-en-europe-6274…



Donc cette information ne va servir qu’à vos lecteurs canadiens.

Le 28/02/2018 à 10h 32

C’est vrai, les gens sont tellement bêtes. Mais pas moi.

Le 26/02/2018 à 10h 00







Furanku a écrit :



Et toujours rien, officiellement, pour les Galaxy Ax 2017…

J’ai un A3 qui n’attend que de pouvoir passer dessus <img data-src=" />







&nbsp;Je propose qu’il y ait un commentaire pour chaque terminal parmi les centaines qui ne font pas partie des 10 cités.



Ma contribution:

Et toujours rien, officiellement, pour le Galaxy Note 4.


Le 21/02/2018 à 15h 19







levhieu a écrit :



Voyons, cétait comment déjà…

1ère génération: le 4004

2ème génération: le 8008

3ème génération: le 8080

4ème génération: le 8085 d’un côté, le Z80 de l’autre.



Après tout, le Basic Microsoft faisait l’affaire <img data-src=" />





Mais non voyons, 1ère génération c’est le 8086, ensuite le 286, puis 386, 486, et 586 Pentium (Pent comme 5)

Ah que dis-je, c’était Pentium la 1ère génération, ensuite il y a eu Pentium Pro/2, Pentium 3, Pentium 4.


Le 30/12/2017 à 09h 36

“On vous a offert un Google Home”

Je ne me verrais jamais offrir cela, à moins que la personne ait clairement exprimé son souhait d’en avoir un. Il faut déjà avoir de l’audace pour mettre chez soi un appareil qui potentiellement écoute tout ce qui se passe et l’envoie sur des serveurs distants, alors il faut vraiment être sans scrupule pour l’offrir sans sollicitation.

Le 28/12/2017 à 11h 39

Async/await est utilisé partout maintenant, c’est devenu complètement indispensable. C’est un changement de paradigme majeur dans l’asynchronisme. LINQ est abondamment utilisé, l’inférence de types aussi.

Les value tuples avec déconstruction, c’est encore tôt pour le dire, c’est sorti cette année.

En C# 8 il y aura les type référence non-nullables, que personnellement j’anticipe d’utiliser exclusivement. Les enregistrements vont aussi certainement avoir pas mal de succès pour tout ce qui est DTO.



On parlait de langage, mais si tu veux amener cela sur le terrain de l’écosystème, je ne crois pas que C# ait beaucoup à rougir face à Java. En terme de bibliothèques, tests automatisés et déploiement, ça ne manque vraiment de rien.

Le 28/12/2017 à 11h 27







OlivierJ a écrit :



Java aussi a progressé, a introduit divers concepts et facilités d’écriture.





Pas du tout au même degré que C#.

async/await, LINQ, value tuples + déconstruction, inférence de types, interpolation de chaines et d’autres agréments syntaxiques n’y sont pas.

La dernière évolution notable du langage, Java 8, introduisait les lambda expressions et mixins 6 ans après leur apparition en C#.



D’un autre côté Java a les annotations compilées et, plus anecdotiquement, la possibilité pour les classes anonymes d’implémenter des interfaces.

&nbsp;







OlivierJ a écrit :



Depuis quand Visual Studio Code est gratuit ?





Depuis sa première version.

Même Visual Studio classique en version Community est gratuit (mais pour les entreprises, seulement jusqu’à un nombre limités de développeurs).


Le 22/12/2017 à 18h 07

J’allais suggérer une appli web pour être plus au goût du jour, mais c’est vrai qu’en web “hello world” ne nécessite qu’un fichier HTML statique à ouvrir dans un navigateur. <img data-src=" />

Le 22/12/2017 à 17h 50

Sauf que les œillères que tu portes du fait de ton allergie depuis les années 90 t’ont fait passer à côté de ce qu’est C#.



Le réduire aujourd'hui à un clone de Java est une preuve de méconnaissance grossière. Il a progressé bien, bien au-delà de Java, ne serait-ce que par l'inclusion de LINQ, des méthodes d'extensions (sortes de mixins), des value tuples avec déconstruction, et, non des moindres, d'async/await que tous les autres langages ont repris ou espèrent reprendre. Et je passe la multitude petits agréments syntaxiques.      

Aujourd'hui, passer de C# à Java, je vois mal comment tu n'aurais pas envie de te tirer une balle dans la tête. C'est extrême comme formulation, mais tu vois l'idée. Après je ne dis pas du tout qu'il est parfait, rien de l'est, et il y a encore un paquet de pistes d'améliorations, mais j'ai beaucoup de plaisir à travailler avec.

Pour finir, c'est un langage libre pour lequel il existe au moins deux environnements open-source et multiplateformes : Roslyn + .NET Core, et Mono. En plus il existe une IDE open-source, gratuite, multiplateforme et performante pour aller avec qui s'appelle Visual Studio Code. Je ne vois donc pas de raison de le stigmatiser autre que par un principe anti-Microsoft anachronique.