votre avatar

Strimy

est avec nous depuis le 8 octobre 2006 ❤️

1062 commentaires

Le 17/02/2023 à 14h 47

2 choses m’agacent fortement.
La première, c’est le calendrier accessible depuis l’horloge de la barre des taches qui ne sert strictement à rien.
Sur Windows 10, on pouvait voir les évènements à venir et en créer de nouveaux, maintenant on a juste des dates sur lesquelles on ne peut rien faire.
Et autre point (mais qui sera corrigé dans la prochaine version je crois), c’est la disparition de l’affichage des secondes…

Le 09/03/2022 à 13h 40

Mon point porte surtout sur le fait que toute la bande passante n’est pas à destination de la partie CPU, donc je maintiens que ça n’a pas vraiment de sens de comparer une BP CPU+GPU+{toutes fonctions du SOC} avec juste la BP d’un CPU.
D’ailleurs, la review du M1 Max sur Anandtech avait bien mis en évidence qu’il n’était pas possible pour le CPU d’exploiter les 400+ GB/s (243GB/s étant apparemment leur limite). Ce sera exactement la même chose sur le Ultra.



Et pour revenir sur Threadripper, il suffit de regarder comment l’archi scale avec l’augmentation de la fréquence de la RAM ou des canaux. Sur Zen 3, ça reste extrêmement limité (moins de 4% de gain pour en passant de 3000 à 4000MT/s).



Ca n’enlève rien au fait que ce soit impressionnant d’avoir une archi unifiée aussi conséquente, mais clairement, cette BP est principalement là pour le GPU, ainsi que toutes les accélérations matérielles (vidéo notamment, vu les flux que le Soc est capable de gérer).

Le 09/03/2022 à 11h 03

La comparaison n’a pas tellement de sens. Un Threadripper c’est juste une partie CPU, qui bénéficie pas spécialement d’une énorme bande passante.



Là on parle d’un SoC avec un gros GPU qui lui aura besoin de cette bande passante. Et à ce niveau là, on retrouve les mêmes valeurs qu’un autre GPU (niveau RTX 3080)

Le 09/11/2021 à 16h 34

Il faut multiplier par la largeur du bus. Sur un PC qui fait du 64 bits par canal, ça te donne 64x8,58 = 68Go/s (supérieur à la bande passante de la plupart des configs DDR4 en dual channel).

Le 15/09/2021 à 13h 25

To the moon !

Le 07/05/2021 à 15h 09

La DDR5 a un système de correction interne aux puces (on die ECC). Il sert principalement à garantir un meilleur niveau de fiabilité des puces.
Mais il ne remplace pas l’ECC qui est géré par l’ensemble de la chaine CPU/RAM.

Le 14/04/2021 à 09h 00

Je l’ai aussi pris chez Cybertek, seul revendeur francais à les avoir en stock. J’ai souvenir que le 4750G est resté en stock un moment, comme le 4650, alors que le 4350 a mis quelques semaines à être dispo.
Pour le packaging, comme dit Naruto`kun, ça reste un packaging OEM. A noter qu’ils m’ont quand même mis un ventirad avec (que je n’utilise finalement pas, j’ai juste mis le radiateur du U12S, sans le ventilateur :D )

Le 14/04/2021 à 07h 23

C’est un peu relou effectivement. J’imagine que c’est en lien avec les capacités de productions limitées…
Ceci dit, on trouvait facilement les Ryzen 4000G (j’ai monté mon serveur avec un 4350G), donc il a y espoir à pouvoir trouver ceux là aussi.

Le 29/01/2021 à 11h 16

Déjà que je trouve que la charge CPU est trop importante sur une souris en 1000Hz, je veux pas voir ce que ça donne en 8000…

Le 26/01/2021 à 15h 47

De ce que je comprends de Lucienne, pas mal de fonctionnalités d’optimisation énergétique serait présente, notamment sur les tensions qui sont beaucoup mieux découplées entre les différentes parties (chaque core et igpu sont indépendants entre autre).
Ce qui ferait quand même de Lucienne un entre deux par rapport à Renoir et Cezanne.



C’est clairement pas idéal, mais finalement je suis moins choqué que ce que je pensais, si ce n’est effectivement pas qu’un simple renommage.
Je reste un peu déçu quand même par le gain de perf. J’imagine qu’il faudra attendre Zen 4 et/ou le passage à un autre process pour avoir un plus gros gain.

Le 15/12/2020 à 08h 19

C’est quoi le délire du RJ45 over micro HDMI ? Il faut un adaptateur micro HDMI -> RJ45 du coup ? C’est quoi l’intérêt de sortir un truc aussi spécifique alors qu’il existe des connecteurs RJ45 “déployables” qui s’adaptent bien à des PC assez fins ?



Ou si on doit se trimballer un adaptateur dans tous les cas, autant utiliser de l’USB C… Tout le monde y gagnerait => un port USB de plus sur le PC, et une carte réseau réutilisable.

Le 08/12/2020 à 10h 30

Je suis pas sûr que le M2 en PCI Express fournisse autre chose que du 3.3V
Mais le VGA semble avoir besoin d’un 5V, et si je ne me trompe pas, c’est bien le 5V de la Molex qui est utilisé.

Le 08/12/2020 à 09h 37

T’as les APU 4000G (Renoir) qui sont en Zen 2. Mais ils sont pas évident à trouver. En France, je ne connais que Cybertek qui les vend (4350G, 4650G et 4750G).
Le choix d’AMD d’avoir mis ces APU en vente pour les OEM est étrange, peut être qu’ils n’avaient pas assez de capacité de fabrication (trouver un PC portable en Renoir est loin d’être évident), et possiblement qu’AMD va annoncer des APU Zen 3 au CES (y’a eu quelques leaks sur Lucienne et Cezanne). A voir…

Le 02/12/2020 à 16h 25

C’est pas qu’il est tombé sur un cas spécifique, mais c’est le fonctionnement général de tous les écrans/GPU. Le support de l’Integer Scaling est assez récent, et pitoyable chez certains (Nvidia…). Tu peux tester sur tous tes écrans, passer à une résolution / 2 (1920 -> 960 par exemple) et tu trouveras l’image floue. Je n’ai personnellement jamais vu d’écrans (que ce soit TV, moniteurs ou PC portables) qui permettait de faire un scaling au plus proche.



Y’a un bon résumé ici : https://tanalin.com/en/articles/integer-scaling/

Le 25/11/2020 à 11h 44

C’est bien connu que les équipes logicielles du PBO sont les mêmes en charge de la production et de la logistique

Le 20/11/2020 à 11h 16


La société serait même en train de travailler à une manière de rendre certaines cartes mères de sa série 300 compatibles avec les Ryzen 5000, mais rien n’a encore été officialisé.


Je serais extrêmement content si AMD sautait le pas (même non officiellement), mais vu l’historique d’Asus sur ses mises à jours, j’ai bien peu d’espoir pour ma X370 Prime Pro 😆
Je peux bien tenir encore un peu avec mon 2700X mais je cracherais certainement pas sur un Zen 3 l’an prochain.

Le 06/11/2020 à 10h 50


(reply:52557:Old Bear)


C’est considéré comme de l’overclocking (AMD garantie juste le 3200), donc nécessairement, il y aura une part de chances, aussi bien côté IF que côté RAM.

Le 05/11/2020 à 15h 38

Je suis curieux de savoir si, sur ce point, AMD compte proposer rapidement des APU sur base Zen 3 ou si il faudra attendre encore 1 an. Le saut dans le nom (5000) me laisse espérer qu’on les verra arriver plus rapidement (et de manière unifiée 🤨) . Ce sera en tout cas la bonne réponse pour une conso plus raisonnable en idle, et un prix plus orienté “bureautique”.

Le 28/10/2020 à 17h 43

Ne pas oublier non plus que les résultats de la 6900XT sont “overclockés” avec le Rage Mode. Donc, ce sera clairement pas limité à 300W.

Le 28/10/2020 à 16h 35

Je parlais bien de détails. On sait depuis bien longtemps qu’il y aura le RT.

Le 28/10/2020 à 16h 31

Ca sent plutôt bon sur le terrain des performances. Mais ils racontent pas grand chose sur les détails. Aucune info sur le Ray Tracing, ou sur des technos annexes (ML/DLSS/…) là où Nvidia y va dans tous les sens, c’est assez perturbant.



Assez intrigué aussi par la conso annoncée identiques entre la 6800 et la 6900

Le 22/10/2020 à 09h 25

Il suffit de regarder si la CM supporte la mise à jour du BIOS sans CPU (ce qui semble être le cas sur pas mal de modèles maintenant).
Donc tu n’auras pas forcément la dernière version, mais tu ne seras pas bloqué non plus.

Le 21/10/2020 à 12h 29

Mise à jour faite de mon côté. La partie réseau des Jails est toujours aussi perfectible, et la conf du resolver semble toujours bugguée…
J’ai pu fix manuellement, mais je sais qu’au prochain restart de la jail, ma conf va sauter…

Le 19/10/2020 à 07h 30

Jamais eu ce soucis sur une config avec une Gigabyte B550I Aorus et son controlleur Realtek 2.5G.

Le 06/10/2020 à 12h 30

Comme a dit David, c’est par puce. T’as 8 puces qui sont utilisées en parallèles sur une barrette (et le Data rate doit être par pin, donc ce serait x64 pour une barrette).

Le 17/09/2020 à 08h 53

Un calcul ne contient pas d’énergie. Essaye d’imaginer en quelles formes d’énergie ton électricité a pu être transformée (il n’existe pas des milliers de formes possibles). Tu devrais te rendre compte qu’à la fin, ça finit en chaleur. Même l’énergie des ventilateurs qui devient mécanique finit en chaleur par frottement, la lumière de ton écran aussi,…

Le 16/09/2020 à 15h 16

A moins que ton ordinateur stocke de l’énergie sous une autre forme, alors oui un ordinateur d’un point de vue externe est un simple radiateur.

Le 16/09/2020 à 14h 51

Bah en fait si. Ton énergie doit partir quelque part, et c’est bien en chaleur.
Tu rigoles, mais il y a effectivement des projets de calculateur intégré à des radiateurs où tu loues de la puissance de calcul en chauffant ton logement (gratuitement du coup).

Le 16/09/2020 à 08h 54

T’as des preuves de ça ? Ou c’est juste du bashing gratuit ?

Le 04/09/2020 à 08h 33


ratomms a dit:


Je ne sais pas vous mais en Laptop AMD traine encore en matière de perf. Je parle du réel. Nous venons d’acquérir des Laptop Lenovo avec du Ryzen 3 mais ça ramme comme pas possible alors qu’on fait du simple navigation et bureautique


Quel Ryzen 3 ? Quelle config ? Parce que ça va à l’inverse de toutes les reviews, surtout avec Renoir qui maitrise bien la consommation et se permet de garder une bonne performance sur la durée.

Le 28/08/2020 à 20h 55


(quote:49173:skankhunt42 )
Ha fortnite et optimisation dans la même phrase… Je suis passé de 160 fps en 1920_1200 à 90 fps en 1920_1080 en un an et quelques. Au passage GG le forcing de changement de ratio.


Fortnite est probablement le BR le mieux optimisé actuellement…
Que les évolutions aient rendus le jeu plus lourd avec le temps ne donne aucune information sur l’optimisation du jeu.



Je n’y joue plus depuis 1 an, mais pour avoir migré sur Apex, je regrette largement la qualité du développement de Fortnite par rapport à Apex (que ce soit perfs, bugs, lags, serveurs,…).

Le 26/08/2020 à 13h 30

Ca fait 6 mois que je tourne avec un FreeNAS et j’en suis pleinement satisfait. Je l’utilise pour faire principalement de l’archivage de données (vidéos/docs/photos) et je trouve ça plutôt bien.
J’aime bien les capacités intégrées de Shadow Copy visibles sur SMB sans avoir à rien configurer d’autres que les taches périodiques de snapshots.
Avant ça j’avais testé OMV, et j’avais été très peu convaincu par l’ensemble.

Le 25/08/2020 à 09h 36


Flyman81 a dit:


Tu l’as trouvé où ? Je croyais qu’il était réservé aux OEM ? Je prévois aussi une solution de ce type pour remplacer avantageusement à mon 2400G :)


Cybertek en avait en stock à la sortie. Mais il a disparu de leur catalogue :/ Il ne reste plus que le 4350G

Le 24/08/2020 à 11h 56


Gilbert_Gosseyn a dit:


Les APU sont tous en “gen -1”. Une fois que tu le sais c’est bon, mais c’est trompeur pour un non initié, c’est sûr.


Il y a des rumeurs qui parleraient d’une unification des architectures sous un même nom de génération. Ce serait clairement pas de trop, mais il y a beaucoup trop de rumeurs en ce moment pour avoir la moindre idée de ce qu’il y aura vraiment…
Les APU actuels sont une bonne indication que c’est un peu le bordel. Ne sortir Renoir Desktop que pour les OEM a été assez surprenant, alors qu’AMD laissaient entendre qu’il y aurait une autre gamme pour le DIY.
Difficile de voir ce qu’AMD compte faire, surtout qu’ils ont l’air de mieux maitriser les leaks depuis quelques temps.



(J’espère aussi que mon 4350G ne sera pas rendu trop rapidement obsolète :D )

Le 16/07/2020 à 16h 07


David_L a dit:


Je n‘ai pas trouvé beaucoup de ressource précise sur ce point, sinon cette doc de Micron, avec ce passage :


Super merci :oui2:
C’est pas super clair, mais j‘ai l’impression que ce sera surtout un moyen pour fiabiliser les puces individuellement, tout en donnant plus de transparence sur les erreurs à l‘OS. Rien que cette possibilité pour l’OS est un gros plus pour stabiliser un overclocking "presque stable".



Sans remplacer l‘ECC à 9 puces, j’espère que ça réduira les risques d‘instabilités mémoires (et/ou de corruptions silencieuses), et sera suffisant pour une utilisation hors serveur (peut être même largement suffisant pour du home server ?)

Le 15/07/2020 à 14h 46

Je n‘ai toujours pas compris de quel manière l’ECC sera différent en DDR5.



La seule référence dans le communiqué étant "On-die ECC and other scaling features enable manufacturing on advanced process nodes."



J‘avais cru comprendre que la DDR5 sera beaucoup plus tolérante aux erreurs grâce à ça, mais je trouve assez peu d’informations concrètes sur le sujet.

Le 12/05/2020 à 13h 58

Pour l’instant, Intel, Nvidia ou AMD ne gère pas matériellement l’AV1. Donc ce sera du décodage logiciel (et faudra un CPU assez correct).



Sur mobile, c’est jouable sur des bons SoC, mais ça risque de consommer beaucoup.

Le 12/05/2020 à 13h 11


Qruby a dit:


AV1 c’est vraiment la révolution technique qui pourra réduire nos besoins en bande passante. Peut être que le streaming de PC type Shadow prendra tout son sens avec cette tech.


Pour des besoins comme Shadow, ce n’est pas seulement la bande passante, mais aussi la latence du codec. NVENC a très peu de latence sur du H264 (5-6 ms). Pour être utilisable, il faudra que cette latence reste assez faible.



Reste qu’effectivement, pour les plateformes de VOD/Streaming, AVI1 va apporter un bon avantage sur la conso et/ou la qualité par rapport au h264 toujours utilisé partout.

Le 30/04/2020 à 08h 16


Pour la disponibilité des nouveaux BIOS/UEFI, AMD renvoie à ses partenaires. Espérons que ces derniers appliqueront ce nouvel AGESA rapidement à l’ensemble de leurs gammes, et pas seulement aux modèles récents en oubliant ceux équipés de chipsets de la série 300.


J’ai abandonné l’idée d’avoir la possibilité de mettre à jour mon Asus X370 Prime pour passer à Zen 3 :pleure:
Asus semble oublier toutes les premières générations…

Le 29/04/2020 à 09h 10


Derived a dit:


C’est pour ça que dans cette optique, le 3100 est bien plus intéressant que le 3300


Ce qui n’a jamais été possible sur Ryzen, et ne le sera probablement jamais vu qu’AMD semblent désactiver matériellement les coeurs.



Les seuls cas connus sont des CPU qui sont arrivés avec les coeurs déjà actifs (genre un 1600X qui fonctionnait comme un 1700X), et de mémoire ce n’est arrivé qu’à quelques exceptions sur la première génération.

Le 22/04/2020 à 13h 34

Je crois pas qu’on ait déjà vu un CCX désactivé avec le cache toujours exploitable si ?

Le 22/04/2020 à 09h 12

Clairement, si ils pouvaient mettre ça de manière claire partout… Ils mignons à faire les malins face à WD mais s’ils pouvaient au moins segmenter correctement les gammes et qu’ils aient des fiches techniques claires.
J’ai toujours en travers de la gorge mon Seagate indiqué TGMR qui se traine un peu…

Le 19/03/2020 à 16h 35


NSACloudBackup a dit:


LOL des SSD TLC au même prix que la MLC (Samsung 970 pro) ! Trop fort les mec ! J’ai fait des tests hier sur des crucial BX500 (TLC en SATA) en 10gbe et on se tape effectivement le max du SATA pendant quelques secondes et après (quand le cache est plein), ça plafonne à 170 mo/s… autant dire de la bonne grosse bouse (et y’a aucune raison technique pour que de la TLC en PCIe réagisse différemment). Ne vous laissez pas endormir par les gros chiffres, c’est uniquement valables pour les premiers gigaoctets du transfert et les benchmarks. Après on tape dans le dure avec écritures direct sur la TLC et ça pique sévère.


Tu veux pas comparer non plus deux SSD qui n’ont rien à voir ? Le BX500 c’est un peu le bas de l’échelle des SSD TLC.



Je n’ai aucune idée de ce qu’on vont donner ces SSD spécifiquement, mais tous les TLC haut de gamme donnent de très bons résultats. Rien qu’un MX500 te contredit. Mais un 970 EVO (pour prendre un des TLC haut de gamme) ne “plafonne pas à 170Mo/s” non plus.

Le 10/02/2020 à 13h 09


wanou2 a dit:


Entre le moment ou tu décides de tirer et le moment ou tu cliques sur ta souris tu as déjà 40ms qui se sont passées. On va partir du principe que le traitement du clic par la machine est instantanée (le signal électrique et son traitement et son impact sur le logiciel puis sa restitution à l’écran impose quelques ms dans la réalité). Une fois affiché à l’écran la transmission de l’information et son analyse par le cerveau va prendre un minimum de 50ms. Du coup tu as entre ta prise de décision et ta perception cérébral un minimum de 90ms. Donc 20 ms de plus c’est un peu l’excuse du mauvais joueur.Le vrai problème de Shadow c’est pas les 20 ms (qui sont largement acceptable dans un jeu de type fps), le réel problème c’est que malgré toute la connectivité que tu veux côté serveur et la connexion la plus grosse possible (fibre) coté joueur au final, les données passent par internet et du coup tes paquets peuvent à un moment ou à un autre être c’est que ralenti et pendant quelques dixièmes de secondes tu auras un inputlag de 100 ms et ça on le verra à l’écran. (sans parler d’un traitement un peu long sur le signal usb, d’un problème de configuration, etc etc, …)La vidéo montre clairement un retard d’affichage de la souris mais il est clairement au delà de quelques ms….


Honnêtement, est-ce que t’as déjà testé un système comme Shadow ?



20ms ça parait pas grand chose, mais c’est suffisant pour pourrir ton aim sur des FPS compétitifs. Je fais du Moonlight/Parsec avec 5ms de latence réseau (fibre Orange <-> Orange, voir en local) et c’est déjà perceptible.
Je joue pas mal à Apex, et j’ai juste abandonné l’idée d’y jouer à distance. Tous les micro ajustements de visée que tu fais habituellement sont décalés dans le temps. Ca donne un ressenti très désagréable, et tu te retrouves à viser tout le temps à côté, voir carrément à rater tes déplacements.



Les seuls jeux auxquels je peux jouer sont ceux qui ne demandent pas de réaction rapide (jeux solos pour moi majoritairement).

Le 27/11/2019 à 11h 01


OlivierJ a dit:


Pour ceux qui ont lâché l’affaire sur le nombre de transistors des CPU récents, ça fait combien en gros ?


Chaque CCD semble avoir 3.9 milliards. Sur AM4, le IO Die semble en avoir 2.1 milliards. Sur TRX40, le IO die doit être dans les 8.3 Milliards.



Ce qui donne :
3600 -> 3800X : 3.9 + 2.1 ~= 6 milliards de transistors
3900 -> 3950X : 3.9*2 + 2.1 ~= 9.9 milliards
3960X/3970X : 3.9*4 + 8.3 ~= 23.9 milliards



J’ai quelques doutes sur le IO Die des Threadripper, ça serait le même que pour Epyc, mais avec les canaux mémoires désactivés ?

Le 19/11/2019 à 16h 26


secouss a dit:


Personnellement en fibre sur des jeux commes Sieges, The Division, CS je ne le ressent même pas… Et je doute qu’en ADSL ce soit perceptible comme le dit Burn (faudrait un test en double aveugle ahah) entre l’avis du joueur et le ressenti réel on parle de quoi 10ms ? Le temps de réaction humaine se situe a 70ms (en temps de reaction motrice) donc bon je demande à voir une personne capable de percevoir cette finesse (or pro gamer)http://acces.ens-lyon.fr/acces/thematiques/neurosciences/outils-numeriques/temps-de-reaction-investigation-variabilite-et-traitements-statistiques-des-donnees/comprendre-1/le-temps-de-reaction-quest-ce-que-cest


Je n’ai pas testé Shadow spécifiquement, mais j’utilise régulièrement Parsec et Moonlight qui font la même chose.
J’ai essayé sur une liaison fibre Orange <-> Orange et je ressent largement l’input lag. Ce n’est pas grand chose effectivement, mais ça rend n’importe quel FPS compétitif injouable. J’ai testé Far Cry 5, Far Cry Blood Dragon, Borderlands 2, The Outer Worlds, Fortnite, Apex Legends et Natural Selection 2.



Globalement, c’est jouable pour les 4 premiers, mais pas ultra agréable, pour les 3 autres, c’est pas possible.



C’est pas seulement une question de temps de réaction, mais le fait que ça induit une plus grosse erreur dans ta visée que n’aurons pas les autres en face.

Le 13/11/2019 à 08h 14


flodor2 a dit:


Il y a quelque chose que je ne comprend pas. Soit de base les jeux ne sont pas net, d’où l’intérêt. Soit ils sont suffisamment net et ça devient juste… trop net ?Dans le premier cas, pourquoi les jeux ne serait pas net de base ? Ça me laisse dubitatif.


Beaucoup de jeux utilisent des paramètres de résolutions variables en fonction des performances, accompagnée de TAA pour lisser l’image. Ca permet de garder un framerate acceptable, mais ça floute l’image et fait perdre des détails. Le filtre permet de récupérer un peu de qualité et c’est relativement plus agréable.
Autrement, certains apprécient le contraste que ça apporte à l’image, donnant une impression de meilleur qualité.
Donc de manière générale, l’intérêt est surtout pour les jeux qui tournent à une définition plus faible que l’écran.

Le 30/10/2019 à 08h 11

Je reste toujours sceptique face à ses solutions pour des jeux dynamiques. J’ai tenté plusieurs FPS avec Parsec et Moonlight sur une liaison fibre avec moins de 10ms de latence, et l’input lag était bien présent.
Passable sur des jeux solos ou non compétitifs (j’ai testé Far Cry BD, Borderlands 2 par exemple), mais par contre injouable sur Apex.
Donc leur exemple me fait légèrement sourire :)

Le 12/07/2019 à 07h 53

Vous savez si le bug VME a été corrigé ? Il était impossible de virtualiser du 32 bits.
J’ai un freeze total du PC avec un Threadripper 1ère gen (avec HyperV) pendant l’installation de Windows 7 32 bits.

Le 24/06/2019 à 13h 13


Whinette a dit:


Il faut faire le calcul sur une année, la différence est souvent ridicule (15€ tout au plus). Par contre, la différence de bruit et de chaleur (d’autant plus en été) est plus justifiable.


En hiver, c’est du chauffage “gratuit” :D