2 choses m’agacent fortement. La première, c’est le calendrier accessible depuis l’horloge de la barre des taches qui ne sert strictement à rien. Sur Windows 10, on pouvait voir les évènements à venir et en créer de nouveaux, maintenant on a juste des dates sur lesquelles on ne peut rien faire. Et autre point (mais qui sera corrigé dans la prochaine version je crois), c’est la disparition de l’affichage des secondes…
Mon point porte surtout sur le fait que toute la bande passante n’est pas à destination de la partie CPU, donc je maintiens que ça n’a pas vraiment de sens de comparer une BP CPU+GPU+{toutes fonctions du SOC} avec juste la BP d’un CPU. D’ailleurs, la review du M1 Max sur Anandtech avait bien mis en évidence qu’il n’était pas possible pour le CPU d’exploiter les 400+ GB/s (243GB/s étant apparemment leur limite). Ce sera exactement la même chose sur le Ultra.
Et pour revenir sur Threadripper, il suffit de regarder comment l’archi scale avec l’augmentation de la fréquence de la RAM ou des canaux. Sur Zen 3, ça reste extrêmement limité (moins de 4% de gain pour en passant de 3000 à 4000MT/s).
Ca n’enlève rien au fait que ce soit impressionnant d’avoir une archi unifiée aussi conséquente, mais clairement, cette BP est principalement là pour le GPU, ainsi que toutes les accélérations matérielles (vidéo notamment, vu les flux que le Soc est capable de gérer).
Le
09/03/2022 à
11h
03
La comparaison n’a pas tellement de sens. Un Threadripper c’est juste une partie CPU, qui bénéficie pas spécialement d’une énorme bande passante.
Là on parle d’un SoC avec un gros GPU qui lui aura besoin de cette bande passante. Et à ce niveau là, on retrouve les mêmes valeurs qu’un autre GPU (niveau RTX 3080)
Il faut multiplier par la largeur du bus. Sur un PC qui fait du 64 bits par canal, ça te donne 64x8,5⁄8 = 68Go/s (supérieur à la bande passante de la plupart des configs DDR4 en dual channel).
La DDR5 a un système de correction interne aux puces (on die ECC). Il sert principalement à garantir un meilleur niveau de fiabilité des puces. Mais il ne remplace pas l’ECC qui est géré par l’ensemble de la chaine CPU/RAM.
Je l’ai aussi pris chez Cybertek, seul revendeur francais à les avoir en stock. J’ai souvenir que le 4750G est resté en stock un moment, comme le 4650, alors que le 4350 a mis quelques semaines à être dispo. Pour le packaging, comme dit Naruto`kun, ça reste un packaging OEM. A noter qu’ils m’ont quand même mis un ventirad avec (que je n’utilise finalement pas, j’ai juste mis le radiateur du U12S, sans le ventilateur )
Le
14/04/2021 à
07h
23
C’est un peu relou effectivement. J’imagine que c’est en lien avec les capacités de productions limitées… Ceci dit, on trouvait facilement les Ryzen 4000G (j’ai monté mon serveur avec un 4350G), donc il a y espoir à pouvoir trouver ceux là aussi.
De ce que je comprends de Lucienne, pas mal de fonctionnalités d’optimisation énergétique serait présente, notamment sur les tensions qui sont beaucoup mieux découplées entre les différentes parties (chaque core et igpu sont indépendants entre autre). Ce qui ferait quand même de Lucienne un entre deux par rapport à Renoir et Cezanne.
C’est clairement pas idéal, mais finalement je suis moins choqué que ce que je pensais, si ce n’est effectivement pas qu’un simple renommage. Je reste un peu déçu quand même par le gain de perf. J’imagine qu’il faudra attendre Zen 4 et/ou le passage à un autre process pour avoir un plus gros gain.
C’est quoi le délire du RJ45 over micro HDMI ? Il faut un adaptateur micro HDMI -> RJ45 du coup ? C’est quoi l’intérêt de sortir un truc aussi spécifique alors qu’il existe des connecteurs RJ45 “déployables” qui s’adaptent bien à des PC assez fins ?
Ou si on doit se trimballer un adaptateur dans tous les cas, autant utiliser de l’USB C… Tout le monde y gagnerait => un port USB de plus sur le PC, et une carte réseau réutilisable.
Je suis pas sûr que le M2 en PCI Express fournisse autre chose que du 3.3V Mais le VGA semble avoir besoin d’un 5V, et si je ne me trompe pas, c’est bien le 5V de la Molex qui est utilisé.
Le
08/12/2020 à
09h
37
T’as les APU 4000G (Renoir) qui sont en Zen 2. Mais ils sont pas évident à trouver. En France, je ne connais que Cybertek qui les vend (4350G, 4650G et 4750G). Le choix d’AMD d’avoir mis ces APU en vente pour les OEM est étrange, peut être qu’ils n’avaient pas assez de capacité de fabrication (trouver un PC portable en Renoir est loin d’être évident), et possiblement qu’AMD va annoncer des APU Zen 3 au CES (y’a eu quelques leaks sur Lucienne et Cezanne). A voir…
C’est pas qu’il est tombé sur un cas spécifique, mais c’est le fonctionnement général de tous les écrans/GPU. Le support de l’Integer Scaling est assez récent, et pitoyable chez certains (Nvidia…). Tu peux tester sur tous tes écrans, passer à une résolution / 2 (1920 -> 960 par exemple) et tu trouveras l’image floue. Je n’ai personnellement jamais vu d’écrans (que ce soit TV, moniteurs ou PC portables) qui permettait de faire un scaling au plus proche.
La société serait même en train de travailler à une manière de rendre certaines cartes mères de sa série 300 compatibles avec les Ryzen 5000, mais rien n’a encore été officialisé.
Je serais extrêmement content si AMD sautait le pas (même non officiellement), mais vu l’historique d’Asus sur ses mises à jours, j’ai bien peu d’espoir pour ma X370 Prime Pro 😆 Je peux bien tenir encore un peu avec mon 2700X mais je cracherais certainement pas sur un Zen 3 l’an prochain.
C’est considéré comme de l’overclocking (AMD garantie juste le 3200), donc nécessairement, il y aura une part de chances, aussi bien côté IF que côté RAM.
Le
05/11/2020 à
15h
38
Je suis curieux de savoir si, sur ce point, AMD compte proposer rapidement des APU sur base Zen 3 ou si il faudra attendre encore 1 an. Le saut dans le nom (5000) me laisse espérer qu’on les verra arriver plus rapidement (et de manière unifiée 🤨) . Ce sera en tout cas la bonne réponse pour une conso plus raisonnable en idle, et un prix plus orienté “bureautique”.
Ne pas oublier non plus que les résultats de la 6900XT sont “overclockés” avec le Rage Mode. Donc, ce sera clairement pas limité à 300W.
Le
28/10/2020 à
16h
35
Je parlais bien de détails. On sait depuis bien longtemps qu’il y aura le RT.
Le
28/10/2020 à
16h
31
Ca sent plutôt bon sur le terrain des performances. Mais ils racontent pas grand chose sur les détails. Aucune info sur le Ray Tracing, ou sur des technos annexes (ML/DLSS/…) là où Nvidia y va dans tous les sens, c’est assez perturbant.
Assez intrigué aussi par la conso annoncée identiques entre la 6800 et la 6900
Il suffit de regarder si la CM supporte la mise à jour du BIOS sans CPU (ce qui semble être le cas sur pas mal de modèles maintenant). Donc tu n’auras pas forcément la dernière version, mais tu ne seras pas bloqué non plus.
Mise à jour faite de mon côté. La partie réseau des Jails est toujours aussi perfectible, et la conf du resolver semble toujours bugguée… J’ai pu fix manuellement, mais je sais qu’au prochain restart de la jail, ma conf va sauter…
Comme a dit David, c’est par puce. T’as 8 puces qui sont utilisées en parallèles sur une barrette (et le Data rate doit être par pin, donc ce serait x64 pour une barrette).
Un calcul ne contient pas d’énergie. Essaye d’imaginer en quelles formes d’énergie ton électricité a pu être transformée (il n’existe pas des milliers de formes possibles). Tu devrais te rendre compte qu’à la fin, ça finit en chaleur. Même l’énergie des ventilateurs qui devient mécanique finit en chaleur par frottement, la lumière de ton écran aussi,…
Le
16/09/2020 à
15h
16
A moins que ton ordinateur stocke de l’énergie sous une autre forme, alors oui un ordinateur d’un point de vue externe est un simple radiateur.
Le
16/09/2020 à
14h
51
Bah en fait si. Ton énergie doit partir quelque part, et c’est bien en chaleur. Tu rigoles, mais il y a effectivement des projets de calculateur intégré à des radiateurs où tu loues de la puissance de calcul en chauffant ton logement (gratuitement du coup).
Je ne sais pas vous mais en Laptop AMD traine encore en matière de perf. Je parle du réel. Nous venons d’acquérir des Laptop Lenovo avec du Ryzen 3 mais ça ramme comme pas possible alors qu’on fait du simple navigation et bureautique
Quel Ryzen 3 ? Quelle config ? Parce que ça va à l’inverse de toutes les reviews, surtout avec Renoir qui maitrise bien la consommation et se permet de garder une bonne performance sur la durée.
(quote:49173:skankhunt42 ) Ha fortnite et optimisation dans la même phrase… Je suis passé de 160 fps en 1920_1200 à 90 fps en 1920_1080 en un an et quelques. Au passage GG le forcing de changement de ratio.
Fortnite est probablement le BR le mieux optimisé actuellement… Que les évolutions aient rendus le jeu plus lourd avec le temps ne donne aucune information sur l’optimisation du jeu.
Je n’y joue plus depuis 1 an, mais pour avoir migré sur Apex, je regrette largement la qualité du développement de Fortnite par rapport à Apex (que ce soit perfs, bugs, lags, serveurs,…).
Ca fait 6 mois que je tourne avec un FreeNAS et j’en suis pleinement satisfait. Je l’utilise pour faire principalement de l’archivage de données (vidéos/docs/photos) et je trouve ça plutôt bien. J’aime bien les capacités intégrées de Shadow Copy visibles sur SMB sans avoir à rien configurer d’autres que les taches périodiques de snapshots. Avant ça j’avais testé OMV, et j’avais été très peu convaincu par l’ensemble.
Tu l’as trouvé où ? Je croyais qu’il était réservé aux OEM ? Je prévois aussi une solution de ce type pour remplacer avantageusement à mon 2400G :)
Cybertek en avait en stock à la sortie. Mais il a disparu de leur catalogue :/ Il ne reste plus que le 4350G
Le
24/08/2020 à
11h
56
Gilbert_Gosseyn a dit:
Les APU sont tous en “gen -1”. Une fois que tu le sais c’est bon, mais c’est trompeur pour un non initié, c’est sûr.
Il y a des rumeurs qui parleraient d’une unification des architectures sous un même nom de génération. Ce serait clairement pas de trop, mais il y a beaucoup trop de rumeurs en ce moment pour avoir la moindre idée de ce qu’il y aura vraiment… Les APU actuels sont une bonne indication que c’est un peu le bordel. Ne sortir Renoir Desktop que pour les OEM a été assez surprenant, alors qu’AMD laissaient entendre qu’il y aurait une autre gamme pour le DIY. Difficile de voir ce qu’AMD compte faire, surtout qu’ils ont l’air de mieux maitriser les leaks depuis quelques temps.
(J’espère aussi que mon 4350G ne sera pas rendu trop rapidement obsolète )
Je n‘ai pas trouvé beaucoup de ressource précise sur ce point, sinon cette doc de Micron, avec ce passage :
Super merci :oui2: C’est pas super clair, mais j‘ai l’impression que ce sera surtout un moyen pour fiabiliser les puces individuellement, tout en donnant plus de transparence sur les erreurs à l‘OS. Rien que cette possibilité pour l’OS est un gros plus pour stabiliser un overclocking "presque stable".
Sans remplacer l‘ECC à 9 puces, j’espère que ça réduira les risques d‘instabilités mémoires (et/ou de corruptions silencieuses), et sera suffisant pour une utilisation hors serveur (peut être même largement suffisant pour du home server ?)
Le
15/07/2020 à
14h
46
Je n‘ai toujours pas compris de quel manière l’ECC sera différent en DDR5.
La seule référence dans le communiqué étant "On-die ECC and other scaling features enable manufacturing on advanced process nodes."
J‘avais cru comprendre que la DDR5 sera beaucoup plus tolérante aux erreurs grâce à ça, mais je trouve assez peu d’informations concrètes sur le sujet.
Pour l’instant, Intel, Nvidia ou AMD ne gère pas matériellement l’AV1. Donc ce sera du décodage logiciel (et faudra un CPU assez correct).
Sur mobile, c’est jouable sur des bons SoC, mais ça risque de consommer beaucoup.
Le
12/05/2020 à
13h
11
Qruby a dit:
AV1 c’est vraiment la révolution technique qui pourra réduire nos besoins en bande passante. Peut être que le streaming de PC type Shadow prendra tout son sens avec cette tech.
Pour des besoins comme Shadow, ce n’est pas seulement la bande passante, mais aussi la latence du codec. NVENC a très peu de latence sur du H264 (5-6 ms). Pour être utilisable, il faudra que cette latence reste assez faible.
Reste qu’effectivement, pour les plateformes de VOD/Streaming, AVI1 va apporter un bon avantage sur la conso et/ou la qualité par rapport au h264 toujours utilisé partout.
Pour la disponibilité des nouveaux BIOS/UEFI, AMD renvoie à ses partenaires. Espérons que ces derniers appliqueront ce nouvel AGESA rapidement à l’ensemble de leurs gammes, et pas seulement aux modèles récents en oubliant ceux équipés de chipsets de la série 300.
J’ai abandonné l’idée d’avoir la possibilité de mettre à jour mon Asus X370 Prime pour passer à Zen 3 Asus semble oublier toutes les premières générations…
C’est pour ça que dans cette optique, le 3100 est bien plus intéressant que le 3300
Ce qui n’a jamais été possible sur Ryzen, et ne le sera probablement jamais vu qu’AMD semblent désactiver matériellement les coeurs.
Les seuls cas connus sont des CPU qui sont arrivés avec les coeurs déjà actifs (genre un 1600X qui fonctionnait comme un 1700X), et de mémoire ce n’est arrivé qu’à quelques exceptions sur la première génération.
Clairement, si ils pouvaient mettre ça de manière claire partout… Ils mignons à faire les malins face à WD mais s’ils pouvaient au moins segmenter correctement les gammes et qu’ils aient des fiches techniques claires. J’ai toujours en travers de la gorge mon Seagate indiqué TGMR qui se traine un peu…
LOL des SSD TLC au même prix que la MLC (Samsung 970 pro) ! Trop fort les mec ! J’ai fait des tests hier sur des crucial BX500 (TLC en SATA) en 10gbe et on se tape effectivement le max du SATA pendant quelques secondes et après (quand le cache est plein), ça plafonne à 170 mo/s… autant dire de la bonne grosse bouse (et y’a aucune raison technique pour que de la TLC en PCIe réagisse différemment). Ne vous laissez pas endormir par les gros chiffres, c’est uniquement valables pour les premiers gigaoctets du transfert et les benchmarks. Après on tape dans le dure avec écritures direct sur la TLC et ça pique sévère.
Tu veux pas comparer non plus deux SSD qui n’ont rien à voir ? Le BX500 c’est un peu le bas de l’échelle des SSD TLC.
Je n’ai aucune idée de ce qu’on vont donner ces SSD spécifiquement, mais tous les TLC haut de gamme donnent de très bons résultats. Rien qu’un MX500 te contredit. Mais un 970 EVO (pour prendre un des TLC haut de gamme) ne “plafonne pas à 170Mo/s” non plus.
Entre le moment ou tu décides de tirer et le moment ou tu cliques sur ta souris tu as déjà 40ms qui se sont passées. On va partir du principe que le traitement du clic par la machine est instantanée (le signal électrique et son traitement et son impact sur le logiciel puis sa restitution à l’écran impose quelques ms dans la réalité). Une fois affiché à l’écran la transmission de l’information et son analyse par le cerveau va prendre un minimum de 50ms. Du coup tu as entre ta prise de décision et ta perception cérébral un minimum de 90ms. Donc 20 ms de plus c’est un peu l’excuse du mauvais joueur.Le vrai problème de Shadow c’est pas les 20 ms (qui sont largement acceptable dans un jeu de type fps), le réel problème c’est que malgré toute la connectivité que tu veux côté serveur et la connexion la plus grosse possible (fibre) coté joueur au final, les données passent par internet et du coup tes paquets peuvent à un moment ou à un autre être c’est que ralenti et pendant quelques dixièmes de secondes tu auras un inputlag de 100 ms et ça on le verra à l’écran. (sans parler d’un traitement un peu long sur le signal usb, d’un problème de configuration, etc etc, …)La vidéo montre clairement un retard d’affichage de la souris mais il est clairement au delà de quelques ms….
Honnêtement, est-ce que t’as déjà testé un système comme Shadow ?
20ms ça parait pas grand chose, mais c’est suffisant pour pourrir ton aim sur des FPS compétitifs. Je fais du Moonlight/Parsec avec 5ms de latence réseau (fibre Orange <-> Orange, voir en local) et c’est déjà perceptible. Je joue pas mal à Apex, et j’ai juste abandonné l’idée d’y jouer à distance. Tous les micro ajustements de visée que tu fais habituellement sont décalés dans le temps. Ca donne un ressenti très désagréable, et tu te retrouves à viser tout le temps à côté, voir carrément à rater tes déplacements.
Les seuls jeux auxquels je peux jouer sont ceux qui ne demandent pas de réaction rapide (jeux solos pour moi majoritairement).
Je n’ai pas testé Shadow spécifiquement, mais j’utilise régulièrement Parsec et Moonlight qui font la même chose. J’ai essayé sur une liaison fibre Orange <-> Orange et je ressent largement l’input lag. Ce n’est pas grand chose effectivement, mais ça rend n’importe quel FPS compétitif injouable. J’ai testé Far Cry 5, Far Cry Blood Dragon, Borderlands 2, The Outer Worlds, Fortnite, Apex Legends et Natural Selection 2.
Globalement, c’est jouable pour les 4 premiers, mais pas ultra agréable, pour les 3 autres, c’est pas possible.
C’est pas seulement une question de temps de réaction, mais le fait que ça induit une plus grosse erreur dans ta visée que n’aurons pas les autres en face.
Il y a quelque chose que je ne comprend pas. Soit de base les jeux ne sont pas net, d’où l’intérêt. Soit ils sont suffisamment net et ça devient juste… trop net ?Dans le premier cas, pourquoi les jeux ne serait pas net de base ? Ça me laisse dubitatif.
Beaucoup de jeux utilisent des paramètres de résolutions variables en fonction des performances, accompagnée de TAA pour lisser l’image. Ca permet de garder un framerate acceptable, mais ça floute l’image et fait perdre des détails. Le filtre permet de récupérer un peu de qualité et c’est relativement plus agréable. Autrement, certains apprécient le contraste que ça apporte à l’image, donnant une impression de meilleur qualité. Donc de manière générale, l’intérêt est surtout pour les jeux qui tournent à une définition plus faible que l’écran.
Je reste toujours sceptique face à ses solutions pour des jeux dynamiques. J’ai tenté plusieurs FPS avec Parsec et Moonlight sur une liaison fibre avec moins de 10ms de latence, et l’input lag était bien présent. Passable sur des jeux solos ou non compétitifs (j’ai testé Far Cry BD, Borderlands 2 par exemple), mais par contre injouable sur Apex. Donc leur exemple me fait légèrement sourire :)
Vous savez si le bug VME a été corrigé ? Il était impossible de virtualiser du 32 bits. J’ai un freeze total du PC avec un Threadripper 1ère gen (avec HyperV) pendant l’installation de Windows 7 32 bits.
Il faut faire le calcul sur une année, la différence est souvent ridicule (15€ tout au plus). Par contre, la différence de bruit et de chaleur (d’autant plus en été) est plus justifiable.
1062 commentaires
Windows 11 : ces 11 trucs qui agacent encore
17/02/2023
Le 17/02/2023 à 14h 47
2 choses m’agacent fortement.
La première, c’est le calendrier accessible depuis l’horloge de la barre des taches qui ne sert strictement à rien.
Sur Windows 10, on pouvait voir les évènements à venir et en créer de nouveaux, maintenant on a juste des dates sur lesquelles on ne peut rien faire.
Et autre point (mais qui sera corrigé dans la prochaine version je crois), c’est la disparition de l’affichage des secondes…
Nouveautés Apple : M1 Ultra, Mac Studio, Studio Display, iPad Air dopé au M1 et iPhone SE 3
09/03/2022
Le 09/03/2022 à 13h 40
Mon point porte surtout sur le fait que toute la bande passante n’est pas à destination de la partie CPU, donc je maintiens que ça n’a pas vraiment de sens de comparer une BP CPU+GPU+{toutes fonctions du SOC} avec juste la BP d’un CPU.
D’ailleurs, la review du M1 Max sur Anandtech avait bien mis en évidence qu’il n’était pas possible pour le CPU d’exploiter les 400+ GB/s (243GB/s étant apparemment leur limite). Ce sera exactement la même chose sur le Ultra.
Et pour revenir sur Threadripper, il suffit de regarder comment l’archi scale avec l’augmentation de la fréquence de la RAM ou des canaux. Sur Zen 3, ça reste extrêmement limité (moins de 4% de gain pour en passant de 3000 à 4000MT/s).
Ca n’enlève rien au fait que ce soit impressionnant d’avoir une archi unifiée aussi conséquente, mais clairement, cette BP est principalement là pour le GPU, ainsi que toutes les accélérations matérielles (vidéo notamment, vu les flux que le Soc est capable de gérer).
Le 09/03/2022 à 11h 03
La comparaison n’a pas tellement de sens. Un Threadripper c’est juste une partie CPU, qui bénéficie pas spécialement d’une énorme bande passante.
Là on parle d’un SoC avec un gros GPU qui lui aura besoin de cette bande passante. Et à ce niveau là, on retrouve les mêmes valeurs qu’un autre GPU (niveau RTX 3080)
Samsung annonce de la LPDDR5X à 8,5 Gb/s, bientôt dans le Galaxy S22 ?
09/11/2021
Le 09/11/2021 à 16h 34
Il faut multiplier par la largeur du bus. Sur un PC qui fait du 64 bits par canal, ça te donne 64x8,5⁄8 = 68Go/s (supérieur à la bande passante de la plupart des configs DDR4 en dual channel).
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 15/09/2021 à 13h 25
To the moon !
Kingston commence déjà à overclocker la DDR5
07/05/2021
Le 07/05/2021 à 15h 09
La DDR5 a un système de correction interne aux puces (on die ECC). Il sert principalement à garantir un meilleur niveau de fiabilité des puces.
Mais il ne remplace pas l’ECC qui est géré par l’ensemble de la chaine CPU/RAM.
Ryzen 5000G(E): AMD annonce ses APU Zen 3 (Cezanne) pour PC de bureau, réservés aux OEM
14/04/2021
Le 14/04/2021 à 09h 00
Je l’ai aussi pris chez Cybertek, seul revendeur francais à les avoir en stock. J’ai souvenir que le 4750G est resté en stock un moment, comme le 4650, alors que le 4350 a mis quelques semaines à être dispo.
Pour le packaging, comme dit Naruto`kun, ça reste un packaging OEM. A noter qu’ils m’ont quand même mis un ventirad avec (que je n’utilise finalement pas, j’ai juste mis le radiateur du U12S, sans le ventilateur )
Le 14/04/2021 à 07h 23
C’est un peu relou effectivement. J’imagine que c’est en lien avec les capacités de productions limitées…
Ceci dit, on trouvait facilement les Ryzen 4000G (j’ai monté mon serveur avec un 4350G), donc il a y espoir à pouvoir trouver ceux là aussi.
Razer annonce sa Viper 8KHz, « souris gaming la plus rapide au monde »
29/01/2021
Le 29/01/2021 à 11h 16
Déjà que je trouve que la charge CPU est trop importante sur une souris en 1000Hz, je veux pas voir ce que ça donne en 8000…
AMD détaille l’architecture de ses Ryzen Mobile 5000 (Zen 2 ou Zen 3)
26/01/2021
Le 26/01/2021 à 15h 47
De ce que je comprends de Lucienne, pas mal de fonctionnalités d’optimisation énergétique serait présente, notamment sur les tensions qui sont beaucoup mieux découplées entre les différentes parties (chaque core et igpu sont indépendants entre autre).
Ce qui ferait quand même de Lucienne un entre deux par rapport à Renoir et Cezanne.
C’est clairement pas idéal, mais finalement je suis moins choqué que ce que je pensais, si ce n’est effectivement pas qu’un simple renommage.
Je reste un peu déçu quand même par le gain de perf. J’imagine qu’il faudra attendre Zen 4 et/ou le passage à un autre process pour avoir un plus gros gain.
Le PC portable ExpertBook B9 (14″) d’ASUS passe à Tiger Lake
14/12/2020
Le 15/12/2020 à 08h 19
C’est quoi le délire du RJ45 over micro HDMI ? Il faut un adaptateur micro HDMI -> RJ45 du coup ? C’est quoi l’intérêt de sortir un truc aussi spécifique alors qu’il existe des connecteurs RJ45 “déployables” qui s’adaptent bien à des PC assez fins ?
Ou si on doit se trimballer un adaptateur dans tous les cas, autant utiliser de l’USB C… Tout le monde y gagnerait => un port USB de plus sur le PC, et une carte réseau réutilisable.
ASRock Rack dévoile une carte graphique au format M.2
08/12/2020
Le 08/12/2020 à 10h 30
Je suis pas sûr que le M2 en PCI Express fournisse autre chose que du 3.3V
Mais le VGA semble avoir besoin d’un 5V, et si je ne me trompe pas, c’est bien le 5V de la Molex qui est utilisé.
Le 08/12/2020 à 09h 37
T’as les APU 4000G (Renoir) qui sont en Zen 2. Mais ils sont pas évident à trouver. En France, je ne connais que Cybertek qui les vend (4350G, 4650G et 4750G).
Le choix d’AMD d’avoir mis ces APU en vente pour les OEM est étrange, peut être qu’ils n’avaient pas assez de capacité de fabrication (trouver un PC portable en Renoir est loin d’être évident), et possiblement qu’AMD va annoncer des APU Zen 3 au CES (y’a eu quelques leaks sur Lucienne et Cezanne). A voir…
GeForce RTX 3060 Ti : une presque RTX 3070, dès 419 euros
01/12/2020
Le 02/12/2020 à 16h 25
C’est pas qu’il est tombé sur un cas spécifique, mais c’est le fonctionnement général de tous les écrans/GPU. Le support de l’Integer Scaling est assez récent, et pitoyable chez certains (Nvidia…). Tu peux tester sur tous tes écrans, passer à une résolution / 2 (1920 -> 960 par exemple) et tu trouveras l’image floue. Je n’ai personnellement jamais vu d’écrans (que ce soit TV, moniteurs ou PC portables) qui permettait de faire un scaling au plus proche.
Y’a un bon résumé ici : https://tanalin.com/en/articles/integer-scaling/
Precision Boost Overdrive 2 : AMD améliore la gestion de l’énergie de ses Ryzen 5000
24/11/2020
Le 25/11/2020 à 11h 44
C’est bien connu que les équipes logicielles du PBO sont les mêmes en charge de la production et de la logistique
Ryzen 5 5600X (Zen 3) : nos premiers résultats, quid de l’installation sur une carte mère B450 ?
20/11/2020
Le 20/11/2020 à 11h 16
Je serais extrêmement content si AMD sautait le pas (même non officiellement), mais vu l’historique d’Asus sur ses mises à jours, j’ai bien peu d’espoir pour ma X370 Prime Pro 😆
Je peux bien tenir encore un peu avec mon 2700X mais je cracherais certainement pas sur un Zen 3 l’an prochain.
Les processeurs Ryzen 5000 (Zen 3) d’AMD sont disponibles en France, dès 315 euros
05/11/2020
Le 06/11/2020 à 10h 50
C’est considéré comme de l’overclocking (AMD garantie juste le 3200), donc nécessairement, il y aura une part de chances, aussi bien côté IF que côté RAM.
Le 05/11/2020 à 15h 38
Je suis curieux de savoir si, sur ce point, AMD compte proposer rapidement des APU sur base Zen 3 ou si il faudra attendre encore 1 an. Le saut dans le nom (5000) me laisse espérer qu’on les verra arriver plus rapidement (et de manière unifiée 🤨) . Ce sera en tout cas la bonne réponse pour une conso plus raisonnable en idle, et un prix plus orienté “bureautique”.
AMD dévoile ses Radeon RX 6800 (XT) et 6900 XT à partir de 579 dollars, sans parler de ray tracing
28/10/2020
Le 28/10/2020 à 17h 43
Ne pas oublier non plus que les résultats de la 6900XT sont “overclockés” avec le Rage Mode. Donc, ce sera clairement pas limité à 300W.
Le 28/10/2020 à 16h 35
Je parlais bien de détails. On sait depuis bien longtemps qu’il y aura le RT.
Le 28/10/2020 à 16h 31
Ca sent plutôt bon sur le terrain des performances. Mais ils racontent pas grand chose sur les détails. Aucune info sur le Ray Tracing, ou sur des technos annexes (ML/DLSS/…) là où Nvidia y va dans tous les sens, c’est assez perturbant.
Assez intrigué aussi par la conso annoncée identiques entre la 6800 et la 6900
Support de Zen 3 : les constructeurs communiquent, ASUS annonce sa gamme B450 II
22/10/2020
Le 22/10/2020 à 09h 25
Il suffit de regarder si la CM supporte la mise à jour du BIOS sans CPU (ce qui semble être le cas sur pas mal de modèles maintenant).
Donc tu n’auras pas forcément la dernière version, mais tu ne seras pas bloqué non plus.
TrueNAS 12.0 Core disponible en version finale, de nouveaux NAS « R-Series » arrivent
21/10/2020
Le 21/10/2020 à 12h 29
Mise à jour faite de mon côté. La partie réseau des Jails est toujours aussi perfectible, et la conf du resolver semble toujours bugguée…
J’ai pu fix manuellement, mais je sais qu’au prochain restart de la jail, ma conf va sauter…
QSW-M2108 : QNAP dévoile son switch 8x 2,5 Gb/s + 2x 10 Gb/s, manageable (L2)
16/10/2020
Le 19/10/2020 à 07h 30
Jamais eu ce soucis sur une config avec une Gigabyte B550I Aorus et son controlleur Realtek 2.5G.
SK hynix lance les premières barrettes de DDR5 « au monde »
06/10/2020
Le 06/10/2020 à 12h 30
Comme a dit David, c’est par puce. T’as 8 puces qui sont utilisées en parallèles sur une barrette (et le Data rate doit être par pin, donc ce serait x64 pour une barrette).
Notre analyse de la GeForce RTX 3080 : pensée pour la 4K, reine du rendu 3D
16/09/2020
Le 17/09/2020 à 08h 53
Un calcul ne contient pas d’énergie. Essaye d’imaginer en quelles formes d’énergie ton électricité a pu être transformée (il n’existe pas des milliers de formes possibles). Tu devrais te rendre compte qu’à la fin, ça finit en chaleur. Même l’énergie des ventilateurs qui devient mécanique finit en chaleur par frottement, la lumière de ton écran aussi,…
Le 16/09/2020 à 15h 16
A moins que ton ordinateur stocke de l’énergie sous une autre forme, alors oui un ordinateur d’un point de vue externe est un simple radiateur.
Le 16/09/2020 à 14h 51
Bah en fait si. Ton énergie doit partir quelque part, et c’est bien en chaleur.
Tu rigoles, mais il y a effectivement des projets de calculateur intégré à des radiateurs où tu loues de la puissance de calcul en chauffant ton logement (gratuitement du coup).
Radeon RX 6000 (RDNA 2, Navi 2X) : jusqu’à trois ventilateurs et 8 + 8 broches
15/09/2020
Le 16/09/2020 à 08h 54
T’as des preuves de ça ? Ou c’est juste du bashing gratuit ?
Intel dévoile 9 processeurs mobiles Tiger Lake (11e génération), projet Athena devient Evo
02/09/2020
Le 04/09/2020 à 08h 33
Quel Ryzen 3 ? Quelle config ? Parce que ça va à l’inverse de toutes les reviews, surtout avec Renoir qui maitrise bien la consommation et se permet de garder une bonne performance sur la durée.
AMD améliore les performances de sa Radeon RX 5700 XT sous Fortnite
28/08/2020
Le 28/08/2020 à 20h 55
Fortnite est probablement le BR le mieux optimisé actuellement…
Que les évolutions aient rendus le jeu plus lourd avec le temps ne donne aucune information sur l’optimisation du jeu.
Je n’y joue plus depuis 1 an, mais pour avoir migré sur Apex, je regrette largement la qualité du développement de Fortnite par rapport à Apex (que ce soit perfs, bugs, lags, serveurs,…).
TrueNAS 12.0 disponible en BETA2, iXsystems lance ses NAS Mini X(+) et M60
26/08/2020
Le 26/08/2020 à 13h 30
Ca fait 6 mois que je tourne avec un FreeNAS et j’en suis pleinement satisfait. Je l’utilise pour faire principalement de l’archivage de données (vidéos/docs/photos) et je trouve ça plutôt bien.
J’aime bien les capacités intégrées de Shadow Copy visibles sur SMB sans avoir à rien configurer d’autres que les taches périodiques de snapshots.
Avant ça j’avais testé OMV, et j’avais été très peu convaincu par l’ensemble.
Van Gogh : AMD préparerait un processeur avec GPU Navi 2, lancé en 2020
24/08/2020
Le 25/08/2020 à 09h 36
Cybertek en avait en stock à la sortie. Mais il a disparu de leur catalogue :/ Il ne reste plus que le 4350G
Le 24/08/2020 à 11h 56
Il y a des rumeurs qui parleraient d’une unification des architectures sous un même nom de génération. Ce serait clairement pas de trop, mais il y a beaucoup trop de rumeurs en ce moment pour avoir la moindre idée de ce qu’il y aura vraiment…
Les APU actuels sont une bonne indication que c’est un peu le bordel. Ne sortir Renoir Desktop que pour les OEM a été assez surprenant, alors qu’AMD laissaient entendre qu’il y aurait une autre gamme pour le DIY.
Difficile de voir ce qu’AMD compte faire, surtout qu’ils ont l’air de mieux maitriser les leaks depuis quelques temps.
(J’espère aussi que mon 4350G ne sera pas rendu trop rapidement obsolète )
Le JEDEC finalise la DDR5, attendue dès 2021
15/07/2020
Le 16/07/2020 à 16h 07
Super merci :oui2:
C’est pas super clair, mais j‘ai l’impression que ce sera surtout un moyen pour fiabiliser les puces individuellement, tout en donnant plus de transparence sur les erreurs à l‘OS. Rien que cette possibilité pour l’OS est un gros plus pour stabiliser un overclocking "presque stable".
Sans remplacer l‘ECC à 9 puces, j’espère que ça réduira les risques d‘instabilités mémoires (et/ou de corruptions silencieuses), et sera suffisant pour une utilisation hors serveur (peut être même largement suffisant pour du home server ?)
Le 15/07/2020 à 14h 46
Je n‘ai toujours pas compris de quel manière l’ECC sera différent en DDR5.
La seule référence dans le communiqué étant "On-die ECC and other scaling features enable manufacturing on advanced process nodes."
J‘avais cru comprendre que la DDR5 sera beaucoup plus tolérante aux erreurs grâce à ça, mais je trouve assez peu d’informations concrètes sur le sujet.
Du « nouveau » sur les SoC MediaTek : YouTube en AV1, Dimensity 1000 + et Helio G85
12/05/2020
Le 12/05/2020 à 13h 58
Pour l’instant, Intel, Nvidia ou AMD ne gère pas matériellement l’AV1. Donc ce sera du décodage logiciel (et faudra un CPU assez correct).
Sur mobile, c’est jouable sur des bons SoC, mais ça risque de consommer beaucoup.
Le 12/05/2020 à 13h 11
Pour des besoins comme Shadow, ce n’est pas seulement la bande passante, mais aussi la latence du codec. NVENC a très peu de latence sur du H264 (5-6 ms). Pour être utilisable, il faudra que cette latence reste assez faible.
Reste qu’effectivement, pour les plateformes de VOD/Streaming, AVI1 va apporter un bon avantage sur la conso et/ou la qualité par rapport au h264 toujours utilisé partout.
AMD officialise son AGESA 1.0.0.5
30/04/2020
Le 30/04/2020 à 08h 16
J’ai abandonné l’idée d’avoir la possibilité de mettre à jour mon Asus X370 Prime pour passer à Zen 3
Asus semble oublier toutes les premières générations…
Ryzen 3 3100/3300X : un document détaille leur composition
27/04/2020
Le 29/04/2020 à 09h 10
Ce qui n’a jamais été possible sur Ryzen, et ne le sera probablement jamais vu qu’AMD semblent désactiver matériellement les coeurs.
Les seuls cas connus sont des CPU qui sont arrivés avec les coeurs déjà actifs (genre un 1600X qui fonctionnait comme un 1700X), et de mémoire ce n’est arrivé qu’à quelques exceptions sur la première génération.
AMD confirme les Ryzen 3 3100, 3300X à 99 et 120 dollars, ainsi que le chipset B550
21/04/2020
Le 22/04/2020 à 13h 34
Je crois pas qu’on ait déjà vu un CCX désactivé avec le cache toujours exploitable si ?
IronWolf (Pro) : Seagate affirme ne pas utiliser la technologie SMR dans ses HDD pour NAS
22/04/2020
Le 22/04/2020 à 09h 12
Clairement, si ils pouvaient mettre ça de manière claire partout… Ils mignons à faire les malins face à WD mais s’ils pouvaient au moins segmenter correctement les gammes et qu’ils aient des fiches techniques claires.
J’ai toujours en travers de la gorge mon Seagate indiqué TGMR qui se traine un peu…
Seagate lance le « premier SSD PCIe pour NAS au monde », Synology serait en embuscade
18/03/2020
Le 19/03/2020 à 16h 35
Tu veux pas comparer non plus deux SSD qui n’ont rien à voir ? Le BX500 c’est un peu le bas de l’échelle des SSD TLC.
Je n’ai aucune idée de ce qu’on vont donner ces SSD spécifiquement, mais tous les TLC haut de gamme donnent de très bons résultats. Rien qu’un MX500 te contredit. Mais un 970 EVO (pour prendre un des TLC haut de gamme) ne “plafonne pas à 170Mo/s” non plus.
Retard de la nouvelle offre Shadow et mise en retrait d’OVHcloud : des choix qui interpellent
06/02/2020
Le 10/02/2020 à 13h 09
Honnêtement, est-ce que t’as déjà testé un système comme Shadow ?
20ms ça parait pas grand chose, mais c’est suffisant pour pourrir ton aim sur des FPS compétitifs. Je fais du Moonlight/Parsec avec 5ms de latence réseau (fibre Orange <-> Orange, voir en local) et c’est déjà perceptible.
Je joue pas mal à Apex, et j’ai juste abandonné l’idée d’y jouer à distance. Tous les micro ajustements de visée que tu fais habituellement sont décalés dans le temps. Ca donne un ressenti très désagréable, et tu te retrouves à viser tout le temps à côté, voir carrément à rater tes déplacements.
Les seuls jeux auxquels je peux jouer sont ceux qui ne demandent pas de réaction rapide (jeux solos pour moi majoritairement).
Ryzen Threadripper 3990X : comme prévu, AMD annonce son CPU à 64 cœurs (sans tarif)
25/11/2019
Le 27/11/2019 à 11h 01
Chaque CCD semble avoir 3.9 milliards. Sur AM4, le IO Die semble en avoir 2.1 milliards. Sur TRX40, le IO die doit être dans les 8.3 Milliards.
Ce qui donne :
3600 -> 3800X : 3.9 + 2.1 ~= 6 milliards de transistors
3900 -> 3950X : 3.9*2 + 2.1 ~= 9.9 milliards
3960X/3970X : 3.9*4 + 8.3 ~= 23.9 milliards
J’ai quelques doutes sur le IO Die des Threadripper, ça serait le même que pour Epyc, mais avec les canaux mémoires désactivés ?
Stadia se lance en exposant ses limites, mais fait réagir la concurrence
19/11/2019
Le 19/11/2019 à 16h 26
Je n’ai pas testé Shadow spécifiquement, mais j’utilise régulièrement Parsec et Moonlight qui font la même chose.
J’ai essayé sur une liaison fibre Orange <-> Orange et je ressent largement l’input lag. Ce n’est pas grand chose effectivement, mais ça rend n’importe quel FPS compétitif injouable. J’ai testé Far Cry 5, Far Cry Blood Dragon, Borderlands 2, The Outer Worlds, Fortnite, Apex Legends et Natural Selection 2.
Globalement, c’est jouable pour les 4 premiers, mais pas ultra agréable, pour les 3 autres, c’est pas possible.
C’est pas seulement une question de temps de réaction, mais le fait que ça induit une plus grosse erreur dans ta visée que n’aurons pas les autres en face.
Gears 5 et Shadow of the Tomb Raider adoptent FidelityFX d’AMD
12/11/2019
Le 13/11/2019 à 08h 14
Beaucoup de jeux utilisent des paramètres de résolutions variables en fonction des performances, accompagnée de TAA pour lisser l’image. Ca permet de garder un framerate acceptable, mais ça floute l’image et fait perdre des détails. Le filtre permet de récupérer un peu de qualité et c’est relativement plus agréable.
Autrement, certains apprécient le contraste que ça apporte à l’image, donnant une impression de meilleur qualité.
Donc de manière générale, l’intérêt est surtout pour les jeux qui tournent à une définition plus faible que l’écran.
Quadro RTX, Xeon, plus de mémoire et de stockage : Shadow dévoile ses nouvelles configurations
29/10/2019
Le 30/10/2019 à 08h 11
Je reste toujours sceptique face à ses solutions pour des jeux dynamiques. J’ai tenté plusieurs FPS avec Parsec et Moonlight sur une liaison fibre avec moins de 10ms de latence, et l’input lag était bien présent.
Passable sur des jeux solos ou non compétitifs (j’ai testé Far Cry BD, Borderlands 2 par exemple), mais par contre injouable sur Apex.
Donc leur exemple me fait légèrement sourire :)
Linux, hyperviseurs : quelles distributions pour les Ryzen de 3ème génération ?
12/07/2019
Le 12/07/2019 à 07h 53
Vous savez si le bug VME a été corrigé ? Il était impossible de virtualiser du 32 bits.
J’ai un freeze total du PC avec un Threadripper 1ère gen (avec HyperV) pendant l’installation de Windows 7 32 bits.
NVIDIA : le lancement de la gamme Super se précise
24/06/2019
Le 24/06/2019 à 13h 13
En hiver, c’est du chauffage “gratuit”