votre avatar Abonné

David_L

est avec nous depuis le 13 septembre 2002 ❤️

15083 commentaires

Le 28/07/2021 à 18h 18


(reply:58799:Fab’z)


Je comprends pas la remarque. Le M.2 peut très bien être proposé en solution pour du cache non amovible (ici il faut juste passer par une carte tierce). Les autres standards sont largement déployés, mais en général plus coûteux et donc pas sûr toutes les références

Le 28/07/2021 à 06h 48

Petite précision : les tests purement théoriques à la iPerf ne m’intéressent pas trop pour ce genre de produits (d’autres font ce genre de relevés, grand bien leur fasse). J’ai plutôt tendance à me préoccuper de ce qui sera exploitable en pratique par l’utilisateur avec des tests concrets tout en essayant de minimiser les pertubrations tierces (pour la reproductibilité), d’où l’essai de téléchargement via cURL et la Freebox.

Le 27/07/2021 à 14h 33

Parce que ça permet de mieux se faire une idée de ce que ça donne concrètement (et ils sont remontées ainsi par cURL), et si tu veux les débits en Mb/s tu multiplie par 8 :chinois:

Le 26/07/2021 à 19h 33

C’est pas dspo en France surtout aux dernières nouvelles non ? (ils viennent à peine d’officialiser les offres aux US)

Le 26/07/2021 à 14h 41


(reply:58755:dvr-x)


Disons que ce que tu vois bien quand tu fais un essai sans contrôleur, c’est que c’est tout à fait gérable pour quelques AP si tu n’as pas de besoin poussé, ou un switch non manageable. Par contre dès que tu veux aller plus loin ou monter un réseau complet, le contrôleur est vite le passage obligé.



Pour le dossier, c’est surtout l’occasion de faire le tour de la gamme UniFi avec différents produits en évoquant ce que l’on peut faire ou non. Principalement des tests donc (j’utilise de l’uBiquiti à titre perso, mais d’autres références que celles présentées).

Le 27/07/2021 à 16h 13

Le cauchemard de tous ceux qui ont misé sur du tout NAS local : voir l’habitation/bureau partir en fumée, le NAS et ses données avec. Le stockage déporté, ça n’est pas qu’une question de marketing, ça a aussi son intérêt (mais on peut utiliser des solutions tierces pour la plupart des services proposés au sein de DSM, notamment pour les sauvegarde. On a même fait des papiers là-dessus).

Le 27/07/2021 à 12h 36

Ça viendra sans doute avec C2 identity

Le 27/07/2021 à 08h 56


KP2 a dit:


C’est un peu la lose… les mecs font leur pub avec leur “cloud local” du genre “c’est comme le cloud mais c’est chez vous et vous contrôlez vos données” et ils trouvent le moyen de sortir un service qui n’entre pas dans ce principe ? J’ai du mal a comprendre leur stratégie… ils ne veulent plus vendre de NAS ou bien ?


Voir les articles récents sur DSM 7.0 et la stratégie de Synology (qui n’a rien de nouveau, comme C2). L’idée c’est de développer une branche service avec des solutions visant le même marché/public, des engagements sur le traitement/chiffrement de la donnée (E2E) et une complémentarité avec les NAS maison quand cela est intéressant.



On verra ce qu’il en sera pour l’évolution de Password, mais le constat de Synology est le même que tout le monde : l’auto-hébergèrent reste marginal et il faut proposer des solutions complémentaires/intermédiaires. Ici avec la société qui gère toute la sécurité, ce qu’une frange importante des utilisateurs ne veut pas avoir à faire (en particulier comme en Pro).



Et ceux qui veulent un gestionnaire de mot de passe purement local avec leur NAS peuvent toujours le fait avec les solutions proposées et/ou Docker.




Cumbalero a dit:


A 10€ les 100Go de stockage dans les nuages, je vois bien l’intérêt. Pour eux.


C’est l’idée, même si le forfait couvrira plus que ça in fine. Mais Synology est une entreprise comme une autre, à la recherche de vecteurs de croissance et de revenus réguliers (plus qu’une vente de NAS tous les 5 ans en tous cas).




(quote:1888744:GL-Jarod)
Même remarque. J’aurai apprécié un service stocké dans mon NAS, même en payant une licence, car le code ça se paye :)


Comme dit plus haut, les solutions hébergées existent déjà. Il faudra voir si Password propose à terme un stockage complémentaire NAS/C2 ou l’accès purement local.

Le 27/07/2021 à 15h 09

Je doute qu’on puisse gérer 512 Go de RAM sur ces machines. Si tu parles de stockage, ça se modifie à l’achat (et de toutes façons les machines seront vendues comme des barebones à terme)

Le 26/07/2021 à 19h 38

RGB : off :D

Le 26/07/2021 à 11h 48

Voir le lien dans l’article, c’est du BGA1787

Le 26/07/2021 à 11h 25

Oui il y en a (voir les détails dans l’actu). Après de toutes façons ils sont forcément pensés pour fonctionner dans un environnement contraint.

Le 27/07/2021 à 12h 11

Non, rendre les solutions d’Intel modulaires sous la forme dun catalogue d’IP à commercialiser via IDM 2.0 (ou à intégrer dans les nouvelles archis)

Le 27/07/2021 à 10h 06

La réponse intéressante est plutôt en bout de chaîne : quand Intel pourra produire en masse dans son process full EUV (20222023) et avec quelle densité/efficacité (on verra). Tout le reste tiendra, au mieux, de l’extrapolation sur des informations partielles.

Le 27/07/2021 à 09h 00

My bad, une connerie qui est restée sans modif avant correction. Pour le reste, je n’ai pas souvenir que des fondeurs communiquent publiquement sur leur niveau de commande de telles machines.




(quote:58773:alex.d.)
Le 7nm qui s’appelle Intel 4, c’est un peu le retour du P-Rating (mais il a changé de camp !)


Comme dit dans l’article, ce n’est qu’un rattrapage qui était attendu par rapport aux pratiques du reste du marché. On comprend surtout mal pourquoi ça a mis tant de temps à se mettre en place alors qu’Intel (entre autres) est quand même vocal depuis quelques années sur le sujet.



L’important in fine, plutôt le nom marketing donné par les fondeurs, ce sera toujours la densité et l’efficacité énergétique des puces telles qu’implémentées par les constructeurs.

Le 26/07/2021 à 11h 26


(reply:58748:Fab’z)


Oui enfin ceux qui font du SAS sont pas ceux qui se jettent sur le dernier truc à la mode en général :D

Le 25/07/2021 à 09h 31

Il y a eu des retours sur différents soucis, mais rien de vraiment sourcé précisément pour comprendre le problème. On verra s’il y a plus d’infos qui sortent, mais on parle de toutes façons d’un jeu en closed beta, pas d’un problème large sur un jeu disponible publiquement.

Le 24/07/2021 à 08h 48

Aucune idée, AMD n’a pas communiqué là-dessus, je poserai la question

Le 23/07/2021 à 12h 42

Oui ça sera ans doute pour la branche d’août (comme les 6600 arrivent ça sera surement dans la foulée)

Le 23/07/2021 à 15h 38


(quote:1888278:Mr Patator)
Etonnant qu’ici même, dans les commentaires, on applaudit pour un internet privé, compatible avec rien, centralisé dans une boite noire qu’il faut croire sur parole.


L’Internet qui déconne, c’est l’Internet actuel. Note qu’ici beaucoup de standards sont utilisés et que ça n’entrave en rien le fonctionnement classique des applications ou l’utilisation de solutions tierces. D’ailleurs ça rejoint les travaux déjà faits sur DoH & co avec iOS 14.



Je sais qu’Apple est un écosystème fermé et criticable pour ça, mais quand on voit le laisser faire ambiant sur de nombreux point, on se dit que la solution est imparfaite mais sur certains points préférable. On manque en tous cas d’alternatives crédibles à l’heure actuelle (qui ne vont pas émerger en grognant ici ou là sur le fait qu’Apple soit méchant).

Le 23/07/2021 à 15h 32


ErGo_404 a dit:


Apple casse ses concurrents mais aussi toutes les applis disponibles sur son eco système qui profitent de la publicité pour vivre.


Petits rappels :




  • La publicité et le ciblage sont deux éléments distincts. Ils sont beaucoup liés “de fait” actuellement parce que toute l’industrie s’est torchée avec la loi pendant plus de 10 ans, malgré plusieurs rappels, délais et autres procédures conciliantes de la CNIL.



Certains y voient un douloureux rattrapage et pleurnichent régulièrement, j’ai plutôt tendance à considérer qu’ils devraient être heureux de ne pas aller là où beaucoup le mérite dans cette histoire : en taule ou dans les tréfonds des amendes record (à minima).



PS : notons que c’est de fait une distortion de concurrence massive vis-à-vis de ceux qui respectent la loi, mais ça, personne ne semble s’en inquiéter.




  • Apple propose des solutions d’attribution publicitaire sans pistage

  • On peut faire de la publicité sans pistage

  • On peut avoir un modèle économique diversifié qui ne consiste pas à considérer ses utilisateurs comme une matière première dont il faut extraire la moelle. Si beaucoup se disent à l’écoute et attentifs à ces sujets en théorie, il est assez rapide de vérifier qu’en pratique, c’est plutôt rare.

Le 23/07/2021 à 14h 26

On a encore le temps de voir venir, puis bon, j’aimerai surtout passer à du stockage NVMe-oF avant tout ça :D

Le 23/07/2021 à 14h 08


Soraphirot a dit:


Je comprends pas bien ce plan mais je confirme, les gens utilisent leur boite mail pour tout et n’importe quoi. Ce n’est malheureusement pas si inhabituel.


Clairement :transpi:




TheKillerOfComputer a dit:


Les gamins vont donc devoir apprendre à être patient. C’est pour leur bien :phibee:


Moi pas, de toutes façons je passe bientôt le labo à 25G :D

Le 22/07/2021 à 18h 28

Oui on a souvent une telle réaction sur ce sujet (comme les remarques sur les cartes réseaux à pas cher sur eBay qui sont la solution à tous les maux). Mais comme je le dis souvent (et qui est valable sur à peu près tous les sujets), aborder ce genre de problématique en mode tout ou rien est possible quand on fait un choix personnel (dans un cadre maison ou entreprise), pas pour une analyse globale de cas divers.



Ne serait-ce que parce qu’on est bien content de voir du 2.5G sur les Freebox Delta, dans une partie croissante des cartes mères du marché et que si on avait dû attendre que le 10G soit abordable pour passer à plus de 1G on serait encore calé à 1G. On ne résout pas les problèmes en campant sur des principes (même si je comprend qu’on préfère la fibre et le 10G, quand on peut se le permettre).



C’est d’ailleurs pour ça que le NBASE-T a été créé puis déployé. Pas pour les DC et autres installations pro, mais l’informatique ce n’est pas que ça. C’est un ensemble aux contraintes diverses. Les solutions que l’on peut être amené à apporter le sont donc tout autant.

Le 22/07/2021 à 04h 09


TheKillerOfComputer a dit:


Encore une fois, je ne dis pas que ce n’est pas pratique d’avoir davantage de vitesse ou qu’il n’y a pas un potentiel besoin, mais que vous êtes l’exception. J’ai vu à ce jour DEUX NAS chez des clients, dont l’un chez un professionnel. J’ai vu des gens avoir la fibre qui n’en ont pas le besoin car ils ne matent que leurs emails, etc. Aucun d’entre eux ne s’embétera à moderniser leur infrastructure pour un EVENTUEL besoin futur, ils ne le feront que naturellement par le remplacement du matériel, ou quand le besoin se fera vraiment sentir.


Sur la partie NAS, que ce soit entreprise ou particulier, ils seront en demande dans deux cas : quand tu auras réussi à leur faire comprendre l’intérêt, où lorsqu’ils auront tout perdu et qu’ils comprendront l’intérêt. Cela ne poussera peut être pas à plus de 1 Gb/s, mais on est pas simplement dans un cas d’exception ou pas. Il y a un manque d’éducation pratique à ces questions.



Certes, il y a OneDrive & co, mais les deux ont en général plusieurs dizaines de Go ou parfois des To de données à conserver, et ils veulent rarement mettre le prix pour une sauvegarde en ligne (bien que ce soit un complément nécessaire pour s’éviter des mauvaises surprises en cas d’incendie par exemple).



La perspective de perdre une vie de souvenirs/documents fait en général pas mal réfléchir.




Sinon, rien n’empêche de mater Netflix sur une TV tout en DL, selon la plateforme. Steam permet de réduire la vitesse de DL, d’autres aussi. Et puis bon, depuis la béta de Steam, j’ai appris à jouer à d’AUTRES jeux que celui souhaité quand ce dernier a un patch vu qu’on ne peut pas les éviter (qu’est-ce que je hais ce principe)…


Comme dit plus haut, quand il faut s’appliquer à soi la contrainte, c’est un choix. Mais quand tu as deux gamins qui ont le steam qui tourne en // et des machines sous Windows qui se mettent à jour et rien qui n’avance, ça pose souci. Pour un usage classique, je considère en généal que 500 Mb/s est la limite à partir de laquelle la plupart des usages deviennent corrects et les gains limités.



Par exemple un jeu de 50 Go se récupère en 15 minutes. On peut réduire ce temps par deux, mais tout le mondre vivra bien avec ce temps de téléchargement. Mais c’est toujours 10x plus rapide qu’un VDSL à 55 Mb/s (qui concerne une part infime du parc). C’est 62,5x le débit d’une ligne ADSL 8 Mb/s.



Mais il ne faut pas se leurer, la taille des fichiers augmentera, les besoins avec eux. Si la fibre à 2,5 Gb/s et plus sont déjà là, c’est qu’elle deviendront notre quotidien d’ici quelques années. Et comme l’arrivée de la fibre à poussé les solutions Mesh/Tri-band, la montée en débit poussera à des réseaux locaux plus rapides. Ce n’est pas une question de “si”, plus une question de “quand”.




yannickta a dit:


Merci pour tes remarques intéressantes, mais ça n’explique pas le surcout faramineux (dans l’article le prix fait ~x8 pour passer de 1Gb à juste 2.5Gb) après 16 années d’exploitation commerciale.


Attention, il ne faut pas confondre la finalisation d’une norme et sa disponibilité commerciale. Par exemple le 2.5/5GBASE-T date de 2016, mais on le voit expoité en pratique depuis 20182019, le temps que les constructeurs mettent des puces sur le marché. Au début principalement Realtek, désormais Intel, etc. Tout cela prend du temps et la montée en puissance dépend de l’adoption (et des choix).



Intel a eu quelques soucis avec sa puce qui est arrivée finalisée plus tard que prévu sur le marché, mais a commencé à la généraliser avec certaines de ses plateformes, comme il le fait pour le WI-Fi. Cela permet de monter rapidement en volume. C’est pour ça qu’on trouve des puces Wi-Fi 6 dans les 20 euros et du 2,5 GbE dans les 1520 euros en chine (et plus sur le marché FR en direct).



On a eu de premiers switchs full 2.5G cette année, la première génération est assez chère (26 euros par port comme dit dans l’article), mais ça baissera progressivement. Les constructeurs n’ont pour le moment que des perspectives de volume assez faible, une fois qu’ils ont une meilleure vue du marché et que la demande augmente, tout ça est assez mécanique (sans parler de l’amélioration de la production).

Le 21/07/2021 à 19h 30

Dire ça c’est dire que les gens n’ont même pas besoin de plus que du Wi-Fi (ce qui est en parti vrai, mais pose quand même des problèmes pratiques dans les zones denses en habitat, même si le Wi-Fi 6(E) va quand même pas mal aider à améliorer les choses à terme.



Après attention à deux points : tu es en VDSL donc tu ne ressens pas le besoin, soit. Cela ne veut pas dire qu’il n’existe pas. Comme pour l’absence de NAS & co, c’es un choix, pas une vérité générale. C’est aussi une vision qui oublie le besoin familial qui est par nature multi-postes et potentiellement gourmand en débits simultanés. entre les services de SVOD et les jeux en ligne, 55 Mb/s c’est vite saturé.

Le 21/07/2021 à 17h 13

T’es dans un terminal PowerShell pas dans un invite de commandes :)



Pour les firmware, ASUS en propose pour sa carte. Après j’ai déjà utilisé ce modèle pour des tests sans trop de souci pour atteindre 1 Go/s.



Pour le reste comme dit au-dessus, il faut faire la différence entre le réseau local et la qualité de la connexion internet (qui peut dépendre des capacités des serveurs tiers et du peering). Mais bon, du réseau Free à moins d’1 Gb/s j’ai du mal à y croire (le plus simple est de tester avec un téléchargement d’ISO Bittorrent pour voir à combien ça récupère au maximum).



Oui forcément si la fibre est déjà présente autant s’adapter :D



Mais oui pour utiliser du 10G-LR sur de courtes distances ici (principalement pour éviter d’avoir 50 types de transceiver selon les cas de test), pas de souci particulier en pratique.

Le 21/07/2021 à 16h 54

Oui après le souci de ce genre de chose c’est qu’on teste des conditions qui ne seront jamais rencontrées en pratique. C’est bien pour tester le lien réseau, mais quand on pas pas les perfs dans tous les autres cas ça n’aide pas trop à comprendre où peut être le problème.



Si tu ne le mets pas ça ne peut pas fonctionner (rappel, la commande est juste ok pour le cmd de Windows 10 sur d’autres systèmes il faut éventuellement adapter)

Le 21/07/2021 à 16h 24

Vous faites vraiment du multi-mono pour la fibre ? Autant faire du mono partout non, les différences de prix sont en général assez faibles maintenant (c’est peut être différent sur de gros volumes)

Le 21/07/2021 à 13h 23


Tirnon a dit:


Je me suis posé la question en rénovant chez moi et même au niveau du prix c’est plus intéressant d’installer une baie 19”/10” qu’un boitier legrand à 300€ où il n’y a pas la place de mettre box plus hub


:baton: :D

Le 21/07/2021 à 12h 53

Oui et non. Dire que ça n’avance pas est eronné. Les tarifs évoluent peu mais l’offre s’étend si l’on compare à la situation de 2018. Pour le reste, c’est ce que je dis : la seule chose qui pousse à la montée en débit côté réseau local c’est la montée en débit des connexions internet.



On l’a vu avec le Wi-Fi, qui était merdique chez tout le monde, avec au mieux un interêt pour l’étendue de la couverture (et donc des achats en masse de répéteurs à 50 euros en grande surface).



Puis la fibre est arrivée, personne ne comprenait pourquoi on avait des speedtest à 30 Mb/s sur une ligne qui propose 10/20x plus. Le plus symptomatique, c’est que pour beaucoup, (même sur des sites de tech, c’est dire) Speedtest est utilisé pour tester un réseau local alors que ça n’a rien à voir.



Là on voit le même mouvement avec le passage à plus de 1 Gb/s des offres fibre et le besoin pour la connexion locale de suivre. Même si d’expérience, passé 500 Mb/s la plupart des utilisateurs se contentent déjà bien de ce qu’ils ont sans trop chercher plus loin.

Le 21/07/2021 à 12h 20

Pas les mêmes protocoles ni besoins. Ils n’ont pas été pensés/créés pour de la longue distance. Notamment parce qu’Ethernet est là pour ça.

Le 21/07/2021 à 12h 14

Normalement la Freebox te dit le niveau de débit détecté, Windows aussi (parfois ce sont des codes couleur sur les LED des ports pour les switchs). Sinon plutôt qu’un speed test tu peux déjà tester le débit entre la box et ton PC avec la commande suivante (sous Windows 10) :



curl -L http://mafreebox.freebox.fr/gen/10G -o file



Tu peux aussi essayer de récupérer le fichier via un navigateur pour un test de téléchargement.

Le 21/07/2021 à 10h 49

On en avait parlé quand la Freebox Delta est sorti, ça n’a pas trop changé depuis.

Le 21/07/2021 à 10h 38

Même Synology commence à généraliser le 10G, mais ils boudent encore le Multi-Gig oui (notamment le 2.5G qui est presque devenu la règle chez ASUSTO/QNAP). Mais bon, ça ne devrait plus durer longtemps.



Informations constructeur de l’époque (donc théorique), d’où le test pratique

Le 21/07/2021 à 10h 05

Il y a un bouton pour signaler les erreurs :chinois: (corrigé)

Le 21/07/2021 à 09h 53

La production de masse est là, notamment sur le 2.5G (et même le 10G dans une moindre mesure). Mais à l’inverse, le fait que le 1G reste le standard freine le fait qu’on mette du 2.5G partout et du 10G parfois même si ça arrive dans plus en plus de cartes mère (notamment sous l’impulsion d’Intel et son i225-V)



On peut toujours se demander qui de l’oeuf ou de la poule, mais sur le fond, ce serait bien que les choses évoluent à ce niveau au moins pour le 2.5G

Le 22/07/2021 à 12h 02


(reply:58724:X-dark)


Pas forcément, même sur les produits à WAN fortement identifié, genre Orbi, avec un port 2.5G et le reste en 1G, Netgear permet de choisir lequel est WAN. Pour rappel, c’est en général un choix logiciel, pas contraint par le matériel.

Le 21/07/2021 à 09h 57

La bonne est ici

Le 21/07/2021 à 09h 18

Pourtant j’ai bien :




Ethernet Ports One (1) 100/1000/2500Base-T Ethernet (RJ-45) port with Auto Uplink™ (Auto MDI-X)
Four (4) 10/100/1000Base-T Ethernet (RJ-45) port with Auto Uplink™ (Auto MDIX-X)


Le 22/07/2021 à 06h 51

Pas de mal, c’était au moins un peu en rapport avec le sujet initial :D

Le 20/07/2021 à 13h 11

Le problème à ce niveau est plus de la façon dont les opérateur cherchent à empêcher l’utilisation d’autre chose que leur box. Certes on peut toujours reprocher à tel ou tel produit de ne pas être assez complet et de ne pas avoir la sous-option bidule pour contourner les limitations en place, mais in fine, elles ne devraient pas exister et on devrait pouvoir utiliser le routeur de notre choix.



PS : par contre ça m’étonne d’avoir des différences si marqué avec un USG vu que ça reste la même couche logicielle. Ou c’est juste parce que les Dream Machine ne peuvent pas gérer le JSON de config contrairement aux USG ?

Le 20/07/2021 à 18h 50


Cqoicebordel a dit:


A noter que le Dolby Atmos n’est pas dispo sur l’enceinte Devialet, mais uniquement en sortie sur un ampli compatible…



fofo9012 a dit:


À noter que l’apple tv est proposé en option multi tv à la place de pop


C’est gentil de proposer des choses à noter, mais c’est déjà dit dans l’actu en fait :D




Cqoicebordel a dit:


Je suis d’accord, mais c’est pas le problème. A la base, l’ampli Devialet était annoncé comme capable de prendre du Atmos en entrée, et de sortir le son. Ce n’est pas le cas. Et cette mise à jour n’y change rien (contrairement à ce qui est dit dans l’article).


L’article précise bien que Atmos c’est via le port HDMI

Le 20/07/2021 à 18h 45

Oui après Intel reste quand même une boite solide qui est positionnée sur de très nombreux marchés (et pas que le CPU 1P grand public) quoi qu’on en dise ici ou là. Il suffit de voir les bilans financiers même récents pour le comprendre. L’enjeu c’est surtout de se réinventer pour le monde qui vient qui sera fondamentalement différent. Le choix d’IDM 2.0 est là pour ça notamment (ça a été tout une partie de l’équipe ces dernières années, peu visible médiatiquement, d’isoler les blocs IP dans ce but).

Le 20/07/2021 à 05h 24


tazvld a dit:


En gros, j’ai tendance à conclure que NVidia a des pilotes pour ARM/Linux qui arrive utiliser les instruction de ray tracing (via OptiX ou Vulkan ? ) et CUDA (ce qui à me semblait déjà exister)


Comme dit dans l’article, le sujet c’est toute la conversion des SDK pour qu’ils soient exploitables dans un écosystème ARM. CUDA-X a déjà été porté sur ARM, mais ce n’est pas le sujet ici.




Mais sinon, j’ai l’impression que le vrai but de NVidia, c’est de montrer que ARM est une solution viable pour l’avenir (dans l’optique de confirmer que l’achat d’ARM est une bonne idée)


En fait c’est leur but depuis un peu plus de 10 ans (Tegra, Jetson, toussa) et ils y sont parvenus sur la plupart des marchés où ils sont présents où ARM est au centre de leur offre d’une manière ou d’une autre. En ce moment ils progressent sur le DC/HPC (avec Grace notamment et le HPC SDK). Il n’y a pas besoin de plus pour expliquer leur envie d’intégration d’ARM.



Là ils montrent que c’est aussi une solution viable pour des PC du quotidien, même pour les joueurs ou les besoins “Pro” impliquant du rendu 3D performant si on se donne la peine de faire le boulot au niveau de l’écosystème logiciel (ce qui prend un temps fou quand on est pas Apple qui fonctionne en circuit court/fermé).




maude a dit:


Nvidia veut devenir le futur Apple en intégrant ces puces graphiques dans des SoCs basés sur ARM? Je préfère le bon vieux modèle du PC avec carte mère et périphériques remplaçables.


Spoiler : tout le monde ne se positionne pas par rapport à Apple. Comme dit, NVIDIA travaille sur ARM depuis plus de 10 ans. Sinon quelques rappels utiles :




  • Ce n’est pas un SoC, on parle d’une GeForce RTX 3060

  • Le bon vieux modèle PC c’est en général un processeur Intel avec… CPU, E/S et GPU intégrés… donc un
    SoC (bon, une partie des E/S est souvent dans un chipset, mais on a compris l’idée). AMD parle d’APU.

  • Le fait de faire du soudé/sur socket LGA/PGA est un choix technique. Il peut se faire (ou non) sans problème, que ce soit en ARM ou x86 (qui a beaucoup de références BGA/soudées.

  • L’écosystème ARM gère sans problème les différentes normes PCIe et donc les cartes tierces.



Pour faire court : si rien n’est interchangeable ou presque chez Apple, c’est un choix technique d’Apple. C’était le cas en x86, c’est le cas en ARM. Il n’y a aucun rapport avec ce qui est annnoncé par NVIDIA aujourd’hui. Penser que c’est le cas parce qu’il y a “ARM” dans le texte n’a aucun sens.



Petit exemple pratique pour finir : Cette photo, c’est un serveur ARM ou x86 d’après toi ?




tazvld a dit:


Cependant, niveau pro, ça fait des années que les puces NVidia fonctionne avec des puce ARM.


Comme dit, NVIDIA travaille depuis longtemps sur ses propres SoC ARM avec GeForce intégrée. Mais elles sont principalement utilisées pour du calcul. C’est pour ça que la couche CUDA-X a été portée sur ARM à travers le temps. Ce n’était pas (encore) le cas des SDK pour les solutions graphiques.




En soit, la démonstration ici n’est donc pas techniquement impressionnante.


Du coup si, parce que bon, tout ça ne se fait pas en 5 minutes.




Du coup, c’est pour ça que je me demande ce que NVidia essaie ici de dire vraiment, quel est le message et à qui.


Pour entendre, il faut ouvrir les oreilles ;)

Le 19/07/2021 à 15h 57

Oui et non. Toute entreprise de ce genre a vocation a étendre son champ d’action. Apple fait dans l’intégratopn progressive, NVIDIA c’est un peu différent. Ils ont surtout une vision du CPU comme une “comodité” au sein des différents segments où ils sont présents, un composant qui doit laisser le GPU s’exprimer. Mais dans tous les domaines où ils sont x86 règne.



ARM leur permet de mettre en musique leur vision des choses tout en créant pas mal d’opportunités. Apple se moque de créer un écosystème (autre que logiciel) ou d’avoir une vision globale. Ils veulent juste proposer des produits 100% Apple (excepté les composants où ils ne peuvent créer leur propre valeur).



Pour Apple/MS, j’ai déjà précisé ma pensée et je ne vois pas quoi ajouter (outre le fait que MS ne fait pas ses propres CPU, ils se reposent sur Qualcomm principalement).



Je sais que tu vois tout par le prisme d’AMD, mais si tu penses que le portage ARM de telles solutions se décident en trois semaines pour “contrer” FSR alors que les stratégies entre cles deux acteurs sont à peu près opposées sur tous les points sur le sujet, c’est que tu n’as (encore) rien compris.

Le 20/07/2021 à 17h 08

En même temps, je n’ai jamais vu d’argumentaire miser sur le démarrage de Windows comme élément différenciant sur de nouveaux SSD par rapport à d’anciens modèles. Sur un HDD/SSD on peut faire la différence, mais sinon…



La vraie différence entre les deux modèles que tu cites c’est surtout les débits séquentiels qui n’auront rien à voir (et peut être aussi sur de plus petits fichiers selon les performances du contrôleur de chacun).

Le 20/07/2021 à 13h 03

Sur de vieilles machines le problème n’est pas au nivau du stockage (uns fois passé à un SSD). Une machine récente sait démarrer de manière presque instantanné. Tout ce qui prend du temps c’est la phase BIOS/POST. Cela peut aussi dépendre de certains éléments qui ont un pilote à charger ou autre.

Le 20/07/2021 à 12h 55

Chaque mécanique a ses avantages et ses défauts, le PoST a notamment été créé parce que le PoS a ses propres soucis intrinsèques qu’il faudra bien régler un jour ou l’autre (comme le PoW avant eux). Penser constamment en terme d’opposition d’une solution qui serait meilleure qu’une autre est dans ce domaine comme dans beaucoup d’autre : une erreur ou de l’aveuglement (volontaire ou non). D’autant que tout dans le domaine des technologies a montré que la pureté technique était loin de suffir à l’emporter.

Le 20/07/2021 à 08h 14

Tu as mal lu le début de l’actu je suppose.