votre avatar

Soraphirot

est avec nous depuis le 29 mai 2018 ❤️

459 commentaires

Le 03/08/2021 à 20h 59


(reply:59017:skankhunt42 )


Tu n’as pas tort là dessus et je ne dis pas que les gens veulent jouer dans de “mauvaises” conditions mais on fait avec ce qu’on a.



Je te rassure que dès que les prix sont à nouveau en adéquation avec les annonces je me prends une config à base de R9 5900 et une 3080. Mais en attendant j’arrive à jouer dans les conditions que j’énumérais au dessus. C’est n’est pas une torture ni une lutte de chaque instant. Si jouer correctement était si compliqué que tu le dis tout le monde passerait son temps à acheter une CG chaque année.

Le 03/08/2021 à 16h 48


(reply:59010:skankhunt42 )


Oui mon point de vue est biaisé ça ne fait aucun doute. Le point sur lequel je veux insister c’est que chacun joue à sa manière et que par conséquent balancer des propos aussi manichéens est assez idiot. Les nuances c’est chouette.

Le 03/08/2021 à 14h 34


(quote:59001:skankhunt42 )
Question con : A tu déjà connu le gaming haute résolution + fréquence ?


Oui et je m’en tamponne la babouche. Je joue qu’à du jeu solo ou coop, principalement du 4X, City Builder et RPG. Cities Skyline tourne à 15fps parce que mon proco est au bord de la crise cardiaque et ça m’empêche pas de faire des villes monumentales en m’amusant. J’ai testé Hitman récemment et suis assez étonné qu’il tourne en 1440p tout mini à 30fps constant (pareil, GTX770 au bord de la crise cardiaque), suffisant pour m’amuser en attendant de changer mon matos (c’est à dire pas avant le retour à la normal dans 2 ans).



Oui la haute fréquence c’est cool mais clairement ça m’apporte rien du tout. Et tant mieux si tu y trouves ton compte mais encore une fois : c’est ton point de vue. balancer “50 fps c’est pas jouable” ça empêche juste de prendre ton argumentaire au sérieux et ça braque tout le monde.

Le 03/08/2021 à 13h 25


(reply:58995:skankhunt42 )


On en a parlé de long en large avec toi, c’est ton point de vue. Chacun trouve midi à sa porte.

Le 03/08/2021 à 10h 47


(reply:58977:horrus) VIA Technologies, qui existe toujours.


Le 02/08/2021 à 20h 37


(quote:58956:skankhunt42 )
Cyperpunk en ultra + 4k natif ne tourne qu’a 20 fps…


Faudrait arrêter de sortir des chiffres au hasard hein. Les benchs de Cyberpunk ultra 4K c’est 40fps sur 3080 depuis sa sortie et presque 50 avec le DLSS, cf Toms https://www.tomshardware.com/news/cyberpunk-2077-pc-benchmarks-settings-performance-analysis et techspot https://www.techspot.com/article/2165-cyberpunk-dlss-ray-tracing-performance/ et Guru3D https://www.guru3d.com/articles_pages/cyberpunk_2077_pc_graphics_perf_benchmark_review,7.html etc…

Le 03/08/2021 à 14h 44

Certes, mais c’est sans aucun doute plus facile de l’appliquer sur ses propres produits que de l’imposer à d’autres géants pas habitués à ça.



En tout cas je pense (et j’espère) que ça ne peut aller que dans le bon sens sur ce sujet. Allonger le support des téléphones c’est limiter le morcellement du parc Android, ils ont tout à gagner.

Le 03/08/2021 à 14h 20

Le problème c’est plutôt que la segmentation des fabricants est un bordel sans nom, USB, TB ou non.




ashlol a dit:


je comprends bien qu’il y a des exemples mais dans la réalité j’ai jamais eu de soucis de mauvais câble


Bah je viens d’avoir un exemple au bureau avec un collègue qui m’expliquait qu’avec son vieux câble il culminait à 80mbps et comprenait pas pourquoi alors qu’il a la fibre. Il a acheté un câble récent (bon il a pris du Cat7, il a eu du bol ça fonctionne bien) et problème résolu.



Même avec des câbles récents il faut faire gaffe, on trouve encore beaucoup de câble USB vendu pour de la “charge” qui sont USB2. C’est très souvent le cas sur le A vers type C par ex https://fr.aliexpress.com/item/32678087225.html?spm=a2g0o.productlist.0.0.298e7860sfVQBn&algo_pvid=566205cc-b59d-4b0f-96b2-9547360863c1&algo_exp_id=566205cc-b59d-4b0f-96b2-9547360863c1-6




alors j’ai regardé plusieurs pc récent et effectivement cela semble devenir la norme les fabricants semble mettre les logos de plus en plus mais tous les pc portables que j’ai ou que j’ai vu passer au bureau n’ont pas les logos sauf ceux TB3 qui ont bien le logo ça a du bon la licence pour ça


J’ai un Dell de 2012 sous le nez et il a les logos de la doc USB-IF. Par contre il est vrai que j’ai un Fujitsu un peu plus récent aussi à côté qui lui ne semble pas avoir respecté ça.




sur amazon / aliexpress / et consort les annonces sont rédigés à la va vite donc c’est souvent faux ce qu’il y a d’écrit dedans, il y a longtemps que je n’achète plus rien dans le groupe LDLC ils sont bien trop chère


Bah comme tu vois tu as le choix : une boutique qui fait les choses correctement et donnent les bonnes infos mais qui fait payer le prix (certes LDLC se touche un peu mais tu vois l’idée) soit des boutiques low cost chinoises traduites à la va-vite qui pour certains ne savent même pas ce qu’ils vendent.




j’ai pas trouvé l’équivalent pour les CPU AMD, et le gros problème qu’aucun portable AMD n’a de TB


Y’en a… 2, peut-être ? j’avoue ne pas comprendre pourquoi les fabricants refusent de s’y mettre même sur le HDG. Pourtant c’est possible, Asrock sort bien des mobos avec du Tunderbolt sur AM4. Certes Intel doit faire une ristourne sur le contrôleur pour les fabricants qui font de l’Intel mais sur le HDG type Razer ils pourraient se le permettre…




si on prends ton exemple il y a bien au moins 1 connecteur hdmi et 1 displayport sur toutes les cartes graphiques donc les portables avec un port usb-c devrait avoir toutes les fonctionnalités de présentes


bah pas forcément, chaque fabricant va mettre un nombre arbitraire de prise selon ce qu’il souhaite, c’était plus ce choix que je voulais montrer.




non je suis le 1er à vouloir du TB3 partout et à le défendre tout le temps car c’est justement le top, 1 connecteurs et toutes les fonctionnalités de présentes c’est parfait, c’est pas le prix ridicule de la puce supplémentaire le problème


la seule carte fille existante amenant du TB3 coute 80-100 balles, je doute que le prix du contrôleur soit ridicule.




c’est la certification qui coute et donc la plupart des constructeurs font l’impasse dessus.


là oui.

Le 03/08/2021 à 10h 46


ashlol a dit:


le problème est quasi jamais du coté du câble c’est presque toujours un soucis de compatibilité du matériel derrière le connecteur


2 appareils qui gèrent le gigabit sur un câble Cat3 seront ralentis. Un DD USB 3 sur une prise TB3 avec un câble USB-c câblé en 2.0 sera ralenti. Un câble Cat5 trop long ne supportera pas le 10G…



Choisir correctement son câble a toujours été nécessaire.




on est d’accord là dessus les fabricants ne mettent quasi jamais ces logos


A part Apple (parce que Apple) tout les PC que je voient ont ces logos (Razer à la limite à leurs débuts mais ils se sont ravisé).




donc l’organisme de certification usb ne devrait pas approuvé les produits


L’USB-IF n’approuve rien, ce n’est pas son rôle. L’USB n’est pas une licence.




Et si t’es si malin vas y donne moi le logo d’un port usb-c supportant l’alt mode vidéo


A votre service : https://i.stack.imgur.com/0rgU3.png




notamment pour trouver des périphériques, covertisseur etc compatible 4k60Hz et ba c’est super la galère vu que ça ne passe pas sur du SS5 ni SS10.


Normal, SS5 et SS10 indiquent juste la vitesse de transfert USB, pas les capacités d’Alt Mode.
Et puis je sais pas où vous cherchez. Moi je regarde sur LDLC je vois marqué “Résolutions prises en charge : DisplayPort 7680 x 4320 (8K) / 60Hz” sur leurs câbles USB-C/DP. Que faut-il de plus ?




t’as rien compris du comment ça marche derrière encore une fois ça se voit que tu n’utilise pas.


C’est gentil merci. Je suis présentement en train d’écrire en utilisant deux écrans branchés sur un dock TB3 mais c’est cool. On peut éviter les agressions personnelles et parler poliment ? Je suis me mélangé entre DP et TB voilà.



Donc pour me corriger : Normal, ça dépend pas du CPU mais de l’IGP et on trouve bien cette info chez Intel par ex : ark.intel.com Intel




pas uniquement si ton périphérique est 5Gbps alors que l’hôte supporte 20 ba ton périphérique marchera qu’à 5…


Oui et ?




(quote:58974:alex.d.)
Il y a des laptops où, pour un modèle donné, le port type C sera soit USB soit TB selon le modèle de CPU choisi. Là aussi, contre-intuitif au possible.


Bah c’est ce que je dis : comme le TB utilise un contrôleur additionnel c’est une dépense supplémentaire. En fonction de leurs gammes les fabricants décident ou non de le mettre, je vois pas le problème. Personne ne se plaint que tout les fabricants de CG ne mettent pas les mêmes sorties vidéo pour une puce donnée, pourquoi le ferait-on pour une prise USB ? Le TB est orienté haut de gamme donc on ne le retrouve pas partout.



Je ne dis pas que c’est super facile de s’y retrouver dans tout ça, oui l’USB-IF a pondu quelque chose de fouillis mais la plupart du temps les gens qui se plaignent de ça avec véhémence veulent juste que leur câble fasse tout quoi qu’il arrive sans y mettre le prix du TB3.

Le 03/08/2021 à 09h 10


fofo9012 a dit:


La différence est que du réseau n’utilise pas toujours le RJ45, contrairement à l’USB qui utilise exclusivement le connecteur USB, du coup l’amalgame connecteur / et je trouve parfaitement acceptable côté USB.


Tu as l’USB A, B et C. Les variantes mini et micro. les Variantes < 2.0 et >3.0.
Un câble RJ45 peut être cat3, 4, 5 ou 6 et ne gère pas les mêmes débits ni les mêmes normes PoE.
Réseau et USB même combat.




Ça, c’est très théorique :) Personne n’indique les capacités des ports USB-C,


Sur les PC le port USB est accompagné d’un logo qui identifie ses capacités : https://www.usb.org/sites/default/files/usb-if_logo_usage_guidelines_final_as_of_august_3_2018_locked.pdf
Oui c’est un peu le fouillis, y’a trop de chose. Mais l’info est là sur les PC portables et fixes. Après si l’info manque c’est la faute du fabricant, pas du protocole.




personne n’indique que l’USB-C divise par deux la BP du display port


Bah on s’en fout un peu en fait de la BP, ça parle qu’aux technophiles. Le fabricant du câble/adaptateur/dock USBC/TB indique les résolutions prises en charges, c’est tout ce qu’il faut.




Intel n’indique pas les versions de DP sur ces CPU, cette info est disponible nulle part.


Normal, ça dépend pas du CPU. TB utilise un contrôleur, c’est lui qui apporte la compatibilité.




Pour les constructeurs de portable c’est rarissime
D’indiquer la compatibilité ? Ils indiquent quand un pc gère le TB vu que c’est un argument commercial, tu veux quoi de plus ? Plus de machines avec du TB ? https://www.idealo.fr/cat/3751F1670292/ordinateurs-portables.html



et les vendeurs d’accessoires se content de renvoyer la balle sur les capacités de l’hôte.


Bah euh oui, c’est de l’hôte dont dépend la compatiblité.

Le 03/08/2021 à 10h 01

tu te contredis toi même en disant que les capacités ont décuplé avec le prix mais que l’on paye plus cher la même chose. Le bas de gamme coûte le même prix que le haut de gamme ?



Oui tu auras toujours des utilisateurs qui prendront le HDG pour avoir l’air important, mais deux choses :




  • Le marché asiatique ne ressemble pas du tout au marché occidental. L’occident a vécu la révolution du “personal computer”, tout le monde utilise un ordinateur chez soi et n’a pas besoin forcément d’un gros téléphone. L’Asie (au sens large du terme) n’a pas eu cette chance, L’ordinateur personnel est une légende, mais tout le monde a un téléphone. Et ce téléphone là, il sert à tout ce que nous ferions normalement sur PC/console. Il suffit de voir l’explosion de l’offre “téléphone gamer” propulsé principalement par la Chine.



  • On se fait avoir en regardant le marché au travers du prisme des produits vitrines. Aujourd’hui le plus gros fabricant c’est Samsung et ses plus grosses ventes se font sur la gamme A, soit son milieu de gamme. L’iPhone le plus vendu est celui de la génération précédente (https://www.gadgetsnow.com/slideshows/10-best-selling-smartphones-in-the-world/photolist/81249091.cms?picid=81249295).




Le gros des ventes ne se fait pas sur les produits qui font rêver, ça a toujours été le cas, les résultats du marché le montre tous les ans. Ce n’est pas pour rien que les fabricants de mobiles aux fesses de Samsung et Apple dans les classements annuels sont des marques axées low cost.



Pour les CG il faut aussi prendre en compte que le le marché est complètement à la peine à cause de la pandémie. Comparer les prix “classiques” avec ceux d’aujourd’hui alors que les fabricants n’espèrent un retour à la normal que vers 20222023 c’est un peu prendre les gens pour des idiots. Oui c’est cher maintenant mais on ne vit clairement pas dans les mêmes conditions qu’il y a 2 ans, donc W&S (et début d’espoir, on commence à revoir des 3080 sous la barre symbolique des 1000€. Ça revient tout doucement).

Le 03/08/2021 à 08h 13

Le smartphone d’aujourd’hui n’est pas du tout équivalent aux premiers iPhone et Android.
Les premiers appareils avaient peu de fonctionnalités, naviguaient sur le web via des connexions lentes et ne faisaient pas preuve de grandes performances multimedia.
Le smartphone haut de gamme d’aujourd’hui fait office d’appareil photo compact (qui ont disparus, phagocytés par les smartphones), de console de jeu portable, de machine de bureau autonome via cast ou dock, de batterie de secours, de lecteurs multimedia hyper connectés et sont bardés de capteurs à gérer constamment : empreinte, reconnaissance faciale, BT LE, gps,…



Arrêtez de comparer l’informatique d’hier à celle d’aujourd’hui, c’est au mieux ridicule, au pire complètement faux. C’est comme comparer les CG HDG d’hier et d’aujourd’hui, c’est biaisé. “Le HDG c’était 400€ en 2012” c’est faux. Le HDG en 2012 c’était le SLI/Crossfire, donc 2 à 3 fois le prix des plus grosses cartes de l’époque.



Si vous voulez un smartphone “équivalent” au premier iPhone et Android, donc qui fait le minimum alors il faut prendre des Android entrée de gamme ou un iPhone SE (et encore le SE fait déjà plus que le minimum). Ça vous coutera pas plus cher qu’avant.

Le 02/08/2021 à 08h 28


(reply:58937:David_L) je croyais que c’était interdit les “Oui mais Doom” ici :D


(bien sûr qu’on va avoir Doom là dessus quelle question)

Le 02/08/2021 à 07h 11

Ouais y’a un marché. A 1200w ils visent majoritairement le marché du pc customisé à fond et de plus en plus de moddeurs intègrent des écrans au niveau du cache de l’alimentation.



C’est très spécifique mais je pense que pas mal de monde assez friands de ces vidéos de machines dignes de MDPC mais pas assez bricoleurs vont tenter le coup.

Le 30/07/2021 à 07h 03


(reply:58820:Fab’z) LTT avait sorti une vidéo où Linus explique qu’il utilise un câble TB3 optique en développement et bien que cela semble super sur le papier (il déporte tout les I/O de son pc fixe qu’il peut foutre dans une autre pièce pour ne pas l’entendre) ça apporte 3 gros points noirs :




  • pas d’alimentation via le câble (forcément !)

  • pas de compatibilité avec l’USB (ce qui est contre intuitif vu que les câbles classiques sont presque interchangeables)

  • un prix prohibitif


Le 29/07/2021 à 17h 16

les câbles ne sont pas pensés de la même manière et ne sont pas vraiment interchangeables. L’USB/TB peut envoyer la patate mais sur une courte distance, tandis que l’ethernet est capable de parcourir des centaines de mètres (selon le débit voulu et la catégorie du câble) mais à un débit bien moindre.



Et puis les pc portables ont déjà commencé à se passer du port RJ45, ce n’est plus un rêve. Il faut juste penser à avoir un adaptateur dans son sac :)

Le 27/07/2021 à 20h 42

En vrai j’ai jamais vraiment compris pourquoi on s’évertue à parler en mb/s pour le débit. A part donner un plus gros chiffre ça sert pas à grand chose et on rend la comparaison plus compliqué pour les non habitués. Et puis les testeurs de débits c’est le même principe que le test de David : ça télécharge un fichier pour voir à quelle vitesse ça peut monter :D

Le 23/07/2021 à 14h 01


TheKillerOfComputer a dit:


Genre, tout est stocké… dans l’adresse e-mail. […] qui consisterait à avoir le double du faux stockage en local. Je doute qu’un NAS puisse faire cela, mais un Raspberry PI et une bonne clé USB le pourrait.


Je comprends pas bien ce plan mais je confirme, les gens utilisent leur boite mail pour tout et n’importe quoi. Ce n’est malheureusement pas si inhabituel.

Le 21/07/2021 à 19h 47

sans même parler du télétravail. selon ton job ça peut vite devenir un goulot d’étranglement très énervant. Rien que lorsque je dois faire du contrôle à distance sur des collègues en adsl/vdsl chez eux ça peut vite devenir un parcours du combattant avec une latence folle alors que c’est pas spécialement gourmand.

Le 20/07/2021 à 21h 40


(reply:58635:Akira78) techniquement oui, maintenant le Chia se repose aussi sur la quantité de stockage et ramené au Go la ram et le SSD c’est pas vraiment le même prix.


Le 20/07/2021 à 21h 38

Faut pas pousser le bouchon non plus. Apple force la main aux développeurs à chaque évolution majeure et limite donc grandement le scope nécessaire pour assurer la compatibilité. Je rappelle que MacOS est passé au tout 64bit il y a 2 ans alors que MS doit s’assurer de gérer 64 ET 32bit.

Le 20/07/2021 à 15h 45

La comparaison n’est pas mauvaise pour autant car comme le dit David les choix de MS sont dictés par leur nécessité de garder leur compatibilité historique. Si Win10 peut toujours lire des disquettes et refuse d’attribuer les lettres A et B (c’est l’exemple le plus visuel) c’est parce que le monde de l’industrie le demande. Les machines ARM de Microsoft font peu de vagues car ils doivent “malheureusement” répondre à un public voulant le beurre et l’argent du beurre : avoir une nouvelle plateforme efficiente mais continuer à utiliser ses logiciels vieux de 10/20/30 ans.



Dans ma boite on utilise encore 23 softs 16 bits développés pour des produits précis (dont un n’est plus commercialisé depuis… 2 ans à peine). Quand j’ai reçu le premier pc portable qui n’était plus compatible boot legacy (et donc OS 32bit) ça s’est affolé.

Le 19/07/2021 à 20h 28


(reply:58596:Hugues1337) non mais c’est bien tu confirmes ce que je dis :D : c’est pas vraiment comparable. Je remarque juste que tout les gros arrivent à leurs fins avec ARM sauf MS et ça me surprend.



(reply:58597:David_L) oui je suis totalement d’accord, c’est clairement dans la vision du futur que nVidia tente d’atteindre et je ne compare pas MS et Apple. Disons que j’en attendais juste un peu plus de leur part, peut-être des perfs au moins à un niveau satisfaisant pour l’appareil qu’ils ont sorti.



(reply:58605:tazvld) tout simplement s’ouvrir une voie supplémentaire pour se passer d’un concurrent. Le cloud s’intensifie et ARM a montré pouvoir s’accommoder très facilement à cet environnement en développant des processeurs personnalisés pour tel ou tel cas.


Le 19/07/2021 à 14h 44

Je suis assez ébahi par la vitesse à laquelle les poids lourds technologiques s’adaptent à l’ARM et tout autant stupéfait de voir que MS ne soit pas capable de montrer la même efficacité dans son ouverture à cette plateforme.



Certes ce sont des choses difficilement comparables mais on ne peut pas dire que MS ai pris le train en retard ni particulièrement snober l’idée, mais dans les faits on en est loin.



M’enfin je suis peut-être un peu HS.

Le 20/07/2021 à 15h 35

Je joins ce petit outil pour se donner une idée des risques : https://magj.github.io/raid-failure/

Le 16/07/2021 à 13h 52


ForceRouge a dit:


Le client nextcloud gère le vfs : nextcloud.com Nextcloud


Et bien j’avais raté cette update. Bon après mon serveur est HS depuis un gros mois (au revoir petite mobo partie trop tôt) au moment où j’ai commencé à migrer vers de plus gros DD et une nouvelle archi (Proxmox -> full docker) un peu à l’aveugle (j’aime le risque) donc j’ai d’autre priorités :D




Avec une Ubuntu 20.04, officiellement supporté , il suffit de suivre la doc officielle.


La doc offi c’est bien quand on prend une install fraiche :D à partir du moment où le serveur commence à avoir une petite longévité tu vas vite rencontrer le cas où ta distro n’a pas les paquets adéquats etc… Sans rendre l’update impossible elle rallonge considérablement et complique le processus.

Après je ne dis pas que la solution n’est pas bonne, juste lourde inutilement pour le besoin ici et trop dépendante d’autre techno à mon goût pour un besoin critique.



Mais si ça satisfait tes besoins l’essentiel est là.

Le 16/07/2021 à 11h 49

Sinon je suis très étonné de ne pas voir mentionné le principal avantage ET inconvénient du boitier : les 5 baies 3.5” sont hotswap MAIS inaccessibles sans retirer les parois. pour un NAS ça peut être assez gênant vu que ça demande forcément d’interrompre le fonctionnement le temps de changer un DD.

Le 16/07/2021 à 11h 40


ForceRouge a dit:




  • possibilité d’utiliser la synchro dynamique de windows (si on ne veut pas tout rapatrier sur un client)


Que veux-tu dire par ça ? Que je sache seul Onedrive peut utiliser le principe de “fichiers à la demande”. Le client Windows Nextcloud te propose de choisir les dossiers que tu veux synchroniser et va mettre tout leur contenu sur ta machine.



Ensuite je suis plutôt de l’avis des autres, Nextcloud est très pour une utilisation client/serveur mais pour assurer une backup je préfère faire confiance à un outil pensé backend. D’autant plus que Nextcloud dépend entièrement de ton serveur web, mettre à jour l’instance est aisé mais il faut penser aussi au couple http/php derrière et vérifier que leurs configurations ne cassent pas.

Le 19/07/2021 à 13h 18

Oui mais tu payes l’essence le weekend. Certains frais restent à la charge de l’utilisateur tout de même.



M’enfin on divague.

Le 19/07/2021 à 12h 45


Burn2 a dit:


tu vas pas me dire que le pc en question est utilisé plus de 7h/j pour usage perso et que donc l’usage majoritaire qui en est fait c’est l’usage perso?


Littéralement mon utilisation quotidienne. mon pc pro est ma machine principale. Et quand je vois les remontées de l’AV je peux dire sans sourciller que pas mal de monde utilise sa machine en dehors du taf.



Et encore une fois je dis que je comprends cette limitation, me faites pas dire ce que j’ai pas dit.




(reply:58590:DayWalker) voilà, pareil.


Le 18/07/2021 à 12h 58

je le redis, ça dépend du degré de liberté laissé aux utilisateurs. On a une politique assez laxiste au bureau pour diverses raisons et si l’un d’eux veut installer OCCT car il pense avoir un souci à cause d’un truc qu’il a fait grand bien l’en fasse ça m’économise du taf.



Maintenant je ne dis pas que la solution de bloquer est une mauvaise chose. Je la regrette perso car je suis dans ce cas particulier mais si il le faut je comprends.

Le 18/07/2021 à 09h 14

Ca dépend du niveau de liberté laissé aux users. Si la charte permet l’utilisation de la machine à titre privé alors les problèmes venant de cette utilisation ne sont pas imputable au SI.

Le 17/07/2021 à 21h 01

Oui mais les personnes qui utilisent un pc pro comme pc perso c’est déjà beaucoup plus fréquent.

Le 12/07/2021 à 12h 36


(reply:58463:Ohmydog) Parce que le CPL c’est une vitesse réelle environ 5 à 10 fois inférieure au débit théorique des blocs CPL et dépend beaucoup de la qualité du circuit électrique. C’est très pratique effectivement quand on ne peut/veut pas percer partout (location notamment) mais si on veut vraiment de la performance y’a aucune comparaison possible.


J’ai des blocs 1200Mbps à la maison et j’ai une bande passante d’environ 10-11Mo/s sur mon pc en résultat.

Le 30/06/2021 à 09h 40


(quote:58246:Chocolat-du-mendiant)
Mais perso, je ne vois pas l’utilité de protéger contre moi, les secrets des appli qui tournent sur mon système. Elles y ont peut-être un intérêt, mais pas moi.


Parce que le seul fait de te permettre d’accéder au contenu de ton propre TPM implique de facto quelqu’un d’autre que toi y accéderas aussi, rendant caduque tout l’intérêt de la solution.



Et puis as-tu besoin de connaitre la clé de chiffrement du certificat de ta banque ? As-tu besoin de connaitre la clé de chiffrement de ton disque dur lié à ton ordinateur par sécurité ? Tout cela tu n’en as pas besoin, tu as juste besoin de savoir si ces clés sont fiables et protégées. Le TPM t’apportes l’assurance que tes clés seront inaltérables par un tiers ni extractibles. Si c’est le fait que ce soit Windows qui manipule ce mécanisme t’inquiètes il n’y a pas de souci à se faire car le fonctionnement est complètement autonome et non limité à ce dernier. Un secret utilisé/généré sous Windows sera utilisable sous un autre système sur le même ordinateur au besoin (par exemple encore un disque dur chiffré pourra être lu sous Win et Linux si le soft existe sur les deux systèmes).

Le 25/06/2021 à 14h 36


(reply:58055:David_L) Oui c’est bien ce que je me disais, on se fiche de l’espace disque normalement, ce qui compte c’est le débit. Par contre étonné que la techno fonctionne avec du SATA. A part gagner des pouillèmes en latence je voit pas l’intérêt de l’activer dessus. Tant mieux au final tant qu’on perd pas en perfs.


Le 25/06/2021 à 13h 01

c’est pourtant listé dans les exigences du système microsoft.com Microsoftdonc pour moi ça se comprend comme “c’est le minimum”.



Maintenant entre le service comm’ qui a pas bien saisi les directives du service technique et la trad qui rajoute une part de hasard (récemment appris que les gens préfèrent installer un DC AD en anglais car trop peur des messages d’erreur mal traduit).

Le 25/06/2021 à 09h 18

Il n’y a que moi qui tique sur les prérequis de DirectStorage, qui demande un SSD 1To minimum pour Win11 ? Rendre DX12 obligatoire à la limite c’est cohérent avec leurs autres prérequis mais là c’est quand même assez restrictif, les nVME 1To ne sont pas encore si accessibles et m’est avis que la grosse majorité des ventes doit se faire sur les 500Go.

Le 25/06/2021 à 09h 42

ça n’arrivera jamais, leur force vient de cette compatibilité qui leur offre une logithèque incommensurable. Et retirer le 32Bit c’est se flinguer auprès du monde de l’entreprise. Les softs d’entreprises sont les trucs qui évoluent le moins au monde. Pour te dire, ça a déjà été une mini catastrophe au taf quand on a découvert que les pc récents ne supportent plus le boot legacy et donc Win 32bit. Ce qui veut dire que nos softs 16bits ne fonctionnent plus. Ca fait 7 ans que je leur dit que ça va nous péter au nez et ça l’a fait. Oui on en est là.

Le 16/06/2021 à 09h 17

c’est mettre de côté toutes les contraintes qu’entraine un PC portable. A prix équivalent un pc portable n’a pas les performances d’un fixe (oui la crise des composants fout le boxon pour la partie GPU mais pour le reste la comparaison tient encore). Un pc portable ne se refroidit pas aussi efficacement qu’un fixe et vieillit en général plus vite qu’un fixe. Un pc portable branché sur écran/clavier/souris demande une organisation différente d’un fixe pas forcément possible pour tous (bureau assez large pour poser le pc ? De la place en dessous pour mettre un meuble pour poser le pc ailleurs que sur le plan du bureau ? Assez de connectiques sans passer par un dock/hub ? Idem si c’est pour un pc multimedia, compliqué à caser dans un meuble télé).



Je regarde de près pour changer ma config qui va sur ses 9 ans (la seule chose ayant évolué est la RAM et le stockage) et un pc portable ne m’apporte que des contraintes. Dépenser plus pour des performances globales peut-être plus faibles et me faire suer à revoir tout mon agencement ? Je préfère attendre, je suis pas à un an près.



Il suffit de voir la conclusion de JPR : même les chromebook se vendent par palettes. C’est bien le signe que ce que cherchent les gens en s’équipant c’est un ordinateur pour tout les jours avant tout, pas de la puissance pour compenser un manque de l’autre marché.

Le 15/06/2021 à 17h 35


(reply:57822:Estya) Je pense pas que le nombre gens qui aient prévu un achat de pc fixe qui change d’avis pour un portable soit conséquent. La pandémie a suffit largement à faire exploser la demande.


Le 15/06/2021 à 13h 30

Les composants sont certes très proches (mémoire et CPU issus du monde des portables, stockage nVME…) mais les ressemblances s’arrêtent ici. Une utilisation sédentaire implique beaucoup de contraintes que n’aura pas un NUC, bien qu’il repose sur le même matériel, comme par exemple le refroidissement (on voit bien par exemple les deux façades mesh sur le NUC, chose impossible sur un pc portable).



A mon sens, si l’on compare les deux, c’est que l’on ne se pose pas les bonnes questions sur l’utilisation que l’on veut en faire.

Le 15/06/2021 à 06h 43


(reply:57782:ForceRouge) Change de sites/yt favoris alors, tout ceux que j’ai vu ont commenté en prenant en compte la situation avec donc pour conclusion “c’est n’importe quoi, n’achetez pas sauf obligation”.


Le 08/06/2021 à 09h 23

C’est bien gratuit, il faut passer par le support de Noctua. Par contre je sais plus si il faut une preuve d’achat ou non.

Le 08/06/2021 à 08h 22

après la comparaison avec une salle serveur est pas super représentative. D’un côté on a des boitiers larges et aérés, de l’autre des lames fines où l’ont doit forcer l’air à circuler très vite. Et puis à moins d’avoir une workstation pour un taff hyper demandant style 3D (et donc pas une machine passive) le PC aura en général moins d’I/O et de composants poussés dans ses retranchements.

Le 04/06/2021 à 13h 04

Il ne faut pas donner plus de crédit que ça aux espoirs que les gens se font. Les informations techniques qui pourraient nous donner un début d’idée de ce que vaut ce produit sont tout simplement absentes. C’est un sacré chantier qu’ils ont attaqué en voulant faire une archi qui puisse scaler de l’IGP au méga processeur de calcul de datacenter et ce n’est pas étonnant que cela prenne tant de temps. D’autant plus que Intel n’a jamais fait de “vrai” GPU.



Lorsque Jim Keller est revenu chez AMD pour travailler sur Zen il a fallu 5 ans pour que Ryzen sorte et Koduri est entré chez Intel il n’y a que 34 ans. Je trouve qu’ils avancent bien, Xe est déjà dispo en IGP avec les performances à peu près attendu vs les Ryzen mobiles et le calendrier ne semblent pas déconnant pour un projet de cette envergure.



Et puis comme le dit David, ce qui compte avant tout pour Intel, c’est l’intégration à leur offre OneAPI. Pas grave si les performances brutes ne sont pas au niveau attendu si leur implémentation permet une synergie impossible avec les concurrents.



Wait & see, on pourra s’exciter quand ils commenceront à montrer des démo et autre com’ à base de gros chiffres.

Le 03/06/2021 à 12h 57


(reply:57603:GuiTheGuy) Du coup c’est quoi le problème, le manque d’IGP (et donc on parle pas de ceux là donc HS) ou le PCIe 3 ? De toute manière à mon avis si tu trouves un cas d’utilisation qui sature la bande passante de ton PCIe 3 tu satureras ton CPU aussi pour traiter toutes ces informations.


Le 01/06/2021 à 15h 33


(reply:57501:GuiTheGuy) mouais justement à mon goût pour du mini serveur ou homelab c’est le genre de détail assez inutile. On a pas forcément besoin de puissance/BP folle et si c’est le cas ça m’étonnerait qu’on se dirige vers un APU.


Le 02/06/2021 à 15h 17


(reply:57558:vince120) c’est le connecteur 12 pins avec un adaptateur fourni.



(reply:57559:dvr-x) C’est pour ça que le test met l’emphase sur le côté logiciel et efficacité énergétique et ne fait que gratter vite fait la partie JV :)


Le 01/06/2021 à 15h 11


(reply:57502:LostSoul) regardes twitter quotidiennement et tu pourras en acheter sans souci. La dispo est faible mais les réassorts très fréquents.