votre avatar

Soraphirot

est avec nous depuis le 29 mai 2018 ❤️

459 commentaires

Le 24/03/2021 à 08h 32


(reply:56156:fry) Et puis les technologies permettant la hausse de densité sur un disque peuvent potentiellement ralentir le traitement aussi. Si on stocke plus vite mais que la lecture/écriture est plus compliquée le gain final peut être fortement réduit. C’est une pure hypothèse mais je doute que le SMR par exemple se fasse sans overhead même dans le cas le plus facile par exemple.


Le 22/03/2021 à 08h 28

le mécanisme d’Apple utilisait une seule pièce en V et donc fragile, ici on a bien des pièces séparées. En plus si ils gardent le principe des switchs desktop en permettant de retirer/changer facilement les keycaps ça règle le plus gros inconvénient qu’avait Apple justement : le nettoyage.

Le 19/03/2021 à 13h 42


(reply:56062:Hiigara) Oui pour un particulier mais une entreprise veut avant tout un produit qui réponde à son besoin le plus vite, la garantie et si possible le support qui va avec.


Le 19/03/2021 à 08h 35

Je pense que tu devrais relire la question de Arka_Voltchek plus lentement avant de monter sur tes grands chevaux. Il parle pas du format mais du layout.

Le 17/03/2021 à 15h 55


(reply:55981:Arona) Et encore, maintenant les i9 sont la même chose qu’un i7 avec un nouveau système de boost de fréquence. Niveau mesquinerie c’est pas mal.


Le 02/03/2021 à 11h 39


(reply:55755:Br31zh) C’est de l’USB-C oui. L’intérêt de faire comme ça c’est surtout pour la solidité à mon avis, tu risques pas d’arracher/abîmer le module en bougeant alors qu’un adaptateur y’a un petit risque. C’est vrai qu’un port ou deux USB-C de base en plus des modules auraient été chouette à mon goût.


Le 28/02/2021 à 11h 31

Je dis juste qu’il y a bien des façons de faire reconnaitre une erreur à quelqu’un, dont pleins de manières cordiales pour chaque partie. Maintenant si ta vision des discussions se limite à “tu ne m’intéresses pas reste en bas de l’échelle” alors ce n’est pas la peine de venir poster quoi que ce soit. On peut ne pas être d’accord sans avoir à se battre, d’autant plus si l’on peut apprendre quelque chose au final.



Maintenant restons en là et tout le monde sera content.

Le 27/02/2021 à 16h 31

Je veux bien reconnaitre avoir balancé un chiffre au pif pour rester dans des époques que je connais à peu près, ça serait bien de pas insulter direct la prochaine fois.

Le 26/02/2021 à 14h 17

On pratique le commerce depuis quelques centaines d’années et ça nous a pas empêché d’aller taper l’autre de temps en temps hein.

Le 26/02/2021 à 13h 27


KP2 a dit:


J’ai du mal à comprendre qu’on se reproche ce qui nous a amené justement à la plus longue période de paix (relative) et de prospérité de toute l’histoire de l’humanité.


Il va falloir m’expliquer par quelle pirouette on peut dire que c’est grâce au marketing que la paix règne au 21eme siècle (et puis il faut le dire vite en plus hein).

Le 25/02/2021 à 10h 17


(reply:55610:Mihashi) Je comprends pas. Quand tu NAT un port sur ton routeur, tu définis qu’un port en écoute côté WAN doit rediriger vers un port d’un autre appareil côté LAN. Côté WAN tu n’as donc que 65k ports, avoir 1 ou 10 appareils derrière ne change pas ça. Tu ne peux pas rediriger un seul port vers plusieurs appareils différents (pour le même protocole).


Le 25/02/2021 à 09h 58

je vois pas comment le double NAT va épuiser la quantité de port plus vite qu’un NAT classique. Ça change pas le nombre de ports à NATer et le rapport entre le 1er et deuxième appareil à NATer est 11. Et puis bon arriver à bout de 65k ports dans un contexte perso faut y aller, même avec un serveur perso.

Le 13/02/2021 à 22h 14

L’intérêt de Thunderbolt est uniquement dans le fait qu’avoir un connecteur TB te garantit le support de toutes (ou presques) les fonctionnalités de l’USB 3.1et ses alt-mode & cie. Ce n’est pas le TB qui fait que ton écran fonctionne en 4K UHD avec de l’USB 3, c’est officiellement supporté par le Displayport Alt Mode




fofo9012 a dit:




Après libre à toi de dire que l’USB-C a toutes les vertus et que ce sont les méchants fabricants qui ne jouent pas le jeu.


C’est littéralement le cas et tu le dis à la phrase suivante. Oui c’est une plaie de savoir exactement les fonctionnalités supportées par un port USB-C non TB mais quand une fonction est annoncée, elle fonctionne. J’ai le même dock que toi en version non TB et il gère très bien deux écrans, le réseau, les USB etc…

Le 10/02/2021 à 08h 37


(reply:55282:fofo9012) à 5W ton écran n’est pas Power delivery, c’est au minimum 10W le profil PD le plus bas. Et à 5W ton pc ne charge pas, éteint non plus. Mon PC me dit zut si le PD ne fournit pas minimum 27W (pour une charge normale à 65W).


Le 09/02/2021 à 17h 13


(reply:55230:David_L) ah mais je n’ai pas dit que c’était pas une bonne chose, je dis juste que architecturalement parlant les mini machines de ce genre sont plus à rapprocher des pc portables. Du coup oui c’est pas tant en tant que source d’énergie pour les périph que c’est intéressant mais plutôt effectivement en bout de chaine comme peut l’être un Mac avec un M1.


Le 09/02/2021 à 15h 52

oui mais les mini pc c’est aussi un peu le cas hybride qui se rapproche plus de l’archi PC portable que fixe :D Et puis centraliser la connectique c’est intéressant quand tu dois manipuler souvent, cf un laptop que tu trimballes, moins quand ça bouge pas.

Le 09/02/2021 à 15h 08


Inodemus a dit:

C’est aussi pouvoir alimenter des périphériques consommant plus de 15W sans alimentation externe.


Dans le cadre d’un pc fixe rien ne justifie de tout centraliser. On alimente très bien un DD externe sans PD et pour stocker plus le marché se dirige tranquillement vers les NAS plutôt. Des enceintes entrée de gamme s’alimentent là aussi déjà en USB et en général si tu vises plus haut tu auras plus de chance d’avoir un caisson, qui sera donc éloigné de la tour (rappel que selon la puissance le PD peut se trouver limité en longueur). L’écran sera plus souvent designé pour être source d’énergie que l’inverse. Le casque VR enfin s’utilise avec une CG digne de ce nom et c’est donc plutôt cette dernière qui s’occupera de fournir le signal et l’énergie.



D’autant plus qu’alimenter autant d’appareils consommateurs nécessitent d’avoir pensé à prendre une alim’ 100~200W plus puissante que pour le PC seul du coup et que les fabricants s’assurent de renforcer l’intégralité des circuits d’alimentations de l’USB dans les machines, que ce soit la mobo, une carte fille, les I/O de façades… Certes le câblage sera bien plus propre avec des câbles unique mais je ne suis pas sûr que tout centraliser sur l’alim du pc fixe soit une bonne idée sur le long terme.



Par contre prendre le cas à l’envers est beaucoup plus intéressant : un dock USB3/Thunderbolt avec une grosse alim qui du coup alimentent tes périphériques divers et variés. le dock TB3 de mon portable Dell a une alim 180W alors que celle du PC n’est que de 65W par exemple (et encore faut que je regarde si l’USB-C dessus gère le PD pour autre chose que le PC lui même).

Le 09/02/2021 à 11h 43


(reply:55190:Inodemus) début de réponse : https://www.reddit.com/r/buildapc/comments/3q73wu/motherboards_with_usb_power_delivery/


Ça a pas l’air si rare mais juste pas vraiment mis en avant. Après les cas pratiques d’utilisations restent rare dans le cadre d’un pc fixe, c’est sans doute pour ça.

Le 08/02/2021 à 14h 30

ça m’a l’air vachement honnête comme prix, qu’est-ce qui permet ce rabais ? Ou bien j’ai rien suivi (j’avoue regarder plus du côté 10G).

Le 01/02/2021 à 11h 02


(reply:55056:patos) bah c’est comme tout, faut peser le pour et le contre. Est-ce que la chauffe du SSD dégrade suffisamment ses performances pour le déporter ? Est-ce que mettre une carte PCIe devant la CG ne va pas casser son flux d’air ? Est-ce qu’un dissipateur ne suffit pas ?


Le 01/02/2021 à 08h 12

Si t’as un PCIe x4 de libre. Et puis c’est un peu con de dépenser pour quelque chose déjà présent sur la CM.

Le 29/01/2021 à 11h 27

Mais quel est le rapport avec une boutique applicative ? C’était justement la vision d’Apple pour les applications avant de tout miser plutôt sur l’App Store (avec la suite que l’on connait). On peut effectivement préférer ce modèle, ou le besoin de développer pour autant de plateformes qu’il en existe (et donc écarter pas mal de petites boites de pas mal de marchés).



Pour le reste, que ce soit un mode hors-ligne ou autre, ce sont des fonctionnalités possibles, pas une obligation. La stratégie de cache est assez souple dans les PWA justement.

Le rapport est que malgré les atouts des PWA il reste un composant important qui ne peut pas être obtenu en dehors des stores : le navigateur.

Le 29/01/2021 à 11h 23


(quote:1851443:Mr Patator)
le problème c’est que Firefox Android est mal intégré au système: il est par exemple incapable d’ouvrir une app Twitter avec des liens Twitter [etc…]


menu Firefox (les 3 petits points) > ouvrir dans une application. Il ouvre directement la bonne app sur le bon lien. Et tu peux l’activer dans les options pour le faire automatiquement.



Le problème que j’ai avec FF android c’est plutôt l’intégration avec les gestionnaires de mdp mais je ne sais pas si ça vient du gestionnaire, du navigateur ou du téléphone (la gestion de la mémoire chez Sony est très agressive, ça coupe dans le tas).

Le 29/01/2021 à 09h 51

En vrai je cherche encore l’intérêt du PWA. à part un navigateur déguisé je vois pas. On revient au principe de Java avec une app “universelle” lancée dans un environnement qui lui nécessite donc de toute façon une installation via app-store & cie, du poids, des maj etc…



En plus plusieurs avantages listés des PWA me semblent complètement contradictoires. Genre “pas de téléchargement” et “fonctionne hors ligne”.
J’ai sans doute une vision old school du web.

Le 23/01/2021 à 09h 07

Ce n’est pas le Quake 2 d’époque mais une réécriture pour mettre en avant la techno du ray-tracing. Quake 2 était à l’époque déjà une sorte de mètre étalon de la technologie 3D, c’est un clin d’oeil à ça que d’avoir choisi à nouveau ce jeu.



Bref c’est juste une “démo” pour le RT.

Le 19/01/2021 à 08h 25


thecis a dit:


Puis bon la Shield tv et cie, c’est relou car on multiplie les télécommandes


Y’a le HDMI CEC pour éviter ça. Je contrôle ma PS4 depuis la télécommande de la télé sans me poser de question (juste besoin de la manette pour l’allumer et rien d’autre).



Sinon je confirme, la version Samsung de Plex est aux fraises (en plus d’être moche).



Plex gère l’accélération matérielle sur du matos Intel et nVidia (AMD seulement sur un serveur Windows, Linux c’est flou encore). Normalement avec un Kabylake minimum (donc 7xxx) l’IGP gère l’HEVC 10bit en décodage et encodage donc il n’y a pas de problème de puissance CPU. Pour l’HDR par contre je sais pas, ça ne semble pas lié à Quicksync.

Le 11/01/2021 à 13h 26

C’est juste une version Mini ITX d’un boitier qu’ils font depuis au moins 2019 (Tower 900).

Le 30/12/2020 à 08h 36


(reply:54086:Fab’z)


Parce que les gens qui prenaient pour ~300$ de CG hier vont se tourner vers l’équivalent tarifaire aujourd’hui (modulo inflation) et ceux qui prenaient 4 cartes pour avoir la plus grosse prendront maintenant l’équivalent tarifaire mais en mono GPU. Je vois pas ce qui pose problème.



Je rappelle aussi que le mdg de l’époque obligeait à faire quelques sacrifices visuels et personne ne se plaignait. Une GTX x60 n’offrait pas le meilleur en FHD alors qu’aujourd’hui une 3060 Ti fait pratiquement tout tourner à 60fps mini à fond en QHD. Ce qui est largement suffisant pour beaucoup quand on voit que le sondage Steam annuel montre que le FHD représente encore 66% des joueurs (7% le QHD).

Le 29/12/2020 à 13h 00


(reply:54077:Fab’z)


Et il y a 12 ans les configs HDG c’était 2/3/4 cartes. Ceux qui pouvaient/voulaient mettre +1000€ dans une config le faisaient déjà.

Le 18/12/2020 à 15h 11

une alim externe de moins de 100w sera bien plus petite qu’une alimentation SFX et surtout complètement passive (donc inaudible vs un ventilo peut-être très silencieux mais existant). Et puis selon les cas il peut être pertinent d’avoir l’alim en dehors du système (moins de chauffe, boitier encore plus petit, plus facile à changer…)

Le 16/12/2020 à 10h 23

C’est pour ça qu’ils ont aussi des références moins chères, pour que tout le monde y trouve son budget. Et accessoirement suffit de regarder les vendeurs en lignes galérer à stocker les produits pour voir que le marché se porte relativement bien, crise ou non.

Le 16/12/2020 à 08h 44


(reply:53943:Fab’z)
C’est compliqué à dire à moins de connaitre le process du fabricant. C’est pour ça qu’en général on conseille de prendre carrément des marques différentes.
Après j’ai bien conscience que ça peut être compliqué à justifier niveau budget. Ca dépend de ce que tu stockes dessus après. Perso je prendrais pas le risque pour des photos/paperasses mais pour des fichiers media je m’embêterais moins.


Le 15/12/2020 à 22h 01


(reply:53939:Fab’z)


Rappel que l’une des règles basiques avec un RAID est d’éviter d’avoir plusieurs DD d’une même série. Si un défaut existe sur toute la série le risque que les disques claquent tous en même temps est très élevé, réduisant à néant l’intérêt du RAID.

Le 13/12/2020 à 10h 09

Ca vire un poil à la mauvaise foi là, relis le tout premier paragraphe de la news :
“Nous l’avons déjà évoqué, dans de précédents articles, les processeurs Ryzen d’AMD, comme certains modèles haut de gamme de chez Intel, posent parfois problème pour une utilisation dans une machine utilisée à distance, comme un serveur. En effet, ils sont dépourvus de partie graphique intégrée (IGP).”



Une config récente sans IGP, un PCIe et du M.2 est tout à fait possible sans chercher des composants exotiques.



j’explique mon cas pour te prouver l’intérêt d’une sortie VGA et en même temps t’expliques que ce composant est destiné aux configurations montés de toutes pièces, pas aux machines toutes faites. Tu me dis “dans ton cas t’as déjà une sortie vidéo”. Oui et ? Si je le voulais je me ferais totalement un serveur sur base de Ryzen avec cette petite carte vidéo car ça me permettrait de ne pas être limité aux modèles avec IGP qui ne sont “que” des 4 coeurs. C’est un exemple de cas où ce produit est pertinent.



Et pour les “défauts” de la carte :




  • ce n’est pas pensé pour de la bureautique, pour la Xeme fois

  • le VGA est encore et toujours la seule option dans le monde des serveurs. Pourquoi intégrer de l’HDMI qui nécessite de payer une licence pour quelque chose qui n’en utilisera jamais les avantages ? Pourquoi intégrer du DP qui nécessite peut-être un convertisseur si la puce graphique ne le gère pas ? De plus une prise VGA est un composant facile à souder à côté du DP/HDMI et donc moins couteux. C’est un produit fabriqué par Asrock RACK, la branche serveur de Asrock, on peut difficilement faire plus clair concernant le public visé.

  • les micro-PC ne sont pas fait pour rajouter des composants (hormis stockage) classiques. Quand on part aussi loin dans la miniaturisation c’est pas pour coller une fonctionnalité supplémentaire qui pourrait effectivement être intégrée de base. Tu remarqueras d’ailleurs qu’à part de très rares cas, toutes ces mini machines intègrent une sortie vidéo parce que les SoC utilisés intègrent toujours une partie vidéo exploitable. D’ailleurs la seule mini machine que je connais qui est vraiment headless l’est pour être encore plus petite qu’une Raspberry-like.



C’est un composant pertinent pour un cas d’utilisation assez précis je le concède. Mais un cas pas si rare aujourd’hui avec l’engouement grandissant pour les NAS/serveurs maisons.

Le 12/12/2020 à 19h 16


fofo9012 a dit:


J’ai toujours du mal à voir ce qui pourrait justifier de payer une carte graphique neuve quasi inutile, et l’alimenter en permanence uniquement pour gérer le rare cas ou tu perds le réseau en bidouillant. Sachant qu’il faudra quand même te déplacer pour y brancher un écran, c’est pas beaucoup plus long d’y enficher une CG.


Mon serveur perso me sert à bidouiller et apprendre donc les pannes ne sont pas rares (ou quand je fais une réinstall du système). Ma “baie serveur” (aka l’étagère du placard de l’entrée) n’est pas le lieu optimal pour bricoler et de plus un Proliant microserver Gen 8 avec 4 disques à 2m de haut, c’est lourd et pas pratique à débrancher. J’ai donc un écran branché en permanence sur le serveur que j’allume au besoin.
Sans compter que j’ai fait un cable management assez serré, ce qui rend le débranchement encore plus compliqué.




fofo9012 a dit:


Après j’ai peut-être raté un cas d’usage ou une machine aurait un m2 mais pas de PCI-E ?


Une mini config tout simplement. Les cartes mini ITX n’ont qu’un seul port PCIe plein mais aussi généralement 2 M.2. Pour se faire une petite machine c’est idéal, ça laisse le port PCIe pour une carte réseau 10G ou une carte contrôleur ou quoi que ce soit d’autre qui colle à ton utilisation.



Vraiment un produit de ce genre pour moi est destiné aux amateurs qui veulent se monter une machine pour chez eux ou les toutes petites boites qui veulent un serveur dans leurs moyens/contraintes. Effectivement un serveur classique sera sans doute déjà équipé avec tout ce qu’il faut pour dépanner à distance et sur site et sans doute dans un environnement plus accessible mais cette CG n’est pas fait pour.

Le 11/12/2020 à 08h 57

un affichage ça peut toujours dépanner au cas où. Ca m’arrive régulièrement par exemple de devoir mettre mon nez directement devant mon serveur perso car je fait des bêtises dessus et je suis bien content d’avoir un affichage à ce moment. C’est clairement une solution pensée pour des configurations DIY et donc des personnes qui n’ont pas d’autre méthodes d’accès à disposition.



Et sinon sur le site de Silicon Motion je ne vois aucune référence concernant la moindre accélération (et franchement ça m’étonnerait).

Le 08/12/2020 à 12h 44

Dans le cas des machines de grandes marques oui mais dans celui des machines montées à la main c’est la plupart du temps une interface partagée pour les deux réseaux. Et c’est cette frange d’utilisateur qui est visée.



Après ça sert à rien de tergiverser des heures sur le fonctionnement des KVM IP/iDrac & consorts, si ça sort c’est bien qu’il y a un besoin.

Le 08/12/2020 à 11h 07

Et quand le réseau de la machine tombe t’es bien content d’avoir une sortie vidéo :D

Le 08/12/2020 à 10h 15

Après l’intérêt de la solution de Sonnet c’est de permettre autre chose que du GPU uniquement. Perso j’imagine bien une carte d’acquisition sérieuse (et pourquoi pas un GPU dédié au montage) dans ce boitier. Ca te permettrais de faire ta capture à ton bureau et pouvoir l’éditer ailleurs sans soucis.

Le 08/12/2020 à 09h 44

C’est du Noctua sensé fonctionné à 18dB d’après leur site.

Le 07/12/2020 à 18h 20

J’ai dit que j’avais choppé un bench au pif sur Anandtech, tu viens juste de le linker :)



Donc si on regarde bien les benchmarks d’Anandtech (un peu en diagonale quand même on a pas le temps) on remarque que :
*les plus gros JV du moment n’atteignent pas le 60fps en FHD (“ça galérait à faire tourner les gros jeux en ultra à 60fps en FHD encore.”)
*les config en SLI sont communes dans le HDG (“En 2010 tu prenais mini 2 GTX580 pour jouer en FHD presque à fond”)



Je ne vois pas en quoi cela infirme mon propos et pas le tien.

Le 06/12/2020 à 20h 37


regis1 a dit:


Donc j’atterris et je prends vos chiffres, 500€ pour une CG haut de gamme de l’époque, la RX 6900 est annoncée a 1000$, les 6800Xt sont presque à 1000€ actuellement mais ok ça n’a pas doublé.


Pour la deuxième fois : les configs HDG de l’époque, c’était 2/3/4 GPU, contre 1 seul aujourd’hui (le multiGPU ne sert plus qu’au calcul, nVidia a officiellement annoncé la fin des profils SLI).
A “perf équivalente” tu payes la même chose qu’à l’époque. En 2010 tu prenais mini 2 GTX580 pour jouer en FHD presque à fond pour un total de $1000 minimum. Soit le prix d’un GPU d’aujourd’hui pour jouer à de la 4K presque à fond. On s’y retrouve. Et si tu veux comparer au prix d’une GTX580 seule bah tu as la RTX3070 pour jouer en réglage moyen+, comme la GTX580 à l’époque.



Si on veut comparer le marché à deux époques différentes, il faut le faire correctement.

Le 05/12/2020 à 17h 58


Sylvounet a dit:


si on reste du Intel i9 980X 2020 vs Intel i7 980X en 2010, on est sur du 1000 vs 1200€, soit une légère augmentation.


Encore une fois tu ne compares pas les bons indicateurs. Le i9 9980XE c’est \(2000 au lancement, pas 1200. Et si le 10980XE n'est qu'à \)1000 c’est uniquement à cause du sur place technologique d’Intel et de le pression d’AMD. C’est d’ailleurs chez AMD qu’il faut regarder pour voir la vraie grille tarifaire de l’ultra haut de gamme “grand public”, avec le Threadripper 3990X à $4000 (car oui la gamme Threadripper est axée grand public. C’est Epyc les processeurs serveurs).

Le 02/12/2020 à 16h 43

l’affichage des PC sur TV, grand mal du siècle dernier. Jamais vu une télé d’environ 2000-2010 gérer l’affichage d’un PC correctement.

Le 02/12/2020 à 13h 58

Le prix de ton abonnement dépend de ce que ton opérateur peut te fournir comme service. Ca ne se compare pas à un objet que tu utilises sans service de la part du fabricant (on parle pas de SAV).



Et comme le fait remarquer Anachron les prix des appareils du quotidien aussi ont glissé vers le haut ET vers le bas.

Le 02/12/2020 à 10h 32

Faut atterrir 5 min et arrêter de dire des chiffres au hasard. Il y a 10 ans c’était la sortie de la GTX 580 pour 500€ minimum (donc pas deux fois moins) et ça galérait à faire tourner les gros jeux en ultra à 60fps en FHD encore. Et à l’époque on était en plein boom du SLI/Crossfire donc les grosses configs multipliaient le prix de la partie GPU par deux/trois. Retournez voir les benchs d’époque vous verrez (j’en ai choppé un au pif sur anandtech).



Et la 4K n’est pas si abordable que ça aujourd’hui, les écrans entrée de gamme OK mais le milieu de gamme reste un peu couteux comparé aux autres résolutions. Le vrai bon rapport qualité/prix en ce moment à mon goût c’est le 1440p



Aujourd’hui on utilise les CG pour du calcul, du réseau neuronal et de la compression/décompression vidéo, pas en 2010 (NVenc/dec est apparu deux ans plus tard seulement avec Kepler).

Le 04/12/2020 à 09h 49

Le Macbook Air c’est un portable à grosse batterie ?

Le 04/12/2020 à 09h 20

parce que les dev ont nommé les commandes comme ça : https://www.home-assistant.io/docs/tools/hass/

Le 04/12/2020 à 08h 51

https://www.home-assistant.io/

Le 02/12/2020 à 09h 33

En même temps le principe d’AWS c’est de fournir de la puissance pour un besoin ponctuel, pas un hébergement complet sur le long terme.