Tu prends les clients pour des cons avec ce genre d’argument. Et je suis désolé mais je ne suis pas d’accord. Ce genre d’argument, c’est la facilité pour dire n’importe quoi et évacuer toute la complexité d’un marché… Ben ouais, il suffit de dire que les clients sont tous, au choix, soit cons, soit hypnotisés, soit incompétents pour en faire de pauvres gentils benêts qui se font escroquer par les maychants industriels qui profitent de leur naïveté. Les contes de fées, très peu pour moi. Par contre, si tu considères que les clients sont pas si cons (et ils ne le sont pas du tout) alors ça oblige à voir les choses assez différemment… Mais bon, faudrait pas risquer de changer d’avis, ça fait mal à l’égo.
Si tu connaissais un tant soit peu le monde de la publicité et de la mercatique tu comprendrais qu’il a parfaitement raison…
En fait Synology ne se lance pas vraiment dans le marché des disques dur puisqu’il s’agit vraisemblablement de modèles Toshiba sur lesquelles une étiquette de la marque a été collé (pratique courante dans le domaine des composants informatiques). Le jour où le marché est mort, il suffira à Synology d’arrêter la vente sans avoir à fermer aucune usine puisque ce ne sont pas eux qui fabriquent. Carrefours pourrai s’y mettre aussi en soit… Ce n’est pas bien compliqué.
Pour ce genre de besoins, les équipements pro d’occasions sont clairement plus adaptés et moins chers. Regardez régulièrement les annonces et vous finirez par trouver votre bonheur (surtout avec le nombre de faillites qu’il va y avoir en 2021…).
(quote:54177:skankhunt42 ) C’est vraiment le problème des français, tu leur parle de DIY et ils te parlent de la nasa. ridicule !
C’est clair !
Je suis d’accord avec eux pour ce qui est des projets professionnels mais pour ce qui est de construire quelque chose pour et par soit même la méthode diffère totalement.
On a jamais eu besoin d’être charpentier ou maçon pour construire des clapiers à lapin depuis 1000 ans et c’est pareil pour l’informatique domestique. Si plus de monde faisaient de l’autodidacte et de la production personnelle à la maison, on aurai très probablement plus de gens intéressés et compétents dans la société au lieu d’avoir des con-sommateurs asservis aux GAFAM et ne bittant rien aux technologies qui les exploitent (ce sont les technologies qui exploitent ces gens là et non l’inverse).
Et ça, ça se répercuterai irrémédiablement dans le monde professionnel à terme avec des ingénieurs compétents et intégrant pleinement cette partie théorique. Et pourquoi pas (et là on peut rêver) dans la politique elle même…
Ne vous inquiétez pas ce sera 176 couches de PLC donc avec des perfs de clé USB… Le tout en PCIe 5.0 bien évidement histoire de mettre quelque chose qui claque sur l’étiquette !
Bah le courage j’imagine qu’il l’a sans trop d’efforts car malgré leur désaccord, ce que dit @lololasticot n’est pas dénué de sens (et il y a matière à argumenter dans un sens comme dans l’autre).
Il est indéniable que le marcher des cartes graphiques a vu ses prix exploser en 10 ans. Les nomenclatures des gammes n’ont pas changés avec des X60, x70, x80… mais les prix ont doublés c’est un fait. Je ne connais pas l’ensemble de la gamme de Nvidia mais si aucune carte (avec une nouvelle nomenclature) n’est venue s’aligner sur les anciens prix, il y a augmentation (puisque on est obliger d’acheter ce qui existe et qu’au final ça nous coûtes 2 fois plus cher).
Après ce qu’il faudrait savoir c’est si avec une carte graphique 2 fois plus cher que la décennie passé on en fait 2 fois plus sur les applications concrètes de NOTRE ÉPOQUE. Dans ce cas là ce n’est pas plus cher au ratio mais ça reste quand même 2 fois le prix. (je paris que votre paie, elle, n’a pas eu cette augmentation) La gamme aurait alors juste été élargie à “haut de gamme ++ [HD max pro 2 super trop mieux de la mort qui tue]” en intercalant de nouveaux produits afin de créer de nouveaux paliers tarifaires et de performances. Si le constructeur permet d’acheter un produit au même prix qu’il y a 10 ans pour correspondre à un usage similaire d’aujourd’hui, alors les prix n’ont pas augmentés.
Tant que des produits à prix équivalent existent toujours et permettent de faire un travail équivalent ce n’est alors pas les prix qui ont augmentés mais bien la gamme qui s’est agrandie. Si ce n’est pas le cas alors effectivement les constructeurs ont augmentés les prix (après c’est peut-être la faute des développeurs qui “créés” des besoins de puissance là où il n’y en a pas en codant n’importe comment).
Le fait que les cartes soient plus puissantes ne changent pas grands choses car toute choses étant égales par ailleurs, les besoins ont évolués à la hausse et les prix de fabrications (coût de revient, amortissement, économie d’échelle, maîtrise des procédés de fabrication…) ont mécaniquement baissés (d’autant plus que le marcher ne comporte plus de concurrence aussi présente que par le passé) pour le fabricant donc si c’est plus cher, bah, c’est que c’est plus cher…
@patos “Chaque milliseconde compte, même si tu ne les vois pas.”
C’est typiquement l’argument de quelqu’un qui passe son temps à regarder les bancs de tests et se dit: “Ah si j’avais le dernier CPU max power plus pro premium HD 2 max” j’aurai ce petit % en plus qui me manque tant et qui changerai ma vie pour de bon !” sans jamais préciser clairement ce que ça change.
La vérité c’est surtout que les commerciaux sont de mieux en mieux formés et qu’ils ont complètement réussis à retourner le cerveau d’une bonne partie des usagers de PC (qui ne les utilisent principalement plus que comme consoles de jeux au passage…). Je me demande bien ce que vous faites avec un PC toujours plus performant sérieux.
J’ai fait de l’informatique mon métier et je ne tape principalement que dans l’occasion car c’est clairement le plus rentable (les mecs qui achètent du très haut de gamme tout les 6 mois revendent pour une clopinettes leur matos “dépassé” qui ne “vaut plus rien”). C’est pas aux PC d’être être plus performant mais aux logiciels d’être plus optimisés mais voilà, avec du logiciel propriétaire on a tendance à pas trop saisir le concept vu que ça ne va pas dans le sens du sacro-saint marcher de la consommation et du progrès sans fin…
S’il est possible d’y ajouter une adresse IPv4 supplémentaires, sachez que ça peut être un bon moyens pour outrepasser les bridages des pseudos opérateurs Internet type Orange à moindre coût afin de vous auto-héberger avec du vrai niveau 3 OSI (en plus de permettre l’utilisation d’un DNS inverse). L’usage de VXLAN au travers d’IPSec fonctionne bien pour l’avoir déjà utilisé.
Ça implique une configuration pas forcement simple au premier abord mais permet de grandes choses par la suite si vous n’êtes éligible à aucun opérateur Internet (avec un grand I. Pas minitel 2.0).
Ok les couleurs de Noctua sont spéciales mais personnellement je trouve qu‘elles claques dans un serveur maison. Ça fait un contraste fort sympathique derrière des grilles en façade ou une vitre fumée.
Ça c’est facile à dire. Pour beaucoup 600€ c’est un loyer.
Et bin ils partiront pas en vacances voilà tout !
Le
19/05/2020 à
18h
53
David_L a dit:
Si on veut du débit en écriture sur de gros fichiers il faudra aller voir ailleurs.
Le problème c’est qu’à terme, aller voir ailleurs sera impossible. Essayez d’acheter des SSD MLC aujourd’hui, c’est la croix et la bannière (et comme il n’y a plus de nouvelles références, les prix sont figés voir augmentent). En fait, le particulier qui fait autre chose que du GAFAM va devoir se tourner vers des produits professionnels (10x plus chers) pour avoir quelque chose qui correspond à ses besoins, ce qui est ridicule.
Surtout que je constate que la QLC n’a pas tant fait baissé les prix que ça (chez Samsung je crois qu’il y a 20€ de différences sur les grosses capacités…) donc on va encore se retrouver avec des technos encore moins qualitatives pour un prix qui de toute façon aurai baissé de la même manière avec la techno précédente (offre et demande/temps de commercialisation tout ça…).
À l’heure où les capacités du réseau local bougeottes enfin (le 10gbe sur eBay est cadeau, reste plus que les commutateurs), on régresse côté support de stockage. On pourrai espéré que la 3DX point se décline en version grand publique mais je doute que ce soit pour si tôt. Y’avait bien la ZNAND de Samsung mais c’est silence radio depuis un moment.
Bref, la NAND ça donne plutôt envie de quitter le navire à la nage avant de couler avec. Aucune chance que mon serveur perso soit équiper de ces bouses un jour…
Je ne l’ai jamais fait avec Proxmox mais déjà avec une Debian + Qemu (donc les même technologies que Proxmox). Ça fonctionne bien mais attention à la carte graphique utilisée. Typiquement oubliez la Nvidia GTX 970, ça ne fonctionne juste pas (le mieux que j’ai réussi à avoir est une image sans son et ça cesse de fonctionner si vous redémarrez la machine virtuelle). C’était pas top non plus avec une GTX 560 (mais j’avais du son de souvenir) donc je vous recommande plutôt de l’AMD (même ancienne) avec cette configuration car je n’ai rencontré aucun problèmes (pas de différences de perfs avec du non virtualisé).
Peut-être qu’avec Qemu 5.x il y a du mieux de ce côté là. Je n’ai pas essayé avec cette version.
C’est la solution que j’utilise actuellement, mais c’est la foire dans la filasse (et un nid à poussière) : 4 Alim. (convertisseur fibre/Ethernet, la box, le routeur WiFi (signal plus sérieux que celui de la box) et le Switch et aussi adaptateur CPL vers la boxTV….
Vous pouvez peut-être envisager d’acheter une petite baie (genre 6U) d’occasion (y’en a régulièrement sur leboncoin) ainsi qu’un commutateur POE pour alimenter une borne Wifi et avec une cage SFP pour votre fibre (genre Cisco sur eBay on tombe souvent sur des offres incroyables).
À titre personnel je ne passe plus que par du matos pro pour mes besoins particuliers. C’est clairement plus adapté à un VRAI usage de l’informatique et très souvent (pour ne pas dire tout le temps) moins cher…
Le
12/05/2020 à
13h
39
Trop fort la photo ! L’accomplissement de soi par la technologie, le tout offert par Nvidia. C’est beau. J’en ai versé une larme .
Je n’arrive pas à savoir s’il s’agit uniquement d’un moteur de base de données, tels que ceux que l’on intègre dans PostgreSQL ou MySQL/MariaDB ; Ou est-ce une base de données à part entière…
De ce que je comprends, il s’agit bel et bien d’un moteur de base de données puisqu’il est précisé qu’il est “intégrable avec des bases de données comme MongoDB et NoSQL”. On peut donc imaginer le voir arriver sur MariaDB par exemple (au même titre que InnoDB).
Je ne comprends pas bien qu’es qui est vulnérable. D’un côté il est dit que la faille est corrigé côté noyau (Linux 5.x) et de l’autre, il est écrit “aucune machine Dell dotée de la protection noyau DMA, y compris celles de 2019 et plus récentes”. Ce qui sous entends que la correction est matériel. Ou alors il s’agit d’une combinaison d’un matériel (puce dédiée) couplé à un logiciel l’exploitant ?
Donc du coup, pour ce prémunir, matériel ou logiciel ?
J’ai un Dell XPS 15 9550 de 2016 (matériel pré 2019 donc vulnérable) avec une Debian Sid (Linux 5.6, logiciel censé être hors de cause). Suis-je concerné ou pas ?
Dommage, ça aurai été l’occasion de changer réellement le connecteur qui est quand même une sacrée plaie à manipuler et surtout à débrancher. Il faut généralement tirer tellement fort qu’il n’est pas rare de se blesser la main sur un coin du boîtier. Bref, avancée plutôt anecdotique en somme…
C’est quand même dingue cette histoire. Ils se prennent pas pour de la merdes ces constructeurs. La notion de transparence les déranges, c’est drôle ça. Ils oublient un moment que le client est roi ou quoi ? Je pense que je vais m’abstenir de leur donner de l’argent à l’avenir comme ça on est quitte.
Ils devaient être jaloux que les fabricants de SSD aient leurs technologies moisies (TLS, QLC) alors ils se sont dit on va faire pareil sur nos DD mais pour rattraper le retard, on va pas leur dire…
Comment vous faites pour savoir que votre disque a tel ou tel technologie ? Y’a des commandes Linux pour ça ?
Savez-vous pour qu’elles raisons la Chine (ou autre pays) a son mot à dire au sujet du rachat d’une entreprise Israélienne par une boite Étasunienne ? Qu’elles sont les conséquences d’un éventuel refus ?
(quote:46263:N.Master) Par contre dans Crysis 1er du nom, il ne me semble pas que le joueur avait cette espèce d’armure qui le rend sur-humain ?
Si si il l’avait (ça s’appel la nano combinaison). Cependant le jeu était tellement dur qu’on était loin d’être sûr humain et c’est probablement pour ça que tu ne t’en souviens pas.
Le
17/04/2020 à
12h
19
seboss666 a dit:
Allez, on parie qu’EA va le limiter à Origin et que ça fera comme pour le 3, on pourra jamais y jouer quand on veut pas accepter les conditions d’utilisation ?
Je parie aussi là dessus. Le monde vidéo ludique est maintenant tellement bourré de DRM que ça en est devenu inutilisable. Déjà qu’il faut se farcir Windob pour cet usage (même quand on accepte pas les CGU de ce malware…), il faut en plus supporter les nombreuses plateformes exclusives de m£rd€ qui ont toutes des clauses anti-libertés et qui changes au moins une fois par an (et qui obligent “Internet™”). Sans compter qu’acheter un jeu sur Steam oblige parfois (bonjour Far cry 3) de télécharger/installer/accepter une deuxième plateformes tierce (Uplay) pour pouvoir y jouer (indécent et non précisé à l’achat bien évidemment - genre on est censé être d’accord de toute façon vu que y’a pas de problèmes…).
Un problème qui n’est que très rarement soulevé c’est l’après. Que se passera t-il dans 50 ans ? Le rétro jeux existera t-il encore ? Quand Origin, Steam, Epic ou autre auront disparus (remplacés par d’autres hein, pas si vite), que leurs serveurs auront étés recyclés (ou jetés à la mer) et qu’il ne sera plus possible de restaurer sa ludothèque, es tout une époque de divertissement qui disparaîtra (car sera considéré comme une composante d’un bilan comptable dépassé) ou ces financiers (on ne peut plus parler de créateur de jeux à ce stade) ont-ils prévus quelque chose de plus vertueux (monnayant finance bien évidemment - elles ne vont pas se payer toute seules les villas à L.A) ?
Heureusement que tout ça est pour notre bien sinon qu’es que ce serai…
Tu veux pas comparer non plus deux SSD qui n’ont rien à voir ? Le BX500 c’est un peu le bas de l’échelle des SSD TLC.Je n’ai aucune idée de ce qu’on vont donner ces SSD spécifiquement, mais tous les TLC haut de gamme donnent de très bons résultats. Rien qu’un MX500 te contredit. Mais un 970 EVO (pour prendre un des TLC haut de gamme) ne “plafonne pas à 170Mo/s” non plus.
Probablement qu’ils auront de meilleurs perfs mais ça va pas non plus crever le plafond. Je doute que tu ne tiennes ne serai-ce que du multigig 5gbps au max pendant 200 go (ce serai intéressant de tester cela-dit)… Et puis ça n’enlève rien au fait que c’est bien trop cher. Au début des SSD on avait de la SLC, c’était trop cher et pas assez dense pour que le gain de perfs soit pertinent. Après on a eu de la MLC, un compromis plus intéressant mais jugé encore trop cher. On a donc eu de la TLC qui a enfin permis d’avoir du To en SSD moins cher que le prix du PC lui même, donc intéressant… sauf quand cette même TLC coûte aujourd’hui (grâce à Seagate) le même prix que la bien meilleur MLC (MLC qui est toujours utilisé dans les SSD pro au passage…) qui a presque totalement disparue du marché grand publique.
Ce que je reproche à toute cette com’ c’est de toujours mettre l’accent sur les performances de dingues alors qu’elles ne sont pas tenues en réalité. C’est complètement malhonnête. Et avec les prix pratiqués on viendra nous vendre que la TLC c’est trop chère et qu’il faut passer à la QLC qu’on vendra au même prix dans quelques années (c’est déjà presque le cas chez Samsung) et ainsi de suite (la PLC est déjà en préparation). Donc à terme on va se retrouver avec des mémoires à 40 go/s sur 20 go et après ce sera du 50 mo/s sur 10 To… Juste abusé quoi (sans parler de l’endurance qui, si elle n’est pas un problème sur les mémoires actuelles, pourrait le devenir à 4 ou 5 bits par cellules).
Le
19/03/2020 à
15h
59
LOL des SSD TLC au même prix que la MLC (Samsung 970 pro) ! Trop fort les mec ! J’ai fait des tests hier sur des crucial BX500 (TLC en SATA) en 10gbe et on se tape effectivement le max du SATA pendant quelques secondes et après (quand le cache est plein), ça plafonne à 170 mo/s… autant dire de la bonne grosse bouse (et y’a aucune raison technique pour que de la TLC en PCIe réagisse différemment). Ne vous laissez pas endormir par les gros chiffres, c’est uniquement valables pour les premiers gigaoctets du transfert et les benchmarks. Après on tape dans le dure avec écritures direct sur la TLC et ça pique sévère.
Le support de WPA3, de façon global, est logiciel ou il faut que le matériel soit lui aussi compatible ?
Le WPA étant simplement un protocole de négociation d’authentification/chiffrement et non un algorithme cryptographique, cela n’a (selon moi) aucun sens de parler d’accélération matérielle dans ce cas là (après je peux me tromper). Le support est donc intégralement logiciel, au même titre que TLS qui rempli la même fonction sur les couches (OSI) supérieurs.
Non mais sérieusement, on est encore avec une pauvre dalle full HD même sur des modèles à 900 balles TTC. Et la dalle 4K, sur le modèle à 1799 existe pas en mat. C’te blague. J’espère au moins qu’ils ont réglé leur souci de luminosité irrégulière de leur dalles dès la sortie d’usine, même sur des modèles à 1000 balles…
Effectivement c’est abusé. Il a fallut combien d’années avant de voir disparaître les dalles en 1024x768 ? D’ailleurs, je ne sais même pas si elles ont vraiment disparues des PC neufs…
En ce qui concerne l’histoire de luminosité ou de pixels morts, les constructeurs se sont alignés sur un argument selon lequel ces caractéristiques seraient intrinsèques à la technologie LCD et que cela n’est pas considéré comme un problème (oui c’est aberrant). Ce genre de phénomènes se produisent surtout sur les écrans UHD. Je pense que tant que l’OLED ne pointe pas le bout de son nez, il ne faudra pas trop espérer d’amélioration sur ce plan…
@David_L PS: c’est hyper difficile de commenter sur ce site. J’ai dû réessayer un nombre incalculable de fois avant d’avoir le bouton “Envoyer” qui fonctionne (étalé sur plusieurs jours quand même !). Ce bogue dure depuis un bon moment sur plusieurs PC/navigateurs/pays. je ne peux donc pas croire que je suis le seul touché.
Le CinemaScope ça date de 1953. Donc les bandes noir c’est pas nouveau.
Ce n’est pas nouveau certes, mais ce n’est pas pour cela que c’est bien pour autant… Il y a trop de choses inutilement conservatrices dans ce domaines à cause de la sacro-sainte “tradition du cinéma” qui a été définie par on ne sait trop qui d’ailleurs… les adeptes du 24ips en sont une bonne illustration…
Merci de vos réponses messieurs. C’est bon à savoir .
Le
03/12/2019 à
21h
49
En tout cas avec cette histoire j’ai appris qu’il était possible de mettre à jour le micro logiciel des Raspberry Pi. On n’en a jamais entendu parlé sur les versions précédentes.
Quelqu’un sait comment faire ? Y’a un truc spéciale à charger sur une carte SD et flasher une puce particulière ?
Avec ça on transformerai un jeu de PS1 en 8K sans problème xD.
Le
12/11/2019 à
20h
42
flodor2 a dit:
…
Alors là très bonne question… J’en reste dubitatif également. Il est vrai que la netteté, tout comme la luminosité, sont des paramètres gérés lors du développement du jeu en lui même (rendu 3D). Si un défaut est constaté, on patch car il s’agit d’un bogue.
Il est vrai que ces fonctions sont intéressantes et j’aimais bien les utiliser quand c’est sortie mais la contrepartie est désormais bien trop onéreuse pour moi malheureusement.
Le
05/11/2019 à
20h
10
Manque plus qu’à faire fonctionner les pilotes sous Wayland et on est plutôt bon pour l’instant. Déjà qu’ils ont enfin apportés le support d’Optimus sous Xorg (c’est pas trop tôt) on est optimistes pour la suite (enfin sous 10 ans, on est plus à ça près). J’espère que la concurrence d’AMD et bientôt d’Intel va les chambouler un peu pour qu’ils se sortes les doigts sous Linux.
Par contre pour GeForce Experience et ses mouchards, je ne suis pas du tout pressé :/. Le plus tard (voir jamais) sera le mieux…
Je vois. Si vous voulez mon avis ce n’est pas prêt d’arriver car la tendance est plutôt à l’optimisation du code (coté logiciel libre tout du moins) tant des logiciels que des langages de programmation/compilateurs. Je pense justement que plus on avance et moins on a besoin de puissance pour réaliser les mêmes tâches qu’il y a 5 ans (il faudrait voir l’avis d’un Windosien qui doit être bien différent…).
Même si on avait des processeurs 100x plus puissant, je ne suis pas certains que vous vissiez la différence. Perso, quand je clic sur quelque chose, c’est déjà instantané. J’imagine mal comment ça peut être plus rapide. Bien sûr on peut sortir le chrono atomique et mesuré le milliardième de seconde mais je ne suis pas certain que la différence soit si flagrante que cela au quotidien.
Mais je comprends tout à fait là où vous voulez en venir ;).
Le
05/11/2019 à
21h
34
Quelles nouveautés vous ferrez changer de configuration (franchement) ? À part une faible consommation et toujours plus de puissance je ne vois pas trop ce qu’un processeur peut vraiment apporter de plus (même dans 20 ans). Sérieusement réfléchissez-y, un processeur c’est juste une calculatrice. Quelles arguments pourraient bien vous donner envie ? Y avez-vous même déjà réfléchis ?
J’ai moi même une configuration à base de I7 960 et à part le BIOS Gigabyte ultra bogué que je me coltine dans cette bécane je ne vois pas trop l’intérêt de changer non plus (cela-dit il faut préciser que je n’ai pas qu’un seul ordinateur). Un PC reste un PC et à par la perf/watt/prix y’a pas vraiment de critère qui compte (dans l’absolut - pour une machine de bureau). Pourtant, j’estime avoir un usage assez avancé de l’informatique (principalement tourné système Linux).
Pour ma part, je serai plus à l’affût de ce que propose le Chipset que le CPU au passage.
Es vraiment si courant de changer le processeur d’une machine de ce calibre ? La tendance est plutôt de changer toute la configuration d’un coup pour avoir ce qui ce fait de mieux au moment de l’achat.
En plus si une rétro-compatibilité implique des concessions c’est un peu dommage pour de l’ultra haut de gamme. Les gens qui achètent ce genre de choses se fichent pas mal du prix généralement. Autant tout racheter. On est pas à 300€ près je pense (après je peux me tromper).
Le
05/11/2019 à
14h
05
Qruby a dit:
Est-ce que le 2,5G améliore quelque chose quant à la synchro de petits fichiers? J’ai rarement besoin d’autant de bande passante en séquentielle, mais sur les petits fichiers ça rame!
Non, c’est plus la latence (des supports de stockage et du réseau) qui jouera un rôle dans ce cas précis. Le protocole utilisé pour le transfert peut jouer énormément tout comme l’application faisant usage de celui-ci.
À savoir également que si ta machine est poussive, le CPU peut également te limiter (mais à moins d’une machine vraiment moisie ce serai quand même étonnant de nos jours). Dans ce cas, les trames géantes (jumbo frame) peuvent peut être apporter une amélioration (j’ai du du x2 sur du routage en 10gbps grâce à ça)…
Donc du coup dans la majorité des cas, les revendeurs l’ont dans l’os si je comprends bien et doivent vendre le produit à perte ? C’est légal ça du coup (hors période de soldes) ?
J’imagine que pour un Amazon c’est indolore mais pour une boutique à taille humaine ça doit faire mal ce genre de nouvelle.
Le
26/10/2019 à
08h
26
(quote:43658:UtopY-Xte)
David_L a dit:
Merci des réponses. C’est plus clair.
Le
25/10/2019 à
18h
14
Comment les constructeurs de matériel font-ils pour baisser les prix de leurs produits ? Ils paient tout leur revendeurs ayant achetés leur marchandise avant la baisse au prorata de la différence ou bien il y a une autre astuce ?
Cette information n’est jamais traitée alors qu’elle est pourtant bien concrète dans un monde ou le bénéfice est roi.
Tout à fait d’accord. Je n’arrive pas à comprendre que cette techno soit inexistante aujourd’hui. Aucun navigateur ne la gère et il n’est pas question que cela soit le cas dans un avenir proche (on aura peut être même IPv6 avant, qui sait ?).
Apres pourquoi pas, je veux dire la machine appartient a l’employeur, il en fait ce qu’il en veut.
Oui mais l’usage, lui, est privé. Si cette machine est utilisé par un employé pour consulté sa messagerie personnelle ainsi que son compte bancaire (et pourquoi pas son interface d’achat de cryptomonnaie) pendant sa pause (ce qui est attaquable j’en conçoit) et que le trafic est enregistré en clair via les méthodes énoncées plus haut, on se retrouve avec une foule d’information (mots de passes d’accès compris) en la possession de l’employeur (ce que je n’hésite pas à qualifier de vole par piratage). C’est un peu comme si je louai une voiture chez un professionnel et que tout ce que je fait monter dedans (famille comprise) appartenait à l’entreprise de location. Pas glop.
Carpette a écrit :
Je suis etonne, je trouve ca beaucoup plus sein d’etablir une connexion chiffre PUIS de demander un site donne et ensuite recevoir le certificat (ou potentiellement une reponse negative) que de recevoir directement un ou plusieurs certificats.
Le problème est que la sécurisation d’un échange ne repose pas uniquement sur le chiffrement des données. Un élément tout aussi important est l’authentification des paires (ceux à quoi sert le certificat). Si tu chiffre avant d’envoyer le certificat, cela ne changerai rien au problème puisque tu ne saurai pas avec qui tu chiffre (donc potentiellement un attaquant - ton patron - ce qui revient au même que de ne pas chiffrer, les performances en moins). De manière générale, pour qu’un échange soit définit comme sécurisé, il faut réunir 4 éléments:
Tu peux te permettre d’envoyer le certificat en clair puisque il contient une signature in-reproductible validée par une autorité de certification déjà présente dans le navigateur client (donc non envoyé sur le réseau et donc infalsifiable par un attaquant). Une fois le pair authentifié, tu es sûr de pouvoir chiffrer avec la bonne personne. C’est pour cela que l’échange se produit dans cette ordre et non dans ce que tu trouvais plus logique.
Carpette a écrit :
De plus, le DPI-SSL doit avoir des limites dans la mesure ou le certificat genere a la volee doit correspondre a un NDD bien precis, mais que celui-ci ne peut etre connu du routeur/pare-feu/autre que si le paquet transportant le “HTTP/1.1 GET blabla.fr” a ete dechiffre.
À savoir que le nom de domaine du serveur avec lequel on échange en TLS transite bien en clair sur le réseau. Il est possible de le voir dans le champ “Extension: server_name” du paquet “Client Hello” au moment de la poignée de main TLS (handshake). Ce qui est chiffré, c’est l’URL complète (inutile pour l’authentification), soit ce qu’il y a après le .fr, .com, .org, etc… Cette information est donc récupérable sans trop de mal par un équipement intermédiaire.
Des popup sur les pages ? Commencez par appliquer ce conseil à vous même.
Mon abonnement s’est terminé il y a quelques semaines et il en a un (“Fin de votre abonnement”) qui suit l’ascenseur et que l’on ne peut pas fermer qui empêche la lecture de l’article.
Heureusement qu’il y a ublock origin pour cibler la <div> incriminée. Il y a bien une case à cocher “Ne plus afficher ce message”, mais en l’absence d’un bouton de formulaire “envoyer”, difficile de soumettre ce choix…
245 commentaires
Framework Laptop : un PC portable modulaire, de la carte mère à la connectique
26/02/2021
Le 26/02/2021 à 17h 56
Si tu connaissais un tant soit peu le monde de la publicité et de la mercatique tu comprendrais qu’il a parfaitement raison…
HAT5300 : Synology lance sa gamme de disques durs et de nouveaux RackStation
01/02/2021
Le 02/02/2021 à 11h 45
En fait Synology ne se lance pas vraiment dans le marché des disques dur puisqu’il s’agit vraisemblablement de modèles Toshiba sur lesquelles une étiquette de la marque a été collé (pratique courante dans le domaine des composants informatiques). Le jour où le marché est mort, il suffira à Synology d’arrêter la vente sans avoir à fermer aucune usine puisque ce ne sont pas eux qui fabriquent.
Carrefours pourrai s’y mettre aussi en soit… Ce n’est pas bien compliqué.
DMS-106XT : D-Link mise sur le Multi-Gig avec un switch 5x 2,5 Gb/s et uplink 10 Gb/s
14/01/2021
Le 14/01/2021 à 17h 10
Pour ce genre de besoins, les équipements pro d’occasions sont clairement plus adaptés et moins chers. Regardez régulièrement les annonces et vous finirez par trouver votre bonheur (surtout avec le nombre de faillites qu’il va y avoir en 2021…).
Scaleway dévoile ses Dedibox Gen 7, deux modèles avec EPYC 7532 (Zen 2) déjà disponibles
13/01/2021
Le 14/01/2021 à 16h 57
https://eurocapa.com/cartes-controleur/adaptateur-hba-raid/cartes-raid-nvme.html
Une année 2021 sous le signe de la bidouille, de l’entraide, du réseau et de la domotique !
01/01/2021
Le 03/01/2021 à 11h 19
C’est clair !
Je suis d’accord avec eux pour ce qui est des projets professionnels mais pour ce qui est de construire quelque chose pour et par soit même la méthode diffère totalement.
On a jamais eu besoin d’être charpentier ou maçon pour construire des clapiers à lapin depuis 1000 ans et c’est pareil pour l’informatique domestique. Si plus de monde faisaient de l’autodidacte et de la production personnelle à la maison, on aurai très probablement plus de gens intéressés et compétents dans la société au lieu d’avoir des con-sommateurs asservis aux GAFAM et ne bittant rien aux technologies qui les exploitent (ce sont les technologies qui exploitent ces gens là et non l’inverse).
Et ça, ça se répercuterai irrémédiablement dans le monde professionnel à terme avec des ingénieurs compétents et intégrant pleinement cette partie théorique. Et pourquoi pas (et là on peut rêver) dans la politique elle même…
ASRock Rack dévoile une équerre PCIe 4.0 x16 pour quatre SSD M.2 (PCIe 4.0 x4)
31/12/2020
Le 01/01/2021 à 17h 43
@GourouLubrik
Merci de le rappeler.
C’est toujours bon de préciser ce genre de chose pour ne pas se faire avoir.
3D NAND : Micron passe à 176 couches
10/11/2020
Le 10/11/2020 à 17h 57
Ne vous inquiétez pas ce sera 176 couches de PLC donc avec des perfs de clé USB… Le tout en PCIe 5.0 bien évidement histoire de mettre quelque chose qui claque sur l’étiquette !
Radeon RX 6800 (XT) : peu de stock au lancement, prévient ASUS
09/11/2020
Le 10/11/2020 à 14h 36
Bah le courage j’imagine qu’il l’a sans trop d’efforts car malgré leur désaccord, ce que dit @lololasticot n’est pas dénué de sens (et il y a matière à argumenter dans un sens comme dans l’autre).
Il est indéniable que le marcher des cartes graphiques a vu ses prix exploser en 10 ans. Les nomenclatures des gammes n’ont pas changés avec des X60, x70, x80… mais les prix ont doublés c’est un fait. Je ne connais pas l’ensemble de la gamme de Nvidia mais si aucune carte (avec une nouvelle nomenclature) n’est venue s’aligner sur les anciens prix, il y a augmentation (puisque on est obliger d’acheter ce qui existe et qu’au final ça nous coûtes 2 fois plus cher).
Après ce qu’il faudrait savoir c’est si avec une carte graphique 2 fois plus cher que la décennie passé on en fait 2 fois plus sur les applications concrètes de NOTRE ÉPOQUE. Dans ce cas là ce n’est pas plus cher au ratio mais ça reste quand même 2 fois le prix. (je paris que votre paie, elle, n’a pas eu cette augmentation) La gamme aurait alors juste été élargie à “haut de gamme ++ [HD max pro 2 super trop mieux de la mort qui tue]” en intercalant de nouveaux produits afin de créer de nouveaux paliers tarifaires et de performances. Si le constructeur permet d’acheter un produit au même prix qu’il y a 10 ans pour correspondre à un usage similaire d’aujourd’hui, alors les prix n’ont pas augmentés.
Tant que des produits à prix équivalent existent toujours et permettent de faire un travail équivalent ce n’est alors pas les prix qui ont augmentés mais bien la gamme qui s’est agrandie. Si ce n’est pas le cas alors effectivement les constructeurs ont augmentés les prix (après c’est peut-être la faute des développeurs qui “créés” des besoins de puissance là où il n’y en a pas en codant n’importe comment).
Le fait que les cartes soient plus puissantes ne changent pas grands choses car toute choses étant égales par ailleurs, les besoins ont évolués à la hausse et les prix de fabrications (coût de revient, amortissement, économie d’échelle, maîtrise des procédés de fabrication…) ont mécaniquement baissés (d’autant plus que le marcher ne comporte plus de concurrence aussi présente que par le passé) pour le fabricant donc si c’est plus cher, bah, c’est que c’est plus cher…
Un premier test du Ryzen 5 5600X (Zen 3) d’AMD
04/11/2020
Le 05/11/2020 à 19h 59
@patos
“Chaque milliseconde compte, même si tu ne les vois pas.”
C’est typiquement l’argument de quelqu’un qui passe son temps à regarder les bancs de tests et se dit:
“Ah si j’avais le dernier CPU max power plus pro premium HD 2 max” j’aurai ce petit % en plus qui me manque tant et qui changerai ma vie pour de bon !” sans jamais préciser clairement ce que ça change.
La vérité c’est surtout que les commerciaux sont de mieux en mieux formés et qu’ils ont complètement réussis à retourner le cerveau d’une bonne partie des usagers de PC (qui ne les utilisent principalement plus que comme consoles de jeux au passage…). Je me demande bien ce que vous faites avec un PC toujours plus performant sérieux.
J’ai fait de l’informatique mon métier et je ne tape principalement que dans l’occasion car c’est clairement le plus rentable (les mecs qui achètent du très haut de gamme tout les 6 mois revendent pour une clopinettes leur matos “dépassé” qui ne “vaut plus rien”).
C’est pas aux PC d’être être plus performant mais aux logiciels d’être plus optimisés mais voilà, avec du logiciel propriétaire on a tendance à pas trop saisir le concept vu que ça ne va pas dans le sens du sacro-saint marcher de la consommation et du progrès sans fin…
Scaleway lance Stardust : 1 vCPU, 1 Go de RAM et 10 Go de stockage pour 1,8 euro par mois
02/11/2020
Le 02/11/2020 à 14h 54
S’il est possible d’y ajouter une adresse IPv4 supplémentaires, sachez que ça peut être un bon moyens pour outrepasser les bridages des pseudos opérateurs Internet type Orange à moindre coût afin de vous auto-héberger avec du vrai niveau 3 OSI (en plus de permettre l’utilisation d’un DNS inverse). L’usage de VXLAN au travers d’IPSec fonctionne bien pour l’avoir déjà utilisé.
Ça implique une configuration pas forcement simple au premier abord mais permet de grandes choses par la suite si vous n’êtes éligible à aucun opérateur Internet (avec un grand I. Pas minitel 2.0).
Noctua adapte son NH-L12 au Ghost S1 et retarde son modèle passif à 2021
30/07/2020
Le 30/07/2020 à 13h 05
Ok les couleurs de Noctua sont spéciales mais personnellement je trouve qu‘elles claques dans un serveur maison. Ça fait un contraste fort sympathique derrière des grilles en façade ou une vitre fumée.
Qsirch 5.0 arrive chez QNAP : OCR, reconnaissance des images et des personnes
09/06/2020
Le 10/06/2020 à 09h 41
Merci de la réponse .
Le 09/06/2020 à 20h 27
La reconnaissance faciale utilise NSACloudBackup ou c‘est fait en local sans connexion ?
Honor Router 3 : du Wi-Fi 6 jusqu’à 3 Gb/s à petit prix
20/05/2020
Le 20/05/2020 à 13h 16
Propre.
On lance les paris concernant le prix en France ? Je commence petit avec un 110€ TTC.
SSD Intel : la 3D NAND sur 144 couches et la PLC arrivent, PCIe 4.0 pour Optane
19/05/2020
Le 20/05/2020 à 10h 05
Et bin ils partiront pas en vacances voilà tout !
Le 19/05/2020 à 18h 53
Le problème c’est qu’à terme, aller voir ailleurs sera impossible. Essayez d’acheter des SSD MLC aujourd’hui, c’est la croix et la bannière (et comme il n’y a plus de nouvelles références, les prix sont figés voir augmentent). En fait, le particulier qui fait autre chose que du GAFAM va devoir se tourner vers des produits professionnels (10x plus chers) pour avoir quelque chose qui correspond à ses besoins, ce qui est ridicule.
Surtout que je constate que la QLC n’a pas tant fait baissé les prix que ça (chez Samsung je crois qu’il y a 20€ de différences sur les grosses capacités…) donc on va encore se retrouver avec des technos encore moins qualitatives pour un prix qui de toute façon aurai baissé de la même manière avec la techno précédente (offre et demande/temps de commercialisation tout ça…).
À l’heure où les capacités du réseau local bougeottes enfin (le 10gbe sur eBay est cadeau, reste plus que les commutateurs), on régresse côté support de stockage. On pourrai espéré que la 3DX point se décline en version grand publique mais je doute que ce soit pour si tôt. Y’avait bien la ZNAND de Samsung mais c’est silence radio depuis un moment.
Bref, la NAND ça donne plutôt envie de quitter le navire à la nage avant de couler avec. Aucune chance que mon serveur perso soit équiper de ces bouses un jour…
Proxmox VE 6.2 est disponible, basée sur Debian 10.4, LXC 4.0 et QEMU 5.0
13/05/2020
Le 14/05/2020 à 10h 46
Je ne l’ai jamais fait avec Proxmox mais déjà avec une Debian + Qemu (donc les même technologies que Proxmox). Ça fonctionne bien mais attention à la carte graphique utilisée. Typiquement oubliez la Nvidia GTX 970, ça ne fonctionne juste pas (le mieux que j’ai réussi à avoir est une image sans son et ça cesse de fonctionner si vous redémarrez la machine virtuelle). C’était pas top non plus avec une GTX 560 (mais j’avais du son de souvenir) donc je vous recommande plutôt de l’AMD (même ancienne) avec cette configuration car je n’ai rencontré aucun problèmes (pas de différences de perfs avec du non virtualisé).
Peut-être qu’avec Qemu 5.x il y a du mieux de ce côté là. Je n’ai pas essayé avec cette version.
Jen Hsun Huang dévoile ses prochains GPU dans une vidéo, sans rien en dire
13/05/2020
Le 13/05/2020 à 17h 09
Quelqu’un sait pourquoi les PDG des entreprises de GPU sont tous asiatiques ? C’est un pré-requis dans l’industrie ?
RT-AX86U d’ASUS : un premier routeur Wi-Fi 6 certifié GeForce Now
12/05/2020
Le 13/05/2020 à 14h 17
Vous pouvez peut-être envisager d’acheter une petite baie (genre 6U) d’occasion (y’en a régulièrement sur leboncoin) ainsi qu’un commutateur POE pour alimenter une borne Wifi et avec une cage SFP pour votre fibre (genre Cisco sur eBay on tombe souvent sur des offres incroyables).
À titre personnel je ne passe plus que par du matos pro pour mes besoins particuliers. C’est clairement plus adapté à un VRAI usage de l’informatique et très souvent (pour ne pas dire tout le temps) moins cher…
Le 12/05/2020 à 13h 39
Trop fort la photo ! L’accomplissement de soi par la technologie, le tout offert par Nvidia. C’est beau. J’en ai versé une larme .
Mémoire flash : avec HSE, Micron veut se débarrasser de l’héritage des HDD sur les moteurs de BDD
12/05/2020
Le 12/05/2020 à 14h 58
De ce que je comprends, il s’agit bel et bien d’un moteur de base de données puisqu’il est précisé qu’il est “intégrable avec des bases de données comme MongoDB et NoSQL”. On peut donc imaginer le voir arriver sur MariaDB par exemple (au même titre que InnoDB).
Thunderspy : de nouvelles failles Thunderbolt permettent d’accéder aux données des ordinateurs
11/05/2020
Le 11/05/2020 à 17h 19
Je ne comprends pas bien qu’es qui est vulnérable. D’un côté il est dit que la faille est corrigé côté noyau (Linux 5.x) et de l’autre, il est écrit “aucune machine Dell dotée de la protection noyau DMA, y compris celles de 2019 et plus récentes”. Ce qui sous entends que la correction est matériel. Ou alors il s’agit d’une combinaison d’un matériel (puce dédiée) couplé à un logiciel l’exploitant ?
Donc du coup, pour ce prémunir, matériel ou logiciel ?
J’ai un Dell XPS 15 9550 de 2016 (matériel pré 2019 donc vulnérable) avec une Debian Sid (Linux 5.6, logiciel censé être hors de cause). Suis-je concerné ou pas ?
Z490 Phantom Gaming 4SR : ASRock passe à l’ATX12VO
04/05/2020
Le 04/05/2020 à 17h 16
Dommage, ça aurai été l’occasion de changer réellement le connecteur qui est quand même une sacrée plaie à manipuler et surtout à débrancher. Il faut généralement tirer tellement fort qu’il n’est pas rare de se blesser la main sur un coin du boîtier. Bref, avancée plutôt anecdotique en somme…
Seagate refuse de détailler la présence du SMR dans l’ensemble de ses disques durs
28/04/2020
Le 28/04/2020 à 22h 55
C’est quand même dingue cette histoire. Ils se prennent pas pour de la merdes ces constructeurs. La notion de transparence les déranges, c’est drôle ça. Ils oublient un moment que le client est roi ou quoi ? Je pense que je vais m’abstenir de leur donner de l’argent à l’avenir comme ça on est quitte.
Ils devaient être jaloux que les fabricants de SSD aient leurs technologies moisies (TLS, QLC) alors ils se sont dit on va faire pareil sur nos DD mais pour rattraper le retard, on va pas leur dire…
Comment vous faites pour savoir que votre disque a tel ou tel technologie ? Y’a des commandes Linux pour ça ?
NVIDIA a obtenu le feu vert de toutes les autorités pour boucler le rachat de Mellanox
17/04/2020
Le 20/04/2020 à 09h 51
Merci de votre réponse " />.
Tout est clair maintenant :).
Le 19/04/2020 à 19h 09
Savez-vous pour qu’elles raisons la Chine (ou autre pays) a son mot à dire au sujet du rachat d’une entreprise Israélienne par une boite Étasunienne ? Qu’elles sont les conséquences d’un éventuel refus ?
Crytek annonce Crysis Remastered, avec le ray tracing agnostique de son CryEngine
17/04/2020
Le 18/04/2020 à 08h 56
Si si il l’avait (ça s’appel la nano combinaison). Cependant le jeu était tellement dur qu’on était loin d’être sûr humain et c’est probablement pour ça que tu ne t’en souviens pas.
Le 17/04/2020 à 12h 19
Je parie aussi là dessus.
Le monde vidéo ludique est maintenant tellement bourré de DRM que ça en est devenu inutilisable. Déjà qu’il faut se farcir Windob pour cet usage (même quand on accepte pas les CGU de ce malware…), il faut en plus supporter les nombreuses plateformes exclusives de m£rd€ qui ont toutes des clauses anti-libertés et qui changes au moins une fois par an (et qui obligent “Internet™”). Sans compter qu’acheter un jeu sur Steam oblige parfois (bonjour Far cry 3) de télécharger/installer/accepter une deuxième plateformes tierce (Uplay) pour pouvoir y jouer (indécent et non précisé à l’achat bien évidemment - genre on est censé être d’accord de toute façon vu que y’a pas de problèmes…).
Un problème qui n’est que très rarement soulevé c’est l’après. Que se passera t-il dans 50 ans ? Le rétro jeux existera t-il encore ? Quand Origin, Steam, Epic ou autre auront disparus (remplacés par d’autres hein, pas si vite), que leurs serveurs auront étés recyclés (ou jetés à la mer) et qu’il ne sera plus possible de restaurer sa ludothèque, es tout une époque de divertissement qui disparaîtra (car sera considéré comme une composante d’un bilan comptable dépassé) ou ces financiers (on ne peut plus parler de créateur de jeux à ce stade) ont-ils prévus quelque chose de plus vertueux (monnayant finance bien évidemment - elles ne vont pas se payer toute seules les villas à L.A) ?
Heureusement que tout ça est pour notre bien sinon qu’es que ce serai…
Seagate lance le « premier SSD PCIe pour NAS au monde », Synology serait en embuscade
18/03/2020
Le 19/03/2020 à 17h 35
Probablement qu’ils auront de meilleurs perfs mais ça va pas non plus crever le plafond. Je doute que tu ne tiennes ne serai-ce que du multigig 5gbps au max pendant 200 go (ce serai intéressant de tester cela-dit)… Et puis ça n’enlève rien au fait que c’est bien trop cher. Au début des SSD on avait de la SLC, c’était trop cher et pas assez dense pour que le gain de perfs soit pertinent. Après on a eu de la MLC, un compromis plus intéressant mais jugé encore trop cher. On a donc eu de la TLC qui a enfin permis d’avoir du To en SSD moins cher que le prix du PC lui même, donc intéressant… sauf quand cette même TLC coûte aujourd’hui (grâce à Seagate) le même prix que la bien meilleur MLC (MLC qui est toujours utilisé dans les SSD pro au passage…) qui a presque totalement disparue du marché grand publique.
Ce que je reproche à toute cette com’ c’est de toujours mettre l’accent sur les performances de dingues alors qu’elles ne sont pas tenues en réalité. C’est complètement malhonnête. Et avec les prix pratiqués on viendra nous vendre que la TLC c’est trop chère et qu’il faut passer à la QLC qu’on vendra au même prix dans quelques années (c’est déjà presque le cas chez Samsung) et ainsi de suite (la PLC est déjà en préparation). Donc à terme on va se retrouver avec des mémoires à 40 go/s sur 20 go et après ce sera du 50 mo/s sur 10 To… Juste abusé quoi (sans parler de l’endurance qui, si elle n’est pas un problème sur les mémoires actuelles, pourrait le devenir à 4 ou 5 bits par cellules).
Le 19/03/2020 à 15h 59
LOL des SSD TLC au même prix que la MLC (Samsung 970 pro) ! Trop fort les mec !
J’ai fait des tests hier sur des crucial BX500 (TLC en SATA) en 10gbe et on se tape effectivement le max du SATA pendant quelques secondes et après (quand le cache est plein), ça plafonne à 170 mo/s… autant dire de la bonne grosse bouse (et y’a aucune raison technique pour que de la TLC en PCIe réagisse différemment).
Ne vous laissez pas endormir par les gros chiffres, c’est uniquement valables pour les premiers gigaoctets du transfert et les benchmarks. Après on tape dans le dure avec écritures direct sur la TLC et ça pique sévère.
OpenWRT 19.07 disponible en version finale avec « support initial » de WPA3
13/01/2020
Le 18/01/2020 à 10h 52
Le WPA étant simplement un protocole de négociation d’authentification/chiffrement et non un algorithme cryptographique, cela n’a (selon moi) aucun sens de parler d’accélération matérielle dans ce cas là (après je peux me tromper). Le support est donc intégralement logiciel, au même titre que TLS qui rempli la même fonction sur les couches (OSI) supérieurs.
Vulkan 1.2 est là, AMD et NVIDIA mettent à jour leurs pilotes
16/01/2020
Le 18/01/2020 à 10h 34
“les API ouvertes ne sont pas en reste”
Y’a pas a dire, joli jeu de mots .
Dell : Latitude 9510 avec 5G/IA, nouvel XPS 13 sous Windows ou Ubuntu, Mobile Connect amélioré
03/01/2020
Le 07/01/2020 à 17h 22
Effectivement c’est abusé. Il a fallut combien d’années avant de voir disparaître les dalles en 1024x768 ? D’ailleurs, je ne sais même pas si elles ont vraiment disparues des PC neufs…
En ce qui concerne l’histoire de luminosité ou de pixels morts, les constructeurs se sont alignés sur un argument selon lequel ces caractéristiques seraient intrinsèques à la technologie LCD et que cela n’est pas considéré comme un problème (oui c’est aberrant). Ce genre de phénomènes se produisent surtout sur les écrans UHD.
Je pense que tant que l’OLED ne pointe pas le bout de son nez, il ne faudra pas trop espérer d’amélioration sur ce plan…
@David_L
PS: c’est hyper difficile de commenter sur ce site. J’ai dû réessayer un nombre incalculable de fois avant d’avoir le bouton “Envoyer” qui fonctionne (étalé sur plusieurs jours quand même !). Ce bogue dure depuis un bon moment sur plusieurs PC/navigateurs/pays. je ne peux donc pas croire que je suis le seul touché.
8K : Samsung lance un programme de certification et valide ses TV QLED
02/01/2020
Le 03/01/2020 à 10h 56
Ce n’est pas nouveau certes, mais ce n’est pas pour cela que c’est bien pour autant… Il y a trop de choses inutilement conservatrices dans ce domaines à cause de la sacro-sainte “tradition du cinéma” qui a été définie par on ne sait trop qui d’ailleurs… les adeptes du 24ips en sont une bonne illustration…
Surchauffe du Raspberry Pi 4 : du mieux via le firmware, mais le phénomène persiste
28/11/2019
Le 04/12/2019 à 11h 44
Merci de vos réponses messieurs. C’est bon à savoir .
Le 03/12/2019 à 21h 49
En tout cas avec cette histoire j’ai appris qu’il était possible de mettre à jour le micro logiciel des Raspberry Pi. On n’en a jamais entendu parlé sur les versions précédentes.
Quelqu’un sait comment faire ? Y’a un truc spéciale à charger sur une carte SD et flasher une puce particulière ?
Gears 5 et Shadow of the Tomb Raider adoptent FidelityFX d’AMD
12/11/2019
Le 13/11/2019 à 14h 58
Ah d’accord. Je viens d’apprendre quelque chose.
Le top serai quand même d’arriver à récupérer le logiciel des experts:
https://korben.info/app/uploads/2019/10/ezgif-1-b4a95269dfa6-247x1024.jpg
Avec ça on transformerai un jeu de PS1 en 8K sans problème xD.
Le 12/11/2019 à 20h 42
Alors là très bonne question… J’en reste dubitatif également. Il est vrai que la netteté, tout comme la luminosité, sont des paramètres gérés lors du développement du jeu en lui même (rendu 3D). Si un défaut est constaté, on patch car il s’agit d’un bogue.
Je n’ai pas dû saisir l’intérêt de la chose…
NVIDIA apporte certaines de ses nouveautés sous Linux, dont le VRR du HDMI 2.1
05/11/2019
Le 06/11/2019 à 18h 10
Il est vrai que ces fonctions sont intéressantes et j’aimais bien les utiliser quand c’est sortie mais la contrepartie est désormais bien trop onéreuse pour moi malheureusement.
Le 05/11/2019 à 20h 10
Manque plus qu’à faire fonctionner les pilotes sous Wayland et on est plutôt bon pour l’instant. Déjà qu’ils ont enfin apportés le support d’Optimus sous Xorg (c’est pas trop tôt) on est optimistes pour la suite (enfin sous 10 ans, on est plus à ça près).
J’espère que la concurrence d’AMD et bientôt d’Intel va les chambouler un peu pour qu’ils se sortes les doigts sous Linux.
Par contre pour GeForce Experience et ses mouchards, je ne suis pas du tout pressé :/. Le plus tard (voir jamais) sera le mieux…
Comet Lake-S d’Intel : 10 cœurs, nouvelle plateforme, mais peu d’évolutions
05/11/2019
Le 06/11/2019 à 09h 58
Je vois.
Si vous voulez mon avis ce n’est pas prêt d’arriver car la tendance est plutôt à l’optimisation du code (coté logiciel libre tout du moins) tant des logiciels que des langages de programmation/compilateurs. Je pense justement que plus on avance et moins on a besoin de puissance pour réaliser les mêmes tâches qu’il y a 5 ans (il faudrait voir l’avis d’un Windosien qui doit être bien différent…).
Même si on avait des processeurs 100x plus puissant, je ne suis pas certains que vous vissiez la différence. Perso, quand je clic sur quelque chose, c’est déjà instantané. J’imagine mal comment ça peut être plus rapide. Bien sûr on peut sortir le chrono atomique et mesuré le milliardième de seconde mais je ne suis pas certain que la différence soit si flagrante que cela au quotidien.
Mais je comprends tout à fait là où vous voulez en venir ;).
Le 05/11/2019 à 21h 34
Quelles nouveautés vous ferrez changer de configuration (franchement) ? À part une faible consommation et toujours plus de puissance je ne vois pas trop ce qu’un processeur peut vraiment apporter de plus (même dans 20 ans). Sérieusement réfléchissez-y, un processeur c’est juste une calculatrice. Quelles arguments pourraient bien vous donner envie ? Y avez-vous même déjà réfléchis ?
J’ai moi même une configuration à base de I7 960 et à part le BIOS Gigabyte ultra bogué que je me coltine dans cette bécane je ne vois pas trop l’intérêt de changer non plus (cela-dit il faut préciser que je n’ai pas qu’un seul ordinateur). Un PC reste un PC et à par la perf/watt/prix y’a pas vraiment de critère qui compte (dans l’absolut - pour une machine de bureau). Pourtant, j’estime avoir un usage assez avancé de l’informatique (principalement tourné système Linux).
Pour ma part, je serai plus à l’affût de ce que propose le Chipset que le CPU au passage.
Ryzen Threadripper de 3e génération : nouveau socket sTRX4, l’incompatibilité semble se confirmer
05/11/2019
Le 05/11/2019 à 14h 09
Es vraiment si courant de changer le processeur d’une machine de ce calibre ? La tendance est plutôt de changer toute la configuration d’un coup pour avoir ce qui ce fait de mieux au moment de l’achat.
En plus si une rétro-compatibilité implique des concessions c’est un peu dommage pour de l’ultra haut de gamme. Les gens qui achètent ce genre de choses se fichent pas mal du prix généralement. Autant tout racheter. On est pas à 300€ près je pense (après je peux me tromper).
Le 05/11/2019 à 14h 05
Non, c’est plus la latence (des supports de stockage et du réseau) qui jouera un rôle dans ce cas précis. Le protocole utilisé pour le transfert peut jouer énormément tout comme l’application faisant usage de celui-ci.
À savoir également que si ta machine est poussive, le CPU peut également te limiter (mais à moins d’une machine vraiment moisie ce serai quand même étonnant de nos jours). Dans ce cas, les trames géantes (jumbo frame) peuvent peut être apporter une amélioration (j’ai du du x2 sur du routage en 10gbps grâce à ça)…
Intel va aussi casser les prix de ses anciens Core X : attendez le Black Friday (ou les soldes)
25/10/2019
Le 26/10/2019 à 18h 23
Donc du coup dans la majorité des cas, les revendeurs l’ont dans l’os si je comprends bien et doivent vendre le produit à perte ? C’est légal ça du coup (hors période de soldes) ?
J’imagine que pour un Amazon c’est indolore mais pour une boutique à taille humaine ça doit faire mal ce genre de nouvelle.
Le 26/10/2019 à 08h 26
Merci des réponses. C’est plus clair.
Le 25/10/2019 à 18h 14
Comment les constructeurs de matériel font-ils pour baisser les prix de leurs produits ?
Ils paient tout leur revendeurs ayant achetés leur marchandise avant la baisse au prorata de la différence ou bien il y a une autre astuce ?
Cette information n’est jamais traitée alors qu’elle est pourtant bien concrète dans un monde ou le bénéfice est roi.
Let’s Encrypt est-il en train de passer de sauveur à single point of failure (SPOF) ?
23/04/2018
Le 23/04/2018 à 17h 29
Tout à fait d’accord. Je n’arrive pas à comprendre que cette techno soit inexistante aujourd’hui. Aucun navigateur ne la gère et il n’est pas question que cela soit le cas dans un avenir proche (on aura peut être même IPv6 avant, qui sait ?).
TLS 1.3 enfin est validé par l’Internet Engineering Task Force
26/03/2018
Le 01/04/2018 à 09h 57
Firefox veut bloquer les pop-ups internes aux pages et demande votre aide pour connaitre les sites concernés
13/03/2018
Le 14/03/2018 à 17h 16
Des popup sur les pages ? Commencez par appliquer ce conseil à vous même.
Mon abonnement s’est terminé il y a quelques semaines et il en a un (“Fin de votre abonnement”) qui suit l’ascenseur et que l’on ne peut pas fermer qui empêche la lecture de l’article.
Heureusement qu’il y a ublock origin pour cibler la <div> incriminée. Il y a bien une case à cocher “Ne plus afficher ce message”, mais en l’absence d’un bouton de formulaire “envoyer”, difficile de soumettre ce choix…