votre avatar Abonné

ForceRouge

est avec nous depuis le 11 mai 2008 ❤️

3028 commentaires

Le 05/11/2020 à 21h 41


Xire a dit:


Je te laisse prendre une carte mère à 80€ tu me diras si tu as au moins 1 port usb-c by design. Après tout dépend de ta conf mais l’agencement des composants, la dissipation de la chaleur et la présence de connecteur interne (usb2, usb3, m2…) sont des critères à prendre en compte :) Perso en B550 a 80 avec du wifi, un port 2,5G, du Bluetooth et au moins 2 connecteurs internes usb3 j’en trouve pas (et ça serait mes pré requis si je devais changer) :)



Sinon sur Amazon.de tu avais le x570 tomahawk à moins de 200€.


Soyons concret et objectif. Prenons la MSI MAG B550M Bazooka par exemple à 85€ actuellement, mais disons 100/110€ hors promo:




  • Si tu parles du port USB-C derrière ta tour dans lequel tu vas brancher un cable que tu ne débranchera jamais, alors il suffit d’en prendre un type-A vers type-C, le protocole dessus, ca sera de l’USB 3.2 de toute façon, donc osef. Et si tu parles du connecteur interne sur la carte mère, bah y’en a un sur la MSI.



  • Agencement des composants: MSI ne vas pas “s’amuser” à rendre moins fiable sa carte mère en faisant exprès de mettre les composants n’importe comment. Et tu peux même regarder le design des mobo entre les différentes marques, elles se ressemble toutes.



  • Quasiment toutes les B550 ont 2 ports M.2…



  • Dissipation de chaleur: vu que t’es pointilleux sur le hardware, j’imagine que t’as une tour correctement ventilé, bah fait pareil avec une B550 à 100€ et ca se passera bien. Les composants ont des tolérances, et ces tolérances sont respecté. Te faire croire l’inverse, c’est le boulot des marketeux des vendeurs de mobos.



  • USB2 et USB3 internes, bon bah toutes les mobos en ont, même les plus cheap.



  • Bluetooth sur un PC… personne n’utilise ça, c’est lent et la latence est pourrave. Au pire, une clé usb BT, ca coute 6€ si vraiment c’est indispensable.



  • WiFi ET 2,5G, faudra m’expliquer l’intérêt…




Pour le réseau en 2,5G, une Tuf Gaming B550M à 130€ et tu l’as. Sinon carte pci à 30€
Pour le WiFi, même si c’est du gachi sur une tour, mais si on n’a pas le choix, bah ok… Une carte WiFi 6, ca coute 35€, que tu peux choisir et faire évoluer suivant les normes.
Dans les deux cas, tant que t’as pas l’archi switch/nas qui fait du 2,5G, bah t’économise le temps que ca baisse. Pour le WiFi, tant que t’as pas du WiFi 6 à la maison, tu peux te contenter d’une clé usb en AC à 12€. Mais bon, je voix mal un fou furieux de PC connecter son PC en WiFi de toute façon.



Les caractéristiques d’une X570 tel que tu la décris, on est clairement dans de la mobo a 220/250€, soit 100-120€ supplémentaire par rapport à une B550. Avec ces 100-120€ là, bah tu peux te faire plaisir sur le CPU ou le GPU et avoir un vrai gain de perf, plutôt que du vent marketing.

Le 05/11/2020 à 17h 36


David_L a dit:


Et encore, B550 à 80 euros c’est pas vraiment le plus courant en tarif de départ on est souvent dans les 100 euros (et ça grimpe à plus de 300 mais c’est un autre débat).


Y a quand même assez de promo je pense pour dire qu’on est passé officiellement sous les 100€. Après, si on aime payer plus cher pour la même chose, chacun son truc :)



MSI MAG B550M Bazooka avec ODR: 84,90€ fdp-in
Asus Prime B550M-K: 85,16€ fdp-in



Ce que je veux dire, c’est qu’un 5600X + RTX3080 + n’importe quel NVMe tournera aussi bien sur une MSI MAG B550M Bazooka à 85€ que sur MSI X570 Tomahawk à 249€. Donc pour moins cher, qui consomme moins (chipset) et sans pièces mécaniques difficilement remplaçable qui peuvent lâcher.

Le 05/11/2020 à 17h 28


gallean a dit:


j’ai payé ma x470 aorus ultra gaming 169


Merci de ton intervention mais les x470 sont inférieurs en tout points aux b550 à gamme équivalente, donc y a pas de débats.

Le 05/11/2020 à 16h 45


patos a dit:


Rien que le doublement de bande passante entre le chipset et le processeur ne me met pas d’accord avec toi. Le temps m’a appris à me méfier des cartes mères d’entrée de gamme, mais ce n’est que mon avis ;)


Le doublement de bande passante, ok, mais dans la pratique ca donne quoi? Concrètement, dans une utilisation classique, bureautique, jeux, ect… je gagne combien de seconde de chargement, combien de fps, combien de temps pour vider la carte SD de mon appareil photo, combien d’image par seconde pour ma webcam?
La réponse pour une utilisation normal à intensive (je parle ici de gaming car c’est ce qui tire le plus sur des configs grand public), c’est que ca n’apporte rien. Surement que dans 4 ans, ca sera la norme, et dans 8 ans, ca sera indispensable. Mais aujourd’hui et pour plusieurs année à venir, le PCIe4.0 ailleurs que sur le GPU/SSD, c’est useless.
Je trouve que le B550 est justement en adéquation avec son temps, USB3.2, PCIe4.0 la ou il faut, compatible Zen2/Zen3, 8W de moins idle su rle chipset, qui permet de le refroidir en passif.



Et sinon, B550 ne signifie pas “entrée de gamme”. Il y a de l’entrée de gamme et du haut de gamme en B550.



Par contre coté tarif, X570, c’est 100€ plus cher, si on enlève les cartes bling bling dans les deux catégories, on se retrouve grosso modo avec:



B550: 80€ => 150€
X570: 180€ => 250€

Le 05/11/2020 à 16h 25

B550 + Zen 3 est, à mon sens, une combinaison encore plus gagnante du fait des économies conséquentes pour en pratique, la même chose.

Le 05/11/2020 à 15h 43

Le but de prendre une B550, c’est justement de ne pas avoir à subir un ventilateur, pièce mécaniques, non dispo en pièce détaché.



Concernant les features, sauf cas vraiment spécifique, le X570 n’apporte rien de plus.




  • OC? “personne” n’en fait

  • Les 200 ports USB? osef, déjà 10 sur le B550

  • Le PCIe4.0 sur le 2ème SSD et les ports PCIe autre que GPU. Osef, y a rien en PCIe4.0 qui n’existe pour le commun des mortels autre que les GPU, qui d’ailleurs tounent aussi bien sur du PCIe3.0. Pour le 2ème SSD ,c’est pareil, si t’as besoin de débit PCIe4.0 sur les 2 SSD, c’est que t’as un besoin pro, et donc un besoin spécifique.



Et si tu regardes le lien que j’ai mis, les B550, c’est plutôt entre 80€ et 120€, on est donc bien loin des 150€. D’ailleurs, je n’arrive pas à trouver ta MSI X570 tomahawk à 150€ (ps: 249€ sur amazon)



Bref, je persiste à dire que le B550 fait aussi bien dans la vrai vie qu’un X570, mais pour moins cher, et avec moins d’emerde (ventilo chipset)

Le 04/11/2020 à 22h 40

100% d’accord, pour moi aujourd’hui, un B550 dans un boitier bien ventilé est bien meilleur que un X570.



Quand on voir le peu d’apport qu’amène le X570, et qu’on met le ventilo miteux et le tarif abusif dans la balance.



Je pense que c’est pour ca qu’AMD a mis aussi longtemps a sortir le B550… pour pouvoir vendre du X570 aux impatients.

Le 04/11/2020 à 22h 36


guilamu a dit:


Pas de ventilos sur la x570 la ASUS CrossHair VIII Dark Hero qui sort en même temps que les nouveaux Ryzen.


Ou sinon, une B550 à 100 boules: https://www.dealabs.com/search?q=b550

Le 03/11/2020 à 12h 48

L’appel au Boycott est tout à fait légal.
La CEDH a rappelé en juin qu’il était possible pour Israël, donc j’imagine à fortiori pour les autres produits ou États : https://www.la-croix.com/France/France-condamnee-CEDH-avoir-sanctionne-appel-boycott-2020-06-11-1201099243



Par contre de la part de ministres (qui représentent l’État si je ne m’abuse) ça me chiffonne au niveau neutralité/partialité

Merci de ta réponse. Je me coucherais moins bête :)

Le 03/11/2020 à 12h 34

« N’achetez pas des livres sur les plateformes numériques ! », implore en attendant la ministre de la Culture. « Oui, Amazon se gave, à nous de ne pas les gaver ».



Il me semblait que l’appel au boycott était interdit en France…

Le 03/11/2020 à 12h 39

L’hopital qui se fout de la charité.



En attendant, ca génère du travail en filant du boulot aux cabinets d’avocat, donc quelquepart, c’est bénéfique :D

Le 02/11/2020 à 12h 43


the_frogkiller a dit:


Et non ce ne sont pas les plus riches qui polluent plus. Individuellement oui mais la masse des beaucoup moins riches déplace la moyenne largement. Un jetseter fera toujours moins de pollution qu’un milliards d’humains plus pauvres


Vivement qu’on soit tous jetseter milliardaires alors…

Le 29/10/2020 à 13h 44

C’est bien pour ça que je précise « je trouve que », c’est mon avis perso. Et cet avis dépendra aussi beaucoup du type de jeu. Pour faire tourner un Witcher 3 , on s’en fou d’avoir 120fps. Par contre, un mono-maniaque overwatch voudra ses 90fps minimum constant. D’ailleurs je viens de commander le remplaçant de mon 2ème écran et c’est un QHD 27 pouces IPS 75Hz (promo dell si ça intéresse quelqu’un) pour bosser et si je veux me faire un jeu solo contemplatif ou rts.



Sur le côté fps, au déjà de 90fps, je (moi) ne vois plus de différence. 60 ça peut passer sur des jeux pas trop nerveux mais il faut que ça soit 60 constant. Rien de plus rageant de se manger des freeze des que l’action arrive (coucou warzone avec mon ancien côté i5-6600)

Le 29/10/2020 à 13h 22


(reply:52085:ProFesseur Onizuka)


Mon dernier écran PC, un 27 pouces 144Hz VA… FHD.



Autant pour travailler le QHD fait clairement la différence sur un 27 pouces. Autant pour jouer, je trouve que le prix à payer (en € et FPS) est trop élevé pour le peu de différence en terme de rendu final . Surtout quand c’est pour se manger de l’upscale DLSS à la fin…



Bref

Le 29/10/2020 à 00h 40


arvi89 a dit:


La 2080ti à été achetée par beaucoup de gamers, plein de gens ont de l’argent à dépenser. De plus pour du after effect / premiere pro avec beaucoup d’effets avoir beaucoup de mémoire vidéo peut être utile (mais j’attendrai les tests de puget pour voir ce que ça vaut)



Sinon, il suffit que le PC serve à autre chose que seulement du jeu (ce qui n’est pas si rare quand même), la mémoire vidéo disponible sera déjà amputée par d’autre applications, donc 16Go en 2020 c’est pas juste marketing.


C’est pas trop ce que les stats steam disent. La 2080ti est juste la carte la moins possédé avant de passer aux GPU de laptop.
store.steampowered.com Steam



Ensuite, je te rejoins sur le cheminement, mais pas sur la conclusion. Il suffit que le PC serve à autre chose que du jeu pour que AMD s’effondre. On verra les tests mais si AMD vend sa carte aussi peu cher, c’est parce que plus cher, elle ne trouvera pas d’acheteur.

Le 28/10/2020 à 21h 16


arvi89 a dit:


Ce n’est pas marketing 16 Go, j’ai déjà eu des soucis en VR car ma mémoire vidéo (8 Go) était saturée. Quant à dire que la 6900XT n’est pas intéressante face à la 3090, je ne comprend pas là, on n’a pas dû voir les mêmes chiffres, ni les mêmes prix, ni même conso d’ailleurs…


Pour moi, la 6900XT ne concurrence en aucun cas la 3090. La cible des 3090, c’est pas le gaming mais plutôt les utilisateurs de Cuda. La 6900XT est juste une débauche de performance qui ne sera pas exploité et qui ne justifie pas de payer le double de prix alors que l’évolution des générations futurs de GPU la rendra obsolète en terme de puissance avant de l’avoir amorti.

Le 28/10/2020 à 21h 20


David_L a dit:


AMD a son propre outil de (dé)compression vidéo depuis un moment. Exploité dans la plupart des outils qui gèrent NVENC et QSV


Je suis vraiment has-been… Rien que d’employer le mot has-been veut dire que je suis has-been.



Comme ca m’arrive de stream un peu dans discord, le nvenc m’interesse. Je vais aller voir si Discord prend en charge l’encodage HW des AMD.

Le 28/10/2020 à 18h 28

Je viens de regarder la conférence, et sauf erreur, je trouve rien de foufou.



D’après leur bench, donc très optimiste pour AMD, la RX6800 serait 10-15% meilleure que la 3070, mais aussi 10-15% plus cher.



Donc on est sur un prix équivalent à NVIDIA, mais sans le bundle de feature annexe comme nvenc par exemple.

Le 27/10/2020 à 20h 44


linkin623 a dit:


Ca fait quand un beau bestiau !



Mais elle a de l’allure cette FE, dans 2 ou 3 ans, je verrai pour en prendre une. Ma GTX1070 fait largement l’affaire sans Ray tracing en 1080p (les 8 go ne sont jamais saturés). Surtout que j’ai l’ai eu pour 150 balles il y a 2 ans !


1070 FTW! Acheté à sa sortie 500€, elle tient toujours un warzone “tout au max” en 1080p à 90-105fps.

Le 28/10/2020 à 17h 01


David_L a dit:


D’IPC surtout selon les premières annonces, on verra lors des tests si ça se vérifie dans tous les cas. Après on en revient à des prix de lancement qui sont ceux d’Intel à une époque, avec un perf/prix qui stagne. Mais l’évolution des performances brutes de la puce est une bonne nouvelle en soi :chinois:



PS : je le dis souvent, mais les analyses de performances d’un CPU dans les jeux n’ont pas vraiment d’intérêt. Les constructeurs se tirent la bourre là dessus et tout le monde embraye bêtement, mais les performances en jeu c’est le GPU, et si le CPU a une influence c’est que le GPU s’emmerde ou que le jeu est mal foutu (voir le cas Flight Simulator 2020).



QNAP en propose déjà ;)


Tout à fait le GPU prime évidement dans les jeux. A part Warzone + Discord qui freezait sur mon ancien i5-6600 et qui a déclenché l’achat du 3700X. J’ai gardé ma GTX1070 et j’arrive enfin à l’exploiter à 100%.



J’étais passé à coté du NAS QNAP, merci!
Bon après, + de 600 le NAS, sans ssd, ca pique :)



La classe, ce serait une thin-mini-itx avec 4 port M.2 NVMe idéalement, sinon S-ATA tant pis, avec un CPU soudé type intel j4xxx ou intel j5xxx ou un petit AMD, pour allez… 100€ :8

Le 28/10/2020 à 12h 23

Et pour MSI, c’est sympa la carte avec 4 ports M.2 NVMe.



Vivement la même en thin-mini-itx qu’on fasse des NAS à base de SSD ultra plat et basse consommation.

Le 28/10/2020 à 12h 17

Comme d’habitude, il est sage d’attendre les tests. Mais d’après les news, le 5600X est le CPU qui va enterrer encore plus profondément Intel sur le terrain du gaming. AMD dépassant Intel sur le dernier terrain où Intel avait un avantage, à savoir la perf single-core.



En tout cas, pour avoir un 3700X (8C/16T) actuellement, ce CPU est un monstre de puissance.

Le 19/10/2020 à 14h 48


TexMex a dit:


C’est donc la preuve que de confiner des gamers leur fait ronger leurs freins,… ou leurs poignets,… ou les deux.


De toute façon, c’est un secret de polichinelle que le Covid a été créé par Nvidia grâce à leur Grid IA dans l’unique but de confiner les joueurs pour qu’ils achètent des cartes graphique.

Le 14/10/2020 à 11h 50


tifounon a dit:


3 x MX500 250GB au SAV en 18 mois (dont 2 fois le même, complètement HS), bien que ce ne soit pas des super SSD, ça fait beaucoup. Certes le SAV de Crucial a fait son boulot (bien et vite d’ailleurs) mais quand même, c’est pire que Seagate.



patos a dit:


Pareil, 0 Crucial vivants au bout de 4 ans sur une 30aine (que des M550/MX500). Je n’en achète plus…


Pour ma part, 1 x M4 (64go), 1 x M500 (500Go), 2 x BX500 (128 et 256Go) et 2 x MX500 (500Go et 2To) et jamais aucun problème depuis des années.



100% de 30 SSD Crucial HS en 4 ans, c’est dingue. Il était dans la même machine (mauvaise alim qui crame les SSD)? ou tous achetés en même temps (mauvaise série)?

Le 09/10/2020 à 23h 47


(quote:51268:brice.wernet)
En fait, une fois passé sur du 3600, je trouve que pour le quidam moyen (je ne parle pas de joueurs, de gros compilateurs ou de gros modeleurs), il y avait peu d’intérêt à passer à plus: le 3600 est très bon en multi, bon en single et AMD propose de l’excellent en multi et généralement du bon/très bon en single. Et comme en plus le résultat en Single n’est pas forcément meilleur sur des gammes supérieures…



Le quidam moyen voit une amélioration avec le nombre de threads jusqu’à un certain point (entre les logiciels qui se limitent à 4 threads - ce qui n’est pas idiot, et ceux qui ralentissent au delà de 4…) dans son utilisation quotidienne, et le single thread est encore très présent.



Si on compare à l’usage (pas sur des benchs qui finissent en 4 min au lieu de 5 - la plupart des utilisateurs ne font pas la différence - au delà de 30s ils sont sur autre chose), la différence entre un 3600 et un 3700X n’est pas super visible, et n’est pas justifiable vu l’écart de tarif.



Surtout quand on arrive parfois à trouver des 4750G moins chers et aussi performants.



Résultat: si on commande 2 gammes, dans l’utilisation de tous les jours aucune différence n’est visible, il faut lancer du lourd pour la voir. Mais ça n’intéresse que peu les gens (gagner 1 minute sur un traitement qui se fait de toutes façon quand ils ne sont pas là, on s’en moque)



Là on va sur un bel écart entre les 3000 et les 5000. Je pense qu’on pourra montrer l’écart de perf sur des manipulations courantes, pas juste des chiffres qui sont peu parlant pour la plupart.



D’ailleurs, la com d’intel a souvent été axée sur cet aspect: le processeur qui accélère internet, le processeur qui permet de décoder les vidéos … Même si c’était de la grosse foutaise, c’est ce que les gens retenaient. Pour AMD, la com c’est “une bête de travail” “une super bête de travail” “une méga bête de travail” - mais c’est pas concret.



PS: je en suis pas vendeur, mais j’aime bien mettre l’informatique au niveau des utilisateurs - les gens qui m’ont demandé conseil il y a 8-10 ans me redemandent conseil pour leur nouvelle config, et dernièrement je n’étais pas convaincu du bon compromis perf/prix pour les années à venir. D’ailleurs, je ne suis pas convaincu que 12 threads soient utiles et la stratégie 46 threads qui en envoient semble un bon compromis pour encore un long moment.


Je suis plutôt d’accord avec toi sur le ressenti utilisateur, ca sert à rien de changer si tout tourne correctement. Par contre, je suis plus mitigé sur ton 3600 vs cpu plus haut. J’ai longuement réfléchi à prendre le 3700X (que j’ai actuellement) ou un 3600 à l’époque.
En faite, aujourd’hui, il n’y a aucune différence concrète entre les deux CPU. Par contre je pense que quand le 3600 arrivera à bout de souffle et il faudra changer de config, le 3700X pourra tenir encore une génération.



Financièrement, la question, c’est: est ce que je met 100€ de plus dans le CPU pour tenir 1 an de plus et du coup économiser 1 an prorata temporis sur ma prochaine config. Sachant que dans la vrai vie, très peu de gens change uniquement le CPU, car nouvelle RAM (DDR5), fréquence pas optimisé, socket de carte mère qui change, etc… donc de toute façon lacher un gros billet.

Le 08/10/2020 à 21h 15

Bah plus tu montes en résolution, moins c’est le CPU le bottleneck.

Le 09/10/2020 à 23h 32


domFreedom a dit:


Why not, mais tu vas y coller quoi comme CPU ? 5600X ? J’ai la même, et rester sur du 6C/12T ne m’emballe pas plus que ça… :D Faudra voir le gain en perfs entre 2000 et 5000. Mettre un CPU plus gros ? Bof. On s’est acheté cette DS3H pour avoir un truc apacher avec des grosses perfs, perso je trouve qu’il fait encore trèèèèèès bien son taf, le tout petit R5 2600. Et je trouve qu’elle déboite, cette B450M DS3H pour même pas 90 balles. La politique tarifaire du B550 est à gerber, sérieux ! Pour (quasi) le même tarif j’avais eu Month One la X370 Prime avec 3000 ports SATA3 dont j’avais besoin, des features introuvables ailleurs et maintenant… Une honte.


Y a des promos sympa sur les B550 quand même de temps en temps. Et pour le CPU, 6C/12T, c’est déjà énorme. Est-ce que ce CPU bloque dans des taches courantes? Pourquoi changer si tout tourne parfaitement?

Le 08/10/2020 à 11h 07


anagrys a dit:


En fait, il est important de ne surtout pas interdire la chasse au gibier ! Il s’agit d’une bête question d’équilibre des écosystèmes : les herbivores mangent les plantes. Les carnivores mangent les herbivores. Mais pour manger un gros herbivore (type cerf ou sanglier) il faut un gros carnivore. Et des gros carnivores, en France, il n’y en a plus (sauf quelques loups dans le Sud Est, et peut-être encore un ou deux ours dans les Pyrénées).



En bref, interdire la chasse au nom du “bien être animal”, c’est à terme provoquer une catastrophe écologique dans nos forêts qui seront dévastées par un gros gibier privé de prédateurs. Pas la meilleure des idées…



Je précise à toute fin utile que je ne suis pas chasseur, que je ne pourrais pas l’être et que je n’en connais aucun dans mon entourage.


Mais du coup, si l’Homme est nécessaire pour réguler la population des gros herbivores, il manque le très gros Homni-vore pour bouffer les humains :) Coté ravage, je pense que le sanglier ou le cerf fait petit joueur face à nous.

Le 08/10/2020 à 11h 01

Encore un peu plus de GAFA dans les foyer…

Le 08/10/2020 à 11h 00


(reply:1829209:UtopY-Xte)


D’après les quelques retours, la PS5 “serait” inaudible, du moins pendant les sessions de jeux que les jounalistes ont pu faire.



Peut-être que les blower avec double entrée d’air se comporte différemment. Y a plus qu’a attendre les vrais tests à la sortie.

Le 08/10/2020 à 10h 58


Fu2chN a dit:


Et ça me parai difficile de mettre un rad sur l’extension m2 aussi (ça chauffe dur c’est bête la)


Nan mais faut arrêter avec les NVME qui chauffent… T’as déjà cramer un NVME à cause d’une surchauffe? T’as déjà eu la moindre latence à cause d’un SSD qui chauffe?



En plus dans une console, à part lors d’une installation, aucune écriture n’est faire sur le SSD, et en lecture, dans le pire des cas, il faut copier 16Go du SSD vers la RAM, et ca prend… 4s… donc clairement aucun impact. Et quand on sait que les données seront ultra compressé, je très très loin de la vérité avec mon exemple.

Le 07/10/2020 à 22h 20


fullero a dit:


Sauf que peu de gens achètes des GPU HdG à plus de 500€. Donc les jeux continuent d’être optimisés pour les configs modestes. Perso, j’ai aucun problème à faire tourner n’importe quel jeu avec ma vieille GTX1070. Alors ok, j’aurais pas le reflet de la douille qui sort du gun sur le poil de teub en raytracing, mais on s’en tape complètement.



Les jeux que j’achète, c’est surtout des jeux fun, qui parfois sont en 2D toute pourrave (coucou Among us, Factorio, …). Les jeux couloirs ultra-réaliste, au delà de l’effet wahou, on s’en lasse très vite.



J’ai même remonté un vieux PC i5-6600 + GTX760 qui fait tourner sans aucun problème Overwatch et Valorent.

Le 05/10/2020 à 21h 06

Sans entrer dans le débat iOS vs Android, c’est pour cette raison que j’ai re-switch vers iOS. Dégouté de voir mon Galaxy S9 acheté day 1 ne recevoir que 2 mises à jour majeurs + 1 an sécurité.



A coté de ca, chez iOS, c’est mini 5 ans, features et sécu + encore 1 ou 2 ans de patch sécu des failles majeurs.

Le 29/09/2020 à 16h 14

L’article ne précise pas si l’interface est S-ATA ou NVME, ni même le débit, la latence et le DWPD. :francais:

Le 28/09/2020 à 13h 44


jpaul a dit:


Facile : ils sont la seule alternative crédible à Android l’aspirateur de vie privée. Ça ne justifie pas pour un sous leur politique de merde sur l’App Store mais beaucoup de consommateurs même “éclairés sur ces questions” décident que cette fermeture est “moins pire” que les conditions d’utilisation d’Android. Mais “moins pire” ne veut pas dire pour autant acceptable.


100% vrai pour ma part. C’est de loin le moins pire des deux écosystèmes. Un doux rêve serait que la bataille Apple/Epic force Apple a autoriser l’installation d’application tiers. Si on ne fait rien, par défaut, on profite de la “sécurité” de l’app store. Mais si on veut prendre le risque de passer en direct, bah on peut.

Le 26/09/2020 à 08h 07


Chaft52 a dit:


Il faudrait vraiment qu’il commence à mettre un peu de Giga sur les forfait à 9,99€ ne serai-ce que 10Go



Mokradin a dit:


je me suis dit la même chose, ce serait bien qu’ils ajoutent un peu de data sur ce forfait.


Y avait un forfait “a vie” Sosh à 11,99€ pour 40Go il y a 2 semaines. J’en au profité en faisant une “double porta” Sosh => OnOff => Sosh.

Le 24/09/2020 à 11h 12


fofo9012 a dit:


Franchement Alex.d a raison, l’USB-C n’est pas du tout prévu pour un switch la prise USB-C se débranche très facilement, sur un PC ou tel portable c’est pas gênant (le périph passe en batterie, tu rebranches et basta) et même adapté (ça évite de tout casser si tu te prends les pieds dans le fil, et sur ce type de périph tu passes ton temps à brancher débrancher). Sur un switch c’est coupure de réseau assurée, on préféra qu’un switch tombe en tirant sur les fils plutôt qu’il ne se débranche, sur le miens il y’a même un ergot dans le boitier pour coincer le cable !


Moi je trouve que c’est une bonne idée l’USB-C en datacenter. Comme ca si j’ai besoin de regarder mon tel pendant une intervention, je peux débrancher un switch au hasard et m’en servir de chargeur :D



Si le réseau est bien fait, ça ne doit pas générer d’incident client :)

Le 23/09/2020 à 20h 11

Concrètement, après les 3 grosses prunes, quelque chose à changé?



S’il suffit à Google de payer sa dime tout les ans, mais qu’il en gagne 3 fois plus, c’est pas près de s’arrêter…

Le 21/09/2020 à 11h 37


Freud a dit:


Par pitié… “mais pas que” est incorrect (et moche) ici. La formulation correcte est “mais pas seulement”.


Oui mais ça fait trop de caractères dans le titre pour que ça tienne sur une ligne :)

Le 17/09/2020 à 16h 00


lanoux a dit:


Surtout que j’ai rarement vue une application aussi mal foutu que mail Ce truc est une vrai bouse que je dois me coltiner au taf sur les 70 bécanes :_( et impossible de changer par ce que mac çayaitbien


Je te souhaites bon courage avec une flotte de 70 terminaux Android. L’avantage de mail, quoi qu’on en dise, c’est qu’elle est simple et efficace. La formation des utilisateurs est tout aussi simplifié.

Le 16/09/2020 à 16h 27


CryoGen a dit:


500W consommé ce n’est pas 500W de chaleur :transpi: Sinon il est temps de lancer un nouveau concept de GPU muraux :dd:


Ça a été répondu plus bas mais pour ajouter un peu de détails, l’énergie électrique peut se transformer en 3 autres énergies:




  • mécanique

  • rayonnement

  • chaleur



Un CPU ne produisant ni énergie mécanique, ni lumière ou onde (en tout cas négligeable), tout part donc en chaleur.



On peut donc dire qu’un PC est un smart-radiateur.



Je m’étais déjà fait la réflexion du gâchis d’énergie des radiateurs électriques, alors qu’on pourrait faire du calcul avant de cramer l’énergie bêtement.



Et donc en hiver, un pc qui consomme 500W économise 500W d’énergie d’un radiateur type grille pain.

Le 14/09/2020 à 23h 17


Celeri a dit:


Argumentaire très éclairant ! C’est vrai qu’en définitive, l’App Store et les outils Apple sont devenus accessoires pour Epic, alors même qu’ils leur coûtent plus cher qu’avant, ça aide à comprendre leur position.



Mais justement, si ça leur coûtait moins cher avant qu’ils aient pu internaliser tout ça, n’est-ce pas un juste retour des choses de continuer à payer aujourd’hui ? La position d’Epic ne revient-elle pas à dire “on a profité de vos services pour pas cher pendant 10 ans pour nous développer très vite et gagner beaucoup d’argent, maintenant on veut tout garder pour nous” ?



D’autre part, n’est-ce pas le fait de continuer à faire payer les gros qui permet de continuer à fournir la même qualité de service aux 99% petits pour très peu cher ?


C’est le principe d’un service en faite. Un service est limité en temps et en argent. On ne peut pas être redevable ad vitam æternam pour un service rendu one shot. J’aime bien prendre des exemples avec AWS car c’est assez similaire. Pour faire un parallèle, c’est comme si il falait payer AWS indéfiniment, même après avoir ouvert ses propres datacenter et héberger sois même ses serveurs.



Finalement, le problème se ramène à: est ce normal, pour un OS aussi répendu d’iOS, de ne pas autoriser l’installation d’application tierce?
Sur Windows, Linux, et même MacOS, j’installe ce que je veux sans devoir passer par un store. Et si j’ai envi de m’installer un virus, libre à moi de le faire.



Vivement que cette histoire avance. Avec l’espoir qu’Apple doivent ouvrir l’installation d’application tiers.

Le 14/09/2020 à 10h 45

Encore un beau gaspillage de ressources.

Le 14/09/2020 à 10h 38

“Le rendez-vous des fans” …



Je vois pas comment on peut être fan d’une boite d’escroc.

Le 13/09/2020 à 18h 59


Nuw a dit:


J’ai exactement le méme soucis avec ma 5600xt.. obligé de repasser sur ma “vieille” 1060 en attendant le fix.. tu aurais un lien vers l’adaptateur qui a résolu le soucis pour toi?


Y a une grosse différence entre la 5600xt et la 1060? Avec ma 1070 qui a maintenant plus de 4 ans j’arrive encore a jouer a tout avec les paramétrages graphique haut, entre autre Warzone a 110fps avec tout au max par exemple.



J’ai l’impression que la 3070, c’est un peu le véritable successeur de la GTX1070, la GTX1670 étant une carte un peu bâtarde qui n’a rien apporté de plus et la RTX2070 une carte raytracing v1 non abouti.



A voir dans les tests, et le comparatif avec les futur AMD.

Le 12/09/2020 à 06h 53

Je sais pas ce qu’il en est pour les autres méthodes d’authentification, mais pour l’OTP, tu peux injecter toi même ta clé privée AES. La clé ne sortant qu’en mode simulation de clavier, il y a quand même peu de chance pour une exfiltration à grande échelle.



Les failles qui pourraient exister serait de pouvoir sortir la clé privée de la clé, mais clairement si la NSA s’est réservé cette option, c’est pas pour aller te piquer ton compte NXI.

Le 12/09/2020 à 06h 47

j’ai pas le courage de remplacé mon domoticz moi :/



j’utilise ifft juste pour faire le pont entre google home et domoticz (via des appels à l’api de domoticz).



il existe une solution pour ça ?



il y a controlctiz mais payant également :/



pff je comprends même pas pourquoi google intègre pas ça directement dans leur app…

Je vois pas où est le courage de céder à la facilité du cloud.



Je trouve ça bien plus courageux de garder la maîtrise de sa domotique. En plus ça évite aux boîte du cloud de faire de la télémétrie sur votre vie privée, ou de faire payer 9€ par mois pour pouvoir continuer à ouvrir ses volets… et ce tarif la, perso, je remet une manivelle :)

Le 10/09/2020 à 19h 35


Pseudooo a dit:


Il faut bien un modèle économique. Quand c’est gratuit tu te doute bien qu’au bout d’un moment il va falloir donner une contrepartie.


Entre 0 et 10€, y a pas mal de possibilité, comme par exemple 10 ou 20 cts par scénario + 1cts le paquet de 100 actions, un truc comme ca un peu à la carte.

Le 12/09/2020 à 06h 39

Je suis content de voir que je ne suis pas le seul à bannir cette marque d’escroc.



Entre leurs produits bas de gamme aux prix « marketingement » haut de gamme, les méthodes de voleur sur les ODR. Et les prises d’otage des client sur le DTS, cette marque n’est clairement pas recommandable. Et quand en plus on apprend qu’ils emploient des enfants dans les mines… ils enfoncent un peu plus les clous de leur cercueil pour ma part.

Le 11/09/2020 à 09h 31

Au moins, ça a le mérite d’être clair.



A genoux ou une balle dans la tête?