votre avatar Abonné

ForceRouge

est avec nous depuis le 11 mai 2008 ❤️

3028 commentaires

Le 27/06/2020 à 09h 38

Si on s‘en tient à ce que dit Apple pour l’instant, je ne vois que des inconvénients coté utilisateurs. Peut être qu‘Apple sort d’abord les mauvaises nouvelles pour ensuite faire une grosse comm public sur les avantages.



Mon MacBook ne me sert qu‘à lancer Safari et iTerm2, donc x86 ou ARM, ca va pas changer ma vie, ni celle de la grande majorité des utilisateurs MacOS (safari, final cut, xcode, visual studio, git, …). Hors gaming, qui sera optimisé x86_64 je pense (cf futur console) + CG externe au CPU (PCIe), ca ne devrait pas être trop choquant de passer de x86 à ARM.



En revant un peu, en bonne nouvelle potentielle, ça serait une augmentation de l’autonomie de 10h actuellement vers 40/50h? Quand on voit l‘autonomie d’un iPhone SE avec sa mini-batterie et son processeur surpuissant. La, je pense qu‘Apple enterrerait une bonne partie des PC non-gaming.

Le 24/06/2020 à 22h 32

Je comprends pas pourquoi il y a négociation. Je négocie avec les impots moi? non, bah la c’est pareil. Y a une taxe, ils la payent, point barre.



Dans une négo, le but est que tout le monde parte content, donc s’il y a la taxe d’un coté, y a quoi de l’autre? Encore une grosse pigeonade dans le fondement.

Le 09/06/2020 à 16h 48







carbier a écrit :



Vu le nom de la structure: l’intermédiaire sert à gérer les achats groupés et à proposer des offres moins chères que si chaque membre de la structure l’avait fait dans son coin.

Le principe des achats groupés en quelques sorte.







Ouais mais vu que les cloud provider margent déjà très peu vu la concurence, l’achat a beau être groupé, ca ne va pas changer grand chose. Alors si en plus il faut ajouter le cout de fonctionnement de cap gemini… C’est clairement pas une affaire.



En plus, le but du cloud, c’est la flexibilité, la tu peux etre sur que dans ce type de contrat, c’est certain type de machine qui vont etre négocier et impossible de prendre la machine d’a coté qui sera hors contrat.



Bref, encore un truc qui ca couter plus que ca va rapporter.



Pour info, chez AWS, tant que la facture n’atteint pas 1 million, tu payes le même prix ta VM que t’en ai 1 ou 1000. Ensuite, les prix baissent, mais pas de beaucoup.


Le 08/06/2020 à 11h 09

Au feeling, je sens que les économies réalisé seront compensé par l’apétit de capgemini… Bref, les solutions de cloud sont déjà ultra accessible, pas besoin d’ajouter un intermédiaire.

Le 09/06/2020 à 16h 41







DanLo a écrit :



=>




  • Transcend 120Go MTS420S

  • Boitier Externe USB 3.1 à SATA 2242 M.2

    Total : 48€.



    Pour l’usage, du nVME me semble overkill (et trop cher). J’ai hésité avec un truc de 32 ou 64 Go (devrait être suffisant pour 4-5 isos…) mais ça revenait au même prix ou plus cher… Donc autant taper le 120 Go !



    (je ne sais pas comment donner les liens avec affiliation intégrée par contre…)







    Merci :)


Le 08/06/2020 à 11h 18







DanLo a écrit :



Ah ben je ne te remercie pas David… Je viens d’acheter un SSD M.2 2242 + boitier USB 3.0 pour 45€ histoire de mettre tout ça dedans…







T’as pris quoi comme matos?



Avec le lien affilié NXI tant qu’à faire:https://amzn.to/2pggomo


Le 04/06/2020 à 11h 25







Jossy a écrit :



J’attends le décret “on ferme internet sauf les sites du gouvernement fédéral” quand il sera tout fâché… <img data-src=" /> :popcorn:







Depuis son voyages en Corée du nord :)


Le 02/06/2020 à 09h 57







secouss a écrit :



Dingue qu’il faille que le patron d’un des plus gros hébergeur européen attaque sur twitter des politiques pour avoir enfin du mouvement…

J’adore particulièrement le fait que les services de l’état n’ont pas transmis le cahier des charges… Quand c’est flou c’est que c’est pour les GAFAM







C’est justement la où AWS est très fort. C’est que tu veux commencer un truc, mais tu sais pas trop quoi, ni trop comment, bah tu mets tout ton bordel dans AWS et t’es sure que ca marchera un minimum.



T’as besoin d’une base de donnée mais t’as pas de DBA =&gt; Un chèque à AWS

T’as besoin de stocker de la data sans investir dans un SAN =&gt; Un chèque à AWS

T’as besoin de VMs pour faire un lab =&gt; Un chèque à AWS

T’as besoin de bande passante =&gt; Un chèque à AWS

etc…



AWS te facturant à l’octet, tu es sure de ne pas payer pour rien. 1 To consommé (stockage, bande passante,…) = 1 To payé.



Et tout ca, tu peux le faire sans cahier des charges d’infrastructure. Quand tu veux faire une appli mobile à la con, tu fais évidement un cahier des charges des fonctionnalités applicatives, mais t’as pas forcément envi ni les compétences de te taper de l’infrastructure.



Quand on fait un projet, on fait pas un cahier des charges du nombre de paperboard et de feutres nécessaires. Bah AWS essaye de rendre la parti infrastructure aussi secondaire que du papier et des crayons. Tu te pose pas de question, et tu payes :)



Quand tu deviens mature, et que tu veux grossir ou réduire les coûts, bah tu commences à faire de la vrai infrastructure pour rationaliser les coûts et arrêter de payer 2000 VMs… le prix unitaire x 2000… ou de payer le prix de la bande passante interne entre tes serveurs, ou de payer tes 4 To au tarif de 4000 x le prix unitaire du Go.


Le 29/05/2020 à 19h 54


brazomyna a dit:


C’est vrai pour certaines déclinaisons du pi (CM, Zero, Zero W, Zero WH, Pi2, 3 à la rigueur). Tu peux faire ton marché en fonction du besoin de ton projet en conso, puissance, connectivité réseau, ports.Et ils ont encore la possibilité de décliner les versions, ici pour mettre une goutte d’eMMC, là pour ajouter un port, etc…Concernant le PI4 c’est une analyse pour le moins optimiste. Pour moi, avec le RPI4 existe tel quel parce que la fondation se sent obligée de proposer sans cesse du neuf pour faire “vivre la marque Pi”, quitte à ce que ça ne réponde plus à un vrai besoin (ou à un besoin bien mieux couvert par d’autres solutions), voir quitte à régresser (le ventilo, sérieux ?)


Je ne peux qu’être d’accord. Et je n’utilise que des Pi basse conso. Un vieux Rpi 1 (la version avec 2 ports USB) pour mon domoticz, conso électrique ridicule, et un Rpi Zero W pour le relevé de conso de mon compteur enedis. Pour moi, les Rpi4, ca chauffe et consome trop pour ce que ca apporte.

Le 29/05/2020 à 18h 49


Soltek a dit:


Elle n’a pas de port Ethernet et même en lui en ajoutant un via USB elle est en USB 2.0 :(


C’est vrai, je l’ai et en WiFi elle n’arrive pas à gérer un gros brdrip hd 4k HEVC 10Bits. Par contre avec un adaptateur a 5€ usb ethernet 10100, elle décode tout.



Avant j’avais un mini PC, bien plus cher, et incapable de décoder du H265.

Le 29/05/2020 à 18h 45


David_L a dit:


Oui, bon, après comme dit plus haut : on peut vouloir utiliser une machine pour autre chose que décoder du HEVC 10 bits avec HDR (il y a de très bons IGP/GPU qui font ça, ou même des SoC dédiés ;))


Tout à fait, mais Brazomyna parlait entre autre, d’en faire un lecteur multimédia.



A titre perso, j’ai un mini pc avec un carte mere qui a un Celeron J3455 4 core + 16 Go de RAM. Dessus un proxmox avec 24 conteneur LXC et 2 VMs sous proxmox. Conso à la prise: 10W

Le 28/05/2020 à 21h 57


Obidoub a dit:


Je suis d’accord avec le fait qu’un Raspberry Pi sera toujours limité par sa conception, et que beaucoup ont le fantasme d’en faire un PC parfait à bas prix, à tort. Néanmoins ça ne revient pas si cher si tu dispose déjà des composants (qui sont standard).Par contre je suis pas sûr que la comparaison avec Intel Atom soit flatteuse. Ces CPU sont extrêmement mauvais, surtout que z3850 si je dis pas de bêtises c’est un processeur de smartphone.A mon avis le Pi entre en concurrence avec les VPS (qu’on trouve à 3€ HT/mois) ou les NUC, pour celui qui a du budget.N’empêche 4 cœurs 64 bit + 8GB de RAM ça commence à devenir intéressant pour un cluster Kubernetes ou Docker.


Comme tu le dis, le problème des Pi, c’est que pour avoir un kit complet, bah le tarif n’est clairement plus interessant. Et truc con, mais un Pi, ca n’a même pas de bouton Power…



Le gros gros soucis après sur les Pi, c’est le manque de port S-ATA. Perso, je n’utilise que des cartes SD industrielles (sorte de mini SSD), j’ai plus aucun problème de carte SD HS, mais ca coute une blinde, et la capacité est très limité.

Le 28/05/2020 à 21h 54


brazomyna a dit:


je vois pas l’intérêt du truc. Le pi à la base était bon pour des projets embarqués, sa faible conso, sa petute taille, son intégrabilité.Si on veut faire un mini pc desktop, un lecteur multimédia ou un mini serveur, y’a d’autres solutions bien plus adéquates. Et quand on prend tout en compte: carte sd, boitier, alim, ça devient ridicule le coùt total.A titre de comparaison un mini-pc à base d’atom z8350, on en trouve à 80 balles, tout compris. C’est du x86 standard bien mieux supporté par tout (win10 y compris), boitier, alim, fanless, emmc intégrée, etc.


Attention, le z8350 ne décode pas l’HEVC 10 bits. Donc pas de HDR. Pour du multimédia, Mibox3, 40/50€ et ca fait le café.

Le 28/05/2020 à 21h 44


eureux a dit:


Désolé, je me suis fait avoir par le mélange des commentaires multi-produit…. Quel plait ce truc, on n’est pas dans des couleurs du même tee shirt!C’est le seul cas ou tu gagnes. Si tu ajoutes des convertisseurs à ton switch, tu ne fais que perdre car tu ajoutes conso RJ45+optique. Meme si tu ajoutes un https://mikrotik.com/product/crs305_1g_4s_in, il faut compenser 10w de surplus, donc minimum 3 liens @10G pour équilibrer.Coté player, c’est facile avec des box type Android TV. La shield, c’est 5 à 10W mais en Idle aucune idée. Coté serveur, cela dépend de ce qu’on peut faire en contournant les bridages des opérateurs qui n’aiment pas trop ça. Ou changer d’offre/box. Une livebox 5, c’est 6.6W en idle,



brazomyna a dit:


Oui, pour la partie mise en oeuvre, j’ai de l’info: côté player, ma TV est déjà une TV android (Sony KD55A1, + une Xiaomi MiBox pour une TV secondaire). Mais en fait la TNT, c’est bien suffisant pour l’usage qu’on en a. Donc une antenne suffit (+ la qualité en Hertzien est meilleure que l’IPTV, + pas de souci si coupure du net). côté serveur, j’ai déjà lu des exemple d’abonnés qui ont giclé le freebox server, remplacé par un simple routeur, et ça fonctionne.Je cherche plutôt à l’estimer l’impact en gain de conso. Déjà parce que c’est vertueux, et parce que c’est autant (freebox server) d’économie de jus qui ajouterait de l’autonomie à l’onduleur en cas de coupure de courant plus longue.


En gros pour résumer mon post perdu, je suis exactement comme vous, j’ai tout monté chez moi dans le but d’être efficient coté énergétique. Et pour la partie réseau, ne surtout pas faire l’impasse sur le WiFi.
WiFi = moins de switch, moins de port sur les switch, moins de sfp, et quand on ajoute un nouvel équipement, seul le client consomme, l’AP étant mutualisé.

Le 28/05/2020 à 21h 39


kgersen a dit:


oui j’ai laissé tombé aussi. ce site n’est pas encore techniquement au point…


Surtout quand on prend le temps d’écrire un truc bien construit etc… et pouf… 15mn de perdu. bref, tant pis, je ne contribuerai pas à cette news.

Le 28/05/2020 à 21h 19

Bon c’est pénible, ca fait 2 fois que j’écris un commentaire qui est juste perdu…

Le 27/05/2020 à 21h 11

Bon bah j’ai écrit un commentaire, qui n’est jamais arrivé… Pourquoi ne pas avoir pris le module commentaire de NXI qui est bien meilleur?



Sinon pour le sujet, la fibre à la maison, c’est compliqué, surtout en location vu la fragilité des fibres. En location, où les gens vont tenter de foutre le coax dans le LC, ca va tout de suite tout bousiller.



Chez moi, j’ai pas mal de prises réseau, et je pense que le cuivre a encore de beaux jours devant lui. Rien que pour le POE pour alimenter les points d’accès wifi, les caméras, les switch salon et bureau, le RPi domotique, …



A mon avis, après la 2,5G voire 5G sur cuivre, on aura du WiFi tellement performant que tout le réseau se fera sans fil.



Clairement, dans un passé lointain, j’ai toujours été 100% pour le filaire pour le débit, fiabilité, jitter, sécurité. Mais depuis que j’ai investi dans un réseau WiFi de qualitay, je n’hésite plus à mettre dessus des équipements pas trop gourmand comme la TV ou le PC portable pro (qui est quasi fixe en ce moment…) alors que j’ai du RJ45 pas loin.

Le 28/05/2020 à 20h 41

Une simple affaire de prise d’otage comme les USA savent le faire, un peu à la façon Alstom quoi.



Sauf que la, c’est la Chine, et à mon avis, ils en ont juste rien à foutre de faire la même en 10 fois pire à des haut dirigeant US.

Le 27/05/2020 à 20h 33

Les téléphones Android sont de la m. Non pas qu’Android lui même soit mauvais, mais le business model autour des fabriquant, developpeurs, les googles apps, etc… fait que l’ensemble est mauvais. Mauvais en terme de perf, mauvais en terme de suivi, mauvais en terme de sécurité.

Le 23/05/2020 à 10h 45

vite vite, faut acheter les derniers Razer phone 2 d’occaz sur leboncoin :)

Le 20/05/2020 à 21h 40







alex.d. a écrit :



Donc tu es en train de me dire que ceux qui ne paramètrent pas eux-mêmes leur DNS reçoivent une configuration de quelqu’un d’autre ? Qui parlait de Captain Obvious, déjà ?







Bah oui, c’est le principe même du DHCP, tu reçois une configuration que quelqu’un d’autre a décidé pour toi.


Le 20/05/2020 à 17h 48







David_L a écrit :



Non, mais c’est une réaction assez commune pour qui ne s’intéresse au sujet qu’à la surface. Cela tombe bien, on a fait une série de papiers sur le sujet et les liens sont dans la brève. Bonne lecture ;)







Je vais me faire l’avocat du diable. Parfois une discutions de piliers de bar est plus dans le vrai qu’une analyse approfondi. Je ne dénigre pas NXI, vous faite un travail formidable.



On ne peut pas reprocher à sytoka de se poser la question, même si en l’occurence, elle ne concerne pas Chrome, mais Mozilla. Ok DOH, ce n’est qu’un protocole, mais concrètement, aujourd’hui, combien on a de provider de serveur public DOH (car faire du DOH à la maison, ca sert à rien)? 1, 2 , 10? Aller, wikipedia nous en donnes 7 en.wikipedia.org WikipediaDonc Mozilla “a” (ou “va”, suivant les régions du monde) rediriger toutes les reqêtes DNS vers un nombre restreint de serveurs DNS-DOH.



Et 7 providers, même 50 ou 100, c’est que dalle face aux centaines de milliers/millions de serveur DNS répartis autour du monde.



Aujourd’hui, un PC en france, qui tape les DNS de son FAI, pour aller sur un site hébergé en france, ca ne laisse pas de trace ni d’info aux US. Avec DOH, on est quasiment sure que oui.



On peut aussi citer wikipedia sur la page du DOH:



“The DNS server assigned by Internet Service Providers is typically located in the country where the user lives, and is thus in the same jurisdiction. DNS over HTTPS implemented in browsers uses, as of May 2020, exclusively DOH servers hosted by American companies. Due to US law extending to all servers operated by American companies regardless of the physical location of the data, non-US persons using such services may thus have less privacy protection than what their own country would offer.[19]”



Donc, sans même entrer dans les détails, on ne peut pas simplement répondre “non”. La réponse, c’est plutôt “oui, on centralise, mais “.


Le 20/05/2020 à 17h 28







alex.d. a écrit :



La réponse DHCP te propose des serveurs DNS par défaut. Tu es libre de les utiliser ou pas. Moi je ne les utilise pas.







Ok captain obvious, quand je dis personne, je parles de 99,9% de la population. A part moi, personne dans ma famille n’a ne serait-ce qu’entendu le mot DNS. Quand je dis “imposé”, c’est dans le sens où on ne te propose pas le choix de choisir un serveur DNS. Le PC de madame michu, sont DNS, c’est celui que sa box lui donne.


Le 20/05/2020 à 10h 55







Soriatane a écrit :



J’apprécie l’analyse de Vivien au sujet de DoH et de son intérêt pour CloudFare (et Mozilla):

DNS over HTTPS (DoH) est une première étape pour la fin de la surveillance d’internet ou le blocage de sites internet.” Le trio DoH + TLS 1.3 + Encrypted SNI a pour effet de rendre impossible pour un intermédiaire entre le navigateur et l’hébergeur de pouvoir savoir quel contenu est regardé et donc de faire un blocage. Ce n’est pas un effet de bord, mais l’objectif principal d’eSNI. “







Le problème reste le même.



1/ Personne ne change ses serveur DNS, ils sont soit imposé par le navigateur, soit par le dhcp.

2/ Actuellement, peu de serveur DOH, donc tout est centralisé chez quelques acteurs. Ton fai ne peut plus savoir ce que tu fais, mais cloudflare oui.

3/ Dans le futur, tout sera DOH, ton fai te donnera des serveurs DOH via le dhcp de ta box, qui seront accepté par le système, et seront utilisé par le navigateur, donc retour à la case départ, à la différence que les requetes DNS seront chiffré entre ton pc et ton fai. Mais le fai peut savoir a nouveau ce que tu requetes. Sauf que ca bloque les man in the middle entre toi et le dns.



Pour moi le problème, c’est cette phase 2, et je pense qu’elle va durer très longtemps…


Le 20/05/2020 à 10h 47







sytoka a écrit :



&gt; La première évolution bienvenue est DoH.



Le DoH va encore plus centraliser internet. Le DNS était un des rares services (avec le NTP) qui résistait encore à cette centralisation. La NSA aura une grande partie des requêtes DNS du monde et vos données perso encore plus vendues (pour 99% des personnes).



Je préfère le DNS de tous les provideurs Européen qui sont obligés de respecter le RGPD et sont soumis à nos lois (que nos représentants votent) !



Le DoH n’est pas du tout une avancée dans les démocraties. Je ne comprends pas pourquoi NextImpact peut le promouvoir ainsi, et se voiler la face.







Pour moi la question est plus complexe. Sur le fond, DOH n’est qu’un protocole. C’est ce qu’on en fait le problème.



Et le problème, pour moi, c’est que les cloudflare and co profitent de leur “agilité” pour pousser par la force des choses le fait de tout centraliser et tout analyser (quoi qu’on en dise, les services de renseignement sont au dessus des lois). Tout va vite, ils vont vite, on change tout rapidement, personne n’a le temps de tester et mettre en prod, et voilà, tout est centralisé en un rien de temps chez quelques acteurs majeurs, tous US.



Dans les faits, il va falloir attendre que DOH remplace tous les bons vieux DNS over UDP, et ca va prendre un paquet d’années. Et d’ici la, on aura encore changé de techno.


Le 20/05/2020 à 19h 33


patos a dit:


Mets les mots dans le bon ordre: j’ai dis un cache SSD. pas un SSD en cache. Je dis juste qu’un disque dur, tu peux récupérer les données dans 99% des cas en cas de panne. Quand tu vois qu’ils récupèrent des disques qui ont subit accident électrique + incendie + eau + fumées toxiques… C’est fou. Si c’est sur un SSD, ben tu pleures le deuil de tes données.Ca on est bien d’accord. Mais quand les gens ne veulent pas de cloud pour plusieurs raisons (l’envoi moisi en ADSL est certainement la seule valable), ben on conseille les choses le plus sûr.Perso, j’ai plus de problème de disque dur depuis que je n’achètes plus de Seagate ^^


Perso, j’ai plus de problème de disque dur depuis que je n’achètes que des SSD :)



Le seul endroit ou il reste des HDD, c’est mon NAS 2x4To, le disque de backup du NAS en USB 1 To, et le NAS chez mes parents pour le backup externe en 2x2 To. Et comme je le disais dans mon premier commentaire, j’ai hate que le prix des SSD baisse au prix des HDD pour tout remplacer par des SSD a fur et à mesure des renouvellement. Pour un NAS de stockage à la maison, j’ai pas besoin de perf, ca sert juste a stocker les photos, documents et films. Du PLC 8To à 25Mo/s avec 30Go de cache, même avec une durée de vie de 100 TBW me suffirait largement.

Le 20/05/2020 à 18h 18


Etre_Libre a dit:


Effectivement en QLC le cache SLC aide bien, même s’il a ses limites en usage intensif.Pour exemple je viens de tester une copie vers mon Samsung 860 QVO 1 To, j’ai pu avoir bien 40-50 Go de copie à 480 Mo/s puis les performances se sont effondrées à 75 Mo/sParfois, je copie seulement quelques Go avant d’avoir ce résultat, c’est assez variable. Je m’y attendais, mais voilà à savoir que ponctuellement ça encaisse un peu, et après il faut “attendre”, mais à ne pas prendre pour usage intensif très régulier (ce n’est pas mon usage, quelques VMs occasionnelles, et ça tourne très bien).


La solution parfaite, c’est la solution qui répond au besoin. J’ai pas mal de SSD, (MLC, TLC et QLC) et j’ai aucun problème, ils ne servent juste pas à la même chose.



Dans mon serveur, j’ai un MX500 2TB TLC car ca écrit beaucoup.
Alors que pour stocker mes jeux sur mon PC de bureau, c’est sur un QLC car une install depuis la fibre 1Gb/s vers un QLC, ca passe sans broncher, et qu’en lecture, c’est la même chose qu’un MLC, c’est le SATA qui bride.

Le 20/05/2020 à 18h 13


patos a dit:


Quand un disque dur claque par un choc électrique (surtension, foudre, …) tu peux récupérer les données dessus. Sur un SSD, ça doit être marrant 5mn.Perso, tout SSD est sauvegardé ailleurs, en général sur des disques durs classiques.Pour comparer par montant, j’ai regardé chez mon grossiste, tu as, à moins de 10€HT d’écart: Samsung 860 Qvo 1TO Samsung 860 Evo 500Go* Samsung 860 Ppro 256GoUn conseil, achètes 2x8To et mets un cache SSD en écriture, ça te coutera moins cher et sera plus efficace/ fiable.


Ce qu’il faut pas lire parfois :D



2 HDD + 1 SSD cache, c’est plus efficace en quoi? En tout cas pas en performance, ni en consommation électrique, ni en décibel, ni en vibration, ni en poids, ni en taille, ni en nombre de port SATA/PCIe, bref… il faut donner le contexte dans lequel c’est mieux, pas juste dire “c’est mieux” car c’est très majoritairement faux. Le seul truc que tu gagnes, c’est en disponibilité, et encore, même pas puisque le SSD peut tout aussi bien lacher.



Perso, je commence a accumuler autant de SSD que de HDD dans ma vie d’informaticien et d’après mon expérience (qui ne reflète pas forcement la réalité, je sais), chez moi, les SSD sont de très très loin plus fiable que les HDD.



Ensuite, un SSD, bien souvent quand il est HS/usé, reste accessible en lecture seule.



Bref, le seul conseil à donner c’est “montez la config que vous voulez, mais backup externalisé des données importante”. Un dropbox ou un OneDrive est parfait pour ca. Tout le reste, c’est juste pour gagner en disponibilité.

Le 19/05/2020 à 22h 52

Si un moment, la PLC permet d’avoir des prix au Go plus bas que des HDD classiques, on pourrait en foutre dans les NAS pour stocker ses photos et films. Un petit syno DS420SLIM avec 4 SSD de 4 To en RAID5, ca vous tente pas?

Le 15/05/2020 à 23h 01







Ricard a écrit :



Le problème avec les accidents, c’est qu’ils sont impossibles à prédire, justement.







Ce que j’explique c’est un scénario de SF si on pousse le curseur au maximum.



Mais la on n’est pas si loin. Quand Google sera capable d’avoir des infos sur ta santé, tes

déplacements, ce que tu dis chez toi, tes séances de sports, tes recherches sur le web, tes fréquentations, la vitesse à laquel tu roule, l’heure à laquel tu te couche, ou tu passes tes vancaces, etc…

Tu file ca a bouffer à un réseau de neurone qui analyse ton comportement par rapport aux comportements passé, et t’en sors un magnifique score de risque plutot bien afiné.


Le 15/05/2020 à 14h 41







j34n-r0x0r a écrit :



<img data-src=" />



Vends montre Fitbit avec 5 ans d’historique “sportif”, profil encore non associé avec numéro assurance/CPAM.

 

1K€ à débattre.







Malheusement, ca va venir…



Le truc marants, c’est que si on suit ce raisonnement jusqu’au bout coté assurances, bah ces assurances ne servent plus à rien.



Le but d’une assurance, c’est de mutualiser le risque, mais si dans cette mutualisation, on arrive a prédire l’avenir de façon tellement précise qu’elle s’avère juste à tout les coups, bah soit l’assurance ne nous assure par car elle est sure qu’on va avoir un incident, soit on ne prend pas d’assurance car on est sure de ne pas avoir d’incident. Bref, dans les deux cas, il n’y a plus d’assurance…


Le 15/05/2020 à 14h 35

“les données sur la santé et le bien-être de Fitbit ne seront pas utilisées pour les publicités”



Aucune confiance dans Google, le truc qu’on attend, c’est pas de savoir à quoi ca ne va pas servir, mais plutot à quoi ca va servir.



Le problème avec ce type de phrases, c’est qu’on élimine 1 case parmis des millions, sans parler des indirections qui peuvent au final servir pour les publicités, mais indirectement.

Le 15/05/2020 à 16h 51


eureux a dit:


Je pense que David parle du danger de QNAP envers Synology car QNAP se développe vite et bien alors que Synology reste sur ses acquis.


18h et toujours pas réveillé :) j’avais pas compris

Le 15/05/2020 à 16h 00


David_L a dit:


Je mentionne les deux principaux, pour des raisons différentes. Synology n’est pas un concurrent pour la partie hardware vis-à-vis d’Asustor, DSM par contre reste le leader. QNAP c’est surtout leur développement qui est un danger (pour l’un comme pour l’autre)


C’est quoi le danger avec QNAP? Actuellement, j’ai 3 synology et au prochain renouvellement, je penssais partir sur QNAP car le choix de chiffrement ENCFS fait par synology ne me convient pas (le module kernel est imcompatible avec un partage NFS, et ce filesystem limite la taille du path+filename). Chez QNAP c’est du chiffrement au niveau bloc, donc a part la perte de perf, ca n’implique pas de limitation coté user.

Le 15/05/2020 à 16h 02


Shamaan a dit:


J’ai une question en lien avec les montées de version. Je compte monter un NAS DIY, je trouve intéressant d’avoir une unique machine avec tous les services mais je crains de tout perdre (notamment le contenu du NAS) si Proxmox déraille… Comment voyez-vous la stabilité des montées de versions de Proxmox ?Au niveau des disques, je compte allouer un ou des disques complets pour chaque usage et aucun RAID, je n’ai pas de criticité sur la dispo et je gère mes backup par ailleurs. Je compte également rester sur du formatage ext4.


J’ai pas trop de recul, mais pour cet update par exemple, j’ai juste clique sur “update”, j’ai reboot et voila.



Après passer de la 5 à la 6 ou de la 6 à la 7 de cette façon, je sais pas trop. Au pire, t’arrête toutes les VMs/LXC, full backup, reinstall de proxmox, restore de toutes les VMs/LXC.

Le 14/05/2020 à 20h 29


eyce a dit:


Pour OVH tu parles de cet incident ? http://travaux.ovh.net/?do=details&id=25709 Je ne vois pas où il est question de problème avec ZFS.


Au temps pour moi, j’ai dit une connerie. Merci pour la rectification.

Le 13/05/2020 à 19h 44


OlivierJ a dit:


J’ai une connaissance qui utilise beaucoup ZFS en prod (plutôt sur du FreeBSD cela dit, mais pas seulement), et il pratique les snapshots et le ZFS send et ZFS receive pour faire des backups incrémentaux et des sortes de synchronisations, il en est content.(pour info)


Pour moi ZFS, c’est pas ‘sec’, et encore moins sous linux. Des barrettes de RAM qui lachent, même ECC, j’en ai vu un paquet, et pourtant sur du matos very high end. Alors quand on sait que ZFS part du principe que la RAM est parfaite, ce qui et faux, bah ça refroidi.



En 2017, une corruption ZFS était la source d’un arrêt de plusieurs jours pour des milliers de client chez OVH, et rebolote il y a même pas un mois, c’était le tour de Gandi de se taper une corruption ZFS sans possibilité de restore. Le problème, c’est que t’a beau tout faire dans les règles, ca changera pas le fait que ZFS a un prérequis qui est impossible à garantir.

Le 13/05/2020 à 15h 23


Nerthazrim a dit:


J’en profite pour lancer une bouteille à la mer : est-ce quelqu’un a une bonne solution (sorte d’équivalent de Veeam) pour faire des backups incrémentaux des VMs Proxmox ? Je connais cette solution mais je n’ai jamais voulu tenter parce qu’il faut dépatcher/repatcher à chaque upgrade de Proxmox et ça me chauffe moyennement.Quelqu’un connait autre chose de solide ?


Perso, j’utilise le backup intégré à PVE, mais c’est vrai qu’il n’est pas incrémental. Si ton stockage est externe (SAN, Ceph, …) tu peux peut etre trouver une solution de backup a ce niveau la.



Sinon, gerer les backup au niveau applicatif pour les grosses volumétrie. Par exemple, tu backup avec proxmox toute les vm/ct de compute, et tu fais un mysqldump pour la DB.

Le 13/05/2020 à 11h 12


cyp a dit:


On peux créer des bridge dans l’interface depuis pas mal de version (je sais plus laquelle mais c’est depuis plusieurs années) et il me semble que les versions récente on améliorer le process car jusqu’ici il fallait passer par le terminal ou redémarrer pour que certaines modification soit pris en compte alors que maintenant on peux les appliquer également depuis l’interface (à vérifier car j’ai plutôt tendance a passer par la cli aussi).


Je confirme, la conf réseau peut se faire depuis l’interface directement. Même mieux, tu peux le faire via l’API (https://pve.proxmox.com/pve-docs/api-viewer/index.html#/nodes/{node}/network/{iface}) comme ca, t’as même plus besoin de te prendre la tête à te connecter sur les nodes.



Pour info, j’ai fait un peu mumuse avec Terraform sur proxmox et ca permet de créer des lxc (testé) et des vms (non testé) en masse super facilement.

Le 13/05/2020 à 09h 47


KP2 a dit:


Pour un client, j’ai mis les mains dans proxmox récemment (pour tester) et j’ai été tellement déçu… Un hyperviseur a grosso modo 3 choses à gérer : des VM le stockage* les réseaux virtuelsProxmox gère plutôt bien les VM et le stockage mais il a pratiquement fait l’impasse sur les réseaux virtuels. C’est incompréhensible… Faut bricoler à la main et c’est franchement degueulasse.Je voulais le conseiller à un autre client mais je crois que je vais m’abstenir…


Au contraire, je trouve la gestion réseau au top. Après, c’est vrai que comme je connais bien les bridge linux et interface bonding, ca me rassure de voir la conf qui est appliqué. En gros, simple, pas de surpise, pas de magie.
Par contre, j’ai tenté l’aventure openvswitch au lieu des bridges de base, bah non concluent, trop de problèmes.



Pour revenir à Proxmox, j’ai découvert ca il y a un an environ, et j’en suis vraiment fan. Venant du monde vmware qui consome du CPU a gogo, la, j’ai quasiment tout en LXC (sauf mes VMs qui font du VPN) et ca tourne sur un pauvre CPU Intel Celeron quad core sans soucis (PC complet = 10W à la prise 240V), y compris de l’encodage Plex en h264.



Après, pour utilser ca en prod, il faut quand même avoir des bases en kvm/qemu, lvm, bridge, bonding, lxc, etc… pour pouvoir rattraper un problème au cas où.

Le 14/05/2020 à 22h 07


SartMatt a dit:


“Ainsi, la différence entre SAN et NAS, comme celle entre Block et File Storage est simple à comprendre : dans le premier cas vous avez accès à un volume qui sera à formater. Dans le second, vous pouvez lire et écrire des répertoires/fichiers directement.“J’ajouterai une différence importante à ce niveau : la conséquence de ce mode d’accès différent c’est que sur un NAS, plusieurs clients peuvent avoir accès à un même espace (le système de fichier étant géré par le NAS), alors que sur un SAN, chaque espace est dédié à un client (et chaque client gère le système de fichiers sur son espace). Le NAS est donc avant tout un moyen de partager des données, tandis que le but du SAN est de déporter le stockage.


Pas forcement d’accord sur ce coup là, tu prends par exemple VMware, la VMFS a des mécanismes qui permettent justement de gérer un accès concurrent au même bloc-device depuis plusieurs compute node.
On peut aussi prendre comme exemple Oracle, a qui on présent des LUNs directement à tous les nodes, l’applicatif gérant les accès concurrent au bloc-device partagé.

Le 14/05/2020 à 20h 46


Soraphirot a dit:


[…]


Avec les échanges précédent avec David, j’ai clairement changé de point de vue. Ryzen est clairement bien plus intéressant, y compris en gaming en prenant un CPU plus petit, mais meilleur CG. Par contre, je persiste, le CPU a un impact direct sur les performances. Exemple la: youtube.com YouTube

Le 13/05/2020 à 17h 13


Arona a dit:


ForceRouge faut lâcher l’affaire avec le X570 c’est trop cher, ça chauffe, etc. Le B550 est clairement attendu par beaucoup. Personnellement je me verrais bien prendre un B550 avec un petit Ryzen (Zen+ ou Zen2) genre 3300X par exemple et viser un haut-de-gamme Zen3 en remplacement un an ou deux après (en occasion).


Non mais c’est clair, je ne prendrais pas de X570, trop cher et ne sert à rien, sauf pour l’OC.




Burn2 a dit:


Ben et les chipsets 450??? Après c’est à éviter pour l’ugrade, mais ça existe aussi en clef en main mis à jour supportant les ryzen 3XXX.Par exemple la gamme “MAX” chez MSI supporte les ryzen 3XXX sans maj du bios, tu es sûr d’avoir une carte mère supportant la génération en question.Mais bon il vaut mieux partir sur une 550 pour les mises à jour futures.


Du coup, je regarde B450 + 2700X packagé avec son ventirad. Ca permet de passer à une RTX1080 pour le même tarif, avec un vrai gain de fps, tout en gardant le 8C/16T.

Le 13/05/2020 à 15h 05


David_L a dit:


Je ne précise pas de marque volontairement ;) Par contre si tu es à budget contraint, prendre du X570 n’a pas vraiment de sens.


Surtout que je ne compte pas OC.



Merci

Le 13/05/2020 à 14h 43


David_L a dit:


Un PC, un CPU, un GPU, c’est toujours une question de budget, de besoin et de compromis. C’est pour ça que les notations sont débiles dans les tests, tous comme les avis définitifs du style “Bidule est le meilleur machin du moment).Ton exemple est bon : un 3800X a des avantages qu’un Core i7 n’a pas. Le budget ne sera d’ailleurs pas similaire, on peut d’ailleus même préférer un 2700X selon les cas. La fréquene du CPU peut avoir un impact dans les jeux, mais un joueur aura-t-il plus besoin de fréquence haute, ou d’un Core i7 avec plein de coeurs ? Un peu des deux, mais son meilleur choix pourrait être dans un CPU plus “faible” avec un meilleur GPU.Comme tu considères inutile d’avoir 8C/16T, ce qui ne sera pas forcément le cas pour qui fait souvent du rendu/compression, utilise des VM, etc. Chaque utilisateur devra choisir en fonction de tout ça, aucun n’est moins légitime qu’un autre… même si comme trop souvent, beaucoup auront de toutes façons plutôt tendance à se faire avoir par les sirènes du marketing des constructeurs et à faire des choix à côté de la plaque :D


Oui oui, j’ai bien précisé que je parles de mon cas, je ne fais pas une généralité. Mon coeur va clairement à AMD avec ses 8C/16T, c’est oufissime. Mais comme je joue aussi de temps en temps, c’est compliqué de choisir “la meilleur conf”.



Juste une précision, quand tu dis “Prendre un CPU moins cher, pour prendre une CG meilleur”, je comprends “prend un AMD qui coute moins cher, et met plus dans la CG”, c’est bien ca? Car si c’est ca, je ne suis pas d’accord. Avec le prix des X570 actuelle (ca changera peut etre la donne avec le B550), a tarif “Mobo+CPU+RAM” égale entre AMD et Intel, avec la même CG sur les deux config, Intel est meilleur en moyenne. Mais ca c’est valable que dans les jeux. Evidement que pour faire de la VM ou du rendering, AMD est très très largement devant.



A moins que tu parles dans les 2 cas, et plutot partir avec un i5-9600/2700X, au lieu de i7-9700/3800X mais partir sur une 2080 plutot qu’une 2070 ?



En tout cas, je vais explorer cette voie la.

Le 13/05/2020 à 12h 31


David_L a dit:


[…]


Merci d’avoir pris le temps de répondre.



Je me plante peut être totalement, mais à tarif égal, on a une conf R7-3800X vs un i7-9700F. Et malheureusement pour AMD, l’Intel est devant lorsqu’on cherche à monter une config qui tape dans les 90fps minimum dans les jeux récents. On le voit sur pas mal de vidéos de bench sur YT.



En vrac:




  • Je suis bien d’accord que quand on n’overclock pas, un chipset Intel-H ou AMD-B suffit. Les Intel-Z et AMD-X n’apportent rien en terme de performance pour un PC de maison.



  • Si je lache un gros billet (1300€ ~ 1500€) pour monter une conf, j’ai envi d’avoir les les derniers composants, pas les plus “puissant”, juste les composants de dernière génération. Et mettre un Ryzen 3th Gen sur un B450, ce n’est que du feeling, mais j’ai l’impression que c’est du bricolage, et pas cohérent avec mon billet de 1500€. J’ai l’impression d’être pris en otage par AMD. Du coup, la seule option, c’est les X570, mais 200€ la mobo, avec tout un tas de features d’OC qui ne - me - servent à rien, bah j’ai pas envi.



  • J’ai peut être pas saisi la façon de penser d’AMD. Mais qui change de CPU sans changer de mobo? En plus avec les histoires de fréquences de RAM qui doivent être en accord avec le CPU pour être optimisé, pour moi, modo-cpu-ram, c’est quasiment lié, et quand on change le CPU, bah on change tout. Les chipset AMD gèrent 2 ou 3 génération de CPU, si je prend un high-end gen X, je pense pas que passer au high-end X+1 ou X+2 soit vraiment rentable, surtout que le chipset sera ancien et n’exploitera pas le potentiel du CPU (lanes pci-e 4 par exemple). En général, un CPU high-end, on est bon pour 4 ans mini, moment où il faudra de toute façon changer le chipset car plus compatible. De plus, ce type de PC a toujours une seconde vie, on enlève la carte graphique, et ca devient un super PC bureautique a refiler dans la famille.



  • C’est vraiment frustrant, car avoir un 8 core / 16 threads sur un PC de la maison, c’est complètement dingue, ca me fait rêver, mais aussi tellement useless en pratique… (gagner 5mn sur un rendu 3D, pour le commun des mortels, c’est useless) Donc finalement, il ne reste que les jeux (où un chrome avec 200 onglets) pour justifier un choix de CPU, et 8 core intel, ou 8 core/16 thread AMD, ca ne change pas grand chose finalement pour les fonctions a coté du jeu.



  • Pour la virtu, c’est vrai, mais on revient encore à la question, qui fait un usage intensif de virtu sur son PC? perso j’ai une VM par client pour mon boulot, mais elles tournent une à la fois, et mon “vieux” i5-6600 ne bronche pas.



  • D’un coté, on a AMD, avec une archi récente, avec ses cores/thread de fou, mais par forcement utile, et avec une politique chipset à vomir.
    De l’autre coté, on a Intel avec un truc qui envoi du steak en gaming. Mais qui font chier avec leur archi CPU skylake toute troué qui doit bien avoir 5 ans maintenant. Les Intel gen10, c’est du Gen6 premium poussé dans les derniers retranchement. La crème de la crème d’un truc déjà obsolète…




Vivement l’année prochaine :)

Le 12/05/2020 à 20h 30

Pour avoir fait des confs AMD et Intel sur le configurateur de materiel.net, on voit que pour le gaming pure, Intel est toujours devant à cause du prix des cartes mère complètement abusé chez AMD. Pour faire tourner un Ryzen 3xxx gen sur un chipset en natif, il n’y a que le x570 et c’est 200€ minimum la carte mère.



Sortir un B550 6 mois après pour les “pauvres”, je trouve pas ca très propre de la part d’AMD (je dis pas qu’Intel sont des saints non plus)



Bref, c’est bien beau de faire des CPU pas cher, mais si c’est pour se gaver sur les chipset a coté, ca n’a aucun interet.

Le 13/05/2020 à 19h 54







psn00ps a écrit :



iphone







Encore un fanboy.



Si tu clics sur le lien que tu donnes, tu verras que les iPhones sont patché longtemps, qu’Apple refuse de déverouiller leur téléphone pour le FBI et que les failles de sécu sont colmaté pour toute la gamme.



Par contre, j’attends toujours une preuve qu’Apple “freine ses téléphones, au fil des mises à jour, si bien qu’on ne peut plus l’utiliser normalement” (dixit l’autre fanboy)



Le 13/05/2020 à 15h 28







patos a écrit :



Si tu le dis. Je n’en veux pas pour moi mais ce n’est pas pour ça que je crache dessus.

Tu ne dois pas être mieux côté pomme apparemment.

 

J’ai beaucoup trop cherché de bons plans pour mes amis/familles qui avait un iphone mis à jour qui ramait du fion pour un usage smartphone. Ceux qui s’en servent de téléphone/lecteur multimédia, eux, n’en ont rien à faire en effet.



Et pourtant, je conseille aux gens de faire les mises à jour, mais je les préviens aussi.

Mais je te l’accorde, un téléphone mise à jour, freiné au moins par négligence technique par le constructeur et dont l’utilisateur ne peut plus normalement s’en servir est bien plus sûr qu’un téléphone dont on a le souhait de faire des choses avec.







Au lieu de parler dans le vent, tu peux donner un exemple? du concret? avec des preuves?