en tout cas, merci pour ce genre d’article :) j’aimerai bien jouer avec ce genre de matos, mais je n’en n’ai clairement pas l’utilité (et c’est pas donné non plus, ça ferait cher le jouet )
tout à fait d’accord pour l’idée que la sécurité doit pas être géniale :s
Le
28/04/2021 à
08h
34
erf, je sais plus le terme exact mais le truc du genre “sécurité par le secret” c’est naze et ça tient de moins en moins longtemps, c’est pas le fait de pas connaître le code qui doit servir de pilier à la sécurité du système bon sang normal que les gens aient pas confiance avec ce genre de bêtises.
autant dans le militaire je peux comprendre la politique du secret, mais pour un truc civil, qui devrait à terme concerner l’intégralité de la population, c’est pas normal d’avoir encore ce genre de choses.
pour OVH je sais pas, mais pour Orange (aucune idée pour la partie “BS” spécifiquement par contre) j’ai un à-priori assez mauvais. oui “orange ça marche” (pour la partie FAI) et on reproche souvent à d’autres opérateurs de pas être aussi disponibles partout.
mais j’ai l’impression que c’est uniquement grâce à une débauche de moyen, au lieu de chercher à comprendre d’où vient le pb pour le corriger.
analogie complètement foireuse mais compréhensible : on se plaint à la mairie de crever systématiquement en allant chercher du pain à la boulangerie, à peu prés tous les opérateurs vont demander une inspection de la route et faire refaire les 10m de trottoir où y’a des fers à bétons qui dépassent et flinguent les roues de tous ceux qui passent chez orange, on lance la construction d’une nouvelle autoroute, avec tout ce que ça implique (oui, une autoroute pour aller chercher du pain …)
j’ai l’impression qu’OVH au contraire essaie d’optimiser à fond sur tout les plans, niveau politique interne, ça me semble très différent et pas vraiment compatible
petite question pour les tests de l’exos, c’était en 512e ou en 4Kn ? (l’idéal serait d’avoir les tests dans les deux cas pour, peut-être, mettre en évidence des avantages de l’un sur l’autre selon certains cas mais ça a du prendre pas mal de temps ces tests avec 14to)
je pense que le btc aurait pu être stable dans un monde “idéal” sans les spéculateurs : les premier entrants on peu de puissance de calcul, mais la puissance nécessaire est faible, générer un btc est simple. quelques temps après, de nouveaux entrant arrivent (pas beaucoup), avec du matos plus récent (le btc rapporte pas assez pour que les premiers investissent pour mettre à jour leur matos), la puissance augmente, la difficulté aussi, les premiers arrivés ne gagnent plus beaucoup vu qu’ils n’ont plus qu’une petite partie de la puissance, mais ont des btc “d’avance”, les nouveaux entrants peuvent générer des btc car leur matos plus récent est plus efficace, mais payé au même prix que ce que les premiers ont utilisé pour leurs machines, avec une conso comparable.
avec un “cours” plus faible on aurait eu des arrivées plus échelonnées (un pi qui traîne dans un coin, le pc gamer acheté pour le dernier AAA quand finalement on joue aux sims ou à l’indé qui se contente d’un coeur et 1go de ram …), on n’aurait pas la difficulté et donc les besoins énergétiques actuels => stabilité du BTC
Le
20/04/2021 à
16h
52
(reply:1868772:skankhunt42 )
dans ce cas toute spéculation est un ponzi ? les premiers à avoir acheté une action quand elle était basse et se rémunèrent quant tout le monde en veut et achète au prix fort ? c’est donc un ponzi ?
c’est uniquement ça le problème du bitcoin la spéculation qui a fait exploser le prix d’achat en monnaie “officielle”.
s’il n’y avait pas eu de spéculation, le cours n’aurait pas explosé, il n’y aurait eu aucun intérêt de faire des fermes de minage, donc pas autant de puissance disponible, donc difficulté beaucoup moins haute, et les soucis énergétiques n’en serait pas car ça suivrait juste l’évolution de la puissance matérielle (un mec change de CG qui bouffait 200w par une nouvelle plus récente qui bouffe toujours 200w, mais triple la puissance, la difficulté augmente en conséquence donc la carte rapporte toujours strictement la même quantité de bitcoins par rapport à la puissance consommée, ceux qui n’ont pas changé leur carte gagnent moins, mais s’ils n’ont pas de besoin de changer de CG par ailleurs, c’est pas forcément intéressant d’en acheter une nouvelle)
si on indexe le bitcoin sur une monnaie officielle, bien sûr que ça va être volatil, mais c’était pas le but à la base. tu définis un prix pour qqch (un café par exemple il y a quelques années, il me semble qu’il y a eu des établissements qui proposaient un café contre un bitcoin), si toute la chaîne d’approvisionnement peut fonctionner en bitcoin, si des gus veulent spéculer et vendre 1BTC pour 50k$, c’est sûr que ça semble cher pour un café, mais c’est les spéculateurs qui ont tout cassés, pas le barman qui propose le café à 1BTC depuis 8ans
les spéculateurs ont créés les fermes de minage, qui cassent tout l’intérêt des crypto justement, le but c’était de décentraliser, mais si les fermes sont “rentables”, ça incite à tout re-centraliser avec les problèmes qui vont avec (souci des 51% par exemple)
on l’utilise au boulot, en auto-hébergé version community (presque certain que c’est la community). pas de souci particulier
je vais juste compléter / questionner sur la partie “le partage des mots de passe est, en soit, une mauvaise habitude. Idéalement, il faudrait que chaque personne ait son propre compte d’accès à un service, quel qu’il soit.”
passbolt nous sert à stocker les mdp, mais chacun a le sien pour les divers service auxquels on accède, le seul “partage” c’est quand l’admin nous crée un compte sur un des services / plateformes.
dans l’idéal il faudrait qu’une fois partagé, l’admin n’y ait plus accès, et que l’utilisateur le change à la première connexion, comme ça le transfert à été fait de manière “totalement” sécurisée (c’est pas un post-it ni un mail) et il n’y a plus de partage de mdp.
je suis preneur de toute idée / méthode pour renforcer la sécurité des accès. à mon avis on peut pas avoir chaque utilisateur qui va créer lui-même son propre accès pour ensuite demander à l’admin de lui filer les bons droits, (ne serait-ce que pour une uniformité des logins et savoir à qui supprimer les accès lorsqu’un utilisateur n’a plus à accéder à un outil), sans parler des outils qui ne permettent pas de créer de compte si c’est pas un admin qui le fait.
ubuntu est pratique et permet de créer un compte en demandant de créer un mdp à la première connexion (ça doit pas être le premier ni le seul à le faire), c’est pratique quand on installe un poste, mais ça existe pas partout
haha “prennent des mesures pour éviter tout renouvellement d’actes de piratage” combien prennent un vpn à l’étranger (et donc paient qqch à un fournisseur), non pas pour “éviter tout renouvellement d’actes de piratage” mais pour “éviter de se faire de nouveau repérer par trident” (c’est bien toujours trident qui chope les ip ?)
Tellement d’accord ! A la limite, du contenu illégal, peut-être qu’il me reste quelques films que je regarde jamais. Mais légal, rien du tout. Edit: Bon OK, il y en a … grillé.
Pour la musique tout le monde a Deezer ou Spotify. Pour les films et séries, tout le monde a netflix et/ou prime vidéo et/ou disney Allez, quelques locations de films.
Je pense en tout cas que ça concerne une majorité des gens. Après il y a aussi le streaming illégal. Mais en tout cas, je me demande bien combien de personnes achète encore des films/séries/musiques et les copies sur son DD. D’ailleurs je comprends même pas pourquoi on le fait payer. Quand on copiait des VHS, on payait une copie privé aussi sur le prix de la VHS ?
il me semble bien que oui pour les vhs k7 audio (et vhs du coup (?)) étaient les premiers supports de cette ponction
merci du retour c’était une supposition purement pifométrique cela dit ;) bien que je soit pas forcément fan de la segmentation intel (amd a aussi ses travers hein) je supposait quand même à minima un tri sur les puces et que les “K” avaient un meilleur potentiel
mais il est tout à fait possible qu’un “mauvais K” puisse au final avoir un moins bon score qu’un “bon non-K”, suivant de quand date le tri (j’imagine que si intel a provisionné 200 000 “K” mais qu’ils en vendent peu sur la période, le prochain lot sortant des fonderies passera en “non K” alors que certain exemplaires pourraient être bien meilleurs que les “K” déjà triés et en stocks …)
Le
07/04/2021 à
15h
48
il reste tout à fait possible que les “K” soient moins gourmands à haute fréquence dans le test fait ici, le “no limit” est monté à ~230w pour obtenir 14000 points peut-être qu’une version “K” obtient 14000 points en tournant en moyenne à 190w ou qu’en “no limit” il bouffe aussi 230w, mais monte plus haut en fréquence et obtient ainsi 15000 points
Le
07/04/2021 à
13h
30
pertinente remarque s’il en est (à ma décharge, je n’avais strictement aucune idée de la méthode de calcul des points :) même s’il est vrai qu’il y a surtout 2 méthodes principales, on compte un nombre d’opération sur un temps limité, ou on mesure un temps pour un nombre d’opération limité)
donc ça donnerait points W W/p p/W 10278 116,37 0,011322241681261 88,3217324052591 11785 157,4 0,013355960967331 74,8729351969504 13458 198,43 0,014744389953931 67,8224058862067 14139 229,62 0,01624018671759 61,5756467206689
là ça ressemble plus à ce que j’anticipais (pour la hiérarchie) c’est plus intéressant d’utiliser 2 machines pour combiner les résultats que d’en booster une seule, à condition de savoir “combiner” les résultat sans que l’opération elle-même plombe le rendement (on s’en doutait en fait, la conso double (ou presque :116.37 -> 229.62) mais les points font “que” *1.4, forcément que le rendement est moins bon)
Le
07/04/2021 à
12h
41
je sais bien pour les MHz à “coût exponentiel”, mais que le “sans limite” soit plus efficace que le “délai 320” ou le “TDP 125W”, alors que clairement c’est lui qui consomme le plus (en Wh totaux ou en moyenne) m’étonne.
c’est surtout le 2.41 / 10 278 et le 3.48 / 14 139 qui font qu’une petite variation en Wh peut fausser la hiérarchie (mais je l’accorde volontiers, je pinaille :) )
(première ligne de chaque série, la conso relevée, les deux suivantes avec +0.01 ou -0.01 Wh pour voir l’influence sur le rendement “Wh par point”, j’ai d’abord fait avec les deux extrêmes puis avec les intermédiaires)
c’était juste le fait qu’il s’agisse de la consommation totale sur la durée du bench que j’avais pas pigé du coup (je pense que le fait qu’il n’y ait aucune mention de la durée du bench m’a perturbé ;) )
donc en fait pour obtenir un score de 10 278 points le processeur a consommé 2,41 Wh et pour 14 139 points le processeur a consommé 3,48 Wh
ce qui nous fait 0,000234481416618 Wh/point dans le premier cas et 0,000246127731806 Wh/point dans le second cas donc dans l’absolu le rendement est moins bon en mode “TDP sans limite” que par défaut (bizarrement, les deux autres “modes” sont encore pire niveau rendement que le “sans limite”) cela dit les durées sont peut-être trop courtes pour avoir des mesures vraiment exploitables (je pense à marge d’erreur des appareils de mesure, compter 2.41 ou 3.48Wh c’est très petit au final)
Le
07/04/2021 à
07h
32
petite question, comment sont calculés les Wh de la dernière section ? le test n’a duré qu’une seule minute ? je vois pas comment passer d’une conso moyenne de 100w et plus à 2Wh autrement :s
ça va peut-être inciter des gens qui venaient tous les jours à pied faire leur courses à prendre plus de choses d’un coup, et/ou éventuellement des trucs lourds (packs de lait / eau / coca / bière …) (et si ces gens qui prenaient le minimum pour pas s’encombrer prennent des trucs en plus car “pas grave je suis en voiture” bah c’est tout bénéf’ XD)
mais c’est vrai que la puissance et l’autonomie vont pas donner envier de la louer pour l’essayer en partant en WE
mais pour l’essayer pendant une semaine pour voir si c’est utilisable au quotidien pour éventuellement envisager de remplacer une des voiture du foyer, ça peut aussi se tenter mais si c’est trop poussif, ça risque de donner une mauvaise image et donc avoir l’effet inverse et qqn qui serait en conditions idéales pour une voiture électrique (garage individuel avec électricité, petits trajets quotidiens sans grande portion rapide) pourrait choisir une petite thermique après un essai :s
Le
07/04/2021 à
12h
44
joli
(reply:1865642:Idiogène)
je sais pas si c’est ironique ou une erreur l’unité c’est bien des (k)Wh et pas des(k)W/h, c’est pas pareil (de la même manière pour le couple d’un moteur on parle de Nm et pas de N/m)
celui-là est assez évident, rien qu’à la tournure des phrases (les 12 ayants droits qui “tiennent bon” face au autres XD) mais quand j’ai ouvert l’article depuis la colonne de droite je craignais le pire :)
la complexité est une chose, mais obtenir les mouvements du carburant dans les réservoirs de XXXm³, avec un poids conséquent, qui correspond à ce qu’il se passe lors d’un retournement à plusieurs km de hauteur et avec la vitesse de l’engin, honnêtement j’ai aucune idée de la fiabilité du résultat faire un mécanisme de 200m de haut pour jouer avec un réservoir d’hélicoptère (c’est quoi le poids/volume ? de l’ensemble) me semblerait humainement concevable, on doit même pouvoir faire un système pour avoir l’hélico complet qui fait des loopings
pour un starship, faudrait construire quoi comme hauteur pour lui faire faire des loopings ?
perso je n’en sais rien, mais je prétendrai pas que c’est moins cher (encore faut-il que ce soit techniquement possible, si faut faire une tour de 2km de haut pour atteindre les bonnes vitesses … ) que sacrifier 20 (30 / 50 ?) prototypes
Le
31/03/2021 à
12h
35
Recracher les éléments de language de Space X les rend pas plus réel hein ^^ 1- Non le starship n’est pas un lanceur lourd, c’est un étage d’un lanceur (à l’image d’un S4B de saturne 5 la récup en plus) 2- Pour le Banc de test la faisabilité est surement aussi peu évidente que des prototype lourdement complexe qui finissent en pièce. Et je te rassure, la rentabilité elle est là depuis longtemps tous les autres lanceurs l’ont prouvé, c’est pas parce qu’ils sont seuls qu’ils ont forcément inventé un truc incroyable et nouveau, ils ont juste fait le pari qu’ils auraient un taux d’échec faible et trouveraient des solutions facilement au fil de l’eau ce qui semble pas être le cas. 3-
Quentin a dit:
Et effet, et c’est impossible de tout simuler sur un banc de tests. Sans parler du fait que faire un retournement sans les moteurs allumés rend l’autogenous pressurization inutile et invalide le fonctionnement de la fusée par example. Garder les moteurs allumés + retourner le vaisseau en le gardant fixe commence à faire un banc de test assez complexe (sans parler du risque de perdre le banc si tout explose)
Ce qu’ils font actuellement c’est pas juste créer une fusée. C’est créer tout ce qui va avec pour construire la fusée en nombre et rapidement. Donc perdre 5, 10, 15 prototypes pour eux c’est pas si grave car ils acquièrent de l’experience sur la construction et afinent la fusée au fur et à mesure.
Faux faux et archi faux ! Les gars les process industriels ils ont pas été inventé par Space X hein ;) Donc faire des bancs pour valider des principes technique c’est largement faisable, de plus un bancs est conçu pour gérer une explosion, c’est le but, il doit permettre d’assurer la sécurité et la poursuite des essais. Et des fusées, moteurs, … qui ont pété sur banc il y en as eu un paquet tant aux USA qu’ailleurs sans les détruires.
Tu invente ensuite qu’il “réinventent” la construction d’une fusée, c’est archi faux ! Ils changent des matériaux oui (comme chaque nouveau lanceur au passage) ils modifient ses composants internes, mais en aucun cas c’est une refont fondamentale du concept. Faire des fusées de série “scalable” c’est dans les cartons depuis des années et c’est assez bien maitrisé, une chaine de fabrication aussi (Arianespace coucou) faire du volume plus élevé c’est de l’industrialisation, pas du tout “inventer un concept”.
Faudrait sérieusement stopper l’angélisme et arrêter de boire les propos corporate de Space X. Oui ils fabriquent un lanceur fou, plus gros, plus puissant et dans un matériaux inattendu. Mais non ils ne réinventent pas la roue.
Le problème majeur actuellement vient du trio “réservoirs - alimentation - combustion” Si pour vous c’est normal de tester ce trio 5 fois et de le faire sauter sans se dire que sur un banc il est décomposable (comme on l’as toujouuuuurs fait sur les fusées depuis la course à l’espace et que ça a fonctionné) j’espère que vous bosser pas dans une quelconque industrie qui fabrique des objets et les tests…
Faire un banc aussi complexe soit il qui validerait ce trio sera dans tous les cas plus rentable qu’une explosion.
Imaginez une seule seconde qu’Ariane 6 explose sur son premier vol, le scandale !! Replongez vous dans l’histoire les amis, vol 501 d’Ariane : WikipediaArianespace est passé tout prêt de voir tous les états démanteler le programme, s’ils avaient échoué avec 502 c’était la fin du projet Ariane !
Space X arrive à maintenir la Hype de manière improbable transformant des echecs (faut appeler un chat un chat) en réussite ! Même la NASA à la grande époque de Mercury ou de Saturn ne masquaient pas les échecs et investissaient des sommes folles en tests, validation et calcul (surtout à l’époque) pour éviter qu’un échec se produise 2 fois.
Un SN c’est plusieurs dizaines de millions de $, c’est pas un truc fabriqué dans son garage pour 1000 balles. C’est une perte conséquente financièrement, c’est un aveu d’échec et d’impréparation et c’est une perte conséquente d’image ! Mais SpaceX réussi à garder son image malgré tout (tant mieux pour eux) demandez vous qui finance le projet aussi ;) si c’était votre argent vous seriez aussi “optimistes” ?
le souci que je vois sur le banc, c’est les transferts de masse des fluides dans les réservoirs qui seraient inévitablement faussés par rapport à un test grandeur nature comme actuellement
pour la partie “pertes financières”, là c’est annoncé comme des prototypes, et même à quelques dizaines de millions, il en faut combien pour arriver à la valeur du vol 501 ?
je reconnais tout à fait que le coté spectaculaire (visuellement) et la communication modifie la perception qu’on peut avoir de ces essais et minimise le fait que ce sont pourtant bel et bien des échecs
Le
31/03/2021 à
10h
06
j’ai lu ailleurs qu’il y avait la théorie de l’autodestruction, que certains mettent en doute vu que “le cratère est au bon endroit” je n’ai strictement aucune idée de comment se positionne l’engin (gps / balises au sol / autre …) mais (oui théorie de comptoir) le brouillard aurait peut-être pu perturber suffisamment les signaux pour que le prototype se croie pas au bon endroit, juste assez éloigné pour que par “sécurité” il se dézingue tout seul (je veux dire, ça peut très bien être tout à fait autre chose, mais je vois pas en quoi “le cratère est au bon endroit” invalide définitivement la théorie de l’autodestruction par sécurité, c’est tout )
sinon, c’est dommage le brouillard, c’est quand même assez bluffant de voir ce grand machin manœuvrer comme il le fait d’habitude, du coup là on voit rien (enfin si, les tuyères, c’est impressionnant mais moins spectaculaire)
bah c’est est sans en être quoi docker = virtualisation est un abus de langage on est d’accord, mais c’est plus rapide à expliquer à qqn qui veut aller vite pour dire que ça tourne de manière isolée et indépendante de l’OS hôte :)
(après, je comprend certains principes “en gros” mais ne maîtrise pas forcément tous les détails en profondeur, donc je peux tout à fait faire une généralisation erronée sans m’en rendre compte ;) )
(je viens de relire ma phrase initiale qui pouvais effectivement prêter à confusion, je l’explicite : la virtualisation “classique” présente à un système invité une configuration matérielle complète, on peut donc y coller un OS complet. docker présente à un logiciel invité les api nécessaire à son fonctionnement, sans liaison avec le matériel, avec le minimum possible pour alimenter le logiciel invité. donc sans présenter de matériel, impossible de faire tourner un OS (surtout windows) dans un docker (ou alors ultra compliqué, et un OS ultra réduit, et au prix de perfs désastreuses probablement))
Le
26/03/2021 à
16h
41
Je vois ca comme ca perso : des VM avec le GPU en passtrough + une solution “kvm faible latence” (hardware séparé ou software) pour la capture et la redirection des inputs.
c’est très probablement ça ou très proche en effet mais la question du coup, est-ce que les CG sont sur les mêmes CM (est-ce qu’il peut y avoir 3cg en pcie 3 x16 sur une cm avec un xeon 12 coeurs partagé entre 3 VM) ou est-ce que les CG sont déportées sur des cm dédiées avec 4, 6 (+ ?) cg avec juste un “petit” processeur qui fait juste du routage de port pcie vers les vm ? (largement plus complexe, mais pas forcément impossible, et j’imagine facilement intéressant d’un point de vue encombrement dans un rack et refroidissement)
edit : typo
Le
26/03/2021 à
15h
43
Au vu des specs, selon l’offre tu as plus ou moins de coeurs d’un Intel® Xeon® E5-2678 v3. (4 coeurs pour l’offre Boost et Ultra, 6 coeurs pour l’infinite).
Or ce processeur contient physiquement 12 coeurs. Ils doivent probablement passer par de la virtualisation non? Selon le type de l’abonnement, ils peuvent caser 2 à 3 VM par machine physique. (Ou plus si la carte mère accepte plusieurs cpu)
ah en effet j’étais resté dans l’idée que c’était pas des vm, mais j’avais pas pensé que c’était compliqué de facturer 4 coeurs d’un certain type si le processeur physique en à 12 (on va pas découper le processeur à la disqueuse, et c’est pas rentable d’acheter un 12 coeurs pour n’en louer que 4 à la fois) donc effectivement il doit y avoir une part de virtualisation du coup :s (mais docker c’est de la virtualisation presque service par service, je vois pas comment faire tourner un windows complet qui peut faire tourner les pilotes nvidia/amd et un steam dedans)
Le
26/03/2021 à
15h
25
Non ?
de mémoire c’était des vrais machines sur laquelle tu prenais la main à distance genre terminal serveur, pas juste une vm et encore moins du docker
du débit oui (encore que, faudrait qu’ils aient testé du 3.5ghz pour voir la différence) mais en qualité audio via les nouveaux codecs de la 5g, volte, latence, délais d’établissement de l’appel c’est pareil sinon mieux que la 3/4g normalement
vi, “MLC” le marketting le limite au x2, alors que techniquement les TLC/QLC/?LC sont des “Multiple” LC quand même on est d’accord
Le
22/03/2021 à
15h
52
comme dit dans la news sur le pcie 6, jamais il faudrait du sata 4
Le
22/03/2021 à
14h
16
hello, qu’entends-tu par “compatible […] d’un point de vue interface” ? le seul cas qui pourrait être piégeux c’est le format m.2, qui pourrait utiliser une connexion uniquement sata, uniquement nvme, ou compatible avec les deux. si tu prends un ssd sata au format 2.5” ils sont tous pareils le bx500 existe dans les deux formats (m.2 et 2.5”), c’est le seul truc à vérifier si tu cherche du sata (par abus de langage, j’ai tendance à considérer un ssd sata comme forcément au format 2.5”, mais c’est peut-être une habitude trompeuse).
Ce qui implique qu’il faudra en envoyer un autre plus tôt que prévu, c’est à dire, produire plus, et lancer plus.
très probablement en effet mais j’aime autant que ce soit le “petit satellite commercial” qui se sacrifie, et pas le “gros satellite scientifique”
Le
23/03/2021 à
14h
00
Comment ça, réduire la durée de vie ?
pour faire un évitement, si le satellite crame du carburant, il pourra pas ajuster son altitude pendant autant d’années que prévu et viendra se consumer plus tôt que prévu au lancement => réduction de la durée de vie
je me joint aux remerciements, j’aurai jamais essayé de suivre la présentation, mais là du coup je peux (presque, j’ai probablement pas tout pigé XD) comprendre de quoi il retourne :)
bah laisser 10/20ans me choquerait pas forcément, si un artiste se fait percuter par un camion laissant son gosse de 2 ans sans ressources, ça peut se défendre mais j’ai du mal à trouver normal que ça dure 70ans
je crois voir ton idée, avec un disque smr, en toute logique en lecture séquentielle le débit devrait chuter moins vite supposons : en cmr, au bout de 10 tours on s’est éloigné du bord au point de perdre 10 % en smr, au bout de 10 tours on pourrait n’avoir perdu que 5% mais la vitesse max est atteinte dans les 2 cas que sur le “premier tour” de toute façon. et à moins d’utiliser moins de surface sur le smr, la moyenne sur la totalité du disque sera similaire vu que si on imagine qu’un smr permet de doubler le nombre de pistes, il doublera les pistes “rapides” en bord de disque, mais également les pistes “lentes” au centre du disque, ce qui ne devrais rien changer à la moyenne
donc je pense pas que le smr soit impacté par une correction d’erreur ou autre en fait (de manière significative, si on me dit qu’on perd 5% de débit sur du smr par rapport à la lecture “brute” à cause de correction d’erreurs qu’il n’y a pas en cmr, je trouve pas significatif d’avoir au max 190Mo/s au lieu de 200Mo/s)
edit:
yep, on est d’accord :)
Le
24/03/2021 à
08h
38
pour le smr, de tout ce que j’en ai lu / compris hein, je peux me tromper, c’est que à l’écriture que ça peut être le boxon en lecture ça tartine comme un cmr en écriture, si le disque est vide ça va pas poser de problème (ou si c’est de l’écriture séquentielle et qu’il y a la place) si faut modifier des données existantes là par contre, ça va faire comme les ssd avec cache slc qui sature au delà d’une certaine quantité de données, en largement pire du coup
Le
24/03/2021 à
08h
05
je me corrige c’est pas un doublement de capacité qui fait un doublement de débit, c’est plutôt du *4 en fait j’avais oublié la subtilité, mais doubler la densité des plateaux, ça permet d’augmenter la quantité de données sur une piste (donc lisible en un tour) mais aussi d’augmenter le nombre de pistes, donc à la louche, à nombre de plateaux égaux, si la capacité double, le débit va plutôt augmenter de l’ordre de racine carrée de 2 re-zut donc on devrait retrouver un doublement de débit plutôt entre un 2to et un 8to (avant les astuces diverses hélium, smr, nombre de plateaux …) faudrait voir entre un 4to et un 16to aussi
donc à vue de nez, le sata IV sera pas nécessaire avant qu’on ait des disques s’approchant de la centaine de To (enfin entre 80 et 100 quoi) on a le temps
Le
24/03/2021 à
07h
25
les raptors étaient à 10k il me semble, et c’était des 3.5” mais effectivement quand WD est passé aux velociraptors c’est devenu du 2.5” et la latence de la flash est imbattable par des disques mécaniques, ça sert plus a rien de faire la course à la vitesse de rotation du coup.
ça m’étonne qu’on ait pas eu d’augmentation franche entre les 8 et 16 to :s à nombre de plateaux identiques, si on double la capacité, en un tour on double la quantité de données lues, donc on double le débit
ah je crois qu’il est là le piège pour passer de 8 à 16, c’est pas un doublement de la densité des plateaux, y’a aussi eu le passage a l’hélium, permettant un rapprochement des plateaux, et donc de rajouter des plateaux donc au lieu d’avoir 4 ou 5 plateaux max pour avoir 8to, maintenant on a 8 ou 9 plateaux, ça fausse les calculs, zut
Le
23/03/2021 à
14h
13
merci pour les rappels :) j’avais essayé des truc en manchester pour du rf433, ben quand on vient du php, ça fait tout drôle de faire du bas niveau (et niveau fiabilité, disons que c’est bien que ça soit que pour du bricolage perso XD)
je pensais que la partie “overhead” était justement ce codage 8b/10b
mais en te lisant je pense percuter, faut pas oublier que dans les 600Mo utiles, y’a aussi l’adressage, les instructions envoyées au disque pour lui dire “va chercher le fichier XXX à l’emplacement YYY et toute la gestion du système de fichier, donc ça ampute un peu le débit utile (est-ce que le 8b/10b c’est pour la correction d’erreur ou est-ce que ça vient aussi se rajouter à l’overhead et donc diminuer encore le débit ?)
mais bref oui, les ~550 on fera jamais mieux en sata 3
de toute façon, de mémoire, le sata est prévu pour les disques mécaniques (du moins il a été pensé pour eux à la base), et aucun disque à plateau n’atteint ce débit, donc pas besoin de sata IV avant un moment
J’espère que tu ne travailles pas dans le génie civil Tu ne peux pas faire de dimensionnement au doigt mouillé, même en supposant que tu surdimensionnes. Il y a des normes, il faut les respecter, sauf si tu as envie de payer des dommages et intérêts jusqu’à la fin de ta vie le jour où un poteau se casse la gueule sur un passant. Si tu veux que ta procédure soit en conformité NF, c’est Camélia, point.
non je fais pas de génie civil “t’en fais pas”
sur tous les poteaux, si on doit faire une simulation rdm pour chacun, bonjour le bordel, y’a forcément moyen de catégoriser et simplifier. je dis pas de réduire à 2 cas non plus hein mais si on trouve plein de cas très proches, on calcule pour les “pire”, et tous ceux qui ont moins de contraintes on sait qu’ils vont passer, et ça économise des tas de “cas par cas” pour des tas de communes surtout, on évite les cas à la con ou une ligne relie la commune A et la commune B, certains poteaux vont “appartenir” à la commune A et les autres à la B, ils seront probablement le long du même champ lors du passage d’une commune à l’autre, les poteaux de même dimension avec la même portée, la même charge, le même sol à leurs pieds, c’est con que les deux communes paient pour strictement la même analyse et le même résultat …
Le
23/03/2021 à
13h
55
Ça ne marche pas du tout comme tu dis. Il n’y a pas de “catégories”, et chaque ville ne lance pas ses “propres études”, ça ne veut rien dire. La résistance d’un poteau dépend du type du poteau, du type, du nombre, de la portée, et de l’orientation des lignes qui sont dessus. C’est étudié au cas par cas, mais c’est de la résistance des matériaux classique, comme on l’enseigne à l’école. Il y a des logiciels pour ça, qui te calculent le truc facilement. Mais c’est facturé très cher par les bureaux d’étude, qui eux-mêmes achètent le logiciel très cher.
on recense => on défini des “cas” en fonction de ce qu’on a trouvé (si 40% des poteaux sont en bois avec 3 câbles de diamètre x de type y avec une portée de z et un angle w, y’a pas besoin de faire la même rdm sur ces milliers de poteaux et que chaque ville la paie autant de fois qu’il ont de poteaux dans cette configuration car ils ont fait faire une étude au “cas par cas”)
ça serait quand même plus simple de regrouper les poteaux similaires pour faire une seule fois la rdm quitte, soit à prendre de grosses marges au niveau de la rdm histoire d’absorber les cas qu’on a regroupé (“ah, sur ce poteau les câbles sont à 3° de moins que sur le cas typique, et la portée est de 2cm de plus, faut faire un nouveau calcul” <= on devrait pouvoir éviter non ?) soit faire quand même du cas par cas mais juste pour les 10% les plus “exotiques”
Le
23/03/2021 à
11h
01
Typiquement Yaka fokon. Il y a des centaines de poteaux différents en France, avec chacun leur propre résistance et poids supportés. Ensuite sur chaque poteaux il y a un poids différent déjà de présent en fonction du nombre de ligne installés et de la typologie de câble utilisés (Uniquement électrique ou pas).
Bon courage pour faire une étude générale
je comprenais surtout : on fait un état des lieux de l’ensemble des lignes du territoire, histoire de catégoriser différents cas, pour lesquels on fait les études. même si on a 1000 cas différents, on ne traiterait chaque cas qu’une seule fois, applicable à tout le territoire alors que là, chaque commune doit faire ses propres études, même si on n’a “que” 10 cas différents sur une commune donnée, avec juste 100 communes on a autant d’analyse que dans l’idée ou on mutualise tout (mais combien de réellement différents ?) donc avec toutes les communes qui devraient faire leurs études chacune de leur coté, bonjour l’argent gâché … je rejoins choukky sur ce coup (coût XD ?)
c’est pas impossible, y’a probablement de la réutilisation de composants, l’afficheur et les boutons me font penser à ceux de la mini 4k (quoique non, pas l’afficheur en fait, sur la mini il est carré, mais les boutons visuellement ça me semble identique)
j’ai même envie de rajouter “surtout pas soi-même” :)
si on fait qqch par habitude, faut surtout pas compter sur le fait que l’habitude nous l’a fait faire, faut le vérifier ou en dev’, si on vérifie son propre code, c’est tellement facile d’avoir le même biais en “vérifiant” que celui qu’on a eu en passant plusieurs jours sur une fonctionnalité.
“tester c’est douter” <= au bûcher (zut, c’est éteint maintenant chez ovh)
1298 commentaires
ASRock Rack TRX40D8-2N2T : 2x 10 Gb/s + 2,5 Gb/s et Ryzen Threadripper dans un serveur
28/04/2021
Le 28/04/2021 à 11h 49
en tout cas, merci pour ce genre d’article :)
j’aimerai bien jouer avec ce genre de matos, mais je n’en n’ai clairement pas l’utilité (et c’est pas donné non plus, ça ferait cher le jouet )
Le ministère de la Santé et la CADA refusent de rendre public le code du Health Data Hub
28/04/2021
Le 28/04/2021 à 11h 37
merci, c’est bien ça, j’avais plus le terme :)
tout à fait d’accord pour l’idée que la sécurité doit pas être géniale :s
Le 28/04/2021 à 08h 34
erf, je sais plus le terme exact mais le truc du genre “sécurité par le secret” c’est naze et ça tient de moins en moins longtemps, c’est pas le fait de pas connaître le code qui doit servir de pilier à la sécurité du système bon sang
normal que les gens aient pas confiance avec ce genre de bêtises.
autant dans le militaire je peux comprendre la politique du secret, mais pour un truc civil, qui devrait à terme concerner l’intégralité de la population, c’est pas normal d’avoir encore ce genre de choses.
La CFE-CGC veut « un rapprochement entre Orange et OVHcloud »
28/04/2021
Le 28/04/2021 à 08h 53
pour OVH je sais pas, mais pour Orange (aucune idée pour la partie “BS” spécifiquement par contre) j’ai un à-priori assez mauvais.
oui “orange ça marche” (pour la partie FAI) et on reproche souvent à d’autres opérateurs de pas être aussi disponibles partout.
mais j’ai l’impression que c’est uniquement grâce à une débauche de moyen, au lieu de chercher à comprendre d’où vient le pb pour le corriger.
analogie complètement foireuse mais compréhensible : on se plaint à la mairie de crever systématiquement en allant chercher du pain à la boulangerie, à peu prés tous les opérateurs vont demander une inspection de la route et faire refaire les 10m de trottoir où y’a des fers à bétons qui dépassent et flinguent les roues de tous ceux qui passent
chez orange, on lance la construction d’une nouvelle autoroute, avec tout ce que ça implique (oui, une autoroute pour aller chercher du pain …)
j’ai l’impression qu’OVH au contraire essaie d’optimiser à fond sur tout les plans, niveau politique interne, ça me semble très différent et pas vraiment compatible
HDD Seagate Exos X16 et Toshiba MG07 : quelles performances pour 14 To à 290 euros ?
27/04/2021
Le 27/04/2021 à 13h 06
hello,
petite question pour les tests de l’exos, c’était en 512e ou en 4Kn ? (l’idéal serait d’avoir les tests dans les deux cas pour, peut-être, mettre en évidence des avantages de l’un sur l’autre selon certains cas mais ça a du prendre pas mal de temps ces tests avec 14to)
Un week-end étrange pour les cryptomonnaies, entre chute de Bitcoin et Dogecoin to the moon
19/04/2021
Le 20/04/2021 à 22h 08
merci pour tes commentaires constructifs
je pense que le btc aurait pu être stable dans un monde “idéal” sans les spéculateurs :
les premier entrants on peu de puissance de calcul, mais la puissance nécessaire est faible, générer un btc est simple.
quelques temps après, de nouveaux entrant arrivent (pas beaucoup), avec du matos plus récent (le btc rapporte pas assez pour que les premiers investissent pour mettre à jour leur matos), la puissance augmente, la difficulté aussi, les premiers arrivés ne gagnent plus beaucoup vu qu’ils n’ont plus qu’une petite partie de la puissance, mais ont des btc “d’avance”, les nouveaux entrants peuvent générer des btc car leur matos plus récent est plus efficace, mais payé au même prix que ce que les premiers ont utilisé pour leurs machines, avec une conso comparable.
avec un “cours” plus faible on aurait eu des arrivées plus échelonnées (un pi qui traîne dans un coin, le pc gamer acheté pour le dernier AAA quand finalement on joue aux sims ou à l’indé qui se contente d’un coeur et 1go de ram …), on n’aurait pas la difficulté et donc les besoins énergétiques actuels => stabilité du BTC
Le 20/04/2021 à 16h 52
dans ce cas toute spéculation est un ponzi ?
les premiers à avoir acheté une action quand elle était basse et se rémunèrent quant tout le monde en veut et achète au prix fort ? c’est donc un ponzi ?
c’est uniquement ça le problème du bitcoin la spéculation qui a fait exploser le prix d’achat en monnaie “officielle”.
s’il n’y avait pas eu de spéculation, le cours n’aurait pas explosé, il n’y aurait eu aucun intérêt de faire des fermes de minage, donc pas autant de puissance disponible, donc difficulté beaucoup moins haute, et les soucis énergétiques n’en serait pas car ça suivrait juste l’évolution de la puissance matérielle (un mec change de CG qui bouffait 200w par une nouvelle plus récente qui bouffe toujours 200w, mais triple la puissance, la difficulté augmente en conséquence donc la carte rapporte toujours strictement la même quantité de bitcoins par rapport à la puissance consommée, ceux qui n’ont pas changé leur carte gagnent moins, mais s’ils n’ont pas de besoin de changer de CG par ailleurs, c’est pas forcément intéressant d’en acheter une nouvelle)
si on indexe le bitcoin sur une monnaie officielle, bien sûr que ça va être volatil, mais c’était pas le but à la base.
tu définis un prix pour qqch (un café par exemple il y a quelques années, il me semble qu’il y a eu des établissements qui proposaient un café contre un bitcoin), si toute la chaîne d’approvisionnement peut fonctionner en bitcoin, si des gus veulent spéculer et vendre 1BTC pour 50k$, c’est sûr que ça semble cher pour un café, mais c’est les spéculateurs qui ont tout cassés, pas le barman qui propose le café à 1BTC depuis 8ans
les spéculateurs ont créés les fermes de minage, qui cassent tout l’intérêt des crypto justement, le but c’était de décentraliser, mais si les fermes sont “rentables”, ça incite à tout re-centraliser avec les problèmes qui vont avec (souci des 51% par exemple)
edit : typo
Passbolt : un gestionnaire de mots de passe pour ceux qui travaillent en équipe
14/04/2021
Le 15/04/2021 à 11h 01
on l’utilise au boulot, en auto-hébergé version community (presque certain que c’est la community).
pas de souci particulier
je vais juste compléter / questionner sur la partie
“le partage des mots de passe est, en soit, une mauvaise habitude. Idéalement, il faudrait que chaque personne ait son propre compte d’accès à un service, quel qu’il soit.”
passbolt nous sert à stocker les mdp, mais chacun a le sien pour les divers service auxquels on accède, le seul “partage” c’est quand l’admin nous crée un compte sur un des services / plateformes.
dans l’idéal il faudrait qu’une fois partagé, l’admin n’y ait plus accès, et que l’utilisateur le change à la première connexion, comme ça le transfert à été fait de manière “totalement” sécurisée (c’est pas un post-it ni un mail) et il n’y a plus de partage de mdp.
je suis preneur de toute idée / méthode pour renforcer la sécurité des accès.
à mon avis on peut pas avoir chaque utilisateur qui va créer lui-même son propre accès pour ensuite demander à l’admin de lui filer les bons droits, (ne serait-ce que pour une uniformité des logins et savoir à qui supprimer les accès lorsqu’un utilisateur n’a plus à accéder à un outil), sans parler des outils qui ne permettent pas de créer de compte si c’est pas un admin qui le fait.
ubuntu est pratique et permet de créer un compte en demandant de créer un mdp à la première connexion (ça doit pas être le premier ni le seul à le faire), c’est pratique quand on installe un poste, mais ça existe pas partout
La Justice autorise le FBI à patcher des centaines d’ordinateurs piratés
15/04/2021
Le 15/04/2021 à 10h 43
je trouvais pas comment le formuler
Venom, Uncharted, Spider-Man, Jumanji… Netflix signe un accord avec Sony aux États-Unis
12/04/2021
Le 14/04/2021 à 08h 12
je pense que t’as la réponse dans la question
“disney marvel” => disney +
il n’y aura pas de “priorité à netflix” sur ceux là en tout cas
Pas d’abrogation de la riposte graduée
09/04/2021
Le 09/04/2021 à 08h 01
haha
“prennent des mesures pour éviter tout renouvellement d’actes de piratage”
combien prennent un vpn à l’étranger (et donc paient qqch à un fournisseur), non pas pour “éviter tout renouvellement d’actes de piratage” mais pour “éviter de se faire de nouveau repérer par trident” (c’est bien toujours trident qui chope les ip ?)
Copie privée : un pas de plus vers la redevance sur les disques durs nus, les SSD, les PC fixes et portables
08/04/2021
Le 08/04/2021 à 15h 27
il me semble bien que oui pour les vhs
k7 audio (et vhs du coup (?)) étaient les premiers supports de cette ponction
Comment débrider facilement le Core i7-11700 et son TDP de 65 watts
06/04/2021
Le 07/04/2021 à 23h 07
merci du retour
c’était une supposition purement pifométrique cela dit ;)
bien que je soit pas forcément fan de la segmentation intel (amd a aussi ses travers hein) je supposait quand même à minima un tri sur les puces et que les “K” avaient un meilleur potentiel
mais il est tout à fait possible qu’un “mauvais K” puisse au final avoir un moins bon score qu’un “bon non-K”, suivant de quand date le tri (j’imagine que si intel a provisionné 200 000 “K” mais qu’ils en vendent peu sur la période, le prochain lot sortant des fonderies passera en “non K” alors que certain exemplaires pourraient être bien meilleurs que les “K” déjà triés et en stocks …)
Le 07/04/2021 à 15h 48
il reste tout à fait possible que les “K” soient moins gourmands à haute fréquence
dans le test fait ici, le “no limit” est monté à ~230w pour obtenir 14000 points
peut-être qu’une version “K” obtient 14000 points en tournant en moyenne à 190w
ou qu’en “no limit” il bouffe aussi 230w, mais monte plus haut en fréquence et obtient ainsi 15000 points
Le 07/04/2021 à 13h 30
pertinente remarque s’il en est
(à ma décharge, je n’avais strictement aucune idée de la méthode de calcul des points :) même s’il est vrai qu’il y a surtout 2 méthodes principales, on compte un nombre d’opération sur un temps limité, ou on mesure un temps pour un nombre d’opération limité)
donc ça donnerait
points W W/p p/W
10278 116,37 0,011322241681261 88,3217324052591
11785 157,4 0,013355960967331 74,8729351969504
13458 198,43 0,014744389953931 67,8224058862067
14139 229,62 0,01624018671759 61,5756467206689
là ça ressemble plus à ce que j’anticipais (pour la hiérarchie)
c’est plus intéressant d’utiliser 2 machines pour combiner les résultats que d’en booster une seule, à condition de savoir “combiner” les résultat sans que l’opération elle-même plombe le rendement
(on s’en doutait en fait, la conso double (ou presque :116.37 -> 229.62) mais les points font “que” *1.4, forcément que le rendement est moins bon)
Le 07/04/2021 à 12h 41
je sais bien pour les MHz à “coût exponentiel”, mais que le “sans limite” soit plus efficace que le “délai 320” ou le “TDP 125W”, alors que clairement c’est lui qui consomme le plus (en Wh totaux ou en moyenne) m’étonne.
c’est surtout le 2.41 / 10 278 et le 3.48 / 14 139 qui font qu’une petite variation en Wh peut fausser la hiérarchie
(mais je l’accorde volontiers, je pinaille :) )
(première ligne de chaque série, la conso relevée, les deux suivantes avec +0.01 ou -0.01 Wh pour voir l’influence sur le rendement “Wh par point”, j’ai d’abord fait avec les deux extrêmes puis avec les intermédiaires)
10278 2,41 0,000234481416618 défaut
10278 2,42 0,000235454368554
10278 2,40 0,000233508464682
14139 3,48 0,000246127731806 sans limite
14139 3,49 0,000246834995403
14139 3,47 0,000245420468209
11785 2,93 0,000248621128553 Delai 320
11785 2,94 0,000249469664828
11785 2,92 0,000247772592278
13458 3,36 0,000249665626393 Tdp 125
13458 3,37 0,000250408678853
13458 3,35 0,000248922573934
Le 07/04/2021 à 11h 41
c’était juste le fait qu’il s’agisse de la consommation totale sur la durée du bench que j’avais pas pigé du coup (je pense que le fait qu’il n’y ait aucune mention de la durée du bench m’a perturbé ;) )
donc en fait pour obtenir un score de
10 278 points le processeur a consommé 2,41 Wh
et pour
14 139 points le processeur a consommé 3,48 Wh
ce qui nous fait
0,000234481416618 Wh/point
dans le premier cas et
0,000246127731806 Wh/point
dans le second cas
donc dans l’absolu le rendement est moins bon en mode “TDP sans limite” que par défaut
(bizarrement, les deux autres “modes” sont encore pire niveau rendement que le “sans limite”)
cela dit les durées sont peut-être trop courtes pour avoir des mesures vraiment exploitables (je pense à marge d’erreur des appareils de mesure, compter 2.41 ou 3.48Wh c’est très petit au final)
Le 07/04/2021 à 07h 32
petite question, comment sont calculés les Wh de la dernière section ?
le test n’a duré qu’une seule minute ?
je vois pas comment passer d’une conso moyenne de 100w et plus à 2Wh autrement :s
Leclerc propose des locations de Dacia Spring (100 % électrique) dès 5 euros par jour
07/04/2021
Le 07/04/2021 à 15h 18
ça va peut-être inciter des gens qui venaient tous les jours à pied faire leur courses à prendre plus de choses d’un coup, et/ou éventuellement des trucs lourds (packs de lait / eau / coca / bière …)
(et si ces gens qui prenaient le minimum pour pas s’encombrer prennent des trucs en plus car “pas grave je suis en voiture” bah c’est tout bénéf’ XD)
mais c’est vrai que la puissance et l’autonomie vont pas donner envier de la louer pour l’essayer en partant en WE
mais pour l’essayer pendant une semaine pour voir si c’est utilisable au quotidien pour éventuellement envisager de remplacer une des voiture du foyer, ça peut aussi se tenter
mais si c’est trop poussif, ça risque de donner une mauvaise image et donc avoir l’effet inverse et qqn qui serait en conditions idéales pour une voiture électrique (garage individuel avec électricité, petits trajets quotidiens sans grande portion rapide) pourrait choisir une petite thermique après un essai :s
Le 07/04/2021 à 12h 44
joli
je sais pas si c’est ironique ou une erreur
l’unité c’est bien des (k)Wh et pas des(k)W/h, c’est pas pareil
(de la même manière pour le couple d’un moteur on parle de Nm et pas de N/m)
Copie privée : la redevance enfin étendue à LeBonCoin, aux copies en cache et aux datacenters
01/04/2021
Le 01/04/2021 à 08h 44
mwahahahaha
celui-là est assez évident, rien qu’à la tournure des phrases (les 12 ayants droits qui “tiennent bon” face au autres XD)
mais quand j’ai ouvert l’article depuis la colonne de droite je craignais le pire :)
La publicité ciblée sera bientôt de retour sur Next INpact
01/04/2021
Le 01/04/2021 à 08h 38
génial
comme d’autres j’ai pas percuté de suite
bien joué :)
Starship SN11 : nouvel échec pour SpaceX
31/03/2021
Le 31/03/2021 à 16h 20
la complexité est une chose, mais obtenir les mouvements du carburant dans les réservoirs de XXXm³, avec un poids conséquent, qui correspond à ce qu’il se passe lors d’un retournement à plusieurs km de hauteur et avec la vitesse de l’engin, honnêtement j’ai aucune idée de la fiabilité du résultat
faire un mécanisme de 200m de haut pour jouer avec un réservoir d’hélicoptère (c’est quoi le poids/volume ? de l’ensemble) me semblerait humainement concevable, on doit même pouvoir faire un système pour avoir l’hélico complet qui fait des loopings
pour un starship, faudrait construire quoi comme hauteur pour lui faire faire des loopings ?
perso je n’en sais rien, mais je prétendrai pas que c’est moins cher (encore faut-il que ce soit techniquement possible, si faut faire une tour de 2km de haut pour atteindre les bonnes vitesses … ) que sacrifier 20 (30 / 50 ?) prototypes
Le 31/03/2021 à 12h 35
le souci que je vois sur le banc, c’est les transferts de masse des fluides dans les réservoirs qui seraient inévitablement faussés par rapport à un test grandeur nature comme actuellement
pour la partie “pertes financières”, là c’est annoncé comme des prototypes, et même à quelques dizaines de millions, il en faut combien pour arriver à la valeur du vol 501 ?
je reconnais tout à fait que le coté spectaculaire (visuellement) et la communication modifie la perception qu’on peut avoir de ces essais et minimise le fait que ce sont pourtant bel et bien des échecs
Le 31/03/2021 à 10h 06
j’ai lu ailleurs qu’il y avait la théorie de l’autodestruction, que certains mettent en doute vu que “le cratère est au bon endroit”
je n’ai strictement aucune idée de comment se positionne l’engin (gps / balises au sol / autre …) mais (oui théorie de comptoir) le brouillard aurait peut-être pu perturber suffisamment les signaux pour que le prototype se croie pas au bon endroit, juste assez éloigné pour que par “sécurité” il se dézingue tout seul
(je veux dire, ça peut très bien être tout à fait autre chose, mais je vois pas en quoi “le cratère est au bon endroit” invalide définitivement la théorie de l’autodestruction par sécurité, c’est tout )
sinon, c’est dommage le brouillard, c’est quand même assez bluffant de voir ce grand machin manœuvrer comme il le fait d’habitude, du coup là on voit rien (enfin si, les tuyères, c’est impressionnant mais moins spectaculaire)
#Flock ne peut pas revenir en arrière
27/03/2021
Le 29/03/2021 à 13h 55
petite préférence pour ovh, mais toujours aussi saignant (et tristement juste :s ) pour les autres
j’avais même pas vu que c’était X.N. pour “le monde”
Blade (Shadow) : que proposent les quatre candidats à la reprise ?
25/03/2021
Le 26/03/2021 à 17h 37
bah c’est est sans en être quoi
docker = virtualisation est un abus de langage on est d’accord, mais c’est plus rapide à expliquer à qqn qui veut aller vite pour dire que ça tourne de manière isolée et indépendante de l’OS hôte :)
(après, je comprend certains principes “en gros” mais ne maîtrise pas forcément tous les détails en profondeur, donc je peux tout à fait faire une généralisation erronée sans m’en rendre compte ;) )
(je viens de relire ma phrase initiale qui pouvais effectivement prêter à confusion, je l’explicite :
la virtualisation “classique” présente à un système invité une configuration matérielle complète, on peut donc y coller un OS complet.
docker présente à un logiciel invité les api nécessaire à son fonctionnement, sans liaison avec le matériel, avec le minimum possible pour alimenter le logiciel invité.
donc sans présenter de matériel, impossible de faire tourner un OS (surtout windows) dans un docker (ou alors ultra compliqué, et un OS ultra réduit, et au prix de perfs désastreuses probablement))
Le 26/03/2021 à 16h 41
c’est très probablement ça ou très proche en effet
mais la question du coup, est-ce que les CG sont sur les mêmes CM (est-ce qu’il peut y avoir 3cg en pcie 3 x16 sur une cm avec un xeon 12 coeurs partagé entre 3 VM) ou est-ce que les CG sont déportées sur des cm dédiées avec 4, 6 (+ ?) cg avec juste un “petit” processeur qui fait juste du routage de port pcie vers les vm ? (largement plus complexe, mais pas forcément impossible, et j’imagine facilement intéressant d’un point de vue encombrement dans un rack et refroidissement)
edit : typo
Le 26/03/2021 à 15h 43
ah en effet
j’étais resté dans l’idée que c’était pas des vm, mais j’avais pas pensé que c’était compliqué de facturer 4 coeurs d’un certain type si le processeur physique en à 12 (on va pas découper le processeur à la disqueuse, et c’est pas rentable d’acheter un 12 coeurs pour n’en louer que 4 à la fois)
donc effectivement il doit y avoir une part de virtualisation du coup :s
(mais docker c’est de la virtualisation presque service par service, je vois pas comment faire tourner un windows complet qui peut faire tourner les pilotes nvidia/amd et un steam dedans)
Le 26/03/2021 à 15h 25
de mémoire c’était des vrais machines sur laquelle tu prenais la main à distance genre terminal serveur, pas juste une vm et encore moins du docker
Laure de la Raudière (Arcep) : du « vrai calvaire » sur le cuivre à la « pression » sur la fibre
26/03/2021
Le 26/03/2021 à 15h 33
du débit oui (encore que, faudrait qu’ils aient testé du 3.5ghz pour voir la différence) mais en qualité audio via les nouveaux codecs de la 5g, volte, latence, délais d’établissement de l’appel c’est pareil sinon mieux que la 3/4g normalement
Trois députés MoDem veulent que YouTube affiche l’empreinte carbone de chaque vidéo
26/03/2021
Le 26/03/2021 à 10h 12
c’est à peu près ce que je me disais
Le prix des SSD toujours en baisse : 83 € pour 1 To en PCIe, 143 € pour 2 To en S-ATA
22/03/2021
Le 26/03/2021 à 09h 26
vi, “MLC” le marketting le limite au x2, alors que techniquement les TLC/QLC/?LC sont des “Multiple” LC quand même on est d’accord
Le 22/03/2021 à 15h 52
comme dit dans la news sur le pcie 6, jamais
il faudrait du sata 4
Le 22/03/2021 à 14h 16
hello,
qu’entends-tu par “compatible […] d’un point de vue interface” ?
le seul cas qui pourrait être piégeux c’est le format m.2, qui pourrait utiliser une connexion uniquement sata, uniquement nvme, ou compatible avec les deux.
si tu prends un ssd sata au format 2.5” ils sont tous pareils
le bx500 existe dans les deux formats (m.2 et 2.5”), c’est le seul truc à vérifier si tu cherche du sata (par abus de langage, j’ai tendance à considérer un ssd sata comme forcément au format 2.5”, mais c’est peut-être une habitude trompeuse).
La NASA et SpaceX signent un accord de coopération pour éviter les collisions
19/03/2021
Le 25/03/2021 à 10h 08
très probablement en effet
mais j’aime autant que ce soit le “petit satellite commercial” qui se sacrifie, et pas le “gros satellite scientifique”
Le 23/03/2021 à 14h 00
pour faire un évitement, si le satellite crame du carburant, il pourra pas ajuster son altitude pendant autant d’années que prévu et viendra se consumer plus tôt que prévu au lancement => réduction de la durée de vie
Pat Gelsinger évoque Meteor Lake (7 nm), le retour du Tick-Tock et Intel on
24/03/2021
Le 24/03/2021 à 17h 15
je me joint aux remerciements, j’aurai jamais essayé de suivre la présentation, mais là du coup je peux (presque, j’ai probablement pas tout pigé XD) comprendre de quoi il retourne :)
La France insoumise veut taxer les œuvres durant 70 ans après le décès des auteurs
24/03/2021
Le 24/03/2021 à 13h 34
bah laisser 10/20ans me choquerait pas forcément, si un artiste se fait percuter par un camion laissant son gosse de 2 ans sans ressources, ça peut se défendre
mais j’ai du mal à trouver normal que ça dure 70ans
Synopsys passe déjà au PCI Express 6.0
22/03/2021
Le 24/03/2021 à 10h 00
je crois voir ton idée, avec un disque smr, en toute logique en lecture séquentielle le débit devrait chuter moins vite
supposons : en cmr, au bout de 10 tours on s’est éloigné du bord au point de perdre 10 %
en smr, au bout de 10 tours on pourrait n’avoir perdu que 5%
mais la vitesse max est atteinte dans les 2 cas que sur le “premier tour” de toute façon.
et à moins d’utiliser moins de surface sur le smr, la moyenne sur la totalité du disque sera similaire vu que si on imagine qu’un smr permet de doubler le nombre de pistes, il doublera les pistes “rapides” en bord de disque, mais également les pistes “lentes” au centre du disque, ce qui ne devrais rien changer à la moyenne
donc je pense pas que le smr soit impacté par une correction d’erreur ou autre en fait (de manière significative, si on me dit qu’on perd 5% de débit sur du smr par rapport à la lecture “brute” à cause de correction d’erreurs qu’il n’y a pas en cmr, je trouve pas significatif d’avoir au max 190Mo/s au lieu de 200Mo/s)
edit:
yep, on est d’accord :)
Le 24/03/2021 à 08h 38
pour le smr, de tout ce que j’en ai lu / compris hein, je peux me tromper, c’est que à l’écriture que ça peut être le boxon
en lecture ça tartine comme un cmr
en écriture, si le disque est vide ça va pas poser de problème (ou si c’est de l’écriture séquentielle et qu’il y a la place)
si faut modifier des données existantes là par contre, ça va faire comme les ssd avec cache slc qui sature au delà d’une certaine quantité de données, en largement pire du coup
Le 24/03/2021 à 08h 05
je me corrige
c’est pas un doublement de capacité qui fait un doublement de débit, c’est plutôt du *4 en fait
j’avais oublié la subtilité, mais doubler la densité des plateaux, ça permet d’augmenter la quantité de données sur une piste (donc lisible en un tour) mais aussi d’augmenter le nombre de pistes, donc à la louche, à nombre de plateaux égaux, si la capacité double, le débit va plutôt augmenter de l’ordre de racine carrée de 2
re-zut
donc on devrait retrouver un doublement de débit plutôt entre un 2to et un 8to (avant les astuces diverses hélium, smr, nombre de plateaux …)
faudrait voir entre un 4to et un 16to aussi
donc à vue de nez, le sata IV sera pas nécessaire avant qu’on ait des disques s’approchant de la centaine de To (enfin entre 80 et 100 quoi)
on a le temps
Le 24/03/2021 à 07h 25
les raptors étaient à 10k il me semble, et c’était des 3.5”
mais effectivement quand WD est passé aux velociraptors c’est devenu du 2.5”
et la latence de la flash est imbattable par des disques mécaniques, ça sert plus a rien de faire la course à la vitesse de rotation du coup.
ça m’étonne qu’on ait pas eu d’augmentation franche entre les 8 et 16 to :s
à nombre de plateaux identiques, si on double la capacité, en un tour on double la quantité de données lues, donc on double le débit
ah
je crois qu’il est là le piège
pour passer de 8 à 16, c’est pas un doublement de la densité des plateaux, y’a aussi eu le passage a l’hélium, permettant un rapprochement des plateaux, et donc de rajouter des plateaux
donc au lieu d’avoir 4 ou 5 plateaux max pour avoir 8to, maintenant on a 8 ou 9 plateaux, ça fausse les calculs, zut
Le 23/03/2021 à 14h 13
merci pour les rappels :)
j’avais essayé des truc en manchester pour du rf433, ben quand on vient du php, ça fait tout drôle de faire du bas niveau (et niveau fiabilité, disons que c’est bien que ça soit que pour du bricolage perso XD)
actuellement les disques à 18to sont effectivement à plus de 200mo/s, y’a de grande chances que les 40to dépassent les 400mo/s
tiens le récent exos 18to
https://www.inpact-hardware.com/article/2058/seagate-exos-x18-autre-disque-dur-cmr-18-to-a-fiabilite-renforcee
est annoncé à 260mo/s
donc les 520mo/s pour 40to c’est réaliste (mais pas l’année prochaine :‘( )
Le 23/03/2021 à 08h 13
je pensais que la partie “overhead” était justement ce codage 8b/10b
mais en te lisant je pense percuter, faut pas oublier que dans les 600Mo utiles, y’a aussi l’adressage, les instructions envoyées au disque pour lui dire “va chercher le fichier XXX à l’emplacement YYY et toute la gestion du système de fichier, donc ça ampute un peu le débit utile (est-ce que le 8b/10b c’est pour la correction d’erreur ou est-ce que ça vient aussi se rajouter à l’overhead et donc diminuer encore le débit ?)
mais bref oui, les ~550 on fera jamais mieux en sata 3
de toute façon, de mémoire, le sata est prévu pour les disques mécaniques (du moins il a été pensé pour eux à la base), et aucun disque à plateau n’atteint ce débit, donc pas besoin de sata IV avant un moment
edit : aération
Déploiement FTTH : Orange face à une « pénurie nationale de poteaux métal »
23/03/2021
Le 23/03/2021 à 16h 14
je dis pas de réduire à 2 cas non plus hein
mais si on trouve plein de cas très proches, on calcule pour les “pire”, et tous ceux qui ont moins de contraintes on sait qu’ils vont passer, et ça économise des tas de “cas par cas” pour des tas de communes
surtout, on évite les cas à la con ou une ligne relie la commune A et la commune B, certains poteaux vont “appartenir” à la commune A et les autres à la B, ils seront probablement le long du même champ lors du passage d’une commune à l’autre, les poteaux de même dimension avec la même portée, la même charge, le même sol à leurs pieds, c’est con que les deux communes paient pour strictement la même analyse et le même résultat …
Le 23/03/2021 à 13h 55
on recense => on défini des “cas” en fonction de ce qu’on a trouvé (si 40% des poteaux sont en bois avec 3 câbles de diamètre x de type y avec une portée de z et un angle w, y’a pas besoin de faire la même rdm sur ces milliers de poteaux et que chaque ville la paie autant de fois qu’il ont de poteaux dans cette configuration car ils ont fait faire une étude au “cas par cas”)
ça serait quand même plus simple de regrouper les poteaux similaires pour faire une seule fois la rdm
quitte, soit à prendre de grosses marges au niveau de la rdm histoire d’absorber les cas qu’on a regroupé (“ah, sur ce poteau les câbles sont à 3° de moins que sur le cas typique, et la portée est de 2cm de plus, faut faire un nouveau calcul” <= on devrait pouvoir éviter non ?) soit faire quand même du cas par cas mais juste pour les 10% les plus “exotiques”
Le 23/03/2021 à 11h 01
je comprenais surtout :
on fait un état des lieux de l’ensemble des lignes du territoire, histoire de catégoriser différents cas, pour lesquels on fait les études.
même si on a 1000 cas différents, on ne traiterait chaque cas qu’une seule fois, applicable à tout le territoire
alors que là, chaque commune doit faire ses propres études, même si on n’a “que” 10 cas différents sur une commune donnée, avec juste 100 communes on a autant d’analyse que dans l’idée ou on mutualise tout (mais combien de réellement différents ?)
donc avec toutes les communes qui devraient faire leurs études chacune de leur coté, bonjour l’argent gâché …
je rejoins choukky sur ce coup (coût XD ?)
Free officialise sa Freebox Pro et une offre à 49,99 euros HT par mois, avec forfait mobile inclus
23/03/2021
Le 23/03/2021 à 09h 54
c’est pas impossible, y’a probablement de la réutilisation de composants, l’afficheur et les boutons me font penser à ceux de la mini 4k (quoique non, pas l’afficheur en fait, sur la mini il est carré, mais les boutons visuellement ça me semble identique)
OVHcloud : SBG3 se rallume progressivement, SBG4 bientôt, SBG1 va être en partie déplacé
22/03/2021
Le 23/03/2021 à 09h 38
j’ai même envie de rajouter “surtout pas soi-même” :)
si on fait qqch par habitude, faut surtout pas compter sur le fait que l’habitude nous l’a fait faire, faut le vérifier
ou en dev’, si on vérifie son propre code, c’est tellement facile d’avoir le même biais en “vérifiant” que celui qu’on a eu en passant plusieurs jours sur une fonctionnalité.
“tester c’est douter” <= au bûcher (zut, c’est éteint maintenant chez ovh)