votre avatar

DCmalcolm

est avec nous depuis le 31 janvier 2007 ❤️

123 commentaires

Le 07/11/2018 à 11h 52

Précisons qu’une boite bien de chez nous (Online) - et pas un truc confidentiel - à fait de même 24h avant avec deux références :https://www.online.net/fr/serveur-dedie

Le 28/08/2018 à 12h 31

Lien très interessant, par contre du coup on y apprends que le câble reli pas la France contrairement à ce que dit le titre.



Toutes mes confueses, j’ai confondu avec “Havfrue” qui arrive aussi sur l’europe.

Le 28/08/2018 à 12h 26

Hmm, peugeot ?

Le 28/08/2018 à 11h 53

quand tu mets quelques milliard dans un projet, il a toujours un nom pour le marketing (faut vendre le projet en interne, aux investisseurs, …)

Le 27/08/2018 à 12h 23







PtiDidi a écrit :



Ca fera une bonne raison pour passer chez un FAI associatif&nbsp;<img data-src=" />





toile-libriste ?


Le 30/07/2018 à 15h 55

Franchement, encore un truc hyper précis, qui sera esquivé par une modification dans la façons d’organiser ces évènements.

Fraudait tout simplement un délit de “connerie routière”, qui doit déjà exister à tous les coups mais qui n’est pas appliqué …

Le 06/07/2018 à 14h 11

On est (au moins) deux, rien à dire de plus.

Le 15/06/2018 à 23h 03

Des chiffres ? parce que space X fait surtout du bruit, en fait c’est qu’un transfère agressif nasa -&gt; space X.

Le carnet de commande est bien plein coté ariane.



Et le coup de la réutilisation, en fait c’est plus de la récupération qu’ils “ricanaient”, et là ils ne proposent pas de récupérer, mais bien de réutiliser des éléments en attente en orbite.



D’ailleurs sur la récupération space X, on a de superbes images (franchement c’est beau), mais bizarrement pas d’info sur l’efficacité de la chose, voir même le silence total.

Le 14/06/2018 à 23h 50

j’exploite des .fr, mais aussi des .com et .io.

Je ne suis pas aussi catégorique que toi.



En plus des bonnes pratiques que tu as cité, il y a des subtilitées, au hasard:




  • limiter la vitesse d’émission par domaine (chez nous c’est 3 mails toutes les 3 secondes par domaine, en gros un mail à la seconde par domaine)

  • ne pas avoir une moyenne de messages par destinataire trop élevée, on s’en aperçu qu’a delà de 3 mails par jours et par adresse on commençait à avoir des problème avec les gros (c’est une moyenne, tu peux avoir un destinataire avec 20 mails/jour et 10 autres avec 1 seul mail/jour)

  • mutualiser les messages quand possible est important, par exemple sur des notif, au lieu d’envoyer un mail à chaque fois, grouper par heure ou plus est très bon. Car même si le destinataire est demandeur, avec trop de volume il va toujours y en avoir qui vont cliquer sur le bouton spam de leur webmail.

Le 14/06/2018 à 23h 34

C’est très mal comprendre les flux économiques de croire que l’un prends à l’autre.

Ces deux marchés sont largement saturés de nos jours.



La faim dans le monde en tant que tel n’existe plus, et c’est pas moi qui le dit (5 minutes de google devrait pouvoir de trouver une source fiable sur le sujet, au hasard en regardant du coté d’un sous-organisme de l’onu).

C’est uniquement un effet de bords de politiques intérieurs aux zones concernés et de guerres ouvertes ou silencieuse.



Bref si c’est pas assez clair, on produit assez de nourriture pour tout le monde à un prix assez bas, mais les guerres, épurations et autres asservissements de populations en empêche volontairement l’accès, et c’est valable pour un peu tous types de ressources.

Le 12/06/2018 à 17h 27

Double effet kiss-cool.




  • il est clair qu’on est pas protégé en l’état

  • il me semble évident que c’est également un moyen de montrer que nous pouvons être aussi désagréable que l’administration Trump si besoin

Le 16/05/2018 à 12h 05

ça n’a ni queue ni tête si tu veux, après va faire un tour sur les X instituts de sondages et statistiques (europa donne pas mal de chose publiquement), et tu verras que donner trop de pouvoir d’achat cré directement du déficit commercial extérieur, c’est un fait.



En gros, quand tu passes de pauvre à moins pauvre, tu consommes des produits plus vitaux, globalement plus locaux.

Mais dés que tu as de la réserve, la dépense ce tourne massivement vers de l’équipement, majoritairement produit hors France ou Europe, donc pas d’investissement dans l’économie local de façon cyclique, pas d’emploi, … donc pas de cercle vertueux.



Et considérer que les PME ce sont rentier, très sympa, la presque totalité de ces “actionnaires” bossent plus que de raison.

Parce qu’il faut quand même rappeler qu’elles constitues la plus grosse part de l’emploi, alors le cac40 ça fait des gros chiffres, on aime bien les ressortir à chaque coin de phrase, mais ça fait pas la masse et encore moins une vérité.



Bref, je voie pas de contresens et quitte à rabaisser au lieu de monter le débat comme tu l’as fait, je vais dire que tu sais pas de quoi tu parles en bâtissant ta faible opération de destruction sur un argument invalide.

Sinon tu peux émettre un avis contraire en exposant des arguments valides et en partant du principe que tu penses peut-être savoir, ce qui est différent de savoir.



Dans mon cas je ne prétends pas savoir, je dis que le raisonnement est logique à la vue de 150 ans de statistiques, du contexte actuel,et des dires de la masse des spécialistes qui sont quand même bien plus doués que nous (sauf théorie du complot, on y va ou pas ?), mais que rien n’est garanti.

Comme toujours, c’est un question de probabilité, la probabilité semble haute, c’est tout, faut sortir du dogme.



allé, bisous

Le 15/05/2018 à 10h 12

Et voila, c’est ce que je disais, ça s’est du joli court terme.

On parle de dynamique, hors la ce que tu dis c’est un point comptable dans le temps, très court.



Donner directement l’argent pour de la consommation, c’est la griller (car les bonus part plus vers des biens étrangés, c’est comme ça, c’est pas moi qui décide, c’est un fait statistique).

Sortir X personnes du chômage sur une période, c’est autant de cotisations qui rentre et autant d’indemnisations qui sortent pas, bref, c’est effet double, mais ça personne le dit, sans parler que çà perdure dans le temps, et pas juste le temps de ton relevé.

De plus une personne qui travail au lieu de chaumer, même à pouvoir d’achat identique est plus en confiance de son avenir, bref, elle positive. Hors la confiance des ménages est un facteur clé dans le soutient de toutes économie, que ce soit pour la consommation direct, ou par contagion (quand ton entourage va “bien”, tu es plus propice à te sentir bien aussi).



Quand à l’histoire de la réduction sur la tva des resto citée par d’autres, on sait tous très bien que le contexte (que j’évoquai comme facteur sur mon premier post) n’était pas du tout favorable à une transformation de l’essai, à commencer par le fait que c’était en réalité une mesure de sauvegarde sectoriel masquée.



La vision long terme d’un autre poste qui parle d’harmonisation européenne, ba oui ok, moi aussi je voudrais bien, mais ça semble pas partagé par la masse en Europe, alors je parle des leviers qui courent actuellement et sont en application.



Bref, je rappel au final que je ne prends pas partie pour cette solution, je dis juste qu’elle est logique contextuellement parlant en mettant de coté tout idéologie, juste en s’intégrant sur ce qui fait le système actuel (et je suis pas là pour faire la révolution), mais que rien ne garanti le résultats tellement il y a des facteurs.

Mais c’est pas un peu ça la politique (la vrai), faire des paris d’avenir, par définition risqués ?

Le 14/05/2018 à 13h 05

Faut arrêter de penser à court terme (on dirait un actionnaire sans vision).

La vérité c’est qu’on ne sait pas encore si ça va marcher et quel sera le rendement de ces mesures.

Mathématiquement c’est une bonne affaire, c’est pas discutable à part par des gens qui vivent sur une autre planète.

Le problème c’est que ça ne fonctionne que si certains contextes vont dans le bon sens, et si pour le moment c’est globalement le cas, ça peut changer.



Bref, même si une partie est partie en fumée - comme dans tout système -, ne pas oublié que la grosse partie est partie en équipement. Il faut attendre un cycle industriel avant de juger, environ 5 ans, donc encore 2 ou 3.

Le 28/03/2018 à 16h 19







Paratyphi a écrit :



De toute façon vous êtes pro-free, on se croirait sur univers freebox, vous êtes clairement biaisés et anti-SFR.<img data-src=" />





faut pas abuser, sur UF c’est vrai et ça a du sens sur ce genre de site.

Ici quand ça en donne l’impression, c’est que le sujet donne des palettes de bâtons pour être battu.


Le 13/03/2018 à 11h 21

Moi ce qui me plaît dans cet article, c’est le lien sur antépénultième !

En occurrence ce mot était dans mon vocabulaire, mais il faut bien avouer que parfois la presse utilise des mots forts peu communs mettant automatiquement une distance - pour ne pas dire froideur - avec le lecteur le moins “éduqué”, celui qui a peut-être le plus besoin justement de la connaissance apportée.



Bref, bravo !

Le 12/03/2018 à 09h 50

ça va bien nous faire un pti 250 G$ tout ça

Le 05/03/2018 à 10h 22

la décadence absolue cette boîte.

J’ai bossé avec eux dans un accord d’association d’entreprise, juste du pur délire cette boîte.

20 mec pour faire les boulot de 3, des manifestations dans les couloirs (peut-être pas tout le temps, mais quand j’y suis passé c’était le cas), bref, tu sais que ça va plus durer très longtemps.

Le pire étant peut-être le musé des télécoms, intégré dans “l’usine”, elle même ressemblant à un musé tellement c’est vide.

Le 02/03/2018 à 15h 19







John Shaft a écrit :



github.com GitHubC’est n’importe quoi cette affaire :





  • des dévs maintiennent une conf qui par défaut ouvre le truc au public en sachant que c’est dangereux

  • les admins sont pas fichus capable de lire le chapitre 1 de la doc du-dit soft…



    <img data-src=" /> pour tout le monde





    j’ai envi de dire qu’a la limite que les dev memcached bind large, pourquoi pas, c’est un choix qui peut ce défendre, même si d’un point de vue sécuritaire c’est pas le meilleur.



    Mais à partir du moment que tu délivre du service publiquement, l’admin sys (que ce soit son titre ou non) ce doit de soit changer le réglage si l’usage le permet, soit mettre en place un firewall, idéalement les deux.



    Le firewall ne doit même pas être une option en fait.



    Et qu’on vienne pas me dire que c’est un dev qui maintient le serveur et que du coup il a une excuse.

    Non, soit il apprend, soit il fait pas.

    Ça fait quelque années qu’on entend dire un peu partout ques les admin sys servent à rien, et ba voila le résultat.


Le 22/02/2018 à 19h 16

Un carte complète x540 intel consomme au max 17w sur deux ports, 10w sur un seul.

Sachant que c’est le même contrôleur (juste un changement de câblage), on peut partir du fait que 7w sont utilisés pour la signalétique (qui est donc hors du cpu dans notre cas premier).

Sachant cela il reste 3w pour l’ensemble de la carte, sachant qui il a des contrôleurs divers, à commencer par celui des lignes pci-e.

Bref, reste pas lourd sur l’asic, qui comme je le disais offre pleins d’offload quasiment 100% hardware.



Tu prends tout ça, tu supprimes les contrôleurs, tu profites d’une meilleur intégration (cablage court = faible puissance et voltage plus bas), d’une finesse de gravure meilleur (mais sans doute plus grosse que le cpu lui-même) et tu as un truc qui consomme que dalle en 10G.

Et la tu vas vite t’apercevoir que seul la couche phy diffère fortement de la version 1G car le reste gère de toutes façons bien plus (c’est des câblages sous licence importé tel quel).

Conclusion, passer du 1 au 10G change rien, l’intégrer coûte quelque chose proche du pourcent de la capacité de dissipation, et encore dans le cas où tu n’as pas de scalling.



https://www.intel.fr/content/www/fr/fr/ethernet-products/converged-network-adapt…



Pour ton switch bruyant, c’est juste qu’il est fait pour être racké, seul l’efficacité du refroidissement compte. Le bruit on s’en fiche, en DC tu travails de toutes façons avec un casque anti-bruit.

Les turbines (et non pas ventilos, rien que le nom est clair) de 2” à 7K ou 15K tours/minutes, c’est efficace, pas silencieux.



Pour le 10G castré à 4G, oui et non, ça dépends de l’usage, mais clairement c’est du 10G low cost et ça va te bouffer du temps kernel quoi qu’il en soit par rapport à une carte fille.

Le 21/02/2018 à 16h 02

les cartes dédiées&nbsp; apportent de nombreuses amélioration autre, par exemple accélération iscsi, la gestion hard du multi mac pour la virtu, ….

La on peut fortement pré-supposer que ce n’est pas le cas, ou que très partialement comme dans les xeon-D.

&nbsp;

En soit la couche phy à 1 ou 10 Gb/s ça ne change pas grand chose, on parle en mW.

Le courant perdu en chaleur dans le câble est plus important que la consommation de la puce.

Les asic (intégrés ou non) dans le domaine sont très simple, de conception maîtrisé depuis fort longtemps.

Le 21/02/2018 à 15h 39







levhieu a écrit :





  • Les dies sont identiques, mais les boitiers ne le sont pas, ni leur prix.

    Exemple: ça doit bien chauffer localement un 10GbE, faut peut-être un boitier plus cher pour en tenir compte.





    juste pour parler de ce sujet: c’est totalement négligeable


Le 01/02/2018 à 14h 03

Dans mon cas,&nbsp; j’ai 4 containers pour des usages différents (du perso, du pro, …), de fait ça augmente le nombre.

&nbsp;

Ensuite, à titre d’exemple là je dev une lib c++ pour faire de la gestion async de file descriptor (socket, aio + signalfd, epoll), entre les man (et oui, ceux de mon poste sont pas 100% les même que l’os de destination), les exemples de code, les divers discutions sur le sujet, …, 18 onglets juste pour ça



Et quand tu recherche un truc tu as vite fait d’en ouvrir 10 de plus.

Le 01/02/2018 à 13h 53

54 onglets (ya de tout, du petit au plus lourd) dans 4 containers, démarré depuis au moins 3 jours (souvent des semaines, là j’ai reboot la machine), 8 extensions,&nbsp; sous linux: 887 Mo de ram.



ps: déjà sous la version 59, en beta

Le 23/11/2017 à 13h 11

ho, rampage, cette déception quand j’ai compris que ce n’étais pas le troisième volet du gars qui vire terroriste.



On aime ou pas, mais très visionnaire sur ce qui c’est passé ensuite sur le comment on fait beaucoup avec peu en la matière.

De plus je trouve la construction du personnage assez bien fait pour qu’on soit “aevc lui”, ce qui est quand même assez fort à la vue de ce qu’il fait.



bref, zut quoi.

Le 29/09/2017 à 13h 27

ha, grosse attente d’une exploration fluide et fonctionnelle&nbsp; en upnp !

Le 08/09/2017 à 09h 18

J’y travail dur, passer les gens à Gnu/Linux ça va, c’est étonnamment facile, mais les faire venir ici c’est plus dur.

On dirais que la culture info les gens s’en tape un poil :/

Le 06/09/2017 à 17h 56

Faut vraiment être de mauvaise fois pour pas tilter sur un troll politique …

Quand tu trolls sur un sujet hautement politique et chaud du moment en te moquant de l’abaissement des 5€, tu montre clairement que tu n’y es pas pour dans le font.

Je ne dis pas qu’il y a un bon positionnement sur la question, juste ne qu’il doit pas y en avoir, voir même si tu ne le voix pas ce qui est ta liberté, tout comme la mienne est d’en voir un, que le sujet n’a pas ça place ici.



Je pense pas que ce soit un positionnement volontaire de protestation (ou soutien, ça marche dans les deux sens), soyons clair, mais quand on est “gros”, les petites choses on plus d’ampleur et NXI s’insinue involontairement dans un débats qui n’est pas le sien.

&nbsp;

Quand à ma frustration, elle n’est autre que du fait que je ne viens pas ici pour voir de la politique.

Ici je suis prêt à tout voir du moment que ça parle de techno, voir de science par dériver, mais pas de politique.

À l’exception fait de quand les deux sujets ce recoupe directement bien entendu.

Le 06/09/2017 à 17h 18

Je comprends le troll, mais un troll dans un média a une orientation (que ce soit voulu ou non), c’est pas neutre et c’est pas la blague entre potes.

Quand à la neutralité, je parlais de neutralité politique, pas technique.

On est sur un média spécialisé, qu’il me sorte une info orienté sur sa spécialité me va, surtout qu’ici les arguments à contre courant ne sont pas tus.

Que je devine pour qui a voté le journaliste ou présentement pour qui il n’a pas voté, ça me gave, si je voulais le savoir, je prendrais un journal politique.



Le même troll sur ms, torvals, … m’aurait fait rire, et peut importe ma religion technique, parce qu’on est dans le sujet.

Le 06/09/2017 à 15h 15

Hum, je peux pas m’empêcher de me dire que cette action à une connotation politique, du moins laisse sous entendre votre avis sur la question.

Or la neutralité que vous avez plutôt fait part jusque ici me plaisait beaucoup, elle fait du bien !

Disons que ça me gave un peu d’avoir une info orientée sur tous les médias …

Le 02/09/2017 à 02h 52

Si je peux apporter mon expérience sur le sujet, je télétravail à disons 99% depuis plus de 2 ans (je suis allé sur mon lieu de travail que 2 jours cette année), pour contextualiser je suis en charge d’une infra qui sort du volume et je dev les services node avec addons c++, en plus des X dizaines scripts système, je suis marier, 3 enfants:



Pour l’aspect logistique, clairement avoir un bureau à la maison, c’est obligatoire, et avec une porte !



Il faut absolument avoir un outil collaboratif (synchro de fichier, agenda, chat, visio, …) et intégré (pas X soft mis bout-à-bout), bon dans mon cas c’est le service de ma boite, on commercialise cet outil ^^, faut généralement compter 10 à 20 € par mois par employé.

L’exemple du tableau blanc dans les réu, ba tu l’oublies bien vite et tu fais autrement, dépends des cas, mais c’est pas “zut il est où le tableau”, plutôt naturellement tu fais différemment sans te poser de question. Nouveaux besoins, nouveaux outils, nouveaux usages, pour résumer.



Pour le lien social, si tout le monde joue le jeu avec les outils, ba on fait plus la différence assez vite avec la présence physique, sans parler du fait que dans mon cas j’économise 3 heures de transports par jour (et je suis loin d’être le seul dans ce cas, ça fait que 1h30 dans chaque sens …)&nbsp; me permettant d’avoir une vie locale et familiale infiniment plus riche.



Télétravail s’accompagne en pratique toujours de souplesse, dans les deux sens. Donc on est moins regardant pour traîner tard si besoin, des coups de pousses les we, par contre tu as coiffeur à 11h, pas de pb, gamin à 16, ok, rdv de 2h à la banque au milieu de l’après midi, no pb, …

Ça fait clairement parti du modèle, je ne connais pas de télétravail fonctionnement sans cette composante.



On boss plus (faut pas ce mentir) mais on est moins fatigué par l’élimination du transport et du stress que ça induit, sans parler des économies conséquentes, je pense notamment à la voiture et au train pour les non parisiens, juste les 45 de la population quoi … dans mon cas c’est 304 € d’abo de ter et ~35 ticket+ de métro en moins chaque mois (et oui, un le matin et un le soir).



Pour le coté glandage, ba oui, ça arrive, les journées où t’as pas envie, et oui, tu glandes !

Mais c’est largement compensé par d’autres journées hyper productives (t’es moins coupé par les autres et plus concentré).

Ce que je peux dire, c’est que la presque totalité des clients de mon employeur qui utilisent notre produit en cadre télétravail nous disent que le rendement a augmenté et plutôt nettement.

C’est le patron qui le dit, pas le gars en télétravail (et je met pas ça sur le compte de notre produit, qui n’est qu’un outils parmi d’autre).



Pour moi, ya que du bon, ça change, la vie, les habitudes, et très vite on trouve son rythme.

Il est vrai que certain n’y arrive jamais et on besoin de couper complètement, mais franchement je pense que c’est possible de le faire chez soit. (tu coupes tes écrans aux horaires de bureau et puis voila, c’est pas dur quand même merde)

Sur ce dernier point et après avoir “vue” du monde dans le cadre du&nbsp; télétravail, je suis partagé entre la faiblesse d’esprit et un problème sociétal auto-entretenu, parce que “si tu va pas au boulot, c’est que tu boss pas, t’es un branleur” (c’est une citation quasi mot pour mot qu’on m’a fait …)



Bon, j’arrête là, et pour le projet du gouvernement, ba que du bon hein :)



ps: désolé pour les plus que probables fautes, relecture et modifs en diagonales, c’est généralement pas bon :/

Le 20/08/2017 à 02h 37

hoho, la dernière fallait oser, mais c’est tellement bon !

Le 11/08/2017 à 10h 31

La réaction boursière est assez logique en fait si on prends en compte le contexte.

Les gars s’attendait à plus, et ils se sont pas dit ça juste avant l’annonce …

Donc ils avaient anticipés et sur-évaluer la valeur de l’action.

Là nvidia fait son annonce, finalement c’est un peu moins que ce que prédisait les boursier (et non pas nvidia), d’où le rattrapage à la baisse.



Bref, faut arrêter de réagir sur une annonce et regarder l’évolution depuis l’annonce précédente, et la on à +175 %, et donc en visant à +186 % (+ -4% + -7% = 175 %) ils étaient pas si mal que ça les gars.



Je dis pas que la bourse est totalement cohérente, mais présentement c’est complètement le cas, donc arrêtez de trouver des démons là où y’en a pas …

Le 29/06/2017 à 17h 21







Ricard a écrit :



Question conne pour ma culture personnelle. Quelle différence entre de la QLC et TLC (à part le nombre de bits) ?





c’est tout, mais c’est déjà pas rien.


Le 22/06/2017 à 17h 28







levhieu a écrit :



Le Hertz par seconde, c’est l’unité de mesure de la montée en fréquence ? <img data-src=" />





je sais pas pourquoi j’ai ajouté ce “/s”, en effet c’est induit.

Je m’incline :)


Le 22/06/2017 à 17h 24







Charly32 a écrit :





Oui et puis la parallélisation a ses limites, car un programme/tâche a toujours une partie non parallélisable. Cf la loi d’Amdahl (qui est l’expression mathématique de “9 femmes ne font pas un bébé en 1 mois”).

le curseur entre performances multithread et monothread est à placer en fonction de chaque cas d’utilisation.





Complètement ok sur çà.

Mais j’avais plus en tête les instances multiples / le multiprocessing avec du balancement de charge, pour le cas présenté.


Le 22/06/2017 à 17h 21

Les bases de données sont particulièrement touchées par la virtu, à commencé par le switching des vm.

Si tu n’a rien noté c’est qu’il y a un pb de conf et/ou que tu as fait des requêtes ne représentant pas de la charge productive.

La vectorisation est presque impossible dans les vm dans la pratique, or les BDD en font massivement.



Après c’est presque un troll, mais si tu as besoin de contenir tes budgets à ce point et qui plus est sur une petite infra (généralement sans support de ouf), pourquoi pas du PgSQL&nbsp; par exemple ???

Le 22/06/2017 à 11h 29







mikfr a écrit :



C’est ton cas mais dans ma boite, on est très sensible à la fréquence justement. Tout le monde ne fait pas que du web <img data-src=" />





Ça tombe bien, c’est mon cas, le web n’est qu’une petite partie de la chose.





patos a écrit :



Bah dans le monde réel de la PME, tu aimes les serveurs où tu peux un peu tout virtualiser, y compris le SQL Server dont tu n’as pas les moyens d’avoir des licences “CAL coeur entreprise” et où tu n’as qu’un traitement mono-processus (avec certaines requêtes qui durent… quelques minutes <img data-src=" /> )

&nbsp;



Je virtualise massivement, et là encore, avec des serveurs à 40+ cores est ce qui le plus pratique.

Si tu peux virtualiser c’est entre autre que tu n’a pas besoin de la puissance brute d’un serveur baremetal (car il y a bien une perte, entre les instructions spécialisé perdu et le temps de switching des vm), donc tu n’a pas besoin de fréquences, mais de cores pour mettre pleins de vm.

D’ailleurs le plus souvent dans ce type de configuration, ce n’est pas la puissance cpu qui vient à manquer, mais les I/O, les interruptions trop nombreuse ou le switching qui t’empêche de tout exploiter, la fréquence n’ayant pratiquement aucun Impact sur le sujet.



Pour les licence CAL, si ça devient un pb, c’est que tu as un pb avec ton modèle éco et surtout architectural.

Soyons clair, quand tu te pose ce genre de question (monter en fréquence pour payer qu’une licence CAL), c’est que tu t’es enfermé dans un mauvais choix dés le départ, comment tu vas faire si ton besoin augmente ???





shlagevuk a écrit :



La remarque de patos n’est pas à mettre à l’écart aussi vite. Les performances monothread ou par coeur ne sont pas à ignorer pour plusieurs cas:

-Logiciel dont la licence est payé au nombre de coeur.

-Logiciel mal équilibré en multithread

-Logiciel mono-thread



Et même globalement la performance monothread a une importance. Pour donner un exemple un peu caricatural, tu as cavium qui propose des soc avec 48 coeurs depuis quelques temps déjà, mais vu que ce sont des soc arm faiblement cadencé, leur usage est limité à du stockage/réseau/FW actuellement.





Pour les CAL, j’ai répondu au dessus ;)

Pour les problèmes de mono-threadé, mal équilibré, c’est encore une fois un mauvais choix architectural tout simplement.

Et il y a clairement des moyens pour contourner ce genre de pb (X instances aec un load balancer en entrée par exemple), bien entendu tout dépends du cas, mais ya presque toujours une solutions, et si c’est pas le cas, faut pas que ta boite grandissent alors, ce qui est un poil ballot non ?



Pour le 48 cores arm, le rendement arm à 2 Ghz/s est très loin du rendement à 2 Ghz/s en x86, faut-il être à 2 Ghz/s, et celà aussi bien pour de simple raison matériel que pour des pb d’optimisation des softs.

Voir aussi que travailler avec de l’arm sur de la production est un poil déroutant tant il y a de programme manquant ou avec des fonctionnalité tronqué ou des rendement pauvre car il manque tel ou tel instruction, …., même si ça change, j’en conviens, c’est pas encore mature.



Bon, pour résumé, je suis un poil ok qui ya des cas ou la fréquence compte, mais c’est soit loins d’être le cas commun, soit (presque tout le temps) une erreur d’architecture et e mauvais choix technique.

Je sais que ça va pas plaire, pourtant ça fait quelques années que je rencontre ce type de pb et la cause est presque toujours celle-là.


Le 21/06/2017 à 23h 12







patos a écrit :



Dommage que je ne vois rien qui frôle les 4Ghz.&nbsp; Les process mono-thread sont mis au placard…





Soyons clair, dans le monde réel des gens qui ont des serveurs pour de véritables raisons (pas du loisir quoi), on en a rien à secouer du mono 4Ghz.



Faut voir que généralement nos serveurs adressent en parallèle des dizaines, des centaine, des milliers de traitements (et dans mon cas on traite concrètement des dizaines de requêtes http à chaque instant T que ce monde fait, ce qui fait des centaines de réponse à la seconde, juste pour l’exemple d’http)

Pareil pour les bases de données, dans mon cas j’ai eu un pic à presque 8500 requêtes/s aujourd’hui.



Bref, on veut adresser du monde en simultané à une vitesse raisonnable et non pas 1 seul le plus vite possible.


Le 19/06/2017 à 15h 55

Il y a un certain nombre d’année je faisais ça, avec le temps je me suis aperçu que j’étais juste mauvais.



Bon sans troller, quand ce genre de pb arrive, c’est principalement parce qu’on n’a pas lu les notes de mise à jours et qu’on va trop vite sans ce renseigner un minimum.

Même le passage à jessie avec quand même systemD dans les pattes était gérable sans trop d’effet de bord, dixit le mec qui a fait un sacré paquet d’upgrade avec un peu tous les services communs du marché.

Le 19/06/2017 à 15h 31







Yseader a écrit :



Ou en changeant le tout par stable, c’est plus rapide d’une version à l’autre





Comme déjà indiqué par un autre précédemment, c’est généralement une mauvaise idée, surtout si tu as activé les mises à jours auto de sécu, ce qui est un peu le minimum syndical !


Le 19/06/2017 à 15h 21







Cisco7 a écrit :



Que conseilles-tu pour migrer avec sécurité sur cette version ? La tester sur un autre serveur/instance ?





J’ai un parc d’une vingtaine de dédiés et une quarantaine de VM sous xen à migrer juste pour l’environnement de prod (on a prod, qa, dev, infra [routeur, vpn, mailbox, dns, …]).

Donc on est en plein dans cette problématique, avec du php, node, maria, mongo, pgsql,&nbsp; powerdns, dovecot, postfix, ….

&nbsp;

On a un clone complet de l’infra de prod entièrement sous VM pour tester les prochaines versions du service.

On va utiliser cet environnent pour ce faire la main avant de s’occuper de la production.

&nbsp;

L’avantage de faire ça dans des VM c’est que ça coûte vraiment pas très chère (relativement au parc) et tu peux faire un snapshot avant de mettre à jours, comme ça tu revert autant de fois que tu veux recommencer.



Les différences sont assez minime, par exemple on n’a pas de vm de 56 cores et 512 GO de ram ….

On a aussi juste un ou deux cartes réseau sur le VM (Interne, public) alors que la prod en à souvent 4, donc deux inactivent.

Les vlans sont masqués aussi par XEN alors que dans la prod on les gèrent dans la conf (ce qui consiste en un module à charger et un .XXXX à ajouter au cul du nom de l’interface)



Voila, mes 2 cents.


Le 23/05/2017 à 00h 33

M’est d’avis que c’est les cdn anycast d’ovh qui font mal leur taff …

Ou pas.

Le 13/04/2017 à 17h 14

Pour info, à l’heure où j’écris, le dépôt FR à pas encore fait son rsync.

remplacez donc “fr.archive.ubuntu.com” par “fr2.archive.ubuntu.com” qui lui est déjà ok, dans le cas où ça ne vous propose pas de mise à jours.

Le 13/04/2017 à 16h 24

Alors en fait on passe de 4.1 à 4.5.

Ça aide pas mal dans les jeux récents quand même.

Le 13/04/2017 à 16h 11

Il me semble aussi que le noyau 4.10 permet un support de version supérieur d’OpenGL pour les pilote open-source AMD pour le GPU.

Si l’on est sur un noyau stable de la version précédente on est en ogl 3.3 et avec 4.10 on monte à 4.x.

Enfin tout cela est à vérifier, mais il me semble bien quand même.

Le 03/04/2017 à 11h 13

Je suis très content de payer mon abonnement, le service rendu est largement à la hauteur et la qualité, ça ce paie comme on dit, mais …

&nbsp;

si ce modèle devenait la norme, je devrais sortir admettons 10, 20 , 30, … fois 5€ par mois (ou un peu moins par an ok ok), ce qui commencerais à faire un trace dans mon budget, et qui deviendrait un choix entre manger ou s’informer pour d’autre (demi-tarif ou non).



De plus, si ce modèle devient la norme, les sources “gratuites” baiseront certainement encore plus en qualité.



Donc je me retrouverais avec quelques sujets très très bien informé, et plutôt dans le vide, ou pire dans le faux pour tout le reste, à priori la plus grosse part de l’information qui m’atteint (il y a beaucoup de sujets d’information non spécialisés et encore plus de spécialités).



J’ai pas de bonne réponse à cela, j’imagine que vous non plus, mais je me pose la question de l’accès à l’information aux masses avec ce modèle. Ne va-t-on pas vers une élite aisée informée, et les autres (je veux dire bien plus qu’actuellement).



La pub c’est moche, on est d’accord, mais malgré les dérives, a encore le bénéfice de mettre tout le monde sur un même pied d’estale.

Le 10/03/2017 à 14h 14

Je te trouve un peu rude là.

Pour le coup les anglais sont plutôt à la traîne.

Le 13/12/2016 à 17h 00

En effet, c’est pas possible de savoir, même pour une grosse boîte, ça ne peut que reposer sur la confiance, hors avec une boîte américaine, avec leur législation c’est clair dés le départ qu’il ne peut pas y avoir confiance.



J’ai souvent à traiter des demandes dans le genre de la part de client, on leur répond, voir on s’adapte, mais on pourrait tout à fait mentir sans que personne ne puisse le vérifier.

C’est même déjà difficile pour un service interne de contrôle.



Si tu veux une solution 100% FR (financement, employés, machines, …), contact moi je te donnerais un contact dans ma boîte pour le coté business et je pourrais te répondre techniquement.

Le 13/12/2016 à 16h 45

ya de quoi, tes données sont en europe, mais quand tu les visualises en ligne, ça ce fait via des serveurs là-bas.

La données n’est jamais stockée, mais la version transcodée dont tu n’es pas propriétaire n’est pas en Europe, je te laisse deviner la suite.