Je vois dire beaucoup de mal de la poste, mais par chez moi les concurrents sont pires. Livraison TNT d'une pièce détachée (un clavier d'ordinateur portable). Le livreur appelle le matin: vous êtes chez vous ? Non, refus de mettre dans la BAL ou dans un point relais.Seule proposition repasser samedi. Le samedi vient, et au bout d'une heure le suivi, indique adresse incomplète veuillez contacter le service client. L'adresse était évidemment complète et en cas de doute ils avaient mon téléphone. => Envoi d'un message sur l'adresse de contact le samedi. Réponse mardi matin pour me confirmer la remise en livraison mercredi (évidemment aucune excuse sur le fait que leur livreur ait menti). Et naturellement le mercredi le colis n'est pas parti. Heureusement l'expéditeur a dû faire un truc mais sur le site du suivi un lien est apparu qui m'a permis de choisir un point relais. Mais que de temps et d'énergie perdue.
Dois-je préciser que l'expéditeur n'a pas donné suite à ma demande de remboursement des frais d'expédition ? Comme quoi peu importe que le travail soit fait ou pas la société est payée. Alors pourquoi faire son boulot ? Oui, je sais, les livreurs sont payés au lance pierre avec un turn over de dingue. Mais à un moment il faut accepter de les payer pour fidéliser les livreurs consciencieux et tant pis si ça coûte quelques euros de plus.
Par contre, si on perd la carte mère, on perd l'accès au disque ? Ou c'est toujours possible avec le mot de passe de chiffrement du disque ?
Si on perd la carte mère on perd effectivement tout le contenu du disque. Pour limiter le risque on peut faire une sauvegarde de la clef sur un support externe. Surtout, il doit y avoir moyen d'utiliser une seconde clef protégée par un bête mot de passe. Bon, pas sûr que l'ubuntu reste bootable dans ces conditions, mais au moins les données ne seront pas perdues. Il faudrait faire des tests en conditions réelles pour évaluer la fiabilité et la simplicité du processus de récupération. Mais je ne peux que conseiller de sauvegarder régulièrement les données.
Le
12/04/2024 à
21h
50
Si j'ai bien suivi, c'est de mettre la clef de chiffrement dans le TPM de la carte mère plutôt que sur le disque dur protégé par une phrase de passe.
Maintenant ils parlent d'une qualification Secnumcloud en 2025. On peut donc supposer que ce n'est pas si facile que ça. Et que les coûts de la version Secnumcloud vont être coquets...
Le
12/03/2024 à
21h
26
En fait, je ne comprends pas comment cette abomination d'Office 365 peut ne pas être bannie de tout organisme public et de toute grande entreprise européenne.
Bon après, pour comprendre il faut avoir envie de comprendre.
Surtout avec l'historique pour montrer l'absence totale de scrupule de la NSA pour se servir dessus.
Parler de la NSA pour discréditer ce genre de solutions, c'est éculé; il faudrait penser à se renouveller un peu.
Bêtise, paresse, force de l'habitude, corruption. En vrai, je comprends très bien. Comme nos politiques qui refusent d'utiiser leurs téléphones sécurisés au profit de leur smartphone personnel.
Et oui, un collabora online ou un onlyoffice couplé à un nextcloud auto hébergé est bien loin d'un Office 365. Personne de bonne foi ne peut prétendre le contraire. Maintenant, peut-être que si la majorité ne cédait pas à la solution de facilité, on trouverait les ressources pour améliorer ces outils, plutôt que d'engraisser Microsoft.
Par contre, je ne comprends toujours pas comment on peut être assez naïf pour croire que la NSA ne va pas se servir directement chez Microsoft ou Google.
Le
12/03/2024 à
14h
51
En fait, je ne comprends pas comment cette abomination d'Office 365 peut ne pas être bannie de tout organisme public et de toute grande entreprise européenne. Comment peut-on laisser des données, par définition sensible, sur les serveurs d'une entité soumis au cloud act ? Surtout avec l'historique pour montrer l'absence totale de scrupule de la NSA pour se servir dessus. Oui c'est pratique, les utilisateurs y sont habitués, et ça coûte sans doute moins cher que d'adapter des technologies souveraines. Mais à un moment il faut arrêter de faire n'importe quoi et prendre en compte le coût de l'espionnage économique par nos "alliés".
Petite précision: pour mettre un pin code, il faut effectivement une stratégie de groupe, mais ça peut se faire sur un ordinateur autonome sans active directory avec gpedit
Ensuite, rajouter un code pin c'est juste manage-bde -protectors -add c: -TPMAndPIN
Comme dit par d'autre ça pose des problèmes difficilement surmontables à certains non permanents (le postdoc mis au chômage pendant 4 mois n'a que ses yeux pour pleurer, personne ne paiera de prolongation). Mais surtout ces histoires de petaflops ça n'intéresse que les politiques pour de l'affichage. L'utilisateur il s'en fiche, il veut que son calcul aille vite. Et tous les calculs ne sont pas des multiplications de matrices vectorisables à l'infini. Et encore moins en demi-précision. On jette à la benne des machines CPU pour y mettre à la place des GPU orientés IA (et c'est à craindre un fléchage IA pour les attributions d'heures). Le calcul de chimie quantique sur des niveaux de précision élevés avec Gaussian va avoir des performances désastreuses (si jamais ça tourne, compatibilité: uniquement K40, K80, P100, V100 et A100) Et des logiciels inadaptés voire incompatibles GPU il y en a des paquets en science.
Problème «rigolo» avec la MAIF. Génération d’un mot de passe avec les caractères spéciaux dans keepassxc. Pas de problème en dehors de l’impossibilité de copier-coller. Je peux me connecter normalement avec mon mot de passe tout nouveau tout beau.
Mais au moment de signer en ligne un contrat on me demande de valider avec le mot de passe => “Caractère non autorisé”
Si je comprends bien l’idée, quand tu voudras te connecter avec un nouvel appareil, tu devras en donner “l’autorisation” avec un appareil contenant déjà une passkey dans son enclave sécurisée. L’ancien appareil pourra par exemple afficher un code à entrer sur le nouveau (code valable quelques instants) pour se connecter.
Autorisation par site web ou globale ?
Le
22/12/2022 à
20h
55
(reply:2111469:Aristide Rutilant)
Je ne comprends pas moi aussi comment ça peut marcher. Tel que je comprends, en simplifiant à l’outrance, l’objectif est de stocker dans l’enclave sécurisée d’un smartphone (ou d’un TPM) une/des clefs privées qui seront utilisées par la suite pour un valider une transaction. Donc, aucun moyen de les transférer d’un appareil à un autre, et en cas de perte/panne du smartphone arriver à faire valider un nouveau passkey pour tous les sites sera un véritable calvaire. Et ce n’est pas un éventualité exceptionnelle. Où alors, et c’est comme ça que j’ai compris le machin, en vrai la clef privée sera stockée en clair dans le “cloud” du GAFAM de son choix (copie NSA) et avec une manière pour récupérer le compte du GAFAM sans passkey qui sera sans nul doute une faille de sécurité monstrueuse. Je sais bien que ne pas donner aux GAFAM la totalité de ses mots de passe est un truc qui n’intéresse que quelques barbus archaïques, mais bon…
Ton SAN en général c’est du SAS attaché ou iSCSI qui n’est pas fait pour le Flash. Là c’est exactement la même chose en pratique, mais avec un protocole d’accès/découverte natif au NVMe.
Même si on a des trucs type Dell MD1400 qui renvoient juste les disques, la plupart des baies SAN que j’ai vu sont d’un niveau d’abstraction bien plus élevé (RAID, souvent volumes logiques, snapshot, réplication, tiering…) Mais si j’ai vu des cartes RAID gérant le NVME, je n’ai pas vu de baies SAN élaborées sortant en NVMEoF. Bon, ce ne serait de toutes façons pas dans les moyens de là où je travaille.
Le
12/09/2022 à
11h
21
Mais pourquoi 2000W/alimentation ? Un SN840 c’est 18W max et c’est déjà énorme pour un SSD. Une carte infiniband 100Gbit/s c’est de l’ordre de 10W et le processeur pour relier le SSD au réseau ne doit pas être très élaboré, le gros du travail devant être des transferts directs entre le SSD et la carte réseau. En pratique combien est-ce que ça consomme ? 750W ?
Pour le reste, je sais le retard que j’ai sur les technos à la mode, mais le besoin de réattribuer à la volée des SSD NVME d’un serveur à un autre me semble quand même assez particulier, hors gros hébergeur. Je suppose que l’objectif est d’attribuer physiquement le SSD à une VM donnée (en gardant la possibilité de déplacer la VM).
Du point de vue de l’administrateur système et réseau, le problème du java c’est que, trop souvent, on a juste un .jar, .war ou un truc java web start. Pas de source, pas de mise à jour (où hors de portée de nos moyens financiers), pour savoir les dépendances incluses, on peut toujours partir à la pêche, mais de toutes façons on ne pourra pas les mettre à jour. C’est souvent très dépendant de la version de java (voire de si on prend l’implémentation libre ou le binaire fourni par Oracle). Oracle facture désormais très cher quand on a besoin d’une vieille version, et en plus ça engendre plein de failles de sécurité. Les applet java ont été abandonnées, puis le java web start, du coup on se retrouve sans vraie solution de secours. Sans doute faute d’expérience en java, je trouve souvent plus simple de faire tourner de vieux binaires en reconstituant les librairies dépendantes que d’arriver à faire tourner de vieux logiciels java.
Bon, les applis en php qui passent mal d’une version à l’autre c’est aussi très courant, mais sauf obfuscation on arrive généralement à s’en tirer.
… et validée par les consommateurs qui ont choisi de croire qu’on peut consommer plus en payant moins
Ça me va. Comme c’est nous qui choisissons, on commence quand ?
On peut décaler le prix des investissements nécessaires à la remise à niveau/remplacement des centrales nucléaire. Il faudra juste payer plus tard (et pour les plus vieux parier que ce seront d’autres qui paieront). Le vrai problème est que les parasites se mettent le gros de la somme dans la poche ou dans des campagnes de publicité. Pour ce qui est de choisir, concrètement on fait quoi ? À titre personnel je n’ai pas voté Macron et je suis chez EDF au tarif régulé. Mais si je suis tout seul dans mon coin, ça ne changera rien.
Le
11/10/2021 à
06h
56
wanou2 a dit:
On a décidé que la ditribution électrique ne pouvait pas être concurrentiel ainsi on a créé Enedis pour assurer cette distribution. La concurrence devait se faire par la production électrique. Or pour favoriser la concurrence on a choisit de forcer l’opérateur historique à vendre en deça du prix du marché pour que ses concurrents se fassent la cerise or depuis près de 15 ans rien ou presque n’a été fait, ils restent des marchands prenant leur commission (soit sur le morceau du nucléaire soit sur les tarifs régulés du renouvelable). Au final, ce sont les consommateurs qui paient pour l’émergence d’une concurrence qui ne leur apporte rien (ou si peu).
En fait, c’est pire que ça, on ruine EDF en l’obligeant à vendre sa production 3 fois moins cher que le prix du marché afin de permettre à ses concurrents privés de s’enrichir. Et quand la concurrence n’arrive toujours pas à être compétitive on augmente le tarif réglementé. Et maintenant la solution miracle que l’on vend à la fin de l’article, c’est d’obliger EDF à brader une partie encore plus importante de sa production. La pseudo concurrence imposée par nos élites libérales est constituée quasi exclusivement de parasites qui se contentent de rajouter leur marge à une électricité qu’ils ne produiront jamais et qui dépensent des fortunes en démarchage agressif et en campagnes de publicités. Bien entendu dans quelques années, il faudra renflouer EDF avec nos impôts et on nous expliquera doctement que le problème c’est les conditions de travail des salariés et le CE. La bonne chose pour la société serait de voir ces nuisibles disparaître afin qu’il ne subsiste plus que des producteurs.
Pour en avoir depuis un sacré paquet d’année, l’évolution n’a pas été que positive . Prix en très forte hausse, surtout que le modèle complet n’existe plus qu’en NFC hors de prix (50€ pièce quand on veut équiper plusieurs centaines de personnes, ça fait mal) . La solution d’authébergement de l’authentification n’est plus maintenue. L’adapter pour tourner sur un php7.2 a été un enfer.
Il est vrai que l’on peut lui faire beaucoup plus de choses qu’avant, mais est-ce bien nécessaire ? Pour des besoins plus élaborés, ne vaut-il pas mieux partir sur un format trezor ou ledger avec un écran et un ersatz de clavier ?
Upgrade de 6 vers 7.0 testé sur une infra pro encore en test avant l’upgrade, tout s’est bien passé, sauf la configuration réseau en openvswitch. Le /etc/network/interfaces valide en 6.x ne marchait plus du tout en 7.0 des heures d’énervement pour faire retomber le tout en marche. Et pire que ça un même /etc/network/interfaces qui fonctionnait sur un noeud ne marchait pas sur celui d’à côté (en changeant les IPs évidemment)
Heureusement que l’on n’était pas en prod, même si bien entendu, comme on met à jour noeud par noeud du cluster, la situation n’est pas désespérée.
Franchement ce genre de solution n’a rien d’une nouveauté. Pour en avoir testé des solutions en version Xeon chez surpermicro, je préfère largement les solutions 4 nœuds dans 2U. Ça permet d’avoir 2 alims redondantes pour 4 serveurs et la ventilation est quand même beaucoup plus facile avec des ventilateurs large. La solution Dell à base de C6400+4C6525 est relativement satisfaisante (même si j’ai eu quelques bugs sur le C6400). Ça s’alimente en 220V, on peut mettre des cartes d’extension PCIE, pas de switch bizarre pour le réseau… À noter quand même qu’avec les processeurs les plus puissants on finit par atteindre les limites de dissipation en air cooling (et celle des alimentations). 8 processeurs à 280W, des disques rapides des cartes réseau/infiniband un peu gourmandes et on est vite à 3000W. Imaginez en entasser 20 dans une armoire rack.
Je ne suis pas d’accord : il faut arrêter de laisser croire que n’importe qui peut s’improviser “informaticien”. Ce n’est pas parce que j’ai fait une cabane en bois dans le jardin pour les chats que je suis entrepreneur de BTP. Ce n’est pas parce que l’on a mis une guirlande électrique sur le sapin de Noël que l’on est électricien.
Mais tous les utilisateurs d’OVH ne se prétendent pas informaticien. J’ai une connaissance (que j’avais envoyée chez OVH pour remplacer une solution bien pire). Elle vivote comme “webmaster” pour héberger des petits sites vitrines associés à des espaces collaboratifs. Son boulot, c’est de mettre les données en forme, pas l’hébergement. Elle est capable de faire les MAJ nécessaires du serveur et des applications web, et c’est à peu près tout. Quand ça se complique je fais un peu de bénévolat, mais je ne vais évidemment pas y passer mes journées. Elle n’attend évidemment pas d’OVH une garantie de service avec les pénalités qui vont avec pour faire appliquer le contrat. Mais soyons clair, si une fois par hasard ses sites sont indisponibles quelques jours, personne ne s’en offusquera.
Par contre, quand elle prend une option sauvegarde quotidienne, j’ose espérer qu’elle ne va pas se rendre compte que caché derrière 20 pages de petites lignes il y avait écrit que la sauvegarde était au même endroit que les serveurs et qu’OVH n’est responsable de rien. Bon en vrai je pense qu’elle a aussi des sauvegardes chez elle de la partie vitale, mais sous une forme qui ne va pas être drôle à restaurer.
Après on peut dire qu’il faudrait interdire à ces gens d’exister et passer par des SSII qui demandent plus de 30K€ pour monter un pauvre site drupal et son intranet, Hébergement/maintien en condition non compris. Et pour avoir vu le résultat, ça ne m’a pas paru si pro que ça… Et si le client final n’est pas lui même spécialiste et n’impose pas à son prestataire un contrat aux petits oignons avec les ressources humaines pour le faire appliquer, il risque d’avoir des surprises. Ah zut, il faut carrément interdire tout usage de l’informatique aux TPE, EURL…
Le
10/03/2021 à
12h
08
Les offres d’OVH s’adressent aussi à des particuliers/autoentrepreneurs… Qui pour la plupart n’ont ni les connaissances ni les moyens de mettre en œuvre un PRA.
Quand on commande un VPS sur ovh, il propose une offre snaphsot et une offre sauvegarde automatisée, et c’est à peu près tout. Si jamais ces sauvegardes sont dans le même datacenter que les machines, est-ce vraiment la faute de l’acheteur ?
Oui, si c’est une boîte de 500 personnes spécialisées dans l’IT qui a fait ça, je ne dirais pas la même chose.
Pour les gens en manque de ressources, Centos était la solution idéale grâce à ses 10 ans de support. La possibilité d’acheter un serveur avec 7 ans de garantie, de configurer aux petits oignons, et de l’oublier ensuite dans un coin en appliquant juste les mises à jours de sécurité. Et au bout de 7 ans, on arrive à négocier avec la direction pour acheter la machine suivante un peu en avance, ce qui permet de faire les tests dessus et de basculer la production quand tout marche.
On est loin de l’intégration continue ou autres buzzword à la mode, c’est l’informatique de grand papa. Mais ça fait l’affaire à moindre coût à pas mal d’endroits. Et avec les ressources financières et humaines, c’est çà où donner toutes ses données aux GAFAM (avec copie à la NSA au passage). Passer à 5 ans, que ce soit en Stream ou sur une Debian/Ubuntu LTS est une sacré régression (on n’installe pas l’OS tout juste sorti, donc ça fait 4 ans réels maximum). Donc au moins une mise à jour majeure de version sur le cycle de vie du matériel avec tous les problèmes associés.
Ceci dit, je doute que Redhat vende beaucoup à ce public. Les tarifs proposés sont purement délirants. 350\( par an pour la version sans support que l'on n'a même pas le droit d'installer sur une VM. 800\)/an minimum pour la vraie version. On va revenir à l’époque de Scientific Linux (ou un de ses équivalents si SL n’est pas relancée) et les 6 mois de retard à chaque sortie de version mineure.
Le problème ce n’est pas tant l’obligation de créer un compte, c’est que ça synchronise les notes dans le cloud. Société situé sur le sol américain, cloud act, donc tout arrive en direct à la NSA. Pour un outil qui semble quand même à usage assez professionnel, ça réduit beaucoup l’usage.
Après il suffit de voir tous les gens qui utilisent zoom pour communiquer sur des sujets appartenant au patrimoine scientifique et technique de la France pour se rendre compte que seule la praticité compte et que la PSSIE est décorative, mais quand même.
La durée de vie moyenne d’une voiture n’est pas de 2 ans (même si des personnes en changent tous les 2 ans, après la voiture se retrouve sur le marché de l’occasion). L’autoradio dans les voitures modernes ne peut quasiment plus être changé.
Dans ce problème d’œuf et de poule c’est beaucoup plus simple de commencer par s’assurer que les récepteurs soient-là pour rentabiliser l’investissement dans le système d’émission. Quel est le surcoût réel pour le constructeur auto d’activer DAB+ ? Je serais bien étonné que l’on dépasse 10€ sur une voiture à plus de 15000€
Le
26/05/2020 à
09h
03
La résistance à la RNT est énorme. On a l’impression que tout est fait pour tuer dans l’œuf la RNT, à croire que certains grands groupes craignent que la RNT amène de nouveaux entrants.
Pour en revenir aux constructeurs auto, aucune pitié pour eux s’ils ont installé dans des voitures construites début 2020 des autoradio non compatibles DAB+ ils ne peuvent s’en prendre qu’à eux-même et s’ils sont obligé de le changer à leur frais, ce ne sera que justice.
On peut imaginer stocker les données biométriques de manière totalement locales sur le passeport sans créer la base nationale qui inévitablement sera à terme couplée à la vidéosurveillance pour espionner 60 millions de Français. Après, techniquement je crains que la concordance ne soit pas testée par un processeur embarqué sur le passeport (trop cher, et sans doute trop consommateur pour du sans contact), donc il faudra faire confiance pour que la donnée ne fuite pas lors du contrôle. Et si c’est une application sur smartphone qui fait le boulot, comment dire…
En fait c’est surtout l’utilisation de la RAM en cache qui accélère globalement le système avec des temps de chargement fortement réduit, le mappage en cache des fichiers, des dll systèmes etc…
On gagne vraiment beaucoup en usage réel par rapport à un bon SSD NVME ?
Le
03/02/2020 à
17h
54
fry a dit:
bah pour qqn qui fait du montage vidéo et qui a les moyens, pourquoi pas ? ou qui bosse sur des photos en raw (je cherche des utilisations qui pourraient être avides de RAM) ou de la MAO pour charger tout un tas de lib en ram (il me semble que les lib se comptent facilement en dizaines de Go)
Pour la MAO je n’en sais rien. Même si 1go c’est déjà plus d’une heure de musique non compressée donc j’ai du mal à comprendre.
Pour des photos en RAW je ne vois pas l’intérêt. Même une photo 80mpixel en 14bits ça ne fait que 140Mo avant compression et je ne vois pas l’intérêt d’en avoir plus d’une poignée en mémoire, mieux vaut investir dans un bon disque pour stocker tout ça.
Pour la vidéo, en compressé on a un débit de 50Mo/s en 4K au max, donc à la porté du premier disque dur venu. Évidemment en non compressé les 128Go de RAM seront bouffés en moins de 2 minute de vidéo. Mais les logiciels de montage grand public font-ils vraiment ça ?
Le
03/02/2020 à
17h
10
meyrand018 a dit:
Je serai plus audacieux dans le titre : “Doit-on utiliser 128 Go (4x 32 Go) de DDR4 avec un Core i5-9600K” ?Tournant avec un i5 3570K et 8Go de RAM, je me sens bien loin de ces problématiques presque philosophiques aujourd’hui…
Je me pose surtout une question: 128Go de RAM pour faire quoi ? Pour un usage pro je vois très bien, mais ce sera plutôt de l’ECC, donc pas associé à un i5. Il y a réellement des particuliers qui ont l’usage de telles quantités de mémoire ?
Pour compiler blender sous centos 7, il y a SCL yum install centos-release-scl yum install devtoolset-7 scl enable devtoolset-7 bash Et hop on passe de gcc 4.8 à gcc 7.3
Largement moins chers, mais il y a aussi très peu de besoins de gros volumes de stockage. Je ne serais pas surpris si ces disques durs de grosse capacité redevenaient plus chers que les SSDs dans les prochaines années.
Avec le cloud machin bidule, effectivement une partie du besoin de stockage a été déplacé vers les salles serveurs des GAFAM. Mais eux auront encore longtemps besoin de disques magnétiques pas chers. Parce que bon, les SSD U2 de 8To ont une superdensité, mais un prix totalement prohibitif. Et entre un disque dur nearline pour serveur et un pour particulier, la différence n’est pas énorme.
Au passage, côté particuliers, avec les appareils photos 50Mpixel et les futures caméras 8k ça remplit vite.
Effectivement chez Dell c’est à la tronche du client…. mais là pour mon exemple ce sont de petits serveurs très basiques (T110ii / T130), ça doit pas être pareil sur les gros serveurs rack.
Ces serveurs chez nous doivent gérer très peu de choses: DNS/DHCP/VPN et du stockage en agences mais sans besoin de performance. D’où un serveur maison avec un petit CPU, peu de RAM, et un petit contrôleur raid matériel en Sata (sans cache), il faudrait juste qu’on puisse le monitorer en CLI depuis un CentOS.
Par contre je viens de regarder un peu les cartes mère en ASMB9, woh bordel les tarifs " /> Ils ont oublié le pas haut de gamme…
On trouve des carte mère supermicro avec de l’ipmi à des prix à peu près raisonnables… En Pologne…
Le tout doit gérer correctement du raid logiciel AHCI qui permet de booter sur le RAID… Pourquoi chercher plus cher pour si peu d’usage ? Et je pense même qu’en cherchant mieux il doit y avoir des solutions à base d’atom pour grapiller encore un peu.
Le
20/11/2018 à
21h
59
Aurel73 a écrit :
Oh put*in NI je vous aime ! " />
Je commence à gratter ce genre de solution maison pour le boulot (marre d’entendre “Dell augmente ses tarifs de 10% fin du mois” à chaque devis, et pas envie de payer leur licence IDRAC à x centaines d’euros pour avoir accès à la console à distance, sans parler de leur blague de ne garantir les HDD de serveur qu’un an car c’est du “consommable”).
J’étais en plein dans les IPMI mais j’avais pas vu la version 9 d’ASMB qui est pile ce que j’ai cherché pendant des heures…. Plus qu’à trouver les cartes mère compatibles maintenant, merci !
(PS: à tout hasard, vous auriez pas testé également une petite carte RAID basique pour du RAID 1 ? " /> )
On dirait que tout le monde n’a pas les mêmes contrats avec Dell. Chez moi c’est 5 ans de garantie d’office pour le serveur, disques durs compris (par contre la batterie du H7?0P c’est du consommable)… Vaut mieux pas que je donne le prix de la licence Idrac entreprise (je n’ai pas le droit de toutes façons). Mais bon concrètement, un serial over ipmi est suffisant 95% du temps…
Pour le RAID 1 c’est pour faire quoi ? Sas ou Sata ? Besoin de RAID matériel ? En SAS les H330 fonctionnent bien, mais c’est bien cher pour ce que c’est, surtout au prix catalogue. Certaines cartes mères ont du SAS intégré, mais ce n’est pas le cas chez Dell.
Le
20/11/2018 à
19h
29
David_L a écrit :
Tu entends quoi par “remisé” ? Parce que les R330 commencent à près de 900 euros (et on est loin d’avoir le même combo CPU/RAM). C’est notamment pour ça que j’ai plutôt comparé aux R230 :
Comme précisé, chacun voit midi à sa porte sur ce qui importe, entre la solution home made et le besoin d’avoir du tout-en-un avec garantie et service Pro. Pour le boîtier, e but est effectivement que la machine soit passe partout, tout le monde n’ayant pas forcément la place pour une baie complète (et dans ce cas autant ne pas se limiter à du 1U en fait).
Règle de base n°1 sur les tarifs pro: ils multiplient le prix par 2 pour pouvoir faire jusqu’à 50% de réduction suivant le client. Évidemment si un particulier ou une très petite entreprise voulait acheter un tel serveur il devrait payer le prix fort… C’est sans doute moins vrai sur le prix des processeurs ou alors il faut être un très très gros client….
Le
20/11/2018 à
18h
02
Par rapport aux prix remisés d’un serveur R330 Dell le Do It Yourself est quand même extrêmement cher. Surtout que l’on n’a pas la même garantie.
Par contre question: pourquoi le choix de mettre un boîtier aussi petit ? Pour pouvoir rentrer dans un boîtier réseau ?
Parce que le R330 avec ses 67cm de profondeur ne tiendra effectivement pas, mais en échange on peut avoir 4 disques 3,5” hotplug ou 8 2,5”. Et pour un usage NAS c’est quand même infiniment plus pratique.
Par contre vu les montants, pourquoi du Dell en particulier et pas des trucs un peu plus directs genre SuperMicro ?
Déjà parce que je suis soumis à un marché à bon de commande chez Dell, et qu’il est difficile de passer outre. Après, à l’époque de mon achat, Supermicro n’avait pas mieux que Dell dans son portfolio de produits. Même maintenant je ne vois pas de nœuds twin en AMD chez Supermicro.
Autre point, l’époque où des vendeurs comme Al*os cassaient les prix sur du Supermicro est révolue. Sur mes montants de l’ordre de la centaine de k€, le prix marché Matinfo Dell est imbattable ou presque. L’an dernier, sur un appel d’offre une seule offre en Supermicro moins cher. Gain 1% sur le prix (à condition de saucissonner l’appel d’offre car sur le stockage ils étaient bien plus cher) et avec une garantie à la merci de la faillite de la boîte. Quand j’ai posé la question cette année, un vendeur de Supermicro a essayé, essayé et à fini par reconnaître que sauf à m’offrir l’extension à 5 ans de garantie il ne pourrait pas s’aligner avec une marge positive. Quant à HP, je suis trop petit pour eux pour qu’ils daignent faire des offres réalistes.
Le
07/11/2018 à
16h
10
Tout cela est bien tentant, maintenant il faudrait surtout de la disponibilité en terme de processeurs, mais aussi de machines capables de les accueillir.
Par exemple chez Dell en architecture Zen on trouve toujours un seul serveur: le R7425
2U pour 2 sockets avec un prix public totalement délirant. Le prix réel est bien plus raisonnable mais pour qui veut faire du calcul et n’a que faire de pouvoir mettre 12 disques durs 3,5” c’est une perte d’argent et d’espace difficilement acceptable. Surtout quand en Intel on peut acheter des C6400 avec 4 nœuds dans les mêmes 2U.
Il y a un peu plus d’un an j’avais étudié la possibilité AMD pour acheter quelques machines (>100k€). Je n’avais même pas réussi à avoir accès à des machines de test, et les prix proposés en supermicro étaient tout sauf compétitifs.
Demander des droits d’auteur sur la simple publication d’un titre est quand même un concept intéressant. Après, ce que ces rapaces devraient plutôt se demander, c’est qu’elle est la valeur ajoutée de leurs articles, si la lecture du titre et très éventuellement de la première phrase suffit au lecteur moyen pour ne pas avoir besoin de cliquer sur le lien pour lire la suite ?
Alors oui les GAFA ont de l’argent, ne payent pas leurs impôts et accaparent la chaîne de valeur. Mais ce n’est pas pour autant qu’ils sont responsables de la vacuité actuelle des articles de journaux se contentant de paraphraser des dépêches AFP. Ils feraient mieux de se concentrer sur le contenu.
Remarque préliminaire: le minage est revenu au goût du jour avec le développement de cryptomonnaies conçues pour ne pouvoir être minées que sur des GPU et/ou CPU plutôt que des ASICS façons bitcoin.
1) La loi de l’offre et la demande est toujours là.
Sur le long terme, le coût du minage doit être légèrement inférieur à la valeur de ce qui est miné.
Après la loi peut être déséquilibrée à la hausse en cas de pénurie de matériel, ou d’évolution de la législation pour rendre le minage illégal/surtaxé (mais dans le cas qui nous intéresse ce n’est pas une bonne nouvelle)
Ou à la baisse: acteurs ayant accès à de l’électricité moins chère, utilisation de larges réseaux de botnets… Chute dramatique des cryptomonnaies conduisant à une surcapacité de minage.
Ce qui est vendu est un mineur autonome déguisé en radiateur mais vendu au moins 50% trop cher. Le seul moyen de rentabiliser le bousin est de l’utiliser 365j/an, même quand il fait 35°C dehors. On aurait vendu une tour prééquipée et préconfigurée et “suffisamment” silencieuse pour 1000€ de moins, ça devenait un investissement raisonnable pour qui accepte les risques liés aux cryptomonnaies.
Si au lieu de vendre les cryptomonnaies générées au fil de l’eau, on les accumule en pariant sur leur montée, il y a moyen de faire du bénéf. Mais c’est de la spéculation, et autant acheter directement un panier de cryptomonnaie pour le faire.
Sur l’évolution à 4 ans, je ne prends pas grand risque en pariant sur un large déploiement de GPU gravés en 7nm EUV, ce qui devrait permettre au minimum de doubler la performance/W et la performance/ prix d’achat, sauf à imaginer qu’AMD et NVIDIA trouvent un moyen d’interdire le minage sur leurs GPUs pour joueurs. Du fait du point 1, le matériel proposé ne sera donc plus financièrement intéressant pour le minage.
Pour conclure, une simple observation: jusqu’à présent la boîte proposait de l’installation gratuite avec partage des bénéfices. Si elle croyait à son produit, elle aurait mis une version GPU de son radiateur et l’aurait utilisé à son profit pour miner de l’Ethereum/Zcash…
Le
10/03/2018 à
18h
56
bingo.crepuscule a écrit :
David, pas sûr que les chiffres soient bons pour la crypto… En France actuellement, l’imposition c’est 62% (BIC) lors d’une conversion en fiat, et en plus le gouvernement est contre les crypto et ne compte certainement pas se pencher sur la question hormis réguler ou interdire, on est dans un vide juridique quasi total, et les inspecteurs des impôts se permettent tous ce qu’ils veulent…
Tous ceux qui veulent cashout en France sont confrontés à ce problème, tout est fait pour décourager, et taxer plein pot, et à ce tarif c’est du vol…
Sauf que ce sont les bénéfices qui sont imposés et que l’on peut donc déduire le prix du radiateur. En prenant un amortissement sur 5 ans et en rajoutant le prix de l’électricité, il restera au mieux 100€/ans à imposer les premières années et rien du tout ensuite.
D’ailleurs ça me donne une bonne idée de startup. Aide au montage pour régulariser les gains de minage en minimisant l’imposition (et hop, c’est la startup qui se met le faible bénéfice dans la poche)
Le
10/03/2018 à
17h
56
David_L a écrit :
Note que l’idée n’est pas que de proposer une plateforme de minage, mais d’avoir un radiateur qui rapporte plus qu’il ne consomme. Tant que ce sera vrai… le souci viendra quand ce ne sera plus vrai.
Non, le souci vient de la rentabilisation possible ou non du radiateur. On va très généreusement dire qu’un radiateur électrique très classe coûte 300€ et durera bien 20 ans.
On a donc 2600€ à amortir. Ils promettent un revenu de 100€/mois, donc 26 mois de chauffage pour rentabiliser. À 60€, plus réalistes on arrive déjà à 43 mois de chauffage, donc si on l’arrête hors saison de chauffe il faudra bien 8 ans pour l’amortir.
À première vue, ça peut paraître raisonnable comme investissement. L’ennui, c’est que la difficulté pour miner un bloc augmente plus rapidement que le prix du bloc (plus ou moins corrélé à l’évolution du matériel). La probabilité que d’ici 4 ans le minage sur ce radiateur (avec du matériel périmé avant même sa sortie) soit encore économiquement rentable est à peu près nul. Et la probabilité que les cartes graphiques grand public survivent plus de 5 ans de minage intensif ne doit pas être très élevée. Ça laisse peu de temps pour rentabiliser l’investissement. Avec des risques élevés, notamment dus à l’évolution de la législation sur les cryptomonnaies.
En 2000 il suffisait d’afficher une pancarte .com sur une chèvre pour devenir riche. Maintenant il faut mettre le mot blockchain… Tant mieux pour les vendeurs, tant pis pour les acheteurs.
C’est hélas pas une exception. Bien que souvent hostile à une telle idée, il serait peut-être temps que les boites de prestations pour le net se structurent un minimum et fassent le ménage dans leurs rangs, peut-être via un label de qualité comme on peut le voir dans le bâtiment par exemple.
Ca ne manquerait pas de sel là où il est plutôt habituel dans ce milieu de réclamer l’absence de toutes régulations, mais on est combien autour de nous à connaître des gens qui sont plantés par le prestataire informatique (qu’il s’agisse de logiciels métiers ou de sites-prestations en ligne ) ?
Moi je serais beaucoup plus radical. Quand une boîte ose sortir en 2018 des applications où les mots de passe sont stockées en clair et refuse de corriger, ben on ferme la boîte. Si un traiteur ne se lave pas les mains avant de préparer les aliments, on condamne ceux qui y ont fait appel ou la DASS fait fermer le traiteur ?
Le
09/01/2018 à
19h
52
Il n’empêche que pour les touts petits c’est un problème quasi insurmontable. Expérience en cours: organisation d’un congrès par une association (but non lucratif, les recettes servant à payer les dépenses). L’office du tourisme local propose “gentiment” de s’occuper de tout, ce qui comprend le paiement des frais d’inscription. Du coup prestation annexe: création du site web où l’on peut choisir quelques options et payer en ligne, franchement rien de compliqué.
Naturellement l’office du tourisme a sous-traité le développement web à son prestataire d’une incompétence abyssale. Système de mail avec copie sur une url à compteur façon Darty, mots de passe stockés en clair (je laisse deviner ce qui se passe quand on ajoute la faille n°1 à l’envoi du mot de passe oublié par mail). Le prestataire ne s’est pas demandé ce qui se passait quand sur la réservation d’un hôtel on partait avant d’arriver… J’en passe et des meilleures.
Ben pour le prestataire, c’est normal, éventuellement, en repassant à la caisse, on pourra regarder ce qui est faisable. L’assoc organisatrice du congrès fait quoi ? Elle se lance dans 5 ans de procès contre l’office du tourisme en espérant que le juge partage notre opinion comme quoi faute de clause spécifique le fait que le site web devait respecter la législation en matière de protection des données personnelles était implicite ?
Ou elle organise quand même le congrès en hurlant pour que les failles les plus visibles soient cachées un peu sous le tapis au risque de se faire condamner si quelqu’un regarde d’un peu trop près ?
J’ai actuellement un portable Dell de 5 ans d’âge avec modem 3G incorporé. Dans mon usage à moi c’est utile: smartphone sur un forfait Free 2€ + carte sim orange sans engagement qui me permettait d’avoir 6 mois de connexion, 5Go pour 40€ (et pour lire ses mails, surfer un peu en déplacement, on est loin d’utiliser 5Go en 6 mois).
Ça fait un tarif mensuel assez raisonnable, et c’est quand même bien pratique. Après je ne suis sans doute pas très représentatif de la population, mon usage est quand même en bonne partie professionnel (et le modem a été payé par l’employeur, ça devait être une option à 80€HT, et pour me faire travailler gratos pendant mes vacances c’est une bonne affaire pour lui).
S’ils ne se réservent pas le droit de partager les machines en cas d’affluence, ça veut dire qu’ils ne peuvent pas compter sur plus de 20% d’overbooking, au risque de refuser les connections en cas de pics d’utilisation. On peut supposer que des gens prêts à payer 360€/an pour louer une console de jeu élaborée sont quand même de gros joueurs et qu’à certaines heures ils seront très présents (ce qui n’empêchera pas que le taux d’occupation moyen sur l’année sera faible)
Et même en appliquant un facteur correctif 0,8 à mon analyse de coût, 5 ans d’abonnement ne paieraient même pas le seul matériel.
Délocaliser les machines dans une salle serveur en remplaçant du matériel grand public par du matériel pro bien plus cher (une GTX 1080 c’est 500€ HT) et en rajoutant tous les coûts de gestion (au sens large) associés n’a de sens économique que si l’on joue sur le taux d’occupation pour en acheter beaucoup moins.
Savoir comment ils comptent être bénéficiaire est quand même une question qui me semble importante.
_ sponsorisé par nvidia
_ ils ont trouvé un moyen d’utiliser les serveurs quand personne ne tourne dessus (mais pour du calcul GPU, la P5000 n’est pas forcément un bon choix, et niveau CPU on ne va pas aller bien loin avec des E5 2620).
_ prix d’appel qu’ils feront exploser une fois les abonnés coincés dans leur écosystème
_ ils s’en moquent, veulent juste faire du CA pour se faire racheter
Le
30/11/2017 à
16h
59
Moi ce que je ne comprends pas du tout c’est comment ils vont gagner de l’argent.
Quand je lis l’article je comprend que chaque abonné se voit dédié:
_ une P5000 -> 2000€ HT
_ 1⁄2 E5 2620v4 -> 175€
_ 12Go DDR4 ECC -> 150€
_ carte mère, alim, boîtier, montage… -> à la louche 200€ (800⁄4)
_ 256Go de disque (forcément redondé et sauvegardé), en général facturé de l’ordre de 5€/mois
Le gros du prix c’est la carte graphique, dans 5 ans, elle ne vaudra plus rien. Et le serveur partira à la poubelle ou sera revendu une misère.
51230€=1800€
L’abonnement ne paye même pas la carte graphique. Et j’ai soigneusement oublié de prendre en compte les frais d’hébergement (électricité, refroidissement, réseau) , d’assistance utilisateur, de commercialisation, la TVA, et les frais de développement de la solution.
Donc soit Nvidia leur a filé les cartes à -75%, soit la rentabilité se fait en ayant beaucoup moins de machines que d’abonnés. Mais qui des performances en soirée s’il faut partager une P5000 entre 2 voire 3 utilisateurs. Idem d’ailleurs pour le CPU parce que 1⁄2 2620v4 c’est 4 cœurs à 2.1GHz. S’il faut le recouper en 2, même pour du jeu vidéo, ça ne sera pas terrible.
48 commentaires
Les « liaisons dangereuses » de la Poste : Amazon, Temu et Shein
31/10/2024
Le 31/10/2024 à 13h 11
Je vois dire beaucoup de mal de la poste, mais par chez moi les concurrents sont pires. Livraison TNT d'une pièce détachée (un clavier d'ordinateur portable). Le livreur appelle le matin: vous êtes chez vous ? Non, refus de mettre dans la BAL ou dans un point relais.Seule proposition repasser samedi. Le samedi vient, et au bout d'une heure le suivi, indique adresse incomplète veuillez contacter le service client. L'adresse était évidemment complète et en cas de doute ils avaient mon téléphone.=> Envoi d'un message sur l'adresse de contact le samedi. Réponse mardi matin pour me confirmer la remise en livraison mercredi (évidemment aucune excuse sur le fait que leur livreur ait menti).
Et naturellement le mercredi le colis n'est pas parti. Heureusement l'expéditeur a dû faire un truc mais sur le site du suivi un lien est apparu qui m'a permis de choisir un point relais. Mais que de temps et d'énergie perdue.
Dois-je préciser que l'expéditeur n'a pas donné suite à ma demande de remboursement des frais d'expédition ? Comme quoi peu importe que le travail soit fait ou pas la société est payée. Alors pourquoi faire son boulot ?
Oui, je sais, les livreurs sont payés au lance pierre avec un turn over de dingue. Mais à un moment il faut accepter de les payer pour fidéliser les livreurs consciencieux et tant pis si ça coûte quelques euros de plus.
Ubuntu 24.04 LTS se profile comme une version majeure, le tour des nouveautés
12/04/2024
Le 14/04/2024 à 12h 31
Il faudrait faire des tests en conditions réelles pour évaluer la fiabilité et la simplicité du processus de récupération. Mais je ne peux que conseiller de sauvegarder régulièrement les données.
Le 12/04/2024 à 21h 50
Si j'ai bien suivi, c'est de mettre la clef de chiffrement dans le TPM de la carte mère plutôt que sur le disque dur protégé par une phrase de passe.La Commission européenne épinglée pour son utilisation de Microsoft 365 sans protéger suffisamment les données personnelles
12/03/2024
Le 13/03/2024 à 07h 39
Ça fait depuis 2022 qu'ils promettent de faire un Office 365/Azure AD où l'hébergement des données n'est plus laissé à Microsoft.https://www.capgemini.com/fr-fr/actualites/communiques-de-presse/capgemini-et-orange-annoncent-le-lancement-des-activites-commerciales-de-bleu-leur-future-plateforme-de-cloud-de-confiance/
Maintenant ils parlent d'une qualification Secnumcloud en 2025. On peut donc supposer que ce n'est pas si facile que ça. Et que les coûts de la version Secnumcloud vont être coquets...
Le 12/03/2024 à 21h 26
Comme nos politiques qui refusent d'utiiser leurs téléphones sécurisés au profit de leur smartphone personnel.
Et oui, un collabora online ou un onlyoffice couplé à un nextcloud auto hébergé est bien loin d'un Office 365. Personne de bonne foi ne peut prétendre le contraire. Maintenant, peut-être que si la majorité ne cédait pas à la solution de facilité, on trouverait les ressources pour améliorer ces outils, plutôt que d'engraisser Microsoft.
Par contre, je ne comprends toujours pas comment on peut être assez naïf pour croire que la NSA ne va pas se servir directement chez Microsoft ou Google.
Le 12/03/2024 à 14h 51
En fait, je ne comprends pas comment cette abomination d'Office 365 peut ne pas être bannie de tout organisme public et de toute grande entreprise européenne.Comment peut-on laisser des données, par définition sensible, sur les serveurs d'une entité soumis au cloud act ? Surtout avec l'historique pour montrer l'absence totale de scrupule de la NSA pour se servir dessus.
Oui c'est pratique, les utilisateurs y sont habitués, et ça coûte sans doute moins cher que d'adapter des technologies souveraines. Mais à un moment il faut arrêter de faire n'importe quoi et prendre en compte le coût de l'espionnage économique par nos "alliés".
BitLocker contourné rapidement pour moins de 10 dollars ? Pas de panique
09/02/2024
Le 09/02/2024 à 09h 03
Petite précision: pour mettre un pin code, il faut effectivement une stratégie de groupe, mais ça peut se faire sur un ordinateur autonome sans active directory avec gpeditEnsuite, rajouter un code pin c'est juste
manage-bde -protectors -add c: -TPMAndPIN
Le supercalculateur Jean-Zay en pause pour mise à jour, les chercheurs bloqués
08/02/2024
Le 08/02/2024 à 17h 43
Comme dit par d'autre ça pose des problèmes difficilement surmontables à certains non permanents (le postdoc mis au chômage pendant 4 mois n'a que ses yeux pour pleurer, personne ne paiera de prolongation).Mais surtout ces histoires de petaflops ça n'intéresse que les politiques pour de l'affichage. L'utilisateur il s'en fiche, il veut que son calcul aille vite. Et tous les calculs ne sont pas des multiplications de matrices vectorisables à l'infini. Et encore moins en demi-précision. On jette à la benne des machines CPU pour y mettre à la place des GPU orientés IA (et c'est à craindre un fléchage IA pour les attributions d'heures). Le calcul de chimie quantique sur des niveaux de précision élevés avec Gaussian va avoir des performances désastreuses (si jamais ça tourne, compatibilité: uniquement K40, K80, P100, V100 et A100) Et des logiciels inadaptés voire incompatibles GPU il y en a des paquets en science.
Gestion catastrophique des mots de passe par des sites et services : faites-nous part de vos expériences !
20/01/2023
Le 20/01/2023 à 11h 58
Problème «rigolo» avec la MAIF. Génération d’un mot de passe avec les caractères spéciaux dans keepassxc. Pas de problème en dehors de l’impossibilité de copier-coller.
Je peux me connecter normalement avec mon mot de passe tout nouveau tout beau.
Mais au moment de signer en ligne un contrat on me demande de valider avec le mot de passe => “Caractère non autorisé”
Que sont les passkeys, comment on s’en sert ?
22/12/2022
Le 23/12/2022 à 11h 20
Autorisation par site web ou globale ?
Le 22/12/2022 à 20h 55
Je ne comprends pas moi aussi comment ça peut marcher. Tel que je comprends, en simplifiant à l’outrance, l’objectif est de stocker dans l’enclave sécurisée d’un smartphone (ou d’un TPM) une/des clefs privées qui seront utilisées par la suite pour un valider une transaction. Donc, aucun moyen de les transférer d’un appareil à un autre, et en cas de perte/panne du smartphone arriver à faire valider un nouveau passkey pour tous les sites sera un véritable calvaire. Et ce n’est pas un éventualité exceptionnelle.
Où alors, et c’est comme ça que j’ai compris le machin, en vrai la clef privée sera stockée en clair dans le “cloud” du GAFAM de son choix (copie NSA) et avec une manière pour récupérer le compte du GAFAM sans passkey qui sera sans nul doute une faille de sécurité monstrueuse.
Je sais bien que ne pas donner aux GAFAM la totalité de ses mots de passe est un truc qui n’intéresse que quelques barbus archaïques, mais bon…
OpenFlex Data24 de Western Digital : 6x 100 Gb/s et 154 To de SSD NVMe-oF dans 2U
12/09/2022
Le 13/09/2022 à 06h 44
Même si on a des trucs type Dell MD1400 qui renvoient juste les disques, la plupart des baies SAN que j’ai vu sont d’un niveau d’abstraction bien plus élevé (RAID, souvent volumes logiques, snapshot, réplication, tiering…) Mais si j’ai vu des cartes RAID gérant le NVME, je n’ai pas vu de baies SAN élaborées sortant en NVMEoF. Bon, ce ne serait de toutes façons pas dans les moyens de là où je travaille.
Le 12/09/2022 à 11h 21
Mais pourquoi 2000W/alimentation ? Un SN840 c’est 18W max et c’est déjà énorme pour un SSD. Une carte infiniband 100Gbit/s c’est de l’ordre de 10W et le processeur pour relier le SSD au réseau ne doit pas être très élaboré, le gros du travail devant être des transferts directs entre le SSD et la carte réseau. En pratique combien est-ce que ça consomme ? 750W ?
Pour le reste, je sais le retard que j’ai sur les technos à la mode, mais le besoin de réattribuer à la volée des SSD NVME d’un serveur à un autre me semble quand même assez particulier, hors gros hébergeur. Je suppose que l’objectif est d’attribuer physiquement le SSD à une VM donnée (en gardant la possibilité de déplacer la VM).
Log4shell : les jours d’après
21/12/2021
Le 22/12/2021 à 10h 53
Du point de vue de l’administrateur système et réseau, le problème du java c’est que, trop souvent, on a juste un .jar, .war ou un truc java web start. Pas de source, pas de mise à jour (où hors de portée de nos moyens financiers), pour savoir les dépendances incluses, on peut toujours partir à la pêche, mais de toutes façons on ne pourra pas les mettre à jour. C’est souvent très dépendant de la version de java (voire de si on prend l’implémentation libre ou le binaire fourni par Oracle).
Oracle facture désormais très cher quand on a besoin d’une vieille version, et en plus ça engendre plein de failles de sécurité. Les applet java ont été abandonnées, puis le java web start, du coup on se retrouve sans vraie solution de secours.
Sans doute faute d’expérience en java, je trouve souvent plus simple de faire tourner de vieux binaires en reconstituant les librairies dépendantes que d’arriver à faire tourner de vieux logiciels java.
Bon, les applis en php qui passent mal d’une version à l’autre c’est aussi très courant, mais sauf obfuscation on arrive généralement à s’en tirer.
Hausse des prix de l’énergie : plusieurs fournisseurs d’électricité se mettent en pause
11/10/2021
Le 12/10/2021 à 05h 19
On peut décaler le prix des investissements nécessaires à la remise à niveau/remplacement des centrales nucléaire. Il faudra juste payer plus tard (et pour les plus vieux parier que ce seront d’autres qui paieront). Le vrai problème est que les parasites se mettent le gros de la somme dans la poche ou dans des campagnes de publicité.
Pour ce qui est de choisir, concrètement on fait quoi ? À titre personnel je n’ai pas voté Macron et je suis chez EDF au tarif régulé. Mais si je suis tout seul dans mon coin, ça ne changera rien.
Le 11/10/2021 à 06h 56
En fait, c’est pire que ça, on ruine EDF en l’obligeant à vendre sa production 3 fois moins cher que le prix du marché afin de permettre à ses concurrents privés de s’enrichir. Et quand la concurrence n’arrive toujours pas à être compétitive on augmente le tarif réglementé. Et maintenant la solution miracle que l’on vend à la fin de l’article, c’est d’obliger EDF à brader une partie encore plus importante de sa production.
La pseudo concurrence imposée par nos élites libérales est constituée quasi exclusivement de parasites qui se contentent de rajouter leur marge à une électricité qu’ils ne produiront jamais et qui dépensent des fortunes en démarchage agressif et en campagnes de publicités. Bien entendu dans quelques années, il faudra renflouer EDF avec nos impôts et on nous expliquera doctement que le problème c’est les conditions de travail des salariés et le CE.
La bonne chose pour la société serait de voir ces nuisibles disparaître afin qu’il ne subsiste plus que des producteurs.
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 15/09/2021 à 20h 36
Ça ne coûte rien d’essayer.
Concours Next INpact de rentrée : qui sont les gagnants ?
13/09/2021
Le 12/09/2021 à 09h 07
Pour en avoir depuis un sacré paquet d’année, l’évolution n’a pas été que positive
. Prix en très forte hausse, surtout que le modèle complet n’existe plus qu’en NFC hors de prix (50€ pièce quand on veut équiper plusieurs centaines de personnes, ça fait mal)
. La solution d’authébergement de l’authentification n’est plus maintenue. L’adapter pour tourner sur un php7.2 a été un enfer.
Il est vrai que l’on peut lui faire beaucoup plus de choses qu’avant, mais est-ce bien nécessaire ? Pour des besoins plus élaborés, ne vaut-il pas mieux partir sur un format trezor ou ledger avec un écran et un ersatz de clavier ?
Proxmox VE 7.0 : installation sur un serveur et création d’une machine virtuelle
25/08/2021
Le 25/08/2021 à 15h 49
Upgrade de 6 vers 7.0 testé sur une infra pro encore en test avant l’upgrade, tout s’est bien passé, sauf la configuration réseau en openvswitch. Le /etc/network/interfaces valide en 6.x ne marchait plus du tout en 7.0 des heures d’énervement pour faire retomber le tout en marche. Et pire que ça un même /etc/network/interfaces qui fonctionnait sur un noeud ne marchait pas sur celui d’à côté (en changeant les IPs évidemment)
Heureusement que l’on n’était pas en prod, même si bien entendu, comme on met à jour noeud par noeud du cluster, la situation n’est pas désespérée.
1U-Open19-N19 SKU R : ASRock Rack place deux Ryzen AM4 dans un demi-serveur 1U
11/05/2021
Le 11/05/2021 à 09h 58
Franchement ce genre de solution n’a rien d’une nouveauté. Pour en avoir testé des solutions en version Xeon chez surpermicro, je préfère largement les solutions 4 nœuds dans 2U. Ça permet d’avoir 2 alims redondantes pour 4 serveurs et la ventilation est quand même beaucoup plus facile avec des ventilateurs large.
La solution Dell à base de C6400+4C6525 est relativement satisfaisante (même si j’ai eu quelques bugs sur le C6400). Ça s’alimente en 220V, on peut mettre des cartes d’extension PCIE, pas de switch bizarre pour le réseau…
À noter quand même qu’avec les processeurs les plus puissants on finit par atteindre les limites de dissipation en air cooling (et celle des alimentations). 8 processeurs à 280W, des disques rapides des cartes réseau/infiniband un peu gourmandes et on est vite à 3000W. Imaginez en entasser 20 dans une armoire rack.
Incendie OVHcloud à Strasbourg : le feu est maitrisé, les dégâts importants
10/03/2021
Le 10/03/2021 à 20h 38
Mais tous les utilisateurs d’OVH ne se prétendent pas informaticien. J’ai une connaissance (que j’avais envoyée chez OVH pour remplacer une solution bien pire). Elle vivote comme “webmaster” pour héberger des petits sites vitrines associés à des espaces collaboratifs. Son boulot, c’est de mettre les données en forme, pas l’hébergement. Elle est capable de faire les MAJ nécessaires du serveur et des applications web, et c’est à peu près tout. Quand ça se complique je fais un peu de bénévolat, mais je ne vais évidemment pas y passer mes journées.
Elle n’attend évidemment pas d’OVH une garantie de service avec les pénalités qui vont avec pour faire appliquer le contrat. Mais soyons clair, si une fois par hasard ses sites sont indisponibles quelques jours, personne ne s’en offusquera.
Par contre, quand elle prend une option sauvegarde quotidienne, j’ose espérer qu’elle ne va pas se rendre compte que caché derrière 20 pages de petites lignes il y avait écrit que la sauvegarde était au même endroit que les serveurs et qu’OVH n’est responsable de rien. Bon en vrai je pense qu’elle a aussi des sauvegardes chez elle de la partie vitale, mais sous une forme qui ne va pas être drôle à restaurer.
Après on peut dire qu’il faudrait interdire à ces gens d’exister et passer par des SSII qui demandent plus de 30K€ pour monter un pauvre site drupal et son intranet, Hébergement/maintien en condition non compris. Et pour avoir vu le résultat, ça ne m’a pas paru si pro que ça… Et si le client final n’est pas lui même spécialiste et n’impose pas à son prestataire un contrat aux petits oignons avec les ressources humaines pour le faire appliquer, il risque d’avoir des surprises. Ah zut, il faut carrément interdire tout usage de l’informatique aux TPE, EURL…
Le 10/03/2021 à 12h 08
Les offres d’OVH s’adressent aussi à des particuliers/autoentrepreneurs… Qui pour la plupart n’ont ni les connaissances ni les moyens de mettre en œuvre un PRA.
Quand on commande un VPS sur ovh, il propose une offre snaphsot et une offre sauvegarde automatisée, et c’est à peu près tout. Si jamais ces sauvegardes sont dans le même datacenter que les machines, est-ce vraiment la faute de l’acheteur ?
Oui, si c’est une boîte de 500 personnes spécialisées dans l’IT qui a fait ça, je ne dirais pas la même chose.
Red Hat met fin à CentOS et pousse Stream, colère au sein de la communauté
18/12/2020
Le 19/12/2020 à 18h 51
Pour les gens en manque de ressources, Centos était la solution idéale grâce à ses 10 ans de support. La possibilité d’acheter un serveur avec 7 ans de garantie, de configurer aux petits oignons, et de l’oublier ensuite dans un coin en appliquant juste les mises à jours de sécurité. Et au bout de 7 ans, on arrive à négocier avec la direction pour acheter la machine suivante un peu en avance, ce qui permet de faire les tests dessus et de basculer la production quand tout marche.
On est loin de l’intégration continue ou autres buzzword à la mode, c’est l’informatique de grand papa. Mais ça fait l’affaire à moindre coût à pas mal d’endroits. Et avec les ressources financières et humaines, c’est çà où donner toutes ses données aux GAFAM (avec copie à la NSA au passage). Passer à 5 ans, que ce soit en Stream ou sur une Debian/Ubuntu LTS est une sacré régression (on n’installe pas l’OS tout juste sorti, donc ça fait 4 ans réels maximum). Donc au moins une mise à jour majeure de version sur le cycle de vie du matériel avec tous les problèmes associés.
Ceci dit, je doute que Redhat vende beaucoup à ce public. Les tarifs proposés sont purement délirants. 350\( par an pour la version sans support que l'on n'a même pas le droit d'installer sur une VM. 800\)/an minimum pour la vraie version. On va revenir à l’époque de Scientific Linux (ou un de ses équivalents si SL n’est pas relancée) et les 6 mois de retard à chaque sortie de version mineure.
Simplenote : une prise de notes très rapide, des capacités d’édition limitées
02/11/2020
Le 02/11/2020 à 20h 06
Le problème ce n’est pas tant l’obligation de créer un compte, c’est que ça synchronise les notes dans le cloud. Société situé sur le sol américain, cloud act, donc tout arrive en direct à la NSA. Pour un outil qui semble quand même à usage assez professionnel, ça réduit beaucoup l’usage.
Après il suffit de voir tous les gens qui utilisent zoom pour communiquer sur des sujets appartenant au patrimoine scientifique et technique de la France pour se rendre compte que seule la praticité compte et que la PSSIE est décorative, mais quand même.
Des sénateurs LREM veulent reporter de 6 mois l’obligation d’équiper les voitures neuves de terminaux RNT
26/05/2020
Le 27/05/2020 à 06h 10
La durée de vie moyenne d’une voiture n’est pas de 2 ans (même si des personnes en changent tous les 2 ans, après la voiture se retrouve sur le marché de l’occasion). L’autoradio dans les voitures modernes ne peut quasiment plus être changé.
Dans ce problème d’œuf et de poule c’est beaucoup plus simple de commencer par s’assurer que les récepteurs soient-là pour rentabiliser l’investissement dans le système d’émission. Quel est le surcoût réel pour le constructeur auto d’activer DAB+ ? Je serais bien étonné que l’on dépasse 10€ sur une voiture à plus de 15000€
Le 26/05/2020 à 09h 03
La résistance à la RNT est énorme. On a l’impression que tout est fait pour tuer dans l’œuf la RNT, à croire que certains grands groupes craignent que la RNT amène de nouveaux entrants.
Pour en revenir aux constructeurs auto, aucune pitié pour eux s’ils ont installé dans des voitures construites début 2020 des autoradio non compatibles DAB+ ils ne peuvent s’en prendre qu’à eux-même et s’ils sont obligé de le changer à leur frais, ce ne sera que justice.
Guillaume Poupard (ANSSI) : ne mélangeons pas Alicem avec la reconnaissance faciale
04/02/2020
Le 04/02/2020 à 17h 16
On peut imaginer stocker les données biométriques de manière totalement locales sur le passeport sans créer la base nationale qui inévitablement sera à terme couplée à la vidéosurveillance pour espionner 60 millions de Français. Après, techniquement je crains que la concordance ne soit pas testée par un processeur embarqué sur le passeport (trop cher, et sans doute trop consommateur pour du sans contact), donc il faudra faire confiance pour que la donnée ne fuite pas lors du contrôle. Et si c’est une application sur smartphone qui fait le boulot, comment dire…
Peut-on utiliser 128 Go (4x 32 Go) de DDR4 avec un Core i5-9600K ?
03/02/2020
Le 04/02/2020 à 11h 49
On gagne vraiment beaucoup en usage réel par rapport à un bon SSD NVME ?
Le 03/02/2020 à 17h 54
Pour la MAO je n’en sais rien. Même si 1go c’est déjà plus d’une heure de musique non compressée donc j’ai du mal à comprendre.
Pour des photos en RAW je ne vois pas l’intérêt. Même une photo 80mpixel en 14bits ça ne fait que 140Mo avant compression et je ne vois pas l’intérêt d’en avoir plus d’une poignée en mémoire, mieux vaut investir dans un bon disque pour stocker tout ça.
Pour la vidéo, en compressé on a un débit de 50Mo/s en 4K au max, donc à la porté du premier disque dur venu. Évidemment en non compressé les 128Go de RAM seront bouffés en moins de 2 minute de vidéo. Mais les logiciels de montage grand public font-ils vraiment ça ?
Le 03/02/2020 à 17h 10
Je me pose surtout une question: 128Go de RAM pour faire quoi ? Pour un usage pro je vois très bien, mais ce sera plutôt de l’ECC, donc pas associé à un i5. Il y a réellement des particuliers qui ont l’usage de telles quantités de mémoire ?
Linux, hyperviseurs : quelles distributions pour les Ryzen de 3ème génération ?
12/07/2019
Le 12/07/2019 à 07h 34
Pour compiler blender sous centos 7, il y a SCL
yum install centos-release-scl
yum install devtoolset-7
scl enable devtoolset-7 bash
Et hop on passe de gcc 4.8 à gcc 7.3
Les SSD en passe de franchir la barre des 0,1 euro le Go
10/04/2019
Le 10/04/2019 à 15h 59
Avec le cloud machin bidule, effectivement une partie du besoin de stockage a été déplacé vers les salles serveurs des GAFAM. Mais eux auront encore longtemps besoin de disques magnétiques pas chers. Parce que bon, les SSD U2 de 8To ont une superdensité, mais un prix totalement prohibitif.
Et entre un disque dur nearline pour serveur et un pour particulier, la différence n’est pas énorme.
Au passage, côté particuliers, avec les appareils photos 50Mpixel et les futures caméras 8k ça remplit vite.
Le Micro PC Odroid-H2 à base de Celeron J4105 en précommande pour 111 dollars
21/11/2018
Le 21/11/2018 à 19h 57
Est-ce que la news n’arrive pas 24h trop tard ?
 https://www.anandtech.com/show/13629/short-supply-of-intels-gemini-lake-confirme…
Construisons un premier serveur 1U à base de Core i7-6700K, avec gestion distante (IPMI/iKVM)
20/11/2018
Le 21/11/2018 à 10h 31
Le 20/11/2018 à 21h 59
Le 20/11/2018 à 19h 29
Le 20/11/2018 à 18h 02
Par rapport aux prix remisés d’un serveur R330 Dell le Do It Yourself est quand même extrêmement cher. Surtout que l’on n’a pas la même garantie.
Par contre question: pourquoi le choix de mettre un boîtier aussi petit ? Pour pouvoir rentrer dans un boîtier réseau ?
Parce que le R330 avec ses 67cm de profondeur ne tiendra effectivement pas, mais en échange on peut avoir 4 disques 3,5” hotplug ou 8 2,5”. Et pour un usage NAS c’est quand même infiniment plus pratique.
Rome : AMD dévoile ses EPYC 7 nm avec un nouveau design, jusqu’à 64 cœurs et 128 lignes PCIe 4.0
07/11/2018
Le 07/11/2018 à 18h 03
Le 07/11/2018 à 16h 10
Tout cela est bien tentant, maintenant il faudrait surtout de la disponibilité en terme de processeurs, mais aussi de machines capables de les accueillir.
Par exemple chez Dell en architecture Zen on trouve toujours un seul serveur: le R7425
2U pour 2 sockets avec un prix public totalement délirant. Le prix réel est bien plus raisonnable mais pour qui veut faire du calcul et n’a que faire de pouvoir mettre 12 disques durs 3,5” c’est une perte d’argent et d’espace difficilement acceptable. Surtout quand en Intel on peut acheter des C6400 avec 4 nœuds dans les mêmes 2U.
Il y a un peu plus d’un an j’avais étudié la possibilité AMD pour acheter quelques machines (>100k€). Je n’avais même pas réussi à avoir accès à des machines de test, et les prix proposés en supermicro étaient tout sauf compétitifs.
Europe : les journalistes partisans d’un droit voisin en ligne reviennent au front
27/08/2018
Le 27/08/2018 à 15h 56
Demander des droits d’auteur sur la simple publication d’un titre est quand même un concept intéressant. Après, ce que ces rapaces devraient plutôt se demander, c’est qu’elle est la valeur ajoutée de leurs articles, si la lecture du titre et très éventuellement de la première phrase suffit au lecteur moyen pour ne pas avoir besoin de cliquer sur le lien pour lire la suite ?
Alors oui les GAFA ont de l’argent, ne payent pas leurs impôts et accaparent la chaîne de valeur. Mais ce n’est pas pour autant qu’ils sont responsables de la vacuité actuelle des articles de journaux se contentant de paraphraser des dépêches AFP. Ils feraient mieux de se concentrer sur le contenu.
Qarnot annonce son « crypto-radiateur qui rémunère ses utilisateurs »
08/03/2018
Le 12/03/2018 à 12h 38
Remarque préliminaire: le minage est revenu au goût du jour avec le développement de cryptomonnaies conçues pour ne pouvoir être minées que sur des GPU et/ou CPU plutôt que des ASICS façons bitcoin.
1) La loi de l’offre et la demande est toujours là.
Sur le long terme, le coût du minage doit être légèrement inférieur à la valeur de ce qui est miné.
Après la loi peut être déséquilibrée à la hausse en cas de pénurie de matériel, ou d’évolution de la législation pour rendre le minage illégal/surtaxé (mais dans le cas qui nous intéresse ce n’est pas une bonne nouvelle)
Ou à la baisse: acteurs ayant accès à de l’électricité moins chère, utilisation de larges réseaux de botnets… Chute dramatique des cryptomonnaies conduisant à une surcapacité de minage.
Sur l’évolution à 4 ans, je ne prends pas grand risque en pariant sur un large déploiement de GPU gravés en 7nm EUV, ce qui devrait permettre au minimum de doubler la performance/W et la performance/ prix d’achat, sauf à imaginer qu’AMD et NVIDIA trouvent un moyen d’interdire le minage sur leurs GPUs pour joueurs. Du fait du point 1, le matériel proposé ne sera donc plus financièrement intéressant pour le minage.
Pour conclure, une simple observation: jusqu’à présent la boîte proposait de l’installation gratuite avec partage des bénéfices. Si elle croyait à son produit, elle aurait mis une version GPU de son radiateur et l’aurait utilisé à son profit pour miner de l’Ethereum/Zcash…
Le 10/03/2018 à 18h 56
Le 10/03/2018 à 17h 56
La CNIL inflige 100 000 € d’amende à Darty pour négligence auprès de son sous-traitant
09/01/2018
Le 10/01/2018 à 14h 34
Le 09/01/2018 à 19h 52
Il n’empêche que pour les touts petits c’est un problème quasi insurmontable. Expérience en cours: organisation d’un congrès par une association (but non lucratif, les recettes servant à payer les dépenses). L’office du tourisme local propose “gentiment” de s’occuper de tout, ce qui comprend le paiement des frais d’inscription. Du coup prestation annexe: création du site web où l’on peut choisir quelques options et payer en ligne, franchement rien de compliqué.
Naturellement l’office du tourisme a sous-traité le développement web à son prestataire d’une incompétence abyssale. Système de mail avec copie sur une url à compteur façon Darty, mots de passe stockés en clair (je laisse deviner ce qui se passe quand on ajoute la faille n°1 à l’envoi du mot de passe oublié par mail). Le prestataire ne s’est pas demandé ce qui se passait quand sur la réservation d’un hôtel on partait avant d’arriver… J’en passe et des meilleures.
Ben pour le prestataire, c’est normal, éventuellement, en repassant à la caisse, on pourra regarder ce qui est faisable. L’assoc organisatrice du congrès fait quoi ? Elle se lance dans 5 ans de procès contre l’office du tourisme en espérant que le juge partage notre opinion comme quoi faute de clause spécifique le fait que le site web devait respecter la législation en matière de protection des données personnelles était implicite ?
Ou elle organise quand même le congrès en hurlant pour que les failles les plus visibles soient cachées un peu sous le tapis au risque de se faire condamner si quelqu’un regarde d’un peu trop près ?
[Sondage] De la 4G via une eSIM/SIM dans les PC portables, ça vous intéresse ?
07/12/2017
Le 07/12/2017 à 16h 35
J’ai actuellement un portable Dell de 5 ans d’âge avec modem 3G incorporé. Dans mon usage à moi c’est utile: smartphone sur un forfait Free 2€ + carte sim orange sans engagement qui me permettait d’avoir 6 mois de connexion, 5Go pour 40€ (et pour lire ses mails, surfer un peu en déplacement, on est loin d’utiliser 5Go en 6 mois).
Ça fait un tarif mensuel assez raisonnable, et c’est quand même bien pratique. Après je ne suis sans doute pas très représentatif de la population, mon usage est quand même en bonne partie professionnel (et le modem a été payé par l’employeur, ça devait être une option à 80€HT, et pour me faire travailler gratos pendant mes vacances c’est une bonne affaire pour lui).
C’est le grand jour pour le PC « dans le Cloud » Shadow : nouvelle offre, ouverte à tous
29/11/2017
Le 01/12/2017 à 09h 18
S’ils ne se réservent pas le droit de partager les machines en cas d’affluence, ça veut dire qu’ils ne peuvent pas compter sur plus de 20% d’overbooking, au risque de refuser les connections en cas de pics d’utilisation. On peut supposer que des gens prêts à payer 360€/an pour louer une console de jeu élaborée sont quand même de gros joueurs et qu’à certaines heures ils seront très présents (ce qui n’empêchera pas que le taux d’occupation moyen sur l’année sera faible)
Et même en appliquant un facteur correctif 0,8 à mon analyse de coût, 5 ans d’abonnement ne paieraient même pas le seul matériel.
Délocaliser les machines dans une salle serveur en remplaçant du matériel grand public par du matériel pro bien plus cher (une GTX 1080 c’est 500€ HT) et en rajoutant tous les coûts de gestion (au sens large) associés n’a de sens économique que si l’on joue sur le taux d’occupation pour en acheter beaucoup moins.
Savoir comment ils comptent être bénéficiaire est quand même une question qui me semble importante.
_ sponsorisé par nvidia
_ ils ont trouvé un moyen d’utiliser les serveurs quand personne ne tourne dessus (mais pour du calcul GPU, la P5000 n’est pas forcément un bon choix, et niveau CPU on ne va pas aller bien loin avec des E5 2620).
_ prix d’appel qu’ils feront exploser une fois les abonnés coincés dans leur écosystème
_ ils s’en moquent, veulent juste faire du CA pour se faire racheter
Le 30/11/2017 à 16h 59
Moi ce que je ne comprends pas du tout c’est comment ils vont gagner de l’argent.
Quand je lis l’article je comprend que chaque abonné se voit dédié:
_ une P5000 -> 2000€ HT
_ 1⁄2 E5 2620v4 -> 175€
_ 12Go DDR4 ECC -> 150€
_ carte mère, alim, boîtier, montage… -> à la louche 200€ (800⁄4)
_ 256Go de disque (forcément redondé et sauvegardé), en général facturé de l’ordre de 5€/mois
Le gros du prix c’est la carte graphique, dans 5 ans, elle ne vaudra plus rien. Et le serveur partira à la poubelle ou sera revendu une misère.
51230€=1800€
L’abonnement ne paye même pas la carte graphique. Et j’ai soigneusement oublié de prendre en compte les frais d’hébergement (électricité, refroidissement, réseau) , d’assistance utilisateur, de commercialisation, la TVA, et les frais de développement de la solution.
Donc soit Nvidia leur a filé les cartes à -75%, soit la rentabilité se fait en ayant beaucoup moins de machines que d’abonnés. Mais qui des performances en soirée s’il faut partager une P5000 entre 2 voire 3 utilisateurs. Idem d’ailleurs pour le CPU parce que 1⁄2 2620v4 c’est 4 cœurs à 2.1GHz. S’il faut le recouper en 2, même pour du jeu vidéo, ça ne sera pas terrible.