Connexion Abonnez-vous

C’est quoi un serveur informatique ?

« Cette machine est un serveur. NE PAS ETEINDRE ! »

C’est quoi un serveur informatique ?

On parle souvent de « serveurs » quand on parle d’informatique, mais savez-vous ce que c’est ? Un état d’esprit plus que des caractéristiques techniques, pourrait-on dire. Next vous explique de quoi il en retourne dans un dossier qui vise à expliquer de manière plus large les datacenters.

Le 08 octobre à 14h13

Un serveur, c'est un ordinateur

Réponse basique, mais juste : un serveur, c’est un ordinateur. Comme n’importe quel ordinateur, il comprend au moins une carte mère, un processeur, de la mémoire, du stockage et une alimentation électrique. Présenté ainsi, un serveur ressemble à n’importe quel PC (de bureau ou portable) que tout le monde ou presque a chez soi.

Mais un serveur, c'est aussi beaucoup plus qu’un simple PC. Dans ce dossier, nous allons nous concentrer sur les serveurs que l’on retrouve généralement dans des datacenters. Première chose : il n’y a AUCUNE règle précise ni prérequis pour être qualifié de serveur dans un datacenter. Néanmoins, on retrouve bien souvent des caractéristiques techniques communes.

Un serveur, ce sont des composants dédiés

Il reste 90% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (45)

votre avatar
l’arrière n’est pas toujours accessible, sauf à démonter le serveur

quand j'intervenais en Datacenter il y a quelques années, l'arrière des serveurs était aussi le coté où le serveur soufflait et ou il faisait le plus chaud, c'était donc plus "agréable" d'intervenir coté "avant" (dans le froid et le bruit "seulement") ...
votre avatar
Oui, on intervient en face arrière aussi, pour changer l'alim en panne (la plupart des serveurs ont l'alim à l'arrière, à l'avant on a les disques), et pour les branchements réseau. Par ailleurs pour les ouvrir (changer une barette de RAM ça arrive), on débranche l'arrière et on le tire dans l'allée à l'avant pour retirer le dessus.
votre avatar
Je trouve assez restrictive la définition d'un serveur.

Tout le reste, cela va dépendre clairement de l'utilisation. Un NAS est un serveur, pourtant il peut avoir un esthétisme et un rapport au bruit très différent en fonction de son usage domestique / rack.

Il existe encore de nombreux serveurs où il n'y a qu'une seule alimentation. La double alim, c'est vraiment quand on a besoin de haute disponibilité. Donc oui, on va beaucoup retrouver ça dans les datacenter, mais pas toujours dans le cadre d'hébergement on premise par exemple.

Pour moi, c'est vraiment la caractéristique 24/H24 et 7j/7 qui prime. Une telle utilisation nécessite des composants étudiés pour. C'est pour ça qu'un disque dur de bureau n'est pas fait pour être dans un NAS par exemple.
votre avatar
Je le précise au début, et comme indiqué je parle des serveurs dans le sens où on les trouve dans les DC actuellement
votre avatar
Oups, pardon. C'est tellement discret que j'étais passé à côté dans le début de l'article. Sorry :chinois:
votre avatar
Vaguement dans le thème, via boing-boing : je suis tombé sur ce site hébergé sur une vieille cigarette électronique :o
votre avatar
hahaha, il y en a qui ne manque pas de temps.
votre avatar
votre avatar
Un serveur c'est un mec qui te fait attendre, puis te presse pour commander, puis te sers sans sourire en demandant de régler tout de suite et fait encore plus la gueule si tu laisses pas de pourboire...
Ah non...., ça c'est un serveur parisien.










PS : Ceci est une note d'humour, elle est caricaturale. Bien sûr que dans la profession du service en restauration, il y a des personnes competentes et agréables. :-)
votre avatar
un CPC 464 s'est invité à côté de son grand-frère :D
votre avatar
Edit : point déjà abordé dans l'article.
votre avatar
Il me semble que vous passez à côté de la définition d'un serveur. Un serveur, c'est un ordinateur avec des services accessibles au travers du réseau, à l'inverse d'une workstation qui s'utilise via clavier/écran directement dessus.
votre avatar
je dirais que c'est la fonction, pas la caractéristique. Un serveur est un ordinateur qui a pour fonction de proposer des services accessibles en réseau. C'est la première différence, de base. Les serveurs pour DC, en "U", c'est des variations et optimisations :-).
votre avatar
Une machine dans un boîtier desktop, mais utilisée au travers du réseau, ça reste un serveur.
D'ailleurs, quand tu te connectes à un serveur web, tu ne cherches pas à savoir s'il tourne dans un rack on dans un raspi ; c'est un serveur, point.
votre avatar
Oui on est d'accord, c'est pour ça que je dis que la fonction ou l'urilisation que nous en avons qui fait le serveur.
votre avatar
Ça me fait toujours marrer dans les séries et films lorsque les protagonistes sont dans un bureau avec plusieurs armoires de serveurs en arrière plan. Rien que point de vue bruit ce n’est pas réaliste 😅
votre avatar
@SébastienGavois, pour citer ce passage ''nous utilisons à la maison''. Si c'est à domicile, comment faire pour le WAF ?! 😁

Peut être un dossier la dessus ?!

P.-S. Pour est plus généraliste, j'évoque le WAF, comme étant plutôt le de faire accepter aux personnes dans un même domicile 😉.
votre avatar
Alors autant prendre autre chose que WAF comme terme pour etre plus généraliste :)

Sinon j’ai trouvé un accord : je peux avoir du bordel relativement limité sur mon bureau (au moins le ranger un peu en fin de journée, j’ai une double armoires avec portes et ce qu’il se passe dans l’armoire reste dans l’armoire), par contre c’est YOLO dans la cave ! Je ne montrerais pas de photos ici, mais @AlexandreLaurent et @Flock peuvent témoigner du niveau de bordelitude de ma cave ^^
La vidéo et les photos du serveurs viennent de ma cave
votre avatar
par contre c’est YOLO dans la cave ! Je ne montrerais pas de photos ici, mais @AlexandreLaurent et @Flock peuvent témoigner du niveau de bordelitude de ma cave ^^
Allons, tu peux montrer ton donjon BDSM* sur Next. Il ne faut pas en avoir honte, tout le monde en a un :D


Bricolages, Détritus, Serveurs et Mais-ça-peut-toujours-servir
votre avatar
C’est tellement ça ! Ok je ferais un cavetour un jour (c’est étrange comme proposition)
votre avatar
Visite de la GavCave ^^
J'attends de voir la GavMobile aussi :D
votre avatar
J'ai pris le WAF pour donner une référence de base et comme maintenant, il faut être inclusif, j'ai donc essayé de gêneraliser 😉.
votre avatar
Le WAF se limite aux pièces répertoriées par F.
La cave et les combles ne sont pas dans ce registre.
Un vide sanitaire ?
Du moment que le bruit est contenu aux pièces adjacentes et qu'il n'y a pas d'innondations, ...

On peut même parler du réseau du coup en fait :
Un switch ventilé ou non fait la différence proche de la box.
Une fois que tu es parti à 10Gb dans le réseau interne, tu as libre court, sauf si tu es en appartement, désolé.
:oops:
votre avatar
Le placard où se trouve le switch ventilé n'est pas en bonne posture en ce moment. Je vais devoir le libérer de cet entrave dimensionnelle ! 😁
Je ne le mettrait pas dans les comble et pas de cave. A voir au garage, c'est l'idée à terme 😁
votre avatar
.
votre avatar
Quand je vois la différence entre :
- Mon serveur maison : carte miniITX Atom D2550, 1 emplacement so-dimm 4Go max, temps de boot : 35 secondes, 1m30 pour tous les services up (DNS, email, Nextcloud, routeur LAN & WiFi), conso 13 W, 1 ventilo de 2,5cm qui tourne de temps en temps, allumé depuis 2013 24/7, j'ai juste changé 1 fois le disque dur interne.
- Un serveur Dell R550 : comme dans l'article, mais conso en idle de 100 W, 50 dB de bruit, temps de démarrage de 3 minutes 30 avant l'OS (et quand vous passez du temps à tester la procédure d'installation, c'est horriblement long), et dont l'IPMI finit par avoir des bugs de improbable qui conduisent à la mise au rebut au bout de 5 ans.

Je me dis que l'informatique frugale a encore de quoi progresser.
votre avatar
La résilience n'est pas la même. Les enjeux non plus. En usage "perso" il y a presque aucun intérêt à avoir un vrai serveur physique. Tu ne perds normalement pas des milliers ou millions d'€ si tu as une rupoture de service sur ton serveur perso :D

Pour ton Dell, il y a un truc à coté duquel tu est passé, c'est sur.
Coté HPE, l'EOSL (end of support life) et à + 5 ans de la fin de commercialisation. Donc en achetant un serveur en debut de commercialisation, les firmwares seront maintenu à jour pendant 10 ans ou plus (EOL : fin de vie commercial et mini de 5 ans -il y a peut être des exception à la marge).
Et depuis la Gen10 HPE (donc depuis 3 génération de serveurs maintenant) les firmwares (dont "os" IPMI) sont en accès libre (sans avoir besoin d'un contrat maintenance HPE actif).
Je ne connais pas le support/maintenance Dell, mais concurrent directe donc il fait sûrement a peu prêt pareil.

En environnement pro la bonne pratique est de souscrire à un contrat de maintenance (constructeur ou tiers). Tu beneficis ainsi d'une forte expertise sur la partie hardaware / firmware (+remplacement des pieces défaillante) pour ne pas te retrouver dans le cas de ton Dell.

Durée de vie que je constate : en moyenne 7/8 ans pour les serveurs physiques, avec des vieux bousins qui tournent H24 dont certains sans rupture de service lié a un incident matériel ou firmware depuis 15 ans.

Et ces 7/8 ans ne sont pas lié à l’obsolescence du hardware, mais OS/ applicatifs : c'est plus simple pour un projet de faire du double run pour faire évoluer la partie soft. Un nouveau serveur est approvisionné et le projet déploiement les soft à jour. Quand c'est fonctionnel ils migrent la prod dessus et l'ancien serveurs part en circuit de revalorisation (et il as forcement une nouvelle vie derrière si il n'a que 7/8 ans).
votre avatar
Certes, mais ça n'enlève rien à la pertinence de ce que dit Glandos. On peut certainement progresser sur ces matériels, même en prenant en compte ces contraintes de disponibilité.
votre avatar
Le temps de boot n'est pas vraiment une métrique intéressante sur un serveur qui ne redémarre jamais, ni le bruit, la qualité des tests au démarrage et la nécessité de pouvoir rentrer sur les mini-bios des différentes cartes sont bien plus intéressants, ou la capacité à tenir longtemps dans des environnements confinés ou agressifs. Les Bios sont maintenus beaucoup plus longtemps d'ailleurs, et pièces d'occasion super faciles à trouver même 10 ans après.
En matière d'IPMI, c'est normalement plus capable que n'importe quel matériel grand public avec l'idrac qui va bien.

La conso c'est autre chose, mais ce sont des machines qui ont des contraintes de durabilité bien plus fortes que du consumer grade, et qui sont généralement plus puissants que ses contemporains.
Un serveur Dell R610 de 15 ans d'âge fonctionne toujours aujourd'hui dans notre réseau, et il ne plante jamais. C'est une anecdote, mais c'est une réalité vécue par tous, du matos serveur de qualité, ça tient, looongtemps.

Bref, les concepteurs de serveurs sont très capables, c'est juste un produit très différent d'une machine grand public. Pour prendre une analogie pourrie, un Trafic prend plus de place qu'une Clio, il fait du bruit et il consomme plus. Mais il y a toujours des usages où il est irremplaçable.
votre avatar
Je suis d'accord sur les temps de boot, c'est gadget quand il s'agit d'un serveur. C'est surtout sur la consommation d'énergie que je réagissais, je suis sûr que si ça entrait un peu plus en ligne de compte, ce serait amélioré (et une machine qui consomme moins chauffe moins et c'est mieux pour la durée de vie de ses composants).
Pour prendre une analogie pourrie, un Trafic prend plus de place qu'une Clio, il fait du bruit et il consomme plus. Mais il y a toujours des usages où il est irremplaçable.
Et on sait faire des Trafic E-tech, qui sont encore mieux que des clio, y compris sur la conso :D
votre avatar
Pour la durée de vie d'un composant en fonction de la chaleur, j'avais cette même idée.
Et en cherchant je n'ai rien trouvé qui la validait (legende urbaine ?) ou alors c'est tellement minime qu'à ne pas prendre en compte => Bien sur, sous réserve que la température/humidité respecte les préconisations composant.
En Datacenter, avec la gestion des flux d'air, les capteurs et sécurités intégrées au serveur (recoucou le temps de boot) peu de chance qu'on soit hors tolérance.

Pour la consommation, elle n'est pas si extraordinaire que ça.
Effectivement elle est supérieur car des éléments hardware sont doublés et donc plus de perte.
Mais pas de raison qu'à configuration et charge comparable, le ratio conso/performance soit bien différent. (Il ne faut pas comparer un serveur 4 Socket + GPU avec un RPI)

De plus, depuis 2024 je crois, une réglementation européenne impose un rendement minimum sur les alimentations des serveurs. J'ai pas la réf de la législation, mais ça c'est traduit par un petit bordel sur les serveurs dont j'ai suivi l'appro et dont l'alim de respectait pas la règle.

Après d'un point de vue Green IT, il faut quand même un gap important de génération pour qu'un serveur neuf soit plus "responsable" qu'un vieux nanard.
Car une fois en production, il n'y a que le gain en consommation (consommation de l'ancien - consommation du nouveau) qui permet d'amortir le coût en ressources et CO2 de la fabrication/logisitique de livraison du nouveau et retraitement de l'ancien.

Et j'imagine que c'est encore plus vrai en france du fait du mix énergétique (avec un % fort de nucléaire qui a de faibles emission de CO2)
votre avatar
J'y repense, il y avait un article next sur le nombre de KM à parcourir en fonction du type de vehicule electrique pour "rattraper" le surcout ressources/co2 du à la fabrication en comparaison avec un modèle équivalent thermique neuf.

Et on parle de deux modèles neuf, si on prend un modèle d'occaz (quand même pas trop vieux, post années 2000 pour avoir les FAP/Catalyseur, et les premiers vrai travaux sur la conso) vs voiture elec neuve, il faudra encore plus qu'elle roule la cocotte électrique pour rattraper la différence.
votre avatar
La comparaison VT occase contre VE neuve n'est pas très pertinente (pourquoi pas l'inverse ?)

Pour ce qui est du gain de conso entre un nouveau VT et l'ancien, ou entre un nouvel ordinateur et l'ancien, je suis d'accord même si ça change quand on replace dans le contexte (le parc roulant diminue, alors que le parc des serveurs augmente), qui a un impact important sur les indicateurs à utiliser.
votre avatar
Peut-être parce que c'est plus rare de remplacer sa vieille voiture électrique par une voiture thermique neuve ? 😅
votre avatar
Remarque que quand je regarde pour changer de voiture, ce n'est pas pour comparer à celle dont j'aimerais me séparer non plus.
votre avatar
Non je pense que ma réponse, en 1 pour 1 pour des raisons de consommation tient aussi bien pour les serveurs que pour les voitures => La durée d'usage pour arriver a un bilan positif, du fais de la pollution à la production, est rarement court.

Si on change en +1 plutôt qu'en remplacement 1 pour 1, la réflexion est pas si différente, si on donne une dominance à la consommation / pollution dans le choix : le temps d'usage doit être pris en compte.
Exemple : Un projet avec un besoin serveur physique d'1 ou 2 ans, sur configuration difficile à recaser ensuite => Marché de seconde main.
votre avatar
Exemple : Un projet avec un besoin serveur physique d'1 ou 2 ans, sur configuration difficile à recaser ensuite => Marché de seconde main.
Il y a vraiment des organisations qui mettent du matos de seconde main dans leurs systèmes ?
Non je pense que ma réponse, en 1 pour 1 pour des raisons de consommation tient aussi
En 1 pour 1 n'existe pas vraiment pour les voitures et les serveurs.

Pour les voitures, un VE contre un VT déjà existant, il faut ~3 ans en France pour compenser. Mais encore une fois, ce n'est pas un VT à la benne pour un VE nouveau. C'est un VE qui rendre dans un parc roulant (en diminution) + un VT qui soit est une épave, soit ira dans le marché de l'occase et écartera une épave du parc auto.

Pour les serveurs, il y a des remplacements (les anciens peuvent finir en seconde main ou simplement passer par pertes et profits), mais il y a aussi des achats nets. Donc autant prendre plus efficient (mais ne pas remplacer pour cette raison un serveur autrement bon pour le service, si c'est à ça que tu te réfères).
votre avatar
Nous avons 99% de matos de seconde main chez moji, plusieurs centaines de serveurs et plusieurs centaines de switchs. Les seuls trucs qu’on achète en neuf sont les optiques, les disques durs et les switchs d’accès client.
votre avatar
Je me faisais donc une fausse idée basée sur les universités et les partenaires qu'elles ont. Dans leurs cas, jamais de matériel de seconde main n'est utilisé (que ce soit les universités ou des boîtes comme GE, Stellantis, Alstom et Orange pour les plus notables).

Moji est représentative du secteur ?
votre avatar
Difficile de dire si nous sommes représentatifs, nous avons les défauts de nos qualités, nous sommes pauvres relativement à des CSP bien établis mais nous savons acheter efficace. Ce qui est certain c’est que le marché du broke est très dynamique. Un serveur d’il y a 5 ans a toujours de la valeur et si les utilisateurs de première main l’oublient ils font le bonheur des brokers qui vivent de leur revalorisation.
C’est tout particulièrement valable chez les constructeurs qui font du matériel durable (solidité et long support des firmwares) et en grand volume.
A noter, on achète des switchs et routeurs relativement récents, mais là aussi le broke est beaucoup plus intéressant que le neuf : délais de livraison rapides, prix divisé par deux à quatre. Les garanties matérielles constructeur n’ont aucune valeur, on a moins de 1% de défauts et on a largement économisé assez pour avoir du spare.
votre avatar
A noter, on achète des switchs et routeurs relativement récents, mais là aussi le broke est beaucoup plus intéressant que le neuf
Je crois que c'est un peu là dessus que s'appuie le programme Netacad de Cisco (sauf que c'est pas de la seconde main, mais des séries qui sortent du catalogue).
Un serveur d’il y a 5 ans a toujours de la valeur
J'ai souvent vu dégager des appareils au bout de leur durée garantie (parce que, dans ces grands comptes, c'est "plus de support, pas prévisible, coûts de remplacement/réparation gnagnagna". Et tu vois, ce que tu me dis plus d'autres posts me redonnent un peu de bonne humeur à voir que certains acteurs sont rationnels.
votre avatar
1 pour 1 : tu as un usage avec un serveur obsolète (obsolescence matériel, software ou contractuel) et tu le remplace par un "nouveau" serveur. Je parle d'un 1 pour 1 au niveaux organisation pas planète.

Le reemploi interne c'est pas simple, il faut avoir un un volume de besoin important pour avoir une chance d'avoir une configuration en adéquation avec un besoin. Il faut également qu'il n'y ai pas trop d'obsolescence matériel car mettre de la dette techno sur un nouveau projet qui a une prévision d'usage long, c'est moche.

Pour le marché de seconde main, Moji ne sont pas les seuls a s'approprier presque exclusivement comme çà.
C'est rapide, flexible (tu fournis la conf souhaitée, ils te la trouvent ou remonte un serveur en une ou deux semaines) et en fonction du tarif et ton organisation, ca peu passer en budget opex !
En parlant opex n'oublions pas les serveurs physique en location.
votre avatar
C’est marrant que tu utilises cet exemple car je trouve précisément que les utilitaires sont particulièrement inintéressants en EV pour le moment (trop chers et sous équipés).
votre avatar
Ça dépend l'usage du véhicule. Si c'est pour faire 5000 km/an, c'est sûr que c'est pas très rentable. Si c'est pour 20000, c'est une autre histoire (en plus de l'accès aux ZFE, et de l'entretien)

Au niveau équipement, j'ai eu un certain nombre de VUL en loc à diverses occasions, on peut pas dire que ce soit tellement mieux (déjà il faut se battre pour avoir une boîte auto). À part des sièges, un volant, un levier de vitesse et 3 pédales, on a rarement plus.

Edit : je mentionnais les VUL électriques surtout pour le fait qu'un énorme trafic soit électrique soit bien plus sobre qu'une clio thermique tout en permettant toujours l'usage pro (puisqu'il est question de rendre plus sobre des produits à destination du monde pro). Je ne faisais que rebondir sur ce qu'avait écrit janvi.
votre avatar
Le temps de boot n'est pas vraiment une métrique intéressante sur un serveur qui ne redémarre jamais
Moi, c'est LA métrique qui me gêne le plus. J'ai deux casquettes :
- Je suis chargé des procédures d'installations. Je reboote donc des machines en boucle, j'ai 3 secondes pour appuyer sur une touche au milieu d'un processus de démarrage de 3 minutes. C'est infernal d'attendre (problème assez personnel !)
- Je gère des serveurs de vidéosurveillance, donc pas virtualisés. Quand on redémarre après une mise-à-jour de noyau par exemple, c'est plusieurs minutes de non-enregistrement. C'est pas mortel mais bon hein.

On avait commencé par des PC desktop (HP) à 400€ pièce, il y a 17 ans. Certains sont toujours en production, dans des dépôts logistiques, poussiéreux, chaud (> 40°C ambiant), jamais entretenu. Les disques durs doivent être remplacés, ils servent trop pour tenir, mais beaucoup de machines sont encore fonctionnelles. On doit les décommissionner (oui, elles manquent un peu de puissance pour gérer des caméras d'aujourd'hui), et quand on les reçoit pour les recycler, la machine est… dégueulasse, pourrie. Pourtant, elle marche.

Je vois très bien les avantages des serveurs avec interface de gestion, je m'en sers également, c'est confortable. Mais je trouve que le ratio ressource/service par rapport à un PC à 300€ qui tient dans la main est absolument démesuré.

Je suis donc persuadé que la redondance et la fiabilité des firmwares ont été codées de manière… comment dire… très peu optimisée. Ça bouffe tout ce que ça peut, parce que l'énergie est illimitée. Et ça ne devrait pas.

C’est quoi un serveur informatique ?

  • Un serveur, c'est un ordinateur

  • Un serveur, ce sont des composants dédiés

  • Sur un serveur, on peut changer une alimentation sans l’éteindre

  • Un serveur, c’est bruyant

  • Un serveur, c’est fait pour tourner H24 7j/7

  • Un serveur, c’est du « gros » matos

  • Ne pas confondre serveurs matériels et serveurs logiciels

  • « Cette machine est un serveur. NE PAS ETEINDRE ! »

Fermer