Trois nouveaux NAS Synology… aucun digne de 2025
Il faut rendre la De Lorean maintenant !
Synology vient de présenter trois nouveaux NAS dans la série x25+ en l’espace de quelques jours : les DS925+, DS1625+ et DS1825+. Ils utilisent le même processeur que le DS1621+ de… 2020. Il n’y a toujours pas de 10 Gb/s par défaut et le fabricant impose des restrictions sur l’usage des disques durs. Bienvenue dans l’édition 2025 de Synology…
Le 09 mai 2025 à 16h55
5 min
Hardware
Hardware
Il y a quelques jours, Synology ouvrait le bal de ses NAS dans la série x25+ avec le DS925+. Comme son nom l’indique (à condition de bien connaitre la marque), il y a quatre emplacements et la possibilité de grimper jusqu’à neuf avec une unité d’expansion DX525.
DS925+ : un NAS de la série x25, vraiment ?
Il reste 87% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Trois nouveaux NAS Synology… aucun digne de 2025
-
DS925+ : un NAS de la série x25, vraiment ?
-
CPU de 2020, réseau 2,5 Gb/s seulement
-
DS1525+ et DS1825+ : on prend les mêmes et on recommence
-
2,5 Gb/s par défaut, 10 ou 25 Gb/s en option
-
Synology en 2025, c’est quelque chose…
Commentaires (51)
Le 09/05/2025 à 17h07
Le 09/05/2025 à 17h53
Le 09/05/2025 à 20h13
Après Broadcom et les licences VMware, ("Chef, chef, j'ai une idée pour rentabiliser les licences"),
voilà Synology en mode "Hold my beer"...
Le 09/05/2025 à 18h02
Modifié le 09/05/2025 à 18h06
Aujourd'hui il ne serait absolument pas question pour moi d'acheter un modèle tout neuf avec ce CPU daté.
C'est clairement prendre les cons pour des gens.
Le 10/05/2025 à 05h20
J'ai un pote qui regarde pour se prendre un nas, je vais le réorienter sur une autre marque.
Le 18/05/2025 à 00h32
Le 09/05/2025 à 18h21
dur après 15 ans d'usage de produits qui étaient excellents.
Mais bon Syno a décidé avec sa contrainte des disques de perdre la confiance de nombreux clients. Pas grave. On va trouver autre chose (bon reste à le trouver... ^^)
Le 09/05/2025 à 21h03
Le 10/05/2025 à 00h42
Le 09/05/2025 à 21h47
Le 10/05/2025 à 18h06
Si c'est juste pour partager des fichiers, proxmox n'est probablement pas la solution la plus adaptée.
Si c'est pour faire tourner des VM ou des conteneurs, pour un particulier, une base Debian net install convient très bien. On peut y ajouter QEMU/KVM, libvirt et tout gérer en graphique avec virtual machine maganer.
Perso, j'ai eu une mauvaise expérience avec proxmox dernièrement (avec un système totalement mort après une mise à jour), et je pense que l'on peut lui reprocher, comme les syno, d'être très opaque même si c'est une base linux. Un OS non bricolé (aucune config bizare, aucun programme ajouté au système), qui se brique, ce n'est pas normal.
Je pense que proxmox ne devient intéressant qu'à partir du moment où on a déployé des serveurs SAN, que l'on administre un groupe de serveurs et que l'on sécurise le réseau avec au minimum un firewall matériel.
Pour un particulier comme moi avec un seul serveur et utilisant le stockage interne de ce serveur pour les VM, les ressources utilisées de l'hôte sur lequel tourne proxmox sont trop grandes par rapport au bénéfice.
Trop de services = trop de ports ouverts = trop de surface d'attaque. Si on est pas pro, on a pas de firewall matériel pour sécuriser l'entrée du réseau et la surface d'attaque est vraiment un argument important. Je suis donc partisan du minimalisme question ouverture de ports.
Sur un hôte servant à faire tourner des VM on peut se contenter de:
- ssh : pour les transferts de fichiers, la config via libvirt...
- 80 et 443 pour faire du reverse proxy IPv4 vers les VM
- les ports spice pour chopper l'affichage des VM mais cela peut être limité au LAN.
Le 10/05/2025 à 21h18
Les gros avantage de Proxmox, c'est:
- Proxmox Backup Server: Ca te restaure un CT ou une VM à un instant T. Le backup se fait en incrémentiel et chiffré. Pas besoin d'installer d'agent ou quoi que ce soit.
- Tu parles de limiter la surface d'attaque, Promox te permet de faire très facilement: 1 service = 1 conteneur, et évite donc de dédié du matériel à 1 seul tache.
Le 12/05/2025 à 08h55
En outre, proxmox, c'est du Debian derrière, difficile de faire plus stable, et ça fonctionne très bien. Tout compartimenter avec des conteneurs permet effectivement de limiter les surfaces d'attaque et rend l'administration beaucoup plus facile.
Et surtout, pas besoin de casser ou dégueulasser son système lorsque l'on teste des outils exotiques, parfois difficile à compiler, installer, prendre en main. Le système hôte reste sain et indemne, quoi qu'il en soit.
En outre, la communauté a fait un travail absolument remarquable avec les scripts de proxmox helper pour des installations/tests rapides : https://community-scripts.github.io/ProxmoxVE/scripts
Le 12/05/2025 à 20h39
Côté administration, au lieu d'un serveur web sur l'hôte et de tout un tas de possibilités d'attaques via les ports ouverts pour le partage de fichiers, l'administration via libvirt se fait en ssh via une belle interface graphique sur mon PC en laissant l'hôte ultra léger, sans le dégueulasser non plus.
Je ne doute pas un instant que la communauté a fait un travail remarquable et que proxmox puisse convenir à bon nombre de gens. Mon propos est juste de pointer que cet outil a aussi ses inconvénients et qu'il n'est pas forcément la panacée.
Modifié le 12/05/2025 à 20h39
Les données des VM ne suffisent pas, il y a le stockage tu TPM qu'il faut retrouver et le paramétrage matériel des VM qu'il faut également retrouver.
Je trouve cela plus simple avec libvirt personnellement mais cela n'engage que moi.
Pour le premier point, tu ne fait que confirmer que cela cible le pro ou le semi pro. Perso, je fait des sauvegardes des données, pas des machines ou des conteneurs entiers car cela demande une bande passante que je n'ai pas sur mon réseau.
Pour le deuxième point, je parle de la surface d'attaque de l'hôte et je trouve que proxmox ouvre beaucoup trop de services depuis l'hôte. Pour le reste, on est d'accord.
Le 13/05/2025 à 11h44
Malheureusement pour la partie TPM, je ne me suis pas du tout intéressé ne faisant aucune VM mais uniquement des conteneurs. Donc là je ne saurais te dire.
Par contre, c'est pas du tout destiné à une utilisation pro ou semi pro. Y a plein de gens qui achète des petits N100 pour faire leur serveur maison et c'est très souvent une base Proxmox.
Je précise, au cas où ca t'interesse, un peu le fonctionnement des conteneurs sous Proxmox. C'est un peu comme LXC, ca se base sur les même principes d'isolation que Docker (les namespaces), mais pour charger des images construites pour ressembler à un OS.
C'est donc à mi chemin entre la VM (IP présente sur le réseau natif directement, ssh server, apt/yum/whatever) mais avec le footprint d'un conteneur docker.
Par exemple une VM, tu lui donnes 4Go de RAM, même si les programmes dans la VM en consomme que 0,5, les 3,5 restant seront utilisés en tant que cache filesystem au bout d'un moment. Dans les CT, le cache filesystem est commun, donc un CT avec 4Go, si l'appli en utilise 0,5, le CT en utilisera 0,5. Coté CPU, l'overhead est ridicule comparé à une VM.
Avec ce système d'image, lancer un CT Ubuntu, c'est 5s le temps que Proxmox crée le LV et décompresse l'image dedans.
Personnellement, je l'utilise chez moi sur un mini PC à base de Intel j3455 (quad core Celeron) avec 16Go de RAM, j'ai 28 CTs qui tournent actuellement => 20%CPU / 5,69GB de RAM utilisé.
J'ai un autre Proxmox (avec un CT pour Proxmox Backup Server) qui tourne même sur monocore Atom E3815 (les tous premiers NUC fanless).
L'équivalent en VM, je met 3 VM de 4go de RAM et c'est fini, les 16Go sont utilisé...
Pour les backup, j'ai 28 CT qui font des choses différentes. Si je backup les data, il me faut 28 process de restauration différents. En backupant les CT, j'ai 1 process de restauration.
Pour la partie consommation de bande passante, uniquement le delta est bakcupé à chaque fois, et c'est compréssé et chiffré avant le transfert sur PBS (Proxmox backup server). Tu peux pas faire mieux.
Pour la surface d'attaque, il faut voir les CT comme des VMs. Chaque CT a son IP, comme une VM. Tu peux même mettre l'admin du Proxmox dans un vlan d'admin, et les CT dans d'autres vlan (c'est ce que je fais) pour isoler totalement la partie réseau.
En espérant t'avoir convaincu de retenter ta chance :)
Modifié le 13/05/2025 à 13h49
Chez moi, j'ai pour le moment totalement abandonné les conteneurs car j'ai une architecture quasi à 100% IPv6 avec les VM qui ne savent même pas ce qu'est IPv4.
Les VM utilisent NAT64 et Tayga pour contacter des services IPv4 externes et les flux entrants IPv4 passent par du proxy inverse. SSH et tous les services d'administration sont exclusivement en IPv6.
Avec des conteneurs qui sont encore basés à 100% sur IPv4 en imposant encore la création d'un sous réseau IPv4 et NAT, c'est un non franc pour moi. Cette dépendance s'étend à Alpine Linux aussi (peut-être que ce n'est plus le cas).
Tant que je ne peux pas avoir des conteneurs capables de fonctionner en full IPv6, ils ne rentreront pas chez moi.
Modifié le 13/05/2025 à 14h48
Le principe de conteneurisation, c'est de lancer un process dans des namespaces (réseau, filesystem, uid/gid, etc...) différent de celui par défaut de ta machine.
La limitation IPv4 dont tu parles, c'est uniquement due à l'implémentation que Docker fait des namespaces.
La conteneurisation dans Proxmox, en dehors d'utiliser le principe de namespace, n'a rien à voir avec la conteneurisation type Docker, ca se rapproche plus de ce que fais Ubuntu avec LXC.
Autrement dit, c'est le même mot "conteneur" car ca utilise les mêmes principes sous-jacents, mais l'implémentation "utilisateur" n'a rien à voir.
Quand on crée un conteneur (CT) dans Proxmox, ca ressemble beaucoup à la création d'une VM. Et si tu veux lui mettre uniquement une IPv6, il suffit juste de configurer IPv6.
Un screenshot sur mon Proxmox
edit: L'incrustation d'image dans les commentaires est désactivée?
edit2: En voyant le titre de mon screenshot, je me rends compte que la conteneurisation ne fait pas que ressembler pas à LXC, mais est tout simplement basée sur LXC
Le 09/05/2025 à 18h35
Le 09/05/2025 à 20h35
Le 09/05/2025 à 20h49
j'ai une 60aine de Syno en fonction chez des clients, pas une panne, une coupure problematique, une perte de données, rien. Les Rai sont beton, l'interface est top, la fiabilité au top.
Quand on met un Syno chez un client, on sait que ce sera sans soucis pendant des années, tout simplement (j'ai des modèles de 2007 qui tournent toujours sans soucis...)
Un disque pete, tu le change, ca resynchronise tout seul sans soucis.
Le nas pete (extrement rare). tu sors les disques, tu les met dans un nouveau, en 30min c'est reparti comme si de rien n'etait...
Bref tu paye le prix d'une interface simple, au top, fiable, et un gain de temps de config énorme.
Mais avec la fin du choix des disques et tout, ca commence à devenir moins sympa...
Le 09/05/2025 à 22h15
Ça.
Juste.
Fonctionne.
Et il faut relativiser, les HDD Syno obligatoires, c’est pour les version « + » uniquement. Quant au vieux CPU, c’est un excellent modèle, largement assez puissant, qui a fait ses preuves depuis maintenant 4 ans. Pourquoi en mettre un autre?
Après, ce qui m’embête personnellement, c’est le suivi logiciel. Le hardware, même au bout de 10 ans ça fonctionne encore, mais plus à jour logicielement. J’avais un DS213j et DS216j pour mes plus récent, et ils ne sont plus à jour alors que l’OS Synology, c’est juste un OS générique qui s’installe sur n’importe quoi. Ça fait donc bien longtemps que je suis passé avec une solution maison sur Proxmox que je mets à jour moi même.
Le 10/05/2025 à 12h36
Le DS216j quant à lui peut passer sur la 7.2 la plus récente (avec plusieurs versions intérmédiaires selon l'ancienneté du DSM installé).
En gros, à quelques exceptions près, on peut dire que jusqu'au DS213 c'est du 6.2 , du 7.1 pour les DS214/DS215 et du 7.2 à partir du DS216.
Il faut parfois aller télécharger le DSM manuellement car le NAS ne voit pas toujours si une nouvelle version est disponible (surtout si la 7.0 a été refusée à partir du DSM 6, elle ne sera plus reproposée). Le plus gros problème c'est de trouver les vieux DSM pour faire les mises à jour intermédiaires car Synology a fait un gros ménage sur ses serveurs en 2023 (mais Internet Archive en a archivé pas mal).
Le 09/05/2025 à 22h49
Le 10/05/2025 à 07h39
Autant rester sur une techno qui marche bien pour ce qu'on lui demande plutôt que faire des frais à intégrer un nouveau CPU qui n'apportera rien et ne sera peut-être pas aussi fiable.
Modifié le 10/05/2025 à 22h25
Le 09/05/2025 à 18h39
Pour l’instant, je laisse tourner le Syno, mais la transition est proche — surtout que, même si mon disque de 10 To est mécanique, je me tâte sérieusement à passer en Ethernet 2,5 Gbps pour profiter des débits max. Je pense que le Gigabit bride un peu les performances.
Le 09/05/2025 à 19h37
Le 09/05/2025 à 19h53
Modifié le 10/05/2025 à 01h12
Après, le 2.5
GHzGb/s ça passe encore avec du câble de catégorie 5. Pour le 10GHzGb/s, il faut normalement du catégorie 6 minimum (donc, potentiellement, recâblage). Ca consomme moins et chauffe un peu moins aussi.De même, pour le processeur a-t-on réellement besoin d'une bête de course ? Est-ce réellement le processeur le goulot d'étranglement pour un NAS ? Peut-être éventuellement pour ceux qui hébergent des services via docker par exemple. Par contre, il serait intéressant de comparer la conso des processeurs utilisés avec des processeurs plus récents.
A chacun son usage. Pour certains (un NAS qui fait "juste" NAS), les configurations proposées seront amplement suffisantes dans beaucoup de cas. Par contre, pour d'autres, qui souhaiteraient du plus "poussif", il n'y a rien. C'est dommage.
Le 09/05/2025 à 20h51
Modifié le 09/05/2025 à 21h07
Mais tu voulais peut-être dire 10Gb/s.
Le 10/05/2025 à 01h11
Le 10/05/2025 à 05h31
Les volumes de données et à priori usages vont vers ceux où tu as besoin de bande passante, plus utilisateurs pro ou enthousiastes.
Le transfert haute vitesse 25Gbps ça pompe de la ressource cpu, les docker/vm idem.
A côté, Synology supprime Vidéo Station, c'est clairement un virage dans ce sens de leur gamme au global qui se fait.
Le 10/05/2025 à 11h22
La raison principale : l'OS de Syno est trop boîte noire à mon goût pour maintenir des services critiques potentiellement exposés (tels que mon Plex et de deux trois autres satellites). Leur rythme de mise à jour système est trop faible à mon goût.
Je préfère donc gérer une machine avec un OS que je sais maintenu.
Raison secondaire : j'ai quand même gagné en vélocité sur les applications puisque le serveur travaille avec un SSD. J'ai senti la diff par rapport au RAID de disques à plateau. Le use case NAS est par contre très bien desservi avec d'excellentes performances en matière d'accès aux données dessus (du style lire une vidéo en accéléré x100 reste parfaitement fluide).
Le 09/05/2025 à 22h48
Je voulais en acheter un et j'ai reculé en voyant les prix.
Le 10/05/2025 à 08h28
J'ai pris QNAP (TS-932PX), mais si j'avais appris l'existence des carte N100, j'aurais fait un NAS maison.
Je vous partage la compo :
## Le boitier
https://fr.aliexpress.com/item/1005005830229254.html
## La carte-mère
https://fr.aliexpress.com/item/1005006374631897.html
## L'alim SFX
https://www.ldlc.com/fiche/PB00430602.html
## RAM (prendre la 1X DDR5 16GB 4800Mhz)
https://fr.aliexpress.com/item/1005005621252319.html
Si cela peut servir à quelqu'un... Avec un TrueNAS 👌
Modifié le 11/05/2025 à 19h36
Edit : my bad, retour en ligne apparemment 😂
Le 12/05/2025 à 10h32
LAN 2.5G seulement ? Et y'a uniquement un slot PCI-E 1x (Gen3 seulement en plus) donc pour rajouter une carte séparée...
16 Go de RAM n'est clairement pas suffisant pour faire tourner décemment TrueNAS qui est axé sur l'utilisation de ZFS, qui bouffe de la RAM.
Le 12/05/2025 à 19h31
Ce que je propose est selon moi bien meilleur niveau rapport performances/prix que tous les Syno cités, et tu n'es pas "enfermé" dans le SynolOnly.
Au pire, je propose TrueNAS, libre à toi d'installer ce que tu veux.
Et au passage, ZFS fonctionne très bien pour un NAS à 5/6 disques avec 16GB de RAM...
Le 12/05/2025 à 11h32
Si tu veux vraiment une SFX pour du petit PC, alors il y a la Silverstone (https://www.amazon.fr/dp/B01LY7UZNE) qui est plutôt efficiente (comparativement aux autres) à bas régime.
Sinon, un PICO-PSU, bien plus efficace pour ce genre de petite charge.
Le 12/05/2025 à 19h33
Je note la référence de l'alim ;)
Merci pour le conseil.
Le 10/05/2025 à 09h34
Le 10/05/2025 à 10h29
Histoire de voir qui profite de cette politique "ça marche, ne changeons rien".
Il sera intéressant de relire ces actus dans quelques années, quand on connaîtra l'évolution des ventes de ces gammes.
Le 10/05/2025 à 14h39
D'après la doc Synology et certains retours, la migration de disques non listés compatibles reste possible, mais certains services restent bridés. Le script permettrait de les réactiver.
Très déçu de Synology sur ce coup - là tout de mème. J'ai remplacé mon vieux 412+ par un 423+ l'année dernière. On verra dans quelques années quand celui - ci devra être remplacé.
Le 11/05/2025 à 15h51
Au travail, on avait acheté un DS923+ il y a deux ans, avec des disques SSDs, après des années de satisfaction avec d'autres modèles Synology. J'avais alors appris cette demande de disques "compatibles". Mais je n'en avais pas trouvé sur le site du vendeur (LDLCpro). Faute de quoi j'avais pris des SSDs de gamme entreprise (des Kingston).
Je m'étais dit alors que même s'ils n'étaient pas "certifiés" et donc si on n'avait pas de support, il n'y avait pas de raison qu'ils ne marchent pas;
Mais depuis, on a régulièrement des alertes comme quoi un disque n'est plus dans le volume Raid. Alors que le disque est parfaitement sain. Une réparation, ou même un simple reboot, remet les choses dans l'ordre. Mais c'est pénible (déclenchement par exemple des bips sonores).
Rien que pour cela, et aussi pour le manque d'innovation, je ne conseillerai plus les Synology, et regarderait plutôt vers QNAP ou Asustor. C'est un manque de respect des ses utilisateurs. On dirait une imprimante HP où il faut acheter des cartouches "d'origine" qui ont une date d'expiration alors qu'encore pleines.
Très dommage cette politique suicidaire.
Modifié le 10/05/2025 à 22h24
Et ce que je trouve rehidibitoire, c'est la suite logiciel type Google doc qui fabrique des fichiers dans un standard à la con.
Je préfère largement Nextcloud, et colabora/Only office qui permet l'édition de fichiers standards odt et Word, utilusables à peu près partout.
Se rajoute ces dernières nouveautés, bon, y a mieux ailleurs (coucou proxmox).
Le 11/05/2025 à 16h29
Syno surfe sur son image de marque et se permet des choses impopulaire.
Le 13/05/2025 à 13h43
Et je trouve que ADM n'est pas beaucoup plus difficile à utiliser que DSM.
Le 12/05/2025 à 10h25
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?