votre avatar

aurejac

est avec nous depuis le 17 septembre 2014 ❤️

70 commentaires

Le 10/07/2024 à 02h 54

Instant ink rentable ? non... si tu fais un calcul de coût à la page, ou de TCO, le mieux est encore les smart tank (ou ecotank chez epson et megarank chez brother)

Le 08/07/2024 à 19h 39


Ah on va économiser 65 Kgs de cuivre... super on est sauvés alors ! plus de problème de pollution ni de réchauffement climatique !


Non mais pincez-moi je rêve...


Faut quand même rappeler qu'Ariane 1 et 4 étaient des lanceurs très polluants avec l'UH25 (Hydrazine) mélangé au peroxyde d'azote (seul le 3e étage était "propre" avec LH + LO2), et Ariane 5 et 6 sont encore pires car ils utilisent des boosters solides à l'aluminium et perchlorate d'ammonium liés par du PBHT qui sont des vraies cochonneries.

On a donc les lanceurs les plus polluants du marché qui, non contents d'émettre 300t CO2 par lancement, émettent des retombées toxiques et cancérigènes, mais on s'en fout, c'est en Guyane...

et faudrait applaudir des deux mains pour 65Kg de cuivre évité ? sans moi....

En comparaison spaceX et leurs lanceurs au RP1 (kérosène) et oxygène pour le Falcon et méthane et oxygène pour le starship sont des enfants de coeur...

Quel greenwashing de mde

Le 25/03/2023 à 14h 16

Pas grave pour le retard ! Flock plus on attend plus c’est bon ! :transpi:
Trop bien cette semaine comme toutes les autres merci !

Le 23/03/2023 à 15h 14

ça fait plaisir de lire un article sur ce sujet et j’aimerais bien voir ces sujets de plus en plus.



Effectivement, les immenses entreprises qui se présentent “neutres en carbone” ça fait exploser le bullshitomètre à tous les niveaux.



Déjà que les règles de fiscalité et de comptabilité financière sont très orientées et biaisées (brûler du pétrole dans une voiture ou incendier un bâtiment font augmenter le PIB, la fiscalité des véhicules, des bâtiments encouragent la consommation et les dépenses)



Mais en plus on a une comptabilité carbone qui est dans son état actuel une forfaiture grotesque, qui n’engage que ceux qui y croient.



il n’est pas si simple de compter le carbone émis et celui absorbé par les arbres (et le surtout le sol). Les connaissances évoluent et on a vu il y a peu des études montrer par exemple que l’amazonie n’était plus un puit de carbone..
C’est flippant.

Le 28/01/2023 à 13h 40

Hola encore une excellente fournée !
j’encadrerais bien celle sur Wine 8 avec des refs que les moins de 20 ans ne peuvent pas connaître !

Le 26/04/2022 à 19h 49


fofo9012 a dit:


Bah sinon il suffit de savoir envoyer un mail, et mettre les grosses listes en Copie cachée au lieu de destinataire. Impossible de répondre à tous ! Et ça fonctionne partout, peu importe le client ou le serveur.


Il suffit yaka fauqu’on … oui… mais les utilisateurs sont humains ! Et c’est très bien qu’il y ait des gardes-fous, après tout les exemples de mailstorm sont pas ce qui manque malgré la meilleure volonté du monde !!

Le 12/04/2022 à 08h 55


(quote:2066122:Jonathan Livingston)
Tu confonds avec Uranus. Neptune a une inclinaison à peine supérieure à celle de la Terre.


oups… effectivement j’ai bien confondu, je pars me flageller :sm:
merci :incline:

Le 11/04/2022 à 12h 42

Vous allez me trouver chagrin mais ça me fait toujours bizarre de voir Neptune représentée ici comme si elle tournait sur un axe quasi vertical comme les autres planetes…
en fait l’axe de rotation est quasi à l’horizontale et parler de pôle sud ou pôle nord ça me perturbe, ça veut pas dire grand chose ici..



et du coup je comprends rien :)

Le 12/03/2022 à 12h 43

“FonctionnAIR” 😅

Le 24/02/2022 à 20h 56

C’est sympa ça ! (même si je préfère le netboot PXE au “netrestore”)



bon la prochaine étape c’est de pouvoir acheter des rpi 4 !
parce que c’est pas pour me plaindre mais en ce moment on trouve rien nulle part, à moins d’aller sur des marketplace et payer 200€ :eeek2: :eeek2:

Le 18/01/2022 à 08h 12


darkweizer a dit:


Ils ont trouvé un moyen de détecter celles enterrées de celles hors sols ?!


Ah bah si on commence à détecter les choses et les gens hors sol ça va s’allumer de partout…
:fumer:

Le 05/11/2021 à 08h 13

HGST encore et toujours les plus fiables, qu’il est loin le temps des desktar 75GXP !!!
Par contre seagate ils ont rien appris avec les ST3000DM001 d’il y a 10 ans on dirait…



Toujours intéressant ces stats
Juste dommage que le champ de tests ne soit pas plus large (il n’y a pas de disques SMR testés j’ai l’impression et il y a peu de WD testés dans l’absolu)

Le 31/10/2021 à 11h 06


Fabounnet a dit:


Superbe bouchon de radiateur de la tesla


pareil,
trop bien vu ce “Spirit of Elon” :fume: :fume:

Le 17/10/2021 à 09h 20

ça fait environ 4 ans que je teste des SSD NVMe, et j’en ai testés environ 35.



malheureusement je les ai testés dans des machines en PCIe 2.0… (et pour rester cohérent j’ai continué).
Tous les SSD testés sont en 500Go :
twitter.com Twitter



dans les tests j’avais mesuré :




  • la conso en veille

  • la conso en écriture et lecture

  • la vitesse de lecture sur 100 Go de datas

  • la vitesse d’écritures sur 100 Go de datas



c’est un travail de fou…

Le 08/10/2021 à 08h 35

De ce que j’avais lu non, toujours pas :
“During the launch event for DSM 7.0, Synology has clarified that it doesn’t allow the use of M.2 slots for storage because of heating issues”



Certains SSD M.2 chauffent, ils ont pas tort là dessus, mais on peut choisir des SSD qui chauffent peu (tous ceux à base de Phison E12 par ex.)
Et les slots M.2 sont sur plein de Synos complètement “coincés” contre la première baie de HDD, à ce moment on peut ne pas remplir cette baie.



Du coup ça m’arrive de monter des Syno 10Gbit avec un stockage mixte HDD en raid et SSD WD Red mais en Sata… c’est un peu dommage à ce stade ça bride pas mal, je préfèrerais du NVMe.

Le 08/10/2021 à 07h 11

Waouw le SN700 a vraiment une belle endurance…
je veux dire 500TBW pour un 250Go,
2000TBW pour le 1 To et 5100TVW pour le 4To c’est du jamais vu dans ces gammes de prix.



Maintenant reste plus qu’à ce que Synology libère les ports M.2 !!
Sur des NAS 10Gbits comme le DS1621xs les deux ports PCIe M.2 sont stupidement bridés pour faire uniquement du cache… c’est totalement idiot !

Le 10/09/2021 à 22h 20


yl a dit:



Un petit switch résidentiel en 5(1GB)+2(2.5GB), ça serait sans doute possible pour la moitié prix du modèle présenté. Et bien plus cohérent en terme de nombre de ports et de besoins.


il y a le Zyxel XGS1210-12 qui est à env. 190€.
du manageable avec 8 ports 1Gb + 2x ports 2,5Gbe et en prime 2x cages SFP+ 10Gb c’est raisonnable.
et il y a aussi le XGS1010-12 identique mais non managé à ~150€

Le 30/08/2021 à 17h 19


Zaxe a dit:



Pour revenir au dernier né de Kobol, le Helios64 apportait une évolution proche des Syno, Qnap dans le boîtier que je trouve d’ailleurs plus solide pour le Helios64. Les ports sata sont en natifs et au nombre de 5 ! La batterie style onduleur intégré dans le boîtier c’est vu nul part ! Le port 2.5gbe a l’époque c’était rare.


C’est clair qu’il n’y a jamais eu d’équivalent de l’Helios64 niveau encombrement, et ils avaient un très bon boitier, très bon design.
Du NAS 5 baies, avec une aussi faible conso et en 2,5Gbe ça n’existe pas. chez Syno ou Qnap il n’y a que des trucs plus encombrants, 2x plus chers en gigabit..
Et en DIY tous ceux qui en ont fait confirmeront qu’on ne trouve que des boitiers soit moches, soit gros, des cartes mères en x86 énormes,
Les cartes mères avec 5 port SATA ça se trouve pas sous le sabot d’un cheval, des cartes mères avec 5x ports SATA qui consomment moins de 15W ça se trouve pas du tout…



J’espère qu’ils reprendront le projet ou que ça en inspirera d’autres…
Je me suis malheureusement préinscrit qu’après le 2e “batch”…

Le 19/08/2021 à 00h 49

hum… ok à part personnaliser la coque, je vois pas trop l’intérêt par rapport à un NUC normal.



Les antennes -> elles doivent pas avoir un gain de + de 3dBi, pas meilleures que celles d’origine
Le support VESA -> a toujours été inclus dans tous les NUCs
Le 2e port ethernet et les 2 ports USB2 -> dispo chez tous les revendeurs NUCs pour les NUCs de 11e gen (par ex. chez SimplyNUC cette option est à 38€)
https://simplynuc.eu/11tnhi5-full/



Bon je trouve ça intéressant d’avoir des revendeurs qui proposent des NUCs assemblés, ce sont vraiment des produits très fiables et qui gagnent à être distribués.
pour une solution métier j’en ai assemblé et déployé plus de 4000x et j’ai jamais vu en 20 ans un produit aussi fiable, bien foutu et avec aussi peu de retours.



mais bon autant rester sur le produit Intel d’origine avec son chassis très bien conçu non ?
histoire de conserver la garantie Intel directe..



Je précise :




  • soit on a des besoins basiques à ce moment on prend un NUC Intel de base chez LDLC, etc.

  • soit on a des besoins d’intégration spécifiques (port RS232, HAT, OS spécifique, intégration intel AMT etc.) à ce moment on le prend chez des spécialistes…



mais bon là l’intérêt de la machine bleujour je le vois pas… à part pouvoir sérigraphier le chassis..

Le 16/07/2021 à 15h 59

ça me rend dingue de voir des boitiers comme ça qui ont le ventilateur… à l’envers



Je veux dire par là : dans la position verticale, le sens naturel de circulation de l’air (sens de convection) est du bas vers le haut (comme dans un grille pain ou un radiateur à convection).



Là, le ventilateur souffle dans le sens opposé à la convection… c’est débile.



bon évidemment si j’en achetais un je retournerais le ventilo, mais ça fait poser des questions…

Le 12/06/2021 à 12h 42

Oh la la, encore un grand cru !
Très reussi Jeff Burnos et celle sur l’economie circulaire des ayants (tous les) droits !

Le 04/05/2021 à 18h 45

Sorry je raconte des betises, c’est bien une compute card 11 que j’ai mais dedans c’est un celeron 6305 donc tiger lake…
sorry

Le 04/05/2021 à 18h 26

Q1 2022 ?
en fait ils sont déjà dispo : j’ai déjà reçu une carte compute et j’attends le boitier qui la reçoit



twitter.com Twitter

Le 25/04/2021 à 21h 33

Du coup c’est un “Hamasque”

Le 16/04/2021 à 15h 28


David_L a dit:


Je dis le contraire justement, ils peuvent tout faire ou presque.


Ok j’avais pas compris la réponse comme ça, j’avoue…




Pour le reste, une solution virtualisée aura d’autant plus de chance de survivre à des conditions problématiques qu’elle est facilement réplicable. Sinon de mémoire VMWare (et d’autres hyperviseurs) savent donner l’info d’arrêt aux VM (parce que bon, en datacenter c’est un peu un besoin critique par exemple), mais je n’ai pas testé ici.


Si j’en parle c’est bien parce que le sujet m’intéresse et que ici, c’est un critère pour moi : je ne vais pas confier mes données (ou celles de clients) à un NAS qui ne sait pas s’éteindre proprement en cas de coupure de jus.
Et là je dirais que non, la solution a peu de chance de survivre à des conditions problématiques si, pour commencer, elle ne sait pas s’éteindre proprement en cas de perte de jus.



Que celui qui a un NAS qui a 1500j d’uptime (même dans son garage) sans coupure de courant me jette la première pierre :)



L’autre critère aussi, même en entreprise, c’est de pouvoir mettre la machine en veille la nuit, voire l’éteindre (et la réveiller le matin ou sur paquet WOL).



L’air de rien, ça divise par jusqu’à 3 la consommation electrique et multiplie par 3 la durée de vie réelle des HDD !
Sur un NAS QNAP on peut.
Sur un NAS Synology on peut.
Sur un NAS maison avec OMV on peut (il faut rajouter les paquets OMV-extras et n’importe quel PC peut se réveiller). j’ai pas réussi avec Freenas.



Par contre ESXi pour programmer une extinction la nuit et réveil le matin, macache.




Par contre si tu perds tes données dans une telle situation, sur la base d’un seul souci sur le NAS c’est que leur réplication n’est pas bonne (et si c’est un besoin important que de les préserver, il faut ne pas avoir à compter sur le bon fonctionnement de l’onduleur).


Je retourne un peu le problème. La question n’est pas SI on va avoir un problème hardware ou une perte de données un jour mais QUAND ça va arriver, et comment on s’y prépare (même si HP c’est de la qualité un microserver ça peut tomber en rade).
Et je ne dis bien sûr pas que je ne réplique pas les données, c’est juste que si il faut répliquer les données à la moindre coupure de courant, c’est un problème.



Alors oui, si on a un cluster de deux microservers, plus une troisième machine avec un vCenter, bon, là on peut avoir des VM répliquées, mais c’est un peu lourd, et surtout pas gratuit…



On peut aussi avoir des VM répliquées d’un ESXi sur l’autre, à la main ou avec des solutions tierces…(bof)



Mais si on a qu’une seule machine, ouahou…



Et perso, il y a une chose que je constate c’est que des données enregistrees sur un système de fichiers BTRFS ou EXT4 sur du raid5 logiciel mdadm, le disatster recovery plan c’est facile : on prend les disques, on les remet dans n’importe quel autre NAS / PC sous linux : bing, ça remonte sans autre forme de procès.



Par contre des données enregistrées via une VM QuTS cloud (donc format de fs propriétaire), sur un datastore VMFS, ça, c’est peut être un petit peu moins marrant en cas de pépin, ça rajoute des couches de complexité et de logiciel propriétaire.



ça m’aurait beaucoup intéressé que QNAP propose son OS en natif puisqu’il est plus complet et facile d’usage que d’autres solutions “opensource” (et un microserver avec une carte 10 Gbits, miam)



mais là : sans gestion de l’économie d’énergie (bonjour le retour aux années 90), avec la complexité et le coût de la licence…

Le 16/04/2021 à 15h 05


(quote:56649:Fab’z)
Oui, il existe de quoi utiliser directement un onduleur avec esxi (NUT). Sinon Eaton, par exemple, fourni des packages (IPM) qui s’installent sur Windows ou en appliance .ovf à déployer sur n’importe quel hyperviseur pour piloter un onduleur ou une flotte d’onduleur et donc plusieurs hyperviseurs.


Oui, côté ESXi c’est vrai.
Mais la complexité du montage ici fait qu’il faut que la VM QuTS cloud soit aussi “informée” de la perte de courant et qu’elle s’éteigne proprement avant que les batteries soient vides…
Est-ce que la VM QuTS contient bien les “additionnals tools” ESXi qui lui permettent d’être informée du fonctionnement sur batterie et qu’elle doit s’éteindre ?
c’est une vrai question, je ne connais pas la réponse.




Comme le dit Soraphirot, le ZFS est un système qui prévoit ce genre de chose, il écrit ses index au dernier moment pendant quelques ms. Donc pendant un transfert de fichier effectivement tu perdra ce que tu copie mais c’est tout.


Ben ça c’est la théorie mais d’une part si le système peut s’éteindre proprement et l’éviter, c’est quand même mieux non ?



et la théorie c’est une chose, mais même sans panne hardware, il y a des bugs. Je parle d’expérience, ça m’est déjà arrivé (sur des versions de Freenas qui ont qq années certes)..
Enfin, je peux me tromper mais je ne crois pas du tout que la valeur de commit de zfs soit de quelques milisecondes hein

Le 16/04/2021 à 09h 05


David_L a dit:


Si tu veux du simple et clé en main à usage unique, QNAP (ou d’autres) vend des NAS clé en main ;) Mais oui tu peux aussi tout faire à la main avec un autre OS si les fonctionnalités proposées par QTS ou DSM ne te sont pas utiles.


Alors oui, QNAP ou syno vendent des NAS clés en main, mais tu peux pas dire depuis quelques années qu’ils sont à usage unique : dans la gamme de prix du microserver + licence QuTS de l’article, on trouve des modèles qui encaissent des VM, des instances docker, du NVR avec encodage hardware, et on peut même backupper des VM ESXI “free” distantes en 2 clicks..



J’avoue que votre montage est sympa sur le papier, et un avantage est qu’on pourrait potentiellemt migrer la VM QuTS d’un appareil à l’autre, ok.



Mais ce que je me demande et j’insiste un peu, c’est si vous avez testé de tirer la prise de courant de votre montage ?
même avec un onduleur ?



Parce que l’échaffaudage est sympa, j’avoue, mais encore une fois ça me fait peur : est-ce qu’en cas de coupure de courant, sur onduleur, l’ESXi va bien donner l’ordre à la VM QuTS de s’éteindre ? j’en doute…



Je dis ça parce que j’ai vu beaucoup de NAS “maison” (comme ici) qui, à la moindre coupure (freenas en ZFS par ex), si on a pas un onduleur en bon état qui envoie proprement l’info de purger les caches et les ecritures en attente, se couper gentiment -> byebye les données…



ce qui est dommage pour un NAS.

Le 15/04/2021 à 23h 11

Je sais pas si c’est moi, mais je trouve ça un peu compliqué et cher comme solution…



D’abord côté matériel :




  • un microserver gen10 en 8Go de ram coûte de base ~500€ TTC et un i7-9700t coûte ~300€

  • le même microserver gen10 déjà équipé de 16 Go de ram et un Xeon E2224 coûte ~600€ TTC
    Où est l’intérêt d’acheter le microserver de base et l’upgrader ?
    autant acheter direct le modèle avec les 16 Go de ram et le Xeon qui est quasi au niveau du i7-9700t, on économise direct ~200€.



Ensuite côté coût de la licence QuTS : je veux bien payer 90\( par an, mais à ce moment il faut de la robustesse et de la simplicité...
90\)
par an ça fait 400€ en 5 ans, à ce prix ce n’est pas pour faire du stockage en surcouche par dessus du ESXi sur des datastores en VMFS….
Si on y rajoute le prix du matériel (~600€ TTC), à ce prix là on a direct un Syno DS1621+ en AMD 4 coeurs et 6 baies, supporté et fiable.



Et la fiabilité ? parce que ESXi ça se met pas à jour facilement… faut arrêter les VM, passer en mode maintenance, lancer l’upgrade à la main si on a pas de Vcenter.



Si on a une panne de courant prolongée, tout s’éteint correctement ?



Si on a une coupure inopinée, rien ne va se corrompre ? (ni l’ESXi ni la VM ni les datastores ?)



Si c’est pour bricoler, je préfère me monter un NAS en mini ITX, là je perds un peu de temps à trouver un boitier mini ITX et une alim qui survivront au moins 2 cartes mères et processeurs, je perds un peu de temps à installer OMV mais au moins mes données sont pas coincées sur deux formats propriétaires encapsulés…
elles sont nativement sur les HDD en EXT4 ou BTRFS sur du lvm que n’importe quel linux lit nativement…

Le 11/02/2021 à 12h 53

Copie privée (et le ministere de la culture derrière) c’est vraiment le gendarme de Funès : “fort avec les faibles, faibles avec les forts”.



Ces fins de race puantes (je suis même pas sûr que les caricatures de Floc soient pas en dessous de la realité !), qui se cooptent ensemble en petit comité refusent sans honte (c’est même pas qu’ils pourraient pas !) de s’attaquer depuis des années aux gros poissons :




  • les boites qui vendent des supports defiscalisés via le luxembourg

  • Amazon et ses vendeurs du marketplace qui fraudent toujours en 2021 MASSIVEMENT à la TVA, copie privée et ecopart comme le dit à très juste titre le gérant de Sofi groupe.



Cpie privé ils s’en foutet, ils n’essaient même pas.



BFM TV et les autres medias mainstream, est-ce qu’ils
font leur gros titres là dessus ? jamais…



Resultats comme Copie France ce sont de gros merdeux pas courageux, ils s’attaquent le cul tranquillement assis derriere peur bureau aux toutes petites boites… les mêmes que l’urssaf ou le SIE va matraquer de taux usuriers en cas de retard de paiement de TVA ou de cotisations…



Ce qui me fait rager là desans c’est que tout le monde s’en cogne…



les gens s’en foutent tant qu’ils peuvent continuent à aller acheter en SUV diesel truqué de la merde en supermarché, à ecouter ou matter en streaming les 2% d’artistes et de series prefabriqués qui font 95% des revenus, qu’ils peuvent aller butter des animaux en toute
legallité et raller sur le voile parce que c’est
la cause de tous les maux et de la desinstrialisation…



Je melange plein de choses expres mais c’est pour dire qu’on fait face à une accumulation de petites compromissions, de petits clientelismes qui font des grands ruisseaux et d’une impunité totale des
“gros”…



ça a de quoi énerver.

Le 02/02/2021 à 15h 41

Pas mal comme offre, mais je trouve dommage qu’ils ne proposent pas des mac mini M1 préconfigurés avec du RDS.. (avec NuoRDS par ex.)



VNC c’est quand même pas le truc le plus performant pour de l’accès distant..

Le 30/01/2021 à 21h 11

Petite chose à savoir : ici on teste sous Windows mais sous macOS le TRIM n’est absolument pas géré en USB, et les performances s’effondrent très, très vite…



Sous Windows en gros les boitiers USB gérant l’UASP permettent le TRIM (à partir de windows 8), sous macOS nada…



l’USB 4 étant basé sur du thunderbolt 3 là par contre ça passera, avec 2 flux à 20 Gbps.

Le 15/01/2021 à 11h 56


(quote:54550:brice.wernet)



NUC10i5FNH –> 10510U –> 15W. Sur les benchs ils sont bons, sur les tests en charge longue (plusieurs heures), ils ne tiennent pas les perfs.


Ben oui mais la doc Intel indique bien 25W :
ark.intel.com



Et sur la fiche d’Intel du 10510U ils indiquent bien que le TDP est de base en 15W mais configurable en 25W :
www.intel.fr



Après c’est sûr que pour avoir essayé et vendu beaucoup de NUCs (quasi 3000 :D) je confirme que les quad cores i5 ou i7 sont un peu à l’étroit dedans. Autant les dual core n’ont aucun soucis (et peuvent même supporter un ventilo en panne :eeek2: :eeek2: :eeek2:) autant les quads depuis la génération 8 faut vraiment pas qu’ils soient pas engoncés sur un plateau dans une baie.. faut leur donner de l’air.

Le 14/01/2021 à 12h 29

Je ne sais pas où tu as lu que les NUC10 sont en 15W, ils sont tous en TDP de 25W (autant le core i3 à 2 coeurs que les core i5 et i7).

Le 14/01/2021 à 22h 16


slemaire a dit:


L’histoire Microsoft et Apple est plus complexe.



Windows 95 est par de nombreux aspects une copie du Système des Mac. Certains éléments Win95 sont techniquement meilleurs (gestion mémoire,multi-tâches bien que le Système Mac avait d’importantes capacités temps réel utilisées traitement du signal modem logiciel…). Mais la gestion des vidéos windows media player reprend par exemple une section de code critique de QuickTime (version PC). De plus, Microsoft ne fait plus de version Mac de Word et Excel (Excel né sur Mac).


A ce sujet, j’ai retrouvé la pub de Microsoft s’excusant publiquent d’avoir fait des versions Word 6 et Excel 5 de merde :)



MicrosoftOffice421




Microsoft est libéré de toute crainte de procès. Microsoft investi dans Apple avec de nombreuses actions sans droit de vote (j’ignorais que cela existait avant ce précédent). Et Microsoft réalise des versions natives de Word et Excel…



Effectivement Microsoft a financièrement sauvé Apple, cependant de nombreux déboires d’Apple venaient du comportement initial de Microsoft…


Alors faut pas oublier quand même que c’est pas l’achat d’actions de Microsoft qui a sauvé Apple.
Il y avait d’une part le précédent CEO (Gil Amelio) qui avait fait un ménage monstrueux (annulé des projets dispendieux, racheté NEXT et Steve Jobs), et ce qui a sauvé Apple c’est le G3 et l’iMac..
puis ensuite MacOS X sur base Next et l’iPod.



Mais c’est vrai que symboliquement, le fait que Microsoft achète des actions d’Apple avait redonné confiance (peu de temps avant, le patron de Dell disait en gros que si les patrons d’Apple étaient honnêtes ils devaient rembourser les actions et fermer la boite… il a mangé son chapeau par la suite)



Et aussi, faut pas oublier que dans la BU Microsoft, la Mac BU est un peu une poule aux oeufs d’or car la suite Office Mac a toujours été très chère et jamais “bundlé” à prix réduit avec les Mac, donc elle représentait finalement dans les 25% du CA de la BU…



Et historiquement, c’est Apple qui avait sauvé Microsoft de la faillite fin des années 70 car pour chaque Apple ][ vendu, Microsoft touchait un bon montant pour son BASIC à virgule flottante, ainsi Apple représentait ~80% du CA de Microsoft au début des années 80..



D’ailleurs quand le Mac est sorti, en 84, Microsoft avait, en échange d’investir et créer une version Mac de Multiplan, négocié en échange l’exclusivité sur le BASIC pour le Mac…



Microsoft a bien fait Multiplan qui a été un argument très fort pour le Mac, par contre leur version de BASIC pour le Mac ne s’est… quasi pas vendu..



Allez je retourne prendre mes pilules :phibee:

Le 14/01/2021 à 22h 00


(quote:1848221:brice.wernet)
Je trouve qu’à voir le Mac par son System, on ne voit pas ce qu’il avait pour lui (je veux dire “exclusivement”) face aux Amiga, Atari ST et même aux PC sous GEM.


Heu… au hasard, un écosystème de logiciels pro bien plus riche ?
Ex. : Multiplan, puis Excel (créé sur Mac !), Word, Xpress, MacDraw, SuperPaint, Architrion, Autocad, Photoshop…(créé sur Mac).. ça doit suffire non :)
Le réseau appletalk.. les imprimantes laser postscript.. tout ça t’avait pas sous Amiga et atari.




Surtout que pour le peu de fois où j’ai vu/utilisé un Mac sous System 6 ou 7, j’ai souvent vu la bombe de la mort.


Ah ça… ça faisait le charme :)

Le 14/01/2021 à 15h 27


ForceRouge a dit:


C’est bien de faire de l’Apple bashing, mais quand tu prends un MacBook Air, c’est pour avoir un ultraportable le plus fin et léger possible… Donc si l’objectif, c’est d’avoir tout démontable et adaptable avec n’importe quoi, c’est juste qu’il ne te faut pas un Macbook Air, c’est même pas un laptop en vrai mais plutôt un PC Fixe.



En gros, ce que tu voudrais, c’est un écran standard, de la RAM amovible, un CPU standard. En gros, tout ce qui fait qu’un Macbook est apprécié de ses utilisateurs, c’est à dire un laptop ultra léger et ultra fin, avec un CPU custom pour fonctionner de façon optimisé avec l’OS, sur un écran de calibré et de qualité, tenant sur batterie pendant 20h.


Excuse moi de te le dire mais tu ne racontes que des conneries…



D’abord, m’accuser d’apple bashing, c’est aller un peu vite en besogne… Si le simple fait de critiquer, à raison, des choix de conception sur UNE partie récente de la gamme c’est faire du bashing alors tout est de l’applebashing…
si tu veux en privé je t’expliquerai quel type de boite je gère depuis 20 ans et dans laquelle je suis technicien certifié… indice : je suis agréé “premium” pour la sous traitance de SAV pour très une grande marque…



Parlons en justement des MacBook air.
Tu as l’air de dire qu’on ne peut les apprécier que parce qu’ils sont fins et légers, et qu’ils ne sont fins et légers que parce que tout est soudée.



Ben c’est con, Apple fabrique des MacBook Air aussi fins et légers que les actuels depuis… 2009.
Et c’est encore plus con, autant la RAM a toujours été soudée, certes, autant le stockage, lui, ne l’a jamais été de 2009 à 2017… et pourtant ces machines avaient la même finesse et même autonomie.
On m’aurait menti ?
Pareil pour les écrans, ceux de 2009 à 2017, sans être hyper facilement remplaçables, étaient au moins des écrans “standard” c’est à dire qu’on pouvait se procurer en 2e main ailleurs que chez Apple. Les nouveaux écrans, eux, ne sont plus du tout standard. La vitre est laminée sur l’écran et est collée sur les bords par un adhesif beaucoup moins facile à couper que celui des iMacs (pour comparaison).
et Apple a utilisé un système de nappes avec des ressorts propriétaires qui… déchirent la nappe. Et le problème est mal traité en garantie et les clients doivent dépenser plus de 400€ pour ces problèmes de nappes déchirées.



Bref on ne peut changer ni le clavier, ni le stockage, ni l’écran, sur les générations post 2018 de ces machines. Et si tu te renseignes un peu tu verras que ce ne sont que ces versions récentes qui “cristallisent” les critiques par leurs choix de conceptions (pour lesquelles Apple elle même a fait un mea culpa, au moins pour le clavier).




Et pour info, la batterie, qui est le seul vrai consommable dans un laptop, est démontable très facilement car collé avec des languettes qu’ils suffit de tirer…


Bah non, encore une fois n’importe quoi…
tu te plantes, il n’y a aucun portable Apple dont la batterie est maintenue par des languettes “qu’il suffit de tirer”.
ça c’est uniquement sur les iPhones et c’est suite à de nombreux procès d’associations de consommateurs. (et ces languettes ne sont pas si faciles à tirer).
Sur les MacBook Air, la batterie est vissée, et sur les MacBook Pro, elle est littérallement COLLEE avec des languettes qu’on ne peut en aucun cas tirer… le seul moyen c’est d’utiliser un tapis chauffant thermorégulé, et/ou des dissolvants peu orthodoxes, et faire levier avec des outils…




PS: ouvrir un Macbook ne fait pas sauter la garantie…



Tu peux donner la durée pour laquelle les autres marques continuent de réparer? histoire que l’on puisse comparer objectivement?


Ah mais la différence, et de taille, c’est que tu peux trouver des écrans (standards), des schémas électroniques, des SSD, même longtemps après la fabrication (Apple ne les publie pas, et fait une pression monstrueuse sur les auteurs de fuites).




On peut reprocher plein de chose à Apple, a commencer par le tarif, mais concernant le matos, c’est très propre. Sur mon premier Macbook, j’ai eu le dessous en plastique rugueux qui s’est déformé, pris en charge gratuitement après 5 ans.


Encore heureux, 100% des machines ont eu le problème de ce caoutchouc qui se gondolait, et je peux te dire que tous les bottoms case qu’on a remplacés ont recommencé à gondolé par la suite. Ce qui fait qu’on a finit par les découper et les recoller à la colle contact…




Mon Macbook Air actuel date de 2014 et tiens encore plusieurs heures sur batteries. J’en dirais pas autant de mon Dell pro qui n’a même pas 2 ans…


Mais ce n’est une preuve de rien… combien de cycles de batterie le Dell et combien le MacBook Air ?
Moi à l’inverse j’ai un HP Probook de 2013 dont la batterie tient super bien et mon MacBook pro retina 15” de 2015 (les derniers “très bons” modèles, je l’ai équipé d’un SSD NVMe 4 To…) a eu sa batterie gonflée au bout de 2 ans et demi…
est-ce que c’est une raison pour tirer une quelconque généralité ?



non… les conclusions ont les tire à partir d’un nombre d’échantillons “significatifs” ou on se ferme sa gueule parle avec précaution :chinois:

Le 08/01/2021 à 15h 45

Bonne chose ça…



les portables tout soudés (type MacBook Air - Pro) vont avoir une note catastrophique, aucun composant réutilisable, aucune pièce démontable ni remplaçable (ni le clavier, ni le stockage de masse, ni la ram, ni la carte mère à cause de la puce T2, ni les batteries collées), les écrans sont pas standard et donc introuvables après 5 ans (c’est la cata en ce moment pour trouver des écrans pour les Mac de 2013-2015)



Si ça pouvait faire changer vraiment la conception des machines, ce serait bien… on a énormément perdu en réparabilité ces dernières années.

Le 14/01/2021 à 01h 45

Juste deux-trois petites remarques



J’ai relu deux fois mais je ne vois personne parler de distinction entre cable monobrin et multibrin…



C’est pourtant une base :




  • on utilise du cable monobrin pour les installations fixes (cables vers les prises murales, en goulotte, en tube, en gaine ou chemins de cable).

  • on utilise du cable multibrin pour les cables volants (de patch etc.)



Les embouts 8P8C / RJ45 males à sertir sont plutôt destinés aux cables multibrins..



Les premiers embouts “sans outils” que vous montrez au début de l’article, eux, sont exclusivement pour des cables en monobrin et en jauge au moins AWG 24 voire en 22.
C’est normal que vous n’ayez pas réussi à les faire fonctionner avec des cables “volants” de patch, qui sont, eux, multibrins (en général).
D’ailleurs il vaut mieux avoir un outil à wrapper (“punch wire tool”) avec ces embouts.



En général le cable monobrin d’installation fixe ne se termine pas par des prises males 8P8C mais des noyaux femelles (soit sur des bandeaux de brassage, en baie, soit sur des plastrons à encastrer ou à poser en pot).



Et enfin, c’est un peu cher mais je ne peux que recommander deux produits :



D’abord des capots suivants chez RS, qui ont l’immense avantage de pouvoir se mettre après que la prise soit sertie :D



capot RJ45 chez RS



Et ensuite des kits de réparations de languette, chez Reichelt, ça évite de refaire la prise :
kit de reparation de languette chez Reichelt

Le 17/07/2020 à 13h 54


Fuli a dit:


Je trouve juste dommage d‘avoir encore des ssd m2 en sata qui du coup se trouvent limités en débit. Pourquoi ne pas avoir débridé les débits dans les cas d’une interface permettant plus?


Moui, mais alors en même temps, il y a NVMe et NVMe…



Je veux dire :




  • au début du NVMe on était sur des produits très chers, et en MLC. forcément les perfs explosaient tout, même quand on était qu‘en PCIe 2.0…



  • bon mais maintenant, la tendance est à avoir des SSD NVMe plutôt anémiques une fois le cache SLC rempli : Crucial P1 / intel 660P, Patriot P300 etc.
    Quand je dis anémique, on a des vitesses d’écriture qui tombent à 300 Mo/s voire moins de 100 Mo/s en QLC




Donc, bon, quelque part SATA ou NVMe ça veut rien dire..



Je préfère un bon SSD SATA qui est "limité" à 600 Mo/s, mais qui le fait de manière très stable,
qu‘un "mauvais" NVMe qui brille dans les benchs, mais dans la réalité tombe à une vitesse d’escargot, alors qu‘il est plus cher que le SATA…

Le 23/04/2020 à 14h 21

J’aime bien l’histoire des OS microsoft, mais celle de leur BASIC et des tableurs n’en est pas moins intéressante.



Un des premiers gros contrats très juteux pour microsoft, très tôt en 77  (4 ans avant le contrat pour le MS DOS avec IBM), c’était le basic pour Apple II.



A l’époque (en 77 environ), Apple c’était une énorme boite à la croissance monstrueuse

l’Apple II avait 80% du marché (grâce à un tableur : Visicalc)

l’apple II avait un interpréteur BASIC écrit par Woz, mais il ne gérait que les nombres entiers, pas les calculs en virgule flottante.

 

Or, Microsoft eux ils avaient un BASIC à virgule flottante. Microsoft c’était une minuscule boite en 77 (peut-être 20x plus petite qu’Apple), et Bill Gates a réussi à vendre à Apple leur BASIC à virgule flottante et c’est ce qui les a vraiment fait décoller, avant le MSDOS.



Par la suite, Microsoft a accepté de développer Multiplan (premier tableur graphique) pour le Mac, en contrepartie…. d’avoir l’exclusivité pour le BASIC sur le Macintosh..

Le BASIC microsoft pour le Mac s’est super mal vendu.

Par contre Multiplan, sur le Mac (puis Excel), ça a été la bouée de survie du Mac qui aurait probablement coulé sans ce logiciel.



Comme quoi les destins sont liés depuis très longtemps.



Il y a des films/telefilms sympas sur cette époque, pas faciles à trouver :

- “Triumph of the Nerds” de Bob Kringely




  • “Pirates of the Silicon Valley” avec des acteurs étourdissants de réalisme (celui qui fait Balmer est génial, et faut voir Noah Whyle jouer Steve Jobs)

Le 21/04/2020 à 01h 29


Tirnon a dit:


Il reste quelques questions en suspend au final, pour une même capacité entre SMR et CMR, y a t il un plateau de moins ? Vu les fiches technique ça ne transparait pas.
Et si il y a le même nombre de plateaux, les SMR seraient de moins bonne qualité et leurs tailles serait augmenté par la technologie de chevauchement. Ils devraient donc être moins cher, non ?Commercialement c’est à la limite de la tromperie sur la marchandise.Cette technologie ne pose pas de problèmes en cas de secteur défectueux ou d’usure plus rapide ? Quand le disque est presque plein les performances en écriture doivent s’effondrer non ?


En gros les disques de toutes marques jusqu’à 1,66 To/ plateau sont en CMR/PMR, et ceux à partir de 2 To / plateau sont en SMR.



En nombre de plateaux sur des WD Red de 4 To tu as :




  • les WD40EFRX 1ere génération qui ont 4 plateaux de densité 1 To / plateau

  • les WD40EFRX 2e génération qui ont 3 plateaux de densité 1,33 To / plateau

  • et les WD40EFAX qui sont eux en SMR et n’ont que deux plateaux de 2 To
    (et ils devraient donc être 33% moins cher.. mais non haha)



Pour que les performances s’effondrent sur un disque en SMR en “drive managed” tu n’as pas besoin de le remplir, au contraire un remplissage d’un disque vierge va à une vitesse tout-à-fait normale.



Non c’est sur les petites écritures aléatoires que la vitesse s’effondre totalement (les lectures ne sont pas touchées).



Imagine que tu as un quelques secteur de 4K à réécrire par ci par là.



Sur un disque classique en PMR, chaque commande de réécriture d’1 secteur de 4K entraine.. 1 seule vraie commande de réécriture de secteur 4K.



Mais sur le disque en SMR, les cylindres sont écrits les uns par dessus les autres en tuile, par groupe de plusieurs dizaines de pistes qui se recouvrent légèrement, ces groupes de pistes sont séparés par des “zones blanches” de séparation.
A chaque écriture d’un seul bloc de 4K au milieu d’un groupe de pistes contenant au moins 1 bloc avec des données, le disque en PMR doit lire tous les blocs entre deux zones blanches et ça même si le disque n’est rempli qu’à 5%.



Donc dans le pire des cas pour écrire un bloc de 4K, ton disque doit :




  • lire 10000 blocs de 4K et les stocker dans sa ram interne

  • réécrire 10000 blocs de 4K dont 9999 sont inchangés et seul 1 seul de changé…



inutile de dire que ça fait s’effondrer les perfs d’écriture aléatoires.

Le 20/04/2020 à 19h 41

Je ne sais pas pour vous mais moi la seule source d’information fiable que je connaisse pour savoir si un disque est “SMR” ou “PMR” c’est la “hard disk platters and density database” :



https://rml527.blogspot.com/2010/09/hdd-platter-capacity-database.html



Elle est mise à jour quasi quotidiennement et tout un chacun peut contribuer



Perso ça fait quelques années que je compare des SMR et PMR, je pense qu’aucun problème pour mettre du SMR dans un nas 1 ou deux baies, ces disques sont juste passagèrement très lent (30Mo/s, presqu’aussi lents que des SSD QLC :D ) mais en RAID 5 ou 6 melanger du SMR et PMR c’est être certain que les SMR vont être éjectés du pool.

Le 19/04/2020 à 17h 09

C’est quand même difficilement comprehensible la perte du PCIe sur le TS-451D par rapport au TS-251D.



Certes on peut “se rabattre vers un adaptateur externe pour du 2,5/5/10 Gb/s”, mais concernant le 10Gb/s sur de l’US. 3.2 gen 1 ça va être hard

Le 17/04/2020 à 13h 11

Très bien, on va pouvoir faire des NAS maison en mettant ces petits boitiers JBOD sur des petits NUCs avec QuTS Cloud et…



quoi ? comment ça c’est quoi QuTS Cloud ? Ben si je parle de l’OS qu’on était censés pouvoir “bientôt” installer sur des PC en janvier :phibee:

Le 08/04/2020 à 21h 27

Les SSD en QLC c’est pas cher, effectivement.
Mais alors se cogner un débit d’escargot de 60Mo/s, inférieur à des disque 2,5” à plateaux quand le cache SLC est rempli, non merci..



Et avec les P1 ça ‘coùte” au final beaucoup plus d’énergie pour écrire des données que sur un TLC (conso élevée pendant parfois plusieurs minutes le temps de réécrire les données du cache SLC en QLC)



Bref, sur une machine d’usage léger, ok mais on en a pour son argent.

Le 01/04/2020 à 20h 12


Tirnon a dit:


Est ce que quelqu’un peut m’expliquer pourquoi on peut trouver des disques dur externe 2,5” de 4-5To à 100-120€ alors qu’ils sont introuvables nus ou à des prix plus du double ?


Alors déjà, si on regarde sur Amazon la majorité des vendeurs du marketplace fraudent à la TVA : ils vendent les disques externes en emettant des factures avec de la TVA en autoliquidation intracom (d’entreprise UE à entreprise UE) ce qui est illégal vis à vis de particuliers…
Quant à la taxe copie privée je n’en ai jamais vu la moindre mention sur aucune facture…



Bref..



Ensuite la plupart des disques externes 2,5” de grosse capacité sont en SMR : c’est pas cher, mais tu descend souvent à des débits d’escargot asthmatique…

Le 01/04/2020 à 16h 50

Perso, après un vol suite auquel je n’ai pas pu racheter un aussi bon vélo, j’ai effectivement fait immatriculer mon vélo par bicycode (via la fubicy).



Généraliser aux vélos vendus, c’est bien.

si ça peut freiner un peu les vols et les traffics, c’est bien.



Est-ce qu’on sait si les vélos déjà immatriculés par bicycode seront intégrés ?

Le 02/02/2020 à 21h 32


damaki a dit:


Pourriez-vous, s’il vous plait, lister les NAS qui font des volumes standards style mdadm ou lvm sous Linux ? J’ai toujours voulu jouer avec des NAS tout faits, mais j’ai toujours peur de galérer à récupérer mes données en cas de pépin, comme avec le SHR de Synology.


Je ne sais pas pour QNAP (j’attends toujours de pouvoir tester QTS Cloud promis il y a deux semaines, haha :fumer:) mais sur les Synology tu n’es pas obligé d’utiliser du SHR, tu peux choisir de réer un groupe de disques en RAID classique (mdadm) ensuite le formater au choix en btrfs ou en ext4.
Sur les modèles haut de gamme (émulés par xpenology d’ailleurs :D) tu as pas le choix : c’est du RAID classique ou rien, pas de SHR.



J’ai aussi beaucoup fait de petits NAS maison en mini ITX sous Openmediavault (OMV), et là c’est du mdadm ultra classique / ext4.
Sous OMV tu peux directement prendre une grappe RAID d’un NAS et la déplacer sur un autre, il faut juste se logger sur le nouveau NAS vierge et cliquer sur “monter” sans autre forme de procès dans l’interface graphique…
ça se fait en un claquement de doigts, et ça m’est arrivé plusieurs fois (et les grappes raid montent aussi sur n’importe quel linux si tu montes tous les disques en USB).




Wax a dit:


/ma life/ […] Ma station est plus légère, plus silencieuse, sans disques durs. Je n’ai rien contre le faire moi même, mais là, on parle de stockage, de sauvegardes. Quand on a besoin de sa sauvegarde, on en a besoin tout de suite, on est pas là pour rattraper une bidouille sur le NAS maison.


Alors, ouais, plutôt d’accord dans l’ensemble, mais je me permets un ENORME bémol quand même…
Un NAS synology ce n’est pas la garantie que tu n’as pas de problème, au contraire.
J’en ai vendu des dizaines et je peux te dire que l’histoire des DS1515+ qui ont leur carte mère qui lache à cause du bug sur les ATOM C2000, non seulement à ce prix là c’est assez grave (car la com constructeur et la prise en charge on été limite), mais en plus ben justement si tu es en SHR tu pleures parce que tu ne peux pas migrer tes données facilement ni rapidement… t’attends que le SAV t’envoie une CM réparée, et là, ouille.
Bon je dis ça moi je laisse jamais un NAS sans sauvegarde…J’ai toujours au moins 1 backup vers des disques USB à froid, ou synchro vers d’autres NAS mais pas en SMB (because cryptolockers…)



Alors tu vois, le beau discours sur la fiabilité de Syno et pas de soucis, comment dire…



T’as aussi l’aspect matériel. C’est du vécu : panne d’alim sur un syno, à part les modèles bas de gamme en +12V le reste c’est de l’alim proprio de merde, on peut pas remplacer par du ATX / FlexATX standard… alors là tu pleures d’avoir choisi du Syno propriétaire des familles…



Là dessus, franchement comme tout matériel propriétaire et qui n’est supporté qu’un temps, je suis bien plus préoccupé qu’avec des NAS en ATX/ITX tous standard…




Wax a dit:


Le seul truc que je regrette, c’est qu’il n’y ait qu’un seul port PCIe sur le 1817+, et que du coup, avec une carte SSD destinée à diminuer la charge des disques sur une BDD de grosse taille à fort trafic, je n’ai pas de 10Gb. Du coup, je fais du bonding de Gb, et ça suffit.


Ha ça c’est dommage…
tu as justement chez QNAP une carte qui t’offre un port M.2 PCIe plus un port 10 Gbits :
[https://www.ldlc.com/fiche/PB00282307.html](https://www.ldlc.com/fiche/PB00282307.html



Mais… mais… mais à priori Syno bride et empêche l’utilisation de cette carte :
youtube.com YouTube



c’est moche non ?

Le 02/02/2020 à 00h 54

Pas le CPU juste la carte réseau :)
1 port 1Gb/s = 1000Mbit/s tu divises par 8 pour avoir en octets et voilà…



J’aime bien synology, l’interface etc. mais faut avouer que si on veut des trucs performants sans que ça coûte un rein faut se les monter soi-même…



Et en plus ça monter un NAS soi meme ça permet si on choisit des formats standards de faire durer les machines plus de 10 ans, c’est ce que je fais avec des boitiers ITX cfi a7979 d
https://forum.openmediavault.org/index.php/Thread/30777-ITX-low-power-NAS-with-10Gbe/?s=92edd4c9d2989d0aeab14e8cc3b04c3886b29bdf

Le 15/01/2020 à 19h 10


(quote:45083:UtopY-Xte)
En terme de concours de b de puissance pure, les classement de logiciels de bench, c’est dans le top 3 de l’inutilité (avec les ghz entre autres, ce ne sont que des indices), tu n’aurais pas pu trouver pire pour accompagner ton propos qui au départ semblait être pertinent.


Heu… tu peux pas jeter d’un bloc tous les benchs d’un argument d’autorité en disant : “les benchs c’est bidon donc tout raisonnement basé sur ces chiffres est bidon”
-> non



Certains benchs ne sont pas sérieux, certains trop spécifiques, d’autres biaisés par les fabricants. OK.



Mais tu as des benchs sérieux, indépendants, documentés, ça existe et c’est une bonne base d’information, en plus de ce qu’on peut tester soi même.
Perso j’ai dans ma boite un budget “test”, mais je peux pas tout acheter, tout tester quand même.
Alors je me documente, j’ai pas forcément pas tout parcouru mais pour les sources que je consulte (Ars, anandtech, CPC Hardware) tu peux sortir un consensus que les Ryzen 3xxx sont remarquables, mais restent quand même un peu inférieurs aux Ice lake en efficacité energétique.



En dehors des benchs, tu as des tests encore plus méchants comme la comparaison d’autonomie des surface laptop 3 par ex. entre celle en core i5-10xx et l’autre en ryzen 37x, j’ai plus les versions précises en tête mais de mémoire les puissances CPU et GPU sont kif kif, et pour la même batterie le laptop 3 sous AMD tient 6h là où la Intel tient 10h..



On verra ce que donnent les 4000, mais pour l’instant, dans la vie réelle quand dois vendre un portable puissant et autonome ben je prends un core i9.
Autre exemple, chaque mois depuis 5 ans je dois fournir et livrer en sous traitance pour une solution métier 60 petits bécanes qui font tourner un service mySQL et qui doivent pas trop chauffer car dans des environnements non ventilés. sous linux donc je peux choisir l’archi que je veux.



ben depuis 5 ans y’a pas photo, j’ai du me fournir chez Intel tellement dans tous mes tests les NUCs éclataient en puissance/conso le peu d’offre en AMD.
C’est en train de changer, mais pour l’instant c’est encore avantage Intel, et dieu sais ce que ça m’en coûte car l’an dernier avec les ruptures, ça a été chaud…
(pour passer sous arm il manque encore trop de binaires compilés)