Docker, Amazon, Microsoft et d’autres s’unissent autour d’un standard pour les conteneurs
C'est le moment d'être compatible avec Docker
Le 23 juin 2015 à 15h11
4 min
Logiciel
Logiciel
Docker et plusieurs poids lourds de l’industrie comme Amazon, Microsoft, Google et VMware se sont réunis pour jeter les bases de spécifications communes autour d’un standard pour les conteneurs logiciels. La technologie de base est celle de Docker, et devrait permettre à terme aux différents éditeurs de permettre les échanges de conteneurs d’un système à un autre.
Des conteneurs logiciels de plus en plus utilisés
Les conteneurs logiciels appartiennent au domaine de la virtualisation. Dans un cas « classique », c’est l’ensemble du système qui est virtualisé, comme dans VirtualBox quand on crée une machine accueillant une distribution Linux ou Windows. Les conteneurs ne contiennent que des espaces utilisateur, en vue le plus souvent de faire fonctionner un logiciel en particulier. Ce dernier peut alors fonctionner de manière autonome, sans dépendre d’une version particulière d’une API sur le système hôte, mais tout en profitant par exemple des accès directs au système de fichier et sans perdre de cycles à travers une émulation ou une virtualisation.
Il existe actuellement un nombre croissant de technologies pour ces conteneurs logiciels. Dans ce domaine, la référence est Docker, une solution open source qui permet, comme indiqué plus haut, de prendre une application et ses dépendances pour les rassembler. À tel point que Microsoft, qui doit présenter dans les prochains ses Windows Server Containers et Hyper-V Containers, a déjà annoncé que ces technologies seraient compatibles avec Docker.
Open Container Project : une base commune à toutes les entreprises
Et justement, plus d’une vingtaine d’entreprises s’associent désormais autour d’un format qui se veut un futur standard. L’Open Container Project vient tout juste d’être lancé et réunit Amazon Web Services, Cisco, CoreOS, Docker, EMC, Google, Goldman Sachs, HP, Huawei, IBM, Intel, Joyent, Microsoft, Pivotal, Red Hat et VMware notamment. Et puisque Docker fait figure de référence, c’est sa technologie et son moteur d’exécution (runtime) qui seront utilisés comme base pour le nouveau format.
Le projet, placé sous la houlette de la Linux Foundation (qui l’héberge également), doit permettre à terme d’obtenir des spécifications communes auxquelles toutes les entreprises pourront se référer. Rien n’empêche donc chacune d’innover dans la direction qui lui plaira, mais leurs propres technologies respecteront un socle commun. Conséquence, les conteneurs créés avec une solution pourront être lus sur une autre. En tout cas, pour l’ensemble des fonctionnalités de base.
Ben Golub, PDG de Docker, a ainsi indiqué à ZDnet : « C'est une portion de code assez minime qui est prête pour réunir tout le monde. […] 90 % de ce que Docker propose se trouve en dehors. Mais tout le monde exprime le souhait de partir du même point et de ce qui est le plus répandu ». Ce qui signifie dans le même temps que cette partie du code ne sera plus entre les seules mains de Docker, mais son fondateur, Solomon Hykes, explique à TechCrunch que la démarche était logique : « Nous pensons qu’après deux ans, la technologie et le code du runtime ont mûri au point qu’ils tireraient un bénéfice d’une gouvernance indépendante et hors du projet Docker ».
Un premier brouillon du standard dans deux à trois semaines
La technologie sera à terme utilisable pour tous types de besoins et les conteneurs devront par exemple être capables de transiter d’un serveur classique à une solution cloud, complète ou hybride. Les conteneurs auront donc l’assurance de fonctionner partout, quel que soit le système hôte ou l’architecture employée. Et le développement pourrait être rapide, si l’ensemble des entreprises se met d’accord sur la base minimale à respecter par tous.
Sur le site officiel, on rappelle que le standard ne sera lié à aucun constructeur et que tout ce qui touche à la pile d’orchestration ou aux fonctionnalités du client n’a pas vocation à en faire partie. En outre, les développeurs qui s’occupaient déjà de la maintenance de cette partie du code vont recevoir de l’aide d’un nouveau lot d’ingénieurs, et un premier brouillon du standard devrait sortir d’ici deux à trois semaines.
On notera que c'est la deuxième fois en peu de temps que de grandes entreprises se rassemblent pour mettre en place une technologie amenée à devenir un standard. En fin de semaine dernière, Microsoft, Google, Apple et Mozilla avaient annoncé leur union d’un format binaire commun pour le web, WebAssembly.
Docker, Amazon, Microsoft et d’autres s’unissent autour d’un standard pour les conteneurs
-
Des conteneurs logiciels de plus en plus utilisés
-
Open Container Project : une base commune à toutes les entreprises
-
Un premier brouillon du standard dans deux à trois semaines
Commentaires (47)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/06/2015 à 21h09
Le 23/06/2015 à 21h12
Le 23/06/2015 à 21h13
Tout dépend de la taxe sur le volume " /> (et le poids et du produit inclus)
Le 23/06/2015 à 21h52
Le 23/06/2015 à 21h54
Le 23/06/2015 à 22h07
Je comprend rien aux comm…
Bonne nuit !
Le 24/06/2015 à 07h04
Le 24/06/2015 à 07h09
Le 24/06/2015 à 07h16
J’ai fais un benchmark sur les différents systemes de virtualisation/contenerisation dispo en gratuit car j’ai plusieurs clients qui me demandent de gérer leur hébergement, et bien la conclusion de tout ça c’est que Proxmox c’est de la balle, Docker j’y ai passé 1 semaine et j’ai clairement été très déçu, impossible de fixer un quota disque de manière simple, obligation d’utiliser un systeme de “volumes” pour étendre l’espace disque en créant au passage un autre conteneur, impossible de faire un “snapshot”, impossible d’assigner une adresse privée fixe sans se faire chier à écrire des règles pour les interfaces réseaux… Bref totalement à proscrire pour mon utilisation.
Alors certe Proxmox se base en partie sur openvz mais putain qu-est-ce-que c’est simple d’utilisation et rapide !
Le 24/06/2015 à 08h40
Le 24/06/2015 à 08h48
Ce serait plutôt un “Super Chroot”, en plus étanche …
Le 24/06/2015 à 09h03
Le 24/06/2015 à 09h32
Le 24/06/2015 à 12h10
Le 24/06/2015 à 15h12
Docker c’est de la virtualisation mais au lieu de virtualiser un serveur pour faire tourner plusieurs applications, on virtualise une application.
ITIL, un guide permettant de bien manager un SI, préconise le fait de découper les gros blocs en pleins de petits bloc.
Au lieu de faire un serveur qui fait tout, faire pleins de serveurs qui font que 1 chose.
Avec la virtualisation classique c’est pas rentable. On va demander a l’hyperviseur de virtualiser 15 fois le même OS, et autre..
Avec Docker c’est fini, cf cette image : Virtualisation vs Container
Le coté pratique c’est que Docker est plus flexible, On demand, et facilement transportable d’une machine hôte a une autre.
Par exemple pour donner une VM à un collègue, il faut l’exporter (car virtualiseur pas forcément le même), ça prend du temps de la taille etc.. Docker il suffit d’un fichier de conf, le reste se télécharge du net en mode light.
Autre cas, admettons que l’on ai une application et qu’on veut de la scalabilitée, on peut récupérer l’utilisation des ressources du container, et si elle est trop limite, en deux secondes un script peut lancer un autre docker (exactement le même), un autre script l’enregistre au près du load balancer, et du coup la charge utilisateur est augmentée de façon transparente pour l’utilisateur et l’administrateur.
Bref il y a encore 1.000.000 de possibilités grâces aux containers !!
Le 23/06/2015 à 15h57
Docker c’est une sorte de java de bas niveau? " />
Le 23/06/2015 à 16h10
Plus qu’à faire la même chose pour les Bytecodes et on pourra presque avoir du .Net, Java et javascripts compatibles, la bataille se fera sur le coeur, donc le plus important.
Le 23/06/2015 à 16h18
C’est un système qui te permet, en gros et si j’ai bien compris, d’installer un logiciel et toutes ses dépendances dans un environnement cloisonné. Ca te permet de déployer deux services qui utilisent une même lib mais avec deux versions différentes, sans te faire chier.
Le 23/06/2015 à 16h27
comme si ça s’installait dans un dossier et que tous les fichiers présents dans ce dossier sont prioritaires? (et que bien sûr, sauf action de l’utilisateur, il ne peut rien modifier au-dela de ce dossier)
Le 23/06/2015 à 16h29
OpenVZ certes existe depuis belle lurette mais ne propose rien de comparable à Docker que ce soit au niveau des outils et des APIs
Dans le même genre qu’OpenVZ mais en mieux on a les zones Solaris.. qu’on trouve également sous Illumos, le fork d’OpenSolaris..
Un des membres de l’OCP, Joyent, a ajouté à Illumos (dans leur version SmartOS) d’une part la virtualisation KVM d’autre par le support de Linux dans les zones, via translation des appels systèmes.
Joyent a depuis implémenté les API docker dans la solution cloud SmartdataCenter, le datacenter est alors présenté comme un hôte docker elastique, ils appellent ça “Triton” et ça vient de sortir de beta.
C’est AMHA la façon la plus viable de déployer du docker en production: une isolation supérieure aux containers Linux, des performances plus élevées que dans des VM.
Le tout est opensource et peut être mis en oeuvre dans leur cloud public comme en interne.
Le 23/06/2015 à 16h31
Le 23/06/2015 à 16h42
Docker, essayer c’est l’adopter.
Le 23/06/2015 à 16h43
Le 23/06/2015 à 16h45
Pour ceux qui ont du mal il suffit de considérer qu’un container docker est une application. à l’installation il est possible de la personnaliser, si par exemple vous voulez que la webUI de votre appli soit accessible via le port 8181 de l’hote, il suffit de lui filer le parametre qui va bien. Si vous voulez que votre application accède à tel repertoire de l’hôte, il suffit de lui filer le paramètre qui va bien.
C’est assez pratique " />
Le 23/06/2015 à 16h47
en gros ce n’est qu’une API qui s’appuie ,directement et uniquement, sur le noyaux linux. (donc mieux que java, surtout si Microsoft l’adapte pour Windows)
Le 23/06/2015 à 17h11
Pour comprendre Docker. Il faut comprendre le concept d’images.
Le 23/06/2015 à 18h10
Le 23/06/2015 à 18h32
Que vient faire Java dans cette histoire ? " />
Le 23/06/2015 à 19h26
Ben Golub, PDG de Docker, a ainsi indiqué : Un conteneur pour les gouverner tous et dans le cloud les lier, n’est ce pas mon précieux…
Et si on continue comme cela, on peut même rêver qu’un jour tous les constructeurs se mettent d’accord sur un standard commun, matériel et OS " />.
Le 23/06/2015 à 20h17
Le 23/06/2015 à 20h38
Il n’y a que moi qui tique sur la liste des participants ? Que vient fourré Goldmann Sachs là dedans ?
Le 24/06/2015 à 19h01
Je sait bien que ça fait 14 ans que Ballmer a déclaré “Linux is a cancer…” (https://en.wikiquote.org/wiki/Steve_Ballmer)… mais ça me fait drôle de voir M$ participer à un projet sous la houlette de la Linux Foundation.
O tempora o mores.
Le 25/06/2015 à 12h10
Le 25/06/2015 à 13h50
MS change depuis que son CEO a changé, Satya Nadella. Il a pour ambition de changer la culture de MS, ce qu’il a déjà commencé a faire (cf : Github dotnet), en s’ouvrant à l’Open Source.
Le 25/06/2015 à 17h07
Effectivement, Satya n’est pas Steve… je l’aimais bien moi Steve, il débitait tellement de bêtises et faisait tellement n’importe quoi que le navire aurait sombré bien vite !
Cela dit, je peine toujours à voir l’intérêt d’un Windows pour Docker. Certes ça tourne, mais au prix d’une machine virtuelle… ce que Docker veut précisément éviter.
… ou alors on va bientôt lire que Satya a décidé de rendre “officiel” CygWin et même de larguer kernel32.dll et NTFS pour utiliser le noyau Linux avec ext4 par défaut ! " />
Mais alors on en revient toujours à la question à laquelle Satya cherche visiblement toujours une réponse : où est le nouveau modèle économique ?
En effet, M$ reste le dernier acteur à forcer la vente de licence, et ce modèle a de plus en plus de mal à passer.
Article intéressant (en anglais) à ce sujet : http://www.zdnet.com/article/windows-10-the-only-major-os-still-trying-to-squeeze-a-buck-from-consumers/
Le 25/06/2015 à 18h30
Le 27/06/2015 à 18h27
C’est un peu l’impression que j’avais, mais ça veut dire quitter le monde des particuliers… pas sûr que ce soit un bon calcul à long terme !
Le 29/06/2015 à 07h39
Le 23/06/2015 à 15h20
Très bon choix d’illustration du mot “standard”
Le 23/06/2015 à 15h21
Très bonne techno… si elle est bien utilisée.
Le 23/06/2015 à 15h33
Ca, c’est LA techno qu’on attendait. J’espère que le standard ira loin et qu’on ne se retrouvera pas avec 300 forks !
Le 23/06/2015 à 15h35
Le titre et l’illustration m’on fait douter ; j’ai vraiment cru qu’ils voulaient imposer un standard pour le transport de marchandises XD
Le 23/06/2015 à 15h37
Microsoft aurait été bien inspiré de cette démarche pour la bureautique ! Mais quand on a un monopole , on est pas tenté de facilité la vie à ses “clients” .
Le 23/06/2015 à 15h37
Qu’est-ce que tu entends par “mal utilisé” ? (des exemples ?)
Le 23/06/2015 à 15h40
Autant l’annonce de la semaine derniere (sur le wasm) m’avait clairement surpris… Autant là je trouve ça purement logique, et dans l’intérêt de tous.
Le 23/06/2015 à 15h47
et dire qu’OpenVZ existe depuis belle lurette " />
Le 23/06/2015 à 15h51
Du coup, vu qu’il y a CoreOS dans le coup, ils vont réutiliser la spec App Container (qui vise la même chose), l’abandonner ?