AWS Re:Invent 2022 : partenariat stratégique avec Atos et avalanche d’annonces

Tout, tout de suite

AWS Re:Invent 2022 : partenariat stratégique avec Atos et avalanche d’annonces

AWS Re:Invent 2022 : partenariat stratégique avec Atos et avalanche d’annonces

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

La conférence Re:Invent de cette année a de nouveau été le théâtre d’un grand nombre d’annonces pour les produits cloud d’Amazon Web Services (AWS). Le contexte a cependant changé, et il n’est plus question de l’euphorie des années précédentes. Voici ce qu’il fallait en retenir.

La conférence Re:Invent 2022 s’est tenue la semaine dernière. Cette grand-messe pour les entreprises et les développeurs a tenu ses promesses sur la quantité de nouveautés annoncées, avec des tirs tous azimuts. Comme les années précédentes, il s’agissait d’un mélange de nouveaux produits et de renforcement de l’existant.

Atos et AWS s’associent sur le cloud

Mais avant de plonger dans le détail, abordons le partenariat important annoncé avec Atos. L’ESN (Entreprise de services du numérique) française devient partenaire stratégique, les deux sociétés ayant présenté en commun un « accord mondial de transformation stratégique ». Les clients d’Atos pourront ainsi « accélérer la migration de flux d’activité vers le cloud ». L’accord, pluriannuel, prévoit des « prestations de conseil métiers et technologiques, d'ingénierie digitale (sic) et de services managés aux clients d'Atos ainsi que le développement de nouvelles solutions informatiques et de transformation des datacenters ».

Ce partenariat fait suite à la rumeur apparue en octobre, qui voulait que les deux entreprises s’associent à la manière de CapGemini, Orange et Microsoft, ou Google et Thalès. Cependant, et contrairement à Bleu et S3NS, il ne s’agit pas d’une coentreprise. C’est un partenariat « simple » au sein duquel chacune des parties devient l’acteur privilégié : l’un pour l’infrastructure cloud, l’autre pour son expertise sur les migrations et sa clientèle.

Et si Amazon se lance comme les autres dans ce type d’aventure, c’est qu’elle a, elle aussi, ce genre de plan pour l’Europe que Google et Microsoft. La veille de la conférence, AWS a ainsi annoncé son Digital Sovereingty Pledge, qui promet un « contrôle sans compromis ». De quoi s’agit-il ? Plus ou moins des mêmes éléments – de langage surtout – que chez ses deux concurrents : contrôle de l’emplacement des données, des contrôles vérifiables sur les accès ainsi qu’un chiffrement « total et partout ». Les clients peuvent, s’ils le souhaitent, utiliser leurs propres clés, on est alors dans une situation de « zero knowledge » du côté d’Atos et d’AWS.

Mais, comme chez ses concurrents encore une fois, il ne s’agit pas vraiment de nouveautés. Cette annonce est un exercice de communication, qu’Amazon ne cache d’ailleurs pas. L’entreprise insiste lourdement pour rappeler que ces éléments sont en place depuis longtemps. Comme avec les annonces de S3NS et Bleu, et même s’il ne s’agit pas ici de coentreprise, on fera face à des solutions proposées par un Français, un stockage des données chez un Américain en France, avec les interrogations que cela pose. On sait également, au vu de ce qui existe chez S3NS notamment, qu’à moins de stocker ces données chez un acteur européen, que le contrôle de la souveraineté impose de lourds contrôles.

Notez que même s’il n’y a pas de coentreprise pour l’instant, rien n’empêche que les deux partenaires – qui n’en sont pas à leur premier accord – franchissent cette étape à l’avenir. D’autant que cette annonce ne correspond pas totalement à ce qui était annoncé dans la rumeur, les deux partenaires ne citant par exemple jamais « cloud de confiance » ou « souverain » dans leurs communiqués.

De nouvelles machines virtuelles plus puissantes

Dans le programme Re:Invent 2022, commençons par les premières annonces qui concernaient les machines virtuelles, et plus globalement les instances mises à disposition de la clientèle, souvent pour du calcul.

Amazon a commencé par présenter un nouveau processeur maison. Baptisé Graviton3E, il se veut spécialement conçu pour les calculs vectoriels et HPC en virgule flottante. Conséquence, de nouvelles instances HPC7G ont été annoncées pour en tirer parti. Amazon affirme qu’elles sont deux fois plus performances que les précédentes en calcul intensif. Elles peuvent embarquer jusqu’à 64 vCPU et 128 Go de mémoire, le tout sur les nouvelles cartes DPU Nitro 5 (comprenant l’hyperviseur d’AWS).

De la même manière, les instances C7gn prennent la relève des C6gn en promettant deux fois plus de bande passante (200 Gb/s) et des performances « packet-processing-per-second » 50 % plus élevées. Basées également sur des cartes Nitro 5, elles utilisent des processeurs Graviton 3. Selon AWS, elles sont taillées pour l’hébergement de services et de charges ayant de grands besoins en bande passante.

Amazon propose également de nouvelles instances Inf2, dédiées – comme le nom le laisse supposer – à l’inférence, donc au deep learning. Là aussi AWS a une nouvelle puce, baptisée Inferentia2. L’entreprise affirme que ces nouvelles instances offrent un débit quatre fois supérieur aux anciennes, ainsi qu’une latence réduite d’un facteur 10. Les modèles exécutés peuvent comporter jusqu’à 175 milliards de paramètres.

Notez que même si Amazon met largement en avant ses nouvelles puces, elle propose aussi une instance basée sur des processeurs x86, en l’occurrence des Xeon Scalable de 4e génération (Sapphire Rapids). Nommée R7iz, elle peut embarquer jusqu’à 128 vCPU et 1 To de mémoire, avec 50 Gb/s de bande passante réseau et 40 Gb/s vers le stockage EBS. À ses côtés, on trouve plusieurs nouvelles plus classiques, basées sur des Xeon de la génération Ice Lake : M6in/M6idn pour des usages généraux, C6in optimisées pour le calcul et R6in/R6idn optimisées pour la mémoire.

Bases de données : de nombreuses nouveautés

Les données sont un thème central de toutes les conférences Re:Invent, hébergeur cloud oblige. La première grosse annonce a ainsi été la disponibilité générale des RDS Blue/Green Deployments pour Aurora, compatible avec MySQL, RDS pour MySQL et RDS pour MariaDB. RDS, pour Relational Database Service, se dote également de deux services pour RDS for MySQL, nommés Optimized Writes et Optimized Reads. Le premier améliore les performances en écriture pour les instances R8i et R5b, l’autre celles en lecture et en requêtes pour les instances M5d, R5d, M6gd et R6gd.

Du côté de Redshift (data warehouse, entrepôt de données), plusieurs annonces également. On trouve par exemple l’ingestion en flux (streaming ingestion) pour Kinesis Data Streams et les flux managés pour Apache Kafka. La fonctionnalité permet, selon AWS, l’ingestion d’un flux de plusieurs centaines de mégaoctets par seconde dans une vue matérialisée, que l’on peut interroger en quelques secondes. Signalons aussi la possibilité de développer et exécuter des applications Spark sur Redshift et Redshift Serverless, ainsi que l’intégration zero-ETL d’Aurora, permettant des analyses et du machine learning « quasi-temps réel » dans Redshift.

On continue avec Athena for Apache Spark, dédié aux charges Spark. Le service utilise Jupyter Notebook comme interface pour réaliser les traitements de données et pour interagir de manière programmatique avec les applications Spark, via les API Athena. Omics, service managé pour le stockage, l’analyse et l’élaboration de données de type omics (génomique, transcriptomique…), est disponible pour l’ensemble des clients. Il est prévu pour l’amélioration des soins aux patients et la recherche scientifique.

Finissons cette partie avec deux autres produits. Le premier, DocumentDB Elastic Clusters, est un service permettant de gérer l’infrastructure sous-jacente et l’élasticité des charges MongoDB. L’autre, OpenSearch Serverless, gère le provisionnage et la mise à l’échelle (scaling) des ressources, pour fournir une ingestion de données et des réponses aux requêtes via les API compatibles ElasticSearch. Sa tarification semble cependant faire débat.

Données et IA : la grande offensive

On reste dans les données, mais avec une orientation vers l’intelligence artificielle et la manière de les exploiter au mieux. On touche ici au nerf de la guerre et l’une des principales batailles que se livre la concurrence, car les défis se concentrent sur les quantités toujours plus importantes de données à traiter et le besoin prégnant de temps réel.

AWS a ainsi lancé ses Clean Rooms, un service créant des environnements protégés autorisant plusieurs entreprises de collaborer sur des données, mais sans avoir à exposer leurs données brutes. Les Clean Rooms sont équipées de contrôles d’accès, notamment des mécanismes de filtrage et de masquage, des restrictions sur les sorties de requêtes, ainsi qu’une journalisation des requêtes. Chaque entreprise a le choix dans ses propres contrôles, qui peuvent être créés pour chaque partenaire. Les opérations sur les données chiffrées peuvent être menées sans avoir besoin de les déchiffrer.

Citons également DataZone, un service managé pour chercher, partager et découvrir les données dans un périmètre organisationnel défini par l’entreprise. Cette dernière peut créer des règles de découverte, l’ensemble des données reprises par DataZone étant gouvernées par des accès. Glue for Ray est une autre nouveauté, prévue cette fois pour les ingénieurs data, qui peuvent ainsi traiter de larges quantités de données en utilisant Python ou les bibliothèques Python.

Toujours dans le domaine de l’IA, mais dans un registre différent, Amazon a présenté de grosses améliorations pour son moteur d’interrogation en langage naturel, QuickSightQ. De type Self-BI (Business Intelligence, ou informatique décisionnelle), le moteur prend désormais en charge de nombreux nouveaux éléments de langage, notamment des questions pouvant commencer par « Pourquoi » ou faisant appel à des prévisions. QuickSight peut également créer et partager des rapports paginés, permet l’analyse « de plusieurs milliards de lignes », ou encore développer des ressources BI.

Pour finir avec les annonces principales en IA, signalons la création d’un partenariat avec la startup Stability AI. L’accord prévoit une mise à disposition plus simple et rapide des modèles et outils open source de la startup aux clients AWS. Si vous trouvez dans ce partenariat un air familier avec l’investissement de Microsoft dans OpenAI, c’est tout à fait normal. Pas question pour AWS de laisser la société de Redmond prend trop d’avance dans ce domaine.

Un mot également sur SageMaker, qui reçoit en préversion des capacités dédiées au géospatial pour la construction, l’entrainement et le déploiement de modèles. L’image qui en résulte peut être utilisée pour transformer et visualiser des données dans des notebooks, via des bibliothèques comme NumPy, GDAL, GeoPandas et Rasterio. Une nouvelle version des notebooks est également disponible avec support des tests shadow. Enfin, avec JumpStart, le partage d’éléments comme les modèles et notebooks est maintenant possible entre utilisateurs de SageMaker.

Du neuf pour les développeurs bien sûr

Ces grand-messes sont autant prévues pour les entreprises que pour les développeurs, souvent en première ligne quand il s’agit d’intégrer et gérer ces nouveaux produits. Certaines améliorations présentées les visaient spécifiquement.

On commence avec une offensive dans le low-code, dont nous vous parlions récemment. Chez AWS, la nouvelle arme se nomme Application Composer. Objectif, créer des applications serverless au travers d’une interface faisant la part belle aux glisser-déposer. Amazon veut en effet simplifier la programmation serverless dans AWS Lambda, toujours avec cette optique de masquer le code autant que possible.

L’entreprise assure que les développeurs peu familiers avec le serverless pourront se lancer beaucoup plus rapidement, permettant la création et le déploiement de fonctions Lambda. Comme nous le verrons bientôt dans un article dédié, le périmètre sera bien sûr limité, Composer étant surtout conçu pour les besoins simples en transformation et interrogation, ce qui ouvre déjà de nombreux scénarios. Comme presque toujours dans les solutions low-code, le code généré est accessible et peut être modifié par la suite.

On reste dans le serverless avec Amazon EventBridge Pipes qui veut simplifier (ici aussi) le développement d’applications événementielles, en permettant la création d’intégrations point à point entre générateurs et consommateurs d’évènements, au travers – vous l’aurez deviné – de « tuyaux ». Pas besoin de code ici non plus, Pipes devant interconnecter des sources de données ou des évènements avec d’autres produits d’AWS.

Toujours dans le serverless, Lamba SnapStart ambitionne ce que son nom laisse supposer : un démarrage beaucoup plus rapide des applications serverless après un premier évènement. SnapStart crée ainsi une microVM de la publication de la fonction Lambda pour en créer une image. Avec ce fonctionnement, AWS promet un démarrage dix fois plus rapide.

Enfin, CodeCatalyst est l’une des plus grosses annonces dédiées aux développeurs. Plus question de low-code ici, CodeCatalyst se présentant comme un environnement de développement collaboratif à la demande. Les équipes DevOps pourront s’y rejoindre, afin de développer, partager, planifier et déployer leurs applications.

L’environnement propose une approche basée sur des « plans » pour afficher un environnement commun pour tous les éléments – code, documentation, dépendances. Des plans adaptés sont proposés pour TypeScript, Python, Java, .NET et JavaScript côté langages, ainsi que pour React, Angular et Vue côté frameworks. On peut lui raccorder des dépôts Git et l’interfacer avec d’autres outils de collaboration, comme Jira.

Sécurité et monitoring

Signalons enfin quelques nouveautés dans ces domaines, dont Security Lake. Pour les personnes familières du stockage dans le cloud, le nom du produit dit déjà tout. Il s’agit bien d’un lac de données de sécurité, dans l’objectif de collecter et centraliser toutes les informations liées. AWS a de grandes ambitions pour ce service, puisque Security Lake est présenté comme une fondation unifiée et normalisée que des produits tiers pourront utiliser pour analyse. Cisco, Crowdstrike et PaloAlto font ainsi partie des premiers partenaires.

AWS Supply Chain est une nouvelle application dédiée au monitoring des chaines d’approvisionnement. Comme on s’en doute, elle est prévue pour simplifier les processus décisionnels sur la chaine en améliorant la visibilité des informations. Tous les ingrédients sont réunis : vue unifiée de la chaine, informations générées par l’IA, actions recommandations et collaboration.

Quant à SimSpace Weaver, il s’agit d’un service élastique dédié au spatial computing (et non au space computing) et à la simulation des grands environnements. Les entreprises pourront l’utiliser pour les aider à simuler de grands mouvements, comme ceux de la foule lors d’un évènement, la circulation automobile, les répercussions de travaux sur un lieu spécifique, l’agencement optimal d’entrepôts, etc. Il permet en outre le partage avec des collaborateurs et l’édition des données par des partenaires.

Commentaires (8)


Les opérations sur les données chiffrées peuvent être menées sans avoir besoin de les déchiffrer.



Quelqu’un sait-il quelle est la technologie derrière ? J’imagine que c’est du chiffrement homomorphe mais je ne savais pas qu’il était au point pour une utilisation « industrielle ».


En étant positif je dirait : chouette une entreprise FR est reconnu pour son travail.
En étant négatif (voir complotiste) encore davantage de mainmise des USA sur les données des entreprises Européennes….



RuMaRoCO a dit:


En étant positif je dirait : chouette une entreprise FR est reconnu pour son travail.




ATOS ? :keskidit:
Pour moi ce qui intéresses davantage AWS c’est la masse de contrats publics que cette boite traîne avec elle…. les données associés, et le carnet d’adresse des dirigeants.
Le reste c’est une avalanche de marketing pour faire passer la pilule aux financiers publics & privés.
(L’article est pratiquement un bullshit-bingo tellement il est plein de mots clés)


Atos + AWS, Bleu, S3NS, c’est toujours la même question : comment des entreprises européennes peuvent-elles échapper au Cloud Act alors que l’hébergeur de leurs données y est soumis ? et même si ces données sont hébergées en Europe !


car les données sont gérées par une co-entreprise de droit Européen. C’est cette entreprise qui détient les serveurs et donc les données.



Je ne dis pas que ça permet de passer à travers le cloud act (et de manière générale de gérer les problèmes d’espionnage), mais c’est ainsi que c’est fait.


Du moment qu’il y une entrée même minim le cloud act étasusiens rentre en compte.



Laurent421 a dit:


car les données sont gérées par une co-entreprise de droit Européen. C’est cette entreprise qui détient les serveurs et donc les données.



Je ne dis pas que ça permet de passer à travers le cloud act (et de manière générale de gérer les problèmes d’espionnage), mais c’est ainsi que c’est fait.




Donc c’est avant tout une question de confiance. Ca marche jusqu’à la première ‘divergence de point de vue’ entre les USA et les EU. Et à ce moment , la confiance fait place au rapport de force.
Aujourdhui l’exemple qu’on a c’est Alsthom, Technip,…



Or, le problème c’est qu’une boite comme Atos travaille beaucoup avec des contrats publics et manipulent des données personnelles couvertes par le RGPD, sur lequelles nous en tant que citoyen on a aucun contrôle. Leurs choix sont donc pas neutre.
C’est toujours pareil, tant qu’il n’y a pas de conflit, ya pas de problèmes.


Fermer