Connexion
Abonnez-vous

Avec ses TPU Ironwood, Google passe à « l’ère de l’inférence »… avec de gros chiffres

Un agent IA avec Ironwood, c’est un Ironman ?

Avec ses TPU Ironwood, Google passe à « l’ère de l’inférence »… avec de gros chiffres

Google vient de présenter sa 7ᵉ génération de TPU pour les calculs liés à l’intelligence artificielle. L’accent est mis sur l’inférence et l’IA agentique, avec de gros chiffres qui ne veulent pas forcément dire grand-chose en l’état.

Le 09 avril à 18h23

L’année dernière, au mois de mai, Google profitait de sa conférence annuelle I/O pour présenter son Tensor Processing Unit (TPU) de 6ᵉ génération : Trillium (alias TPU v6). Il s’agit pour rappel d’un ASIC (circuits intégrés spécifiques aux applications) conçu « pour accélérer les charges de travail de machine learning ».

La génération précédente avait eu droit à deux versions : v5e avec le meilleur rapport performances/prix, selon Google, et v5p (lancée plus tard) pour les performances brutes. Maintenant que le décor est planté, passons à la 7ᵉ génération, alias Ironwood. Elle « offre des niveaux inédits d’efficacité et de performance », affirme le fabricant.

Vers la « génération proactive d'idées et d'interprétations »

Selon Google, Ironwood apporterait un changement significatif dans le développement de l’IA : « Il s’agit de passer de modèles d’IA réactifs qui fournissent des informations en temps réel à des utilisateurs, à des modèles qui proposent de la génération proactive d'idées et d'interprétations. C’est ce que nous appelons "l’ère de l’inférence" où les agents d’IA récupèrent et génèrent de manière proactive des données pour fournir de manière collaborative des informations et des réponses, pas seulement des données ».

Ironwood vise évidemment les grands modèles de langage (LLMs), mais aussi les Mixture of Experts (MoE), à la mode ces dernières semaines. Meta y est passé récemment avec Llama 4 par exemple, même chose pour DeepSeek.

La foire des chiffres, on vous explique (comme on peut)

Il reste 63% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (5)

votre avatar
Merci pour le décodage anti-enfumage
votre avatar
Quel nom bizarre. Du bois en fer ?
votre avatar
Oui le bois de fer existe, un nom donné car à cause de sa densité il ne flotte pas (minute maitre Capello :prof:)
votre avatar
J'imagine que comme ce sont des ASIC, ce genre de puce n'est capable que de réaliser des inférences. J'ai un gros doute sur sa capacité à entrainer des NN (au moins de manière efficace), ce n'est fait que pour les exécuter.

Un point important, c'est la consommation par opération, quel est-elle ? par ce que
...performances par watt multipliées par deux sur les v7 par rapport aux v6.
Ca ne donne pas vraiment les chiffres, surtout en comparaison à d'autres solutions.
votre avatar


retiré. Commentaire qui ne sert à rien.

Avec ses TPU Ironwood, Google passe à « l’ère de l’inférence »… avec de gros chiffres

  • Vers la « génération proactive d'idées et d'interprétations »

  • La foire des chiffres, on vous explique (comme on peut)

  • 4 614 TFLOPS par puce, avec 192 Go de HBM

  • Google veut se frotter à El Capitan… sans donner de détails

  • Blackwell sur les VM a4 et A4X, Vera Rubin en approche

Fermer