Willow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité
C’est quantique, tu peux pas test !
![Willow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité Willow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité](https://next.ink/wp-content/uploads/2024/12/Chip_Yellow1.jpg)
Après 53 qubits sur Sycamore, Google double la mise sur Willow avec 105 qubits. La société affirme avoir largement amélioré la correction d’erreurs, un point critique dans l’informatique quantique. La route est encore longue et le défi d’ingénierie « immense ». Google part en quête d’un calcul « utile, au-delà du classique », permettant de marquer le pas sur les calculateurs classiques.
Le 10 décembre 2024 à 12h12
10 min
Hardware
Hardware
En 2019, Google annonçait la suprématie quantique avec sa puce Sycamore de 53 qubits (des bits quantiques). Le géant du Net annonçait qu’elle avait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». IBM réfutait dans la foulée, affirmant qu’une « simulation idéale de la même tâche pouvait être effectuée sur un système classique en 2,5 jours et avec une fidélité beaucoup plus grande ».
- « Suprématie quantique » chez Google ? IBM réfute, Intel regarde ailleurs
- [FAQ] Notre antisèche sur l’informatique quantique
Cinq ans plus tard, la société de Mountain View revient sur le devant de la scène avec une nouvelle puce quantique présentant deux fois plus de qubits, nom de code Willow. Le géant du Net explique avoir largement amélioré sa correction d’erreur.
![](https://next.ink/wp-content/uploads/2024/12/image-99-1024x425.png)
Les deux principaux atouts de Willow
Tout d’abord, « Willow peut réduire les erreurs de manière exponentielle alors que nous utilisons de plus en plus de qubits », affirme Google. Rappelons qu’il n’y a pas que le nombre de qubits qui est important pour les supercalculateurs quantiques. Le nombre de portes quantiques qu’un système peut passer, la durée de vie des qubits et la correction des erreurs le sont tout autant pour arriver à un système viable et équilibré.
Ensuite, la puce a réalisé un benchmark de référence « en moins de cinq minutes, alors que cela prendrait à l’un des supercalculateurs les plus rapides d’aujourd’hui [Frontier, 2ᵉ du classement Top500 des supercalculateurs, ndlr] 10²⁵ années, un nombre qui dépasse largement l’âge de l’Univers ». C’est de la théorie pour le moment et les applications pratiques se font encore attendre.
Plus de qubits et moins d’erreurs
Google revient sur les erreurs liées au fonctionnement des qubits : « En règle générale, plus vous utilisez de qubits, plus des erreurs se produisent et le système devient classique ». Les qubits doivent pour rappel être maintenus dans un état quantique (intrication), et ce n’est pas simple. En cas d’effondrement (on parle aussi de décohérence), il n’y a plus de qubits et donc plus de « magie » quantique sur les calculs.
Dans une publication scientifique dans Nature (également sur ArXiv), Google donne des explications : « Plus nous utilisons de qubits dans Willow, plus nous réduisons les erreurs et plus le système devient quantique ». Pour Hartmut Neven (fondateur et dirigeant de Google Quantum AI, auteur du billet de blog), « les erreurs sont l’un des plus grands défis de l’informatique quantique ».
En théorie, c’est logique : plus il y a de qubits physiques pour former un seul qubit logique, plus les chances d’avoir des erreurs s’amenuisent. C’est vrai tant que le taux d’erreur des qubits physiques n’est pas trop élevé. Dans le cas contraire, multiplier des qubits physiques ne ferait qu’aggraver les performances de l’ensemble.
Qubits logiques vs qubits physiques
Minute, c’est quoi ces histoires de qubits logiques et physiques ? Pour rappel, les fabricants assemblent depuis longtemps des qubits physiques pour former un seul qubit logique, plus stable, utilisé pour les calculs.
![](https://next.ink/wp-content/uploads/2024/12/image-92.png)
Un seul qubit logique peut combiner des dizaines, centaines et même milliers de qubits physiques. C’est pour cela qu’il faut se méfier des effets d’annonce des fabricants à grands coups de « qubits ». Pour simplifier, les qubits logiques sont ceux réellement disponibles pour les calculs, quand les constructeurs mettent souvent en avant les qubits physiques.
Sur la durée de vie des qubits, Google annonce aussi des avancées : « les réseaux de qubits ont une durée de vie plus longue que les qubits physiques individuels, une preuve incontestable que la correction d’erreurs améliore le système dans son ensemble ». Selon Google, la durée de vie d’un qubit logique « est plus de deux fois supérieure à celle de son meilleur qubit physique ».
Google détaille son propos dans son billet de blog :
« Nous avons testé des réseaux de plus en plus grands de qubits physiques, passant d’une grille de qubits en 3 × 3 à une grille de 5 × 5, puis à une grille de 7 × 7. À chaque fois, grâce à nos dernières avancées en matière de correction d’erreurs quantiques, nous avons pu réduire le taux d’erreur de moitié. En d’autres termes, nous avons obtenu une réduction exponentielle du taux d’erreur ».
On plonge dans l’agencement des 105 qubits de Willow
Willow intègre 105 qubits, répartis ainsi selon le graphique ci-dessous. Chaque qubit est en contact avec 3,47 voisins en moyenne, c’est-à-dire avec d’autres qubits avec qui il peut échanger des informations. La plupart des qubits ont quatre liaisons, certains (sur les bords) en ont moins.
![](https://next.ink/wp-content/uploads/2024/12/image-87-1024x629.png)
Les caractéristiques techniques de Willow
Dans un tableau (plus bas), Google donne des indicateurs sur les caractéristiques techniques et les performances de Willow, dans deux configurations.
Le taux d’erreur sur une porte à un qubit est de 0,035 % environ, alors qu’il passe entre 0,14 et 0,33 % avec des portes à deux qubits. Les erreurs sur les mesures sont entre 0,67 et 0,77 % de moyenne. Par rapport à Sycamore, Google revendique des taux d'erreur « environ vingt fois meilleurs ».
Google donne la durée moyenne pendant laquelle les qubits conservent les informations : entre 68 et 98 μs (microseconde, ou 10⁻⁶ secondes), contre 20 μs sur la puce Sycamore. Enfin, le « measurement rate » exprime le nombre d’opérations qu’il est possible de réaliser par seconde.
![](https://next.ink/wp-content/uploads/2024/12/image-90-1024x475.png)
Google arrive premier sur un benchmark de… Google
Pour mesurer les performances de sa puce, Google utilise son benchmark maison Random Circuit Sampling (RCS). Après tout, on n’est jamais mieux servi que par soi-même. Selon l’éditeur, ce benchmark « vérifie si un ordinateur quantique réalise une tâche qui ne pourrait pas être faite sur un ordinateur classique ».
Si Google en parle, c’est que la réponse est oui : Willow « a effectué un calcul en moins de cinq minutes, alors qu’il prendrait à l’un des supercalculateurs les plus rapides d’aujourd’hui 10²⁵ ou 10 000 000 000 000 000 000 000 000 années », soit plus que l’âge de l’Univers (13 800 000 000 années).
Et là, on perd un peu Google dans ses conjectures : « Cela donne du crédit à l’idée que le calcul quantique se produit dans de nombreux univers parallèles, conformément à l’idée que nous vivons dans un multivers, une prédiction faite pour la première fois par David Deutsch ».
Google en quête de suprématie sur un calcul « utile »
Pour revenir aux performances, Google reconnait que Willow nous rapproche – nous n’y sommes donc pas encore – « de l’exécution d’algorithmes utiles et pertinents commercialement qui ne peuvent pas être reproduits sur des ordinateurs conventionnels ».
Google ajoute que le prochain défi à relever dans l’informatique quantique est d’arriver à « un premier calcul "utile, au-delà du classique" sur les puces quantiques d’aujourd’hui, qui soit pertinent pour une application dans le monde réel ». La société reconnait ne pas avoir encore atteint cet objectif, que certains identifient comme l’avantage quantique.
D’un côté, Willow est loin devant sur le benchmark RCS, mais cela ne débouche pas sur des « applications connues dans le monde réel ». De l’autre, Google arrive à réaliser « des simulations scientifiquement intéressantes des systèmes quantiques qui ont conduit à de nouvelles découvertes scientifiques, mais elles sont encore à portée des ordinateurs classiques ». Bref, pas d’avantage et donc encore moins de suprématie quantique.
La génération de puces Willow pourrait aider à atteindre l’objectif d’« entrer dans le royaume des algorithmes qui sont hors de portée des ordinateurs classiques et qui sont utiles pour des problèmes réels et commercialement pertinents ».
![](https://next.ink/wp-content/uploads/2024/12/image-91.png)
Quantum AI : la quantique au service de l’intelligence artificielle
Dans la conclusion de son billet de blog, Google part dans une nouvelle envolée lyrique en mélangeant deux buzzwords du moment : quantique et intelligence artificielle. On s’en doutait vue le nom de la division en charge des puces quantiques : Quantum AI.
« Le calcul quantique sera donc indispensable pour collecter des données d’entraînement inaccessibles aux machines classiques, entraîner et optimiser certaines architectures d’apprentissage et modéliser des systèmes où les effets quantiques sont importants.
Il s’agit notamment de nous aider à découvrir de nouveaux médicaments, de concevoir des batteries plus efficaces pour les voitures électriques et d’accélérer les progrès en matière de fusion et d’alternatives énergétiques. Beaucoup de ces futures applications révolutionnaires ne seront pas réalisables sur les ordinateurs classiques ; elles attendent l’informatique quantique ».
« Le défi d’ingénierie qui nous attend est immense »
Toujours selon Google, la correction d’erreur permet en théorie de se diriger vers de l’informatique quantique « presque parfaite ». Mais, en pratique, ce n’est pas si facile, reconnait le géant du Net : « nous avons encore un long chemin à parcourir avant d’atteindre notre objectif de construire un ordinateur quantique à grande échelle et tolérant aux pannes ».
Selon Google, avec les taux actuels, il faudrait surement plus d’un millier de qubits physiques pour obtenir un qubit logique (en utilisant le code de surface, la correction d’erreurs employée par Google), et atteindre des taux d’erreur de l’ordre de 10- 6. Les résultats sont encourageants sur 105 qubits, mais Google se demande s’il sera possible d’obtenir « les mêmes performances sur un processeur de 1 000 qubits ». « Qu’en est-il d’un processeur d’un million de qubits ? Le défi d’ingénierie qui nous attend est immense ».
![](https://next.ink/wp-content/uploads/2024/12/image-100-1024x426.png)
Quelle est la suite du programme ?
La progression est exponentielle, laissant entrevoir, selon Google, des résultats dans un avenir plus ou moins proche : « Nous avons constaté une multiplication par 20 des performances depuis l’année dernière – combien de bonds supplémentaires de x20 avant d’exécuter des algorithmes quantiques à grande échelle ? Peut-être moins que vous ne le pensez ».
Avec Sycamore, Google revendiquait environ 50 cycles d’opérations sur les qubits logiques. Avec Willow, on passe à l’ordre du millier. Google prévoit ensuite une montrée en puissance avec 10⁶ et 10¹² opérations.
![](https://next.ink/wp-content/uploads/2024/12/image-93.png)
Willow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité
-
Les deux principaux atouts de Willow
-
Plus de qubits et moins d’erreurs
-
Qubits logiques vs qubits physiques
-
On plonge dans l’agencement des 105 qubits de Willow
-
Les caractéristiques techniques de Willow
-
Google arrive premier sur un benchmark de… Google
-
Google en quête de suprématie sur un calcul « utile »
-
Quantum AI : la quantique au service de l’intelligence artificielle
-
« Le défi d’ingénierie qui nous attend est immense »
-
Quelle est la suite du programme ?
Commentaires (32)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 10/12/2024 à 12h46
Le 10/12/2024 à 13h30
Le 10/12/2024 à 14h49
https://www.cantiquest.org/HeC.htm
Le 10/12/2024 à 14h28
De l'IA ?
Le 10/12/2024 à 14h40
Si les machines qubit en sont encore à des résultats utiles à l'à peu près, effectivement, autant les cantonner à des « calculs » d'IA à qui on ne demande pas de réponses précises, 100 %justes et vérifiées.
Une fois le soufflet de la hÿpe sur l'IA sera retombé, les brasseurs de vent ont un sujet tout prêt avec les machines quantiques pour nous faire de la palette de bullshit en mode industriel.
Le 10/12/2024 à 12h59
Pour l'instant on est plus dans le Bingo que dans l'application du coup.
Le 10/12/2024 à 14h41
Le 10/12/2024 à 14h47
Le 10/12/2024 à 13h13
obama-medal-meme.png
Cela ne me semble pas déconnant. De ma compréhension de l'informatique quantique, l'idée est de pouvoir évaluer toutes les possibilités en parallèle et d'en extraire le résultat le plus probable. Dans le mesure où un LLM comme GPT fonctionne par détermination statistique pour générer sa suite de tokens et qu'il fait ça pour chacun d'entre eux, cette méthode de calcul optimiserait et accélérerait sûrement la production.
De même pour l'entraînement comme cité dans l'article, le Deep Learning reste un usage extrêmement gourmand en ressources.
D'ailleurs, en ce qui concerne les processeurs quantiques, a-t-on des infos facilement compréhensibles pour comparer leur consommation énergétique face aux fermes de rendu GPU pour l'IA, par exemple ? J'imagine que c'est encore trop récent et immature pour avoir une vue d'échelle par contre.
Le 10/12/2024 à 15h08
(Il avait quand même scoré 1590/1600 à son examen du SAT, soit ~ dans les 500iers sur 3 millions de candidats)
Le 10/12/2024 à 15h45
Modifié le 10/12/2024 à 23h29
Terme qu'il avait rajouté pour que "ça tombe juste à la fin", dit autrement "enfin pour que ce que l'on calcule est à peu près ce que l'on mesure - à la précision des instruments près ) mais ça l'avait très contrarié de l'ajouter...disant à la fin de sa vie que c'était la plus grosse erreur qu'il ait faite...
Tu parles de ce cas ?
D'ailleurs, dans la série "Les plus grosses erreurs de la physique", elle pose toujours des (GROS) problèmes cette constante cosmologique:
"La contribution de l'énergie du vide quantique à la constante cosmologique effective est estimée entre 50 et 120 ordres de grandeur supérieurs à ce qui a été réellement observé, un état de fait décrit par les physiciens comme « la plus grande différence entre la théorie et l'expérience dans toute la science » et « la pire prédiction théorique de l'histoire de la physique.» aussi surnommée "la catastrophe du vide."
Problème de la constante cosmologique @ Wiki
Des milliers de physiciens & de mathématiciens depuis plus de 50 ans se sont penchés sur ce problème.
En 2024, il n'existe toujours aucune explication pour comprendre un tel écart de plusieurs milliards de milliards de milliards [...] [...] [...] de milliards de fois.
C'est con mais personne n'a encore trouvé ni d'erreur dans les mesures ni d'erreur dans les calculs...
Le 10/12/2024 à 19h27
Modifié le 10/12/2024 à 22h46
C'est apparemment l'ajout de cette constance cosmologique pour équilibrer ses équation qui lui a posé ce (gros) problème de conscience par rapport à ses croyances religieuses car cela rentrait en contradiction avec et ça l'a tourmenté toute sa vie...
Si j'ai bien compris, cette constance impliquait un univers en expansion (et donc un début de l'expansion à t=0, appelé Le BigBang).
Cette expansion a ensuite été prouvée et vérifiée par l'astronome Hubble dans les années 30 soit environ une vingtaine d'années après qu'il avait dû modifier ses équations.
Cet ajout de A qui n'avait aucune signification physique mais purement mathématique ne convenait apparemment pas à son idée que Dieu avait dû créer l'Univers tel quel et donc qu'il se doit d'être figé & statique.
Sujet assez "velu" car encore aucun scientifique n'a trouvé une explication à cet écart totalement monstrueux entre calculs & mesures.
Le 11/12/2024 à 09h28
Après effectivement viennent les croyances, s'il y a un début alors il y avait quoi avant ? Est-ce que cette question a seulement un sens ? Qui/Quoi a pu déclenché ce début ? C'est sans fin.
Modifié le 12/12/2024 à 22h17
Aucun scientifique n'a une théorie à formuler, car avant le Big Bang, la variable "t" représentant le temps est indéfini d'après les modèles et équations de l'astrophysique (un peu comme en informatique, pas égale à zéro la variable mais indéfinie).
Apparemment le temps ne peut s'écouler que dans un sens et un sens seulement. Donc pour la machine à remonter dans le temps, ça semble bien mort.
Par contre, pour aller dans le futur, oui c'est tout à fait possible... en théorie, et il y a même 2+1 manières d'y arriver:
1 - une que tu connais très certainement
2 - l'autre qui a été illustrée au travers d'un excellent film sorti en 2015.
Je te laisse trouver.
(vu qu'on ne court pas vers le futur avec 1 & 2, mais au contraire, qu'on laisse passer tous les autres devant avant nous, une 3ieme méthode pourrait être aussi de se faire "congeler" & "décongeler" ensuite.)
Mais bon en pratique, ça se complique un peu quand même. pour tous les 3 cas...
Le 13/12/2024 à 09h22
4e méthode : se faire scanner le cerveau pour être réintégré dans le futur dans un autre corps. Mais encore là on se prend le mur des croyances en pleine tronche !
Modifié le 15/12/2024 à 13h39
Et donc les méthodes 1 & 2 consistent toutes les 2 à ralentir son temps "à soi", soit par:
- la vitesse (plus on va vite, plus le temps ralenti... les satellites GPS ont une petite dérive annuelle qui est prise en compte et corrigée d'ailleurs)
- la gravité qui va elle aussi ralentir le temps... mais il en faut beaucoup de gravité, comme par exemple en passant près d'un trou noir: Interstellar (2014).
Modifié le 10/12/2024 à 23h31
Sketch que je trouve excellent car notamment les 5eres minutes sont tout à fait sérieuses et totalement conformes à la description de "Qu'est-ce-que la Mécanique Quantique?" et "Pourquoi la Mécanique Quantique ?"
C'est après que ça part complètement en sucette...
Alexandre Astier - La Physique Quantique
Le 11/12/2024 à 09h23
Toujours très marrant A. Astier, j'avais beaucoup aimé son spectacle L'Exoconférence !
Le 11/12/2024 à 12h51
Pas mal du tout
Le 10/12/2024 à 17h39
Pour le coup, je suis ultra intelligent
Le 10/12/2024 à 19h18
Le 11/12/2024 à 08h12
Le 10/12/2024 à 16h25
Le 10/12/2024 à 16h36
Le 10/12/2024 à 18h00
Puis c’est un doublement quantique, donc 53 = 105 et puis c’est tout :o
Le 10/12/2024 à 21h04
Le 10/12/2024 à 20h14
Le 11/12/2024 à 06h25
Le 11/12/2024 à 18h47
Le 12/12/2024 à 16h19