Willow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité
C’est quantique, tu peux pas test !
Après 53 qubits sur Sycamore, Google double la mise sur Willow avec 105 qubits. La société affirme avoir largement amélioré la correction d’erreurs, un point critique dans l’informatique quantique. La route est encore longue et le défi d’ingénierie « immense ». Google part en quête d’un calcul « utile, au-delà du classique », permettant de marquer le pas sur les calculateurs classiques.
Le 10 décembre à 12h12
10 min
Hardware
Hardware
En 2019, Google annonçait la suprématie quantique avec sa puce Sycamore de 53 qubits (des bits quantiques). Le géant du Net annonçait qu’elle avait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». IBM réfutait dans la foulée, affirmant qu’une « simulation idéale de la même tâche pouvait être effectuée sur un système classique en 2,5 jours et avec une fidélité beaucoup plus grande ».
- « Suprématie quantique » chez Google ? IBM réfute, Intel regarde ailleurs
- [FAQ] Notre antisèche sur l’informatique quantique
Cinq ans plus tard, la société de Mountain View revient sur le devant de la scène avec une nouvelle puce quantique présentant deux fois plus de qubits, nom de code Willow. Le géant du Net explique avoir largement amélioré sa correction d’erreur.
Les deux principaux atouts de Willow
Tout d’abord, « Willow peut réduire les erreurs de manière exponentielle alors que nous utilisons de plus en plus de qubits », affirme Google. Rappelons qu’il n’y a pas que le nombre de qubits qui est important pour les supercalculateurs quantiques. Le nombre de portes quantiques qu’un système peut passer, la durée de vie des qubits et la correction des erreurs le sont tout autant pour arriver à un système viable et équilibré.
Ensuite, la puce a réalisé un benchmark de référence « en moins de cinq minutes, alors que cela prendrait à l’un des supercalculateurs les plus rapides d’aujourd’hui [Frontier, 2ᵉ du classement Top500 des supercalculateurs, ndlr] 10²⁵ années, un nombre qui dépasse largement l’âge de l’Univers ». C’est de la théorie pour le moment et les applications pratiques se font encore attendre.
Il reste 79% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousWillow : la nouvelle puce quantique de Google (105 qubits)… en quête d’utilité
-
Les deux principaux atouts de Willow
-
Plus de qubits et moins d’erreurs
-
Qubits logiques vs qubits physiques
-
On plonge dans l’agencement des 105 qubits de Willow
-
Les caractéristiques techniques de Willow
-
Google arrive premier sur un benchmark de… Google
-
Google en quête de suprématie sur un calcul « utile »
-
Quantum AI : la quantique au service de l’intelligence artificielle
-
« Le défi d’ingénierie qui nous attend est immense »
-
Quelle est la suite du programme ?
Commentaires (27)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousHier à 12h46
Hier à 13h30
Hier à 14h49
https://www.cantiquest.org/HeC.htm
Hier à 14h28
De l'IA ?
Hier à 14h40
Si les machines qubit en sont encore à des résultats utiles à l'à peu près, effectivement, autant les cantonner à des « calculs » d'IA à qui on ne demande pas de réponses précises, 100 %justes et vérifiées.
Une fois le soufflet de la hÿpe sur l'IA sera retombé, les brasseurs de vent ont un sujet tout prêt avec les machines quantiques pour nous faire de la palette de bullshit en mode industriel.
Hier à 12h59
Pour l'instant on est plus dans le Bingo que dans l'application du coup.
Hier à 14h41
Hier à 14h47
Hier à 13h13
obama-medal-meme.png
Cela ne me semble pas déconnant. De ma compréhension de l'informatique quantique, l'idée est de pouvoir évaluer toutes les possibilités en parallèle et d'en extraire le résultat le plus probable. Dans le mesure où un LLM comme GPT fonctionne par détermination statistique pour générer sa suite de tokens et qu'il fait ça pour chacun d'entre eux, cette méthode de calcul optimiserait et accélérerait sûrement la production.
De même pour l'entraînement comme cité dans l'article, le Deep Learning reste un usage extrêmement gourmand en ressources.
D'ailleurs, en ce qui concerne les processeurs quantiques, a-t-on des infos facilement compréhensibles pour comparer leur consommation énergétique face aux fermes de rendu GPU pour l'IA, par exemple ? J'imagine que c'est encore trop récent et immature pour avoir une vue d'échelle par contre.
Hier à 15h08
(Il avait quand même scoré 1590/1600 à son examen du SAT, soit ~ dans les 500iers sur 3 millions de candidats)
Hier à 15h45
Modifié le 10/12/2024 à 23h29
Terme qu'il avait rajouté pour que "ça tombe juste à la fin", dit autrement "enfin pour que ce que l'on calcule est à peu près ce que l'on mesure - à la précision des instruments près ) mais ça l'avait très contrarié de l'ajouter...disant à la fin de sa vie que c'était la plus grosse erreur qu'il ait faite...
Tu parles de ce cas ?
D'ailleurs, dans la série "Les plus grosses erreurs de la physique", elle pose toujours des (GROS) problèmes cette constante cosmologique:
"La contribution de l'énergie du vide quantique à la constante cosmologique effective est estimée entre 50 et 120 ordres de grandeur supérieurs à ce qui a été réellement observé, un état de fait décrit par les physiciens comme « la plus grande différence entre la théorie et l'expérience dans toute la science » et « la pire prédiction théorique de l'histoire de la physique.» aussi surnommée "la catastrophe du vide."
Problème de la constante cosmologique @ Wiki
Des milliers de physiciens & de mathématiciens depuis plus de 50 ans se sont penchés sur ce problème.
En 2024, il n'existe toujours aucune explication pour comprendre un tel écart de plusieurs milliards de milliards de milliards [...] [...] [...] de milliards de fois.
C'est con mais personne n'a encore trouvé ni d'erreur dans les mesures ni d'erreur dans les calculs...
Hier à 19h27
Modifié le 10/12/2024 à 22h46
C'est apparemment l'ajout de cette constance cosmologique pour équilibrer ses équation qui lui a posé ce (gros) problème de conscience par rapport à ses croyances religieuses car cela rentrait en contradiction avec et ça l'a tourmenté toute sa vie...
Si j'ai bien compris, cette constance impliquait un univers en expansion (et donc un début de l'expansion à t=0, appelé Le BigBang).
Cette expansion a ensuite été prouvée et vérifiée par l'astronome Hubble dans les années 30 soit environ une vingtaine d'années après qu'il avait dû modifier ses équations.
Cet ajout de A qui n'avait aucune signification physique mais purement mathématique ne convenait apparemment pas à son idée que Dieu avait dû créer l'Univers tel quel et donc qu'il se doit d'être figé & statique.
Sujet assez "velu" car encore aucun scientifique n'a trouvé une explication à cet écart totalement monstrueux entre calculs & mesures.
Aujourd'hui à 09h28
Après effectivement viennent les croyances, s'il y a un début alors il y avait quoi avant ? Est-ce que cette question a seulement un sens ? Qui/Quoi a pu déclenché ce début ? C'est sans fin.
Modifié le 10/12/2024 à 23h31
Sketch que je trouve excellent car notamment les 5eres minutes sont tout à fait sérieuses et totalement conformes à la description de "Qu'est-ce-que la Mécanique Quantique?" et "Pourquoi la Mécanique Quantique ?"
C'est après que ça part complètement en sucette...
Alexandre Astier - La Physique Quantique
Aujourd'hui à 09h23
Toujours très marrant A. Astier, j'avais beaucoup aimé son spectacle L'Exoconférence !
Aujourd'hui à 12h51
Pas mal du tout
Hier à 17h39
Pour le coup, je suis ultra intelligent
Hier à 19h18
Aujourd'hui à 08h12
Hier à 16h25
Hier à 16h36
Hier à 18h00
Puis c’est un doublement quantique, donc 53 = 105 et puis c’est tout :o
Hier à 21h04
Hier à 20h14
Aujourd'hui à 06h25