Informatique quantique : Microsoft passe de 4 à 12 qubits logiques en cinq mois

Informatique quantique : Microsoft passe de 4 à 12 qubits logiques en cinq mois

Physique ou logique, c'est pas pareil

8

Informatique quantique : Microsoft passe de 4 à 12 qubits logiques en cinq mois

Microsoft améliore son calculateur quantique en triplant le nombre de qubits logiques – c’est-à-dire ceux réellement utilisables pour des calculs – pour arriver à 12. Le nombre de qubits physiques (les petites mains du calcul quantique) ne sont que doublés. Malgré tout, le taux d’erreur est en baisse et la durée de calcul augmentée.

Qubits logiques vs physiques

En avril, Microsoft et Quantinuum annonçaient des « qubits logiques les plus fiables jamais enregistrés ». Les deux partenaires utilisaient une technique bien connue dans le monde du quantique : associer des qubits physiques entre eux pour former des qubits logiques avec un taux d’erreur bien plus faible.

Un qubit n’est en effet pas l’élément le plus stable (loin de là même) et peut facilement provoquer des erreurs. Multiplier les qubits physiques pour ne former qu’un seul qubit logique permet de réduire le risque. Microsoft parlait d’ailleurs d’« un taux d’erreur 800 fois meilleur à celui des qubits physiques » dans son annonce d’avril.

Imaginons, pour simplifier, qu’un qubit logique soit associé à dix qubits physiques. Si un ou deux donnent une erreur lors du calcul, il en reste encore huit ou neuf qui tiennent le choc, le qubit logique n’a donc qu’à se ranger à l’avis du plus grand nombre pour continuer son aventure. Éric Brier (vice-président et CTO Cyber Defence Solutions chez Thales), rappelait l’année dernière que, « parfois, on est obligé d'utiliser 100 qubits physiques pour arriver à un seul qubit logique ». N’allez donc pas croire que cela se joue à la marge.

Les qubits logiques sont les qubits « utiles » pour les calculs. Il faut d’ailleurs bien faire attention à cette distinction quand un fabricant annonce une machine avec xx qubits : sont-ils logiques ou physiques ? Multiplier le nombre de qubits physiques pour un seul qubit logique permet ainsi de limiter les erreurs, mais assembler et faire fonctionner de concert de nombreux qubits physiques est compliqué à mettre en œuvre. Il faut donc trouver un juste milieu.

En 2024, Microsoft est passé de 4 à 12 qubits logiques

En avril dernier, Microsoft et Quantinuum annonçaient une machine avec 4 qubits logiques, utilisant un total de 30 qubits physiques. Aujourd’hui, le calculateur passe à 12 qubits logiques pour seulement 56 qubits physiques, soit 3 fois plus de qubits logiques avec seulement 1,9 fois plus de qubits physiques.

Une opération possible « en étendant les algorithmes de correction d’erreurs de Microsoft et en les optimisant pour la machine H2 de Quantinuum », explique la société de Redmond.

Les deux partenaires sont parvenus à utiliser les qubits pour un calcul quantique « plus profond » (on pourrait simplifier par le fait que les qubits passent plus de portes quantiques et donc effectuent davantage d’opérations). Microsoft annonce également une amélioration de 22 fois du taux d’erreur. Bref, des améliorations sur tous les plans.

Quid de la tenue dans le temps ?

Pour être complet, il manque néanmoins le nombre de portes quantiques que peut tenir la machine et/ou la durée d’utilisation des qubits pour des calculs. Ce sont également des paramètres importants pour cerner les capacités de la machine.

En informatique classique, les bits peuvent tenir dans le temps sans aucun problème, on peut donc réaliser de très longues opérations passant à travers énormément de portes logiques. En quantique, ce n’est pas aussi simple.

Microsoft n’est pas encore au bout du chemin, loin de là. La société est confrontée à une problématique de taille : « le bruit reste notre plus grand obstacle », d’autant plus quand le nombre de qubits physiques augmente. Elle rappelle « à quel point l’augmentation du nombre de qubits physiques ne suffit pas à elle seule à rendre possible une correction d’erreur quantique robuste […] Cela sera possible grâce aux progrès matériels et logiciels qui, ensemble, permettront d’exécuter des applications quantiques plus longues et plus fiables ».

Du pratique et commercialement pertinent

En guise de conclusion, Microsoft se montre pragmatique : « Un véritable changement de paradigme sur le calcul nécessite de se concentrer sur des applications pratiques et commercialement pertinentes ». Une manière de dire qu’empiler des qubits pour avoir « la plus grosse » sans pouvoir l’exploiter derrière ne sert pas à grand-chose. L’informatique quantique est une réalité, elle fonctionne. Microsoft veut maintenant appliquer la théorie dans le monde réel.

Commentaires (8)


Je suis quand même perplexe depuis un moment sur ces ordinateurs quantiques. Rendre un ordinateur quantique déterministe (sans bruit), ça me semble un peu contredire la physique quantique, où selon les interprétations de physiciens, soit le hasard existe et donc il ne se dompte pas, ce qui ressemble à un non sens en science (hasard=aucun modèle prédictif quand bien même on parle de densité de probabilité), soit il y a un super-déterminisme qui apparaît comme du chaos cantonné dans une densité de proba. Mais même dans le dernier cas, maîtriser ce super-déterminisme semble inatteignable. On verra bien.
Pour compléter ma réponse précédente, pour l'instant je vois plus l'ordinateur quantique comme un moyen de faire des calculs que ne sais pas faire la machine de Turing, plutôt qu'un moyen de faire des calculs exponentiellement plus rapides et précis.
Modifié le 17/09/2024 à 11h52

Historique des modifications :

Posté le 17/09/2024 à 11h52


Pour compléter ma réponse précédente, pour l'instant je vois plus l'ordinateur quantique comme un moyen de faire des calculs que je sais pas faire la machine de Turing, plutôt qu'un moyen de faire des calculs exponentiellement plus rapides et précis.

Modifié le 17/09/2024 à 23h37

Historique des modifications :

Posté le 17/09/2024 à 23h36


C'est un peu comme vouloir réussir à faire fonctionner un générateur de mouvement perpétuel après avoir débranché son alimentation ^^

C'est un peu comme vouloir réussir à faire fonctionner un générateur de mouvement perpétuel après avoir débranché son alimentation ^^
Oui, même si je n'en suis pas sûr, c'est à ça que ça me fait penser :chinois:
C'est dommage qu'ils ne disent pas la durée qu'ils ont réussi à obtenir. Il y a une petite dizaine d'années, on atteignait péniblement la milliseconde. En cherchant sur Internet, j'ai vu qu'on arrive maintenant à peine à 2ms. Je ne sais pas ce qu'on peut faire avec une durée aussi faible.
Il n'est pas du tout garanti qu'on puisse un jour obtenir suffisamment de stabilité pour une application utile. Je reposte mon commentaire sur un précédent article :
-------------------------------------

Le principal problème des ordinateurs quantiques, c'est qu'en augmentant le nombre de qubit on augmente de façon exponentielle les problèmes de décohérence.

En ajoutant un qubit, on augmente donc certes la puissance de calcul de façon exponentielle, mais la "stabilité" du système s'en trouve dégradée de façon exponentielle.

Alexandre et Michel Gondran exposent cela dans leurs travaux, et proposent d'ailleurs une interprétation très intéressante pour la physique quantique (une extension de la théorie de De Broglie-Bohm). Un petit aperçu de leur théorie de la double échelle est dispo en ligne pour ceux qui aiment les maths.

Et je rajoute cet article qui traite du problème de décohérence et des limites de l'approche actuelle.
Modifié le 18/09/2024 à 14h01

Historique des modifications :

Posté le 18/09/2024 à 14h00


Il n'est pas du tout garanti qu'on puisse un jour obtenir suffisamment de stabilité pour une application utile. Je reposte mon commentaire sur un précédent article :
-------------------------------------
Le principal problème des ordinateurs quantiques, c'est qu'en augmentant le nombre de qubit on augmente de façon exponentielle les problèmes de décohérence.

En ajoutant un qubit, on augmente donc certes la puissance de calcul de façon exponentielle, mais la "stabilité" du système s'en trouve dégradée de façon exponentielle.

Alexandre et Michel Gondran exposent cela dans leurs travaux, et proposent d'ailleurs une interprétation très intéressante pour la physique quantique (une extension de la théorie de De Broglie-Bohm). Un petit aperçu de leur théorie de la double échelle est dispo en ligne pour ceux qui aiment les maths.


Et je rajoute cet article qui traite du problème de décohérence et des limites de l'approche actuelle

Posté le 18/09/2024 à 14h01


Il n'est pas du tout garanti qu'on puisse un jour obtenir suffisamment de stabilité pour une application utile. Je reposte mon commentaire sur un précédent article :
-------------------------------------

Le principal problème des ordinateurs quantiques, c'est qu'en augmentant le nombre de qubit on augmente de façon exponentielle les problèmes de décohérence.

En ajoutant un qubit, on augmente donc certes la puissance de calcul de façon exponentielle, mais la "stabilité" du système s'en trouve dégradée de façon exponentielle.

Alexandre et Michel Gondran exposent cela dans leurs travaux, et proposent d'ailleurs une interprétation très intéressante pour la physique quantique (une extension de la théorie de De Broglie-Bohm). Un petit aperçu de leur théorie de la double échelle est dispo en ligne pour ceux qui aiment les maths.

Et je rajoute cet article qui traite du problème de décohérence et des limites de l'approche actuelle

Concernant la correction d'erreur, quelqu'un peut indiquer une source de vulgarisation pour expliquer comment ça marche avec des qbits ? Si je reprend le principe des codes de Hamming (très chouette vidéo de présentation ici), je ne comprends pas pourquoi 11 qbits et tous leurs états superposés respectifs ne peuvent pas être corrigés par 4 qbits de contrôle (par exemple). Pourquoi beaucoup plus de qbits de contrôle / correction ?
Fermer