Microsoft et Quantinuum déclarent avoir inauguré la prochaine ère de l'informatique quantique

Microsoft et Quantinuum ont annoncé aujourd'hui une avancée majeure dans la correction des erreurs quantiques. Grâce au matériel piège à ions de Quantinuum et au nouveau système de virtualisation qubit de Microsoft, l'équipe a pu réaliser plus de 14 000 expériences sans la moindre erreur. Ce nouveau système a également permis à l'équipe de vérifier les qubits logiques et de corriger les erreurs rencontrées sans détruire les qubits logiques.

Selon les deux sociétés, cela a permis de faire sortir l'informatique quantique de pointe de ce qui a généralement été surnommé l'ère des ordinateurs quantiques bruyants à échelle intermédiaire (NISQ). « Bruyant » parce que même les plus petits changements dans l'environnement peuvent conduire un système quantique à devenir essentiellement aléatoire (ou « décohéré »), et « à échelle intermédiaire » parce que la génération actuelle d'ordinateurs quantiques est encore limitée à un peu plus d'un millier de qubits au mieux. . Un qubit est l'unité fondamentale de calcul dans les systèmes quantiques, analogue à un bit dans un ordinateur classique, mais chaque qubit peut être dans plusieurs états en même temps et ne tombe pas dans une position spécifique jusqu'à ce qu'il soit mesuré, ce qui sous-tend le potentiel de quantique pour permettre un énorme bond en avant en termes de puissance de calcul.

Cependant, le nombre de qubits dont vous disposez n'a pas d'importance si vous avez à peine le temps d'exécuter un algorithme de base avant que le système ne devienne trop bruyant pour obtenir un résultat utile – ou n'importe quel résultat du tout.

En combinant plusieurs techniques différentes, l’équipe a pu réaliser des milliers d’expériences sans pratiquement aucune erreur. Cela impliquait pas mal de systèmes de préparation et de présélection qui semblaient déjà en bon état pour une course réussie, mais il s'agit néanmoins d'une amélioration considérable par rapport à ce qu'était l'industrie il y a peu de temps.

C'est un pas dans la bonne direction pour l'informatique quantique. Il reste encore beaucoup de problèmes à résoudre (et ces résultats doivent également être reproduits, bien sûr), mais en théorie, un ordinateur doté de 100 de ces qubits logiques pourrait déjà être utile pour résoudre certains problèmes, tandis qu'une machine dotée de 1 000 qubits logiques pourrait déjà être utile pour résoudre certains problèmes. pourrait, selon Microsoft, « débloquer un avantage commercial ».

Les écarts (erreurs) entre les qubits intriqués.  Les divergences sont révélées en comparant les images de chaque qubit d'une paire, et toutes les différences existantes apparaissent sous forme de points dans l'image centrale entre chaque paire.

Les écarts (erreurs) entre les qubits intriqués. Les divergences sont révélées en comparant les images de chaque qubit d'une paire, et toutes les différences existantes apparaissent sous forme de points dans l'image centrale entre chaque paire. Crédits images : Microsoft

L'équipe a utilisé le processeur à fer piégé H2 de Quantinuum et a pu combiner 30 qubits physiques en quatre qubits logiques hautement fiables. Le codage de plusieurs qubits physiques en un seul qubit logique permet de protéger le système contre les erreurs. Les qubits physiques sont intriqués afin qu'il devienne possible de détecter une erreur dans un qubit physique et de la corriger.

C'est cette correction d'erreur qui a longtemps contrarié l'industrie : plus le bruit est faible et plus la qualité des qubits physiques est élevée, mieux c'est, bien sûr, mais sans correction d'erreur sophistiquée, il n'y a pas d'issue à l'ère NISQ car ces systèmes tous décohèrent tôt ou tard.

“Il est inutile d'augmenter simplement le nombre de qubits physiques avec un taux d'erreur élevé, sans améliorer ce taux d'erreur, car cela donnerait lieu à un grand ordinateur quantique qui ne serait pas plus puissant qu'avant”, a déclaré Dennis Tom, directeur général d'Azure. Quantum et Krysta Svore, vice-présidente du développement quantique avancé chez Microsoft, écrivent dans l'annonce d'aujourd'hui. « En revanche, lorsque des qubits physiques offrant une qualité de fonctionnement suffisante sont utilisés avec un système d'orchestration et de diagnostic spécialisé pour activer des qubits virtuels, l'augmentation du nombre de qubits physiques aboutit à des ordinateurs quantiques puissants et tolérants aux pannes, capables de fonctionner plus longtemps. , calcul plus complexe.

Il y a seulement quelques années, les qubits logiques ont commencé à surpasser les qubits physiques. Aujourd'hui, Microsoft et Quantinuum affirment que leur nouveau système matériel/logiciel présente le plus grand écart entre les taux d'erreur physiques et logiques, améliorant jusqu'à 800 fois l'utilisation de qubits physiques uniquement.

Crédits images : Microsoft

Les chercheurs notent que pour aller au-delà du NISQ, une grande séparation entre les taux d'erreur des qubits logiques et physiques est nécessaire, ainsi que la capacité de corriger les erreurs de circuits individuels et de générer une intrication entre au moins deux qubits logiques. Si ces résultats se maintiennent, alors l'équipe a atteint les trois et nous sommes effectivement entrés une époque stable l’ère de l’informatique quantique résiliente.

Il s'avère que le résultat le plus important ici pourrait en fait être la capacité de l'équipe à effectuer une « extraction active du syndrome », c'est-à-dire la capacité de diagnostiquer une erreur et de la corriger, sans détruire le qubit logique dans le processus.

“Cette réalisation marque la première étape vers la possibilité de corriger les erreurs sans détruire les qubits logiques et constitue une étape fondamentale dans la correction des erreurs quantiques”, expliquent Tom et Svore. “Nous avons démontré cet élément essentiel d'une informatique quantique fiable avec notre système de virtualisation de qubits, ce qui a abouti à un faible taux d'erreur logique sur plusieurs cycles d'extraction du syndrome.”

Il appartiendra désormais au reste de la communauté quantique de reproduire ces résultats et de mettre en œuvre des systèmes de correction d'erreurs similaires. Mais ce n’est probablement qu’une question de temps.

« Les résultats d'aujourd'hui marquent une réussite historique et reflètent merveilleusement la façon dont cette collaboration continue de repousser les limites de l'écosystème quantique », a déclaré Ilyas Khan, fondateur et directeur des produits chez Quantinuum. « Grâce à la correction d'erreurs de pointe de Microsoft, alignée sur l'ordinateur quantique le plus puissant au monde et à une approche entièrement intégrée, nous sommes très enthousiasmés par la prochaine évolution des applications quantiques et avons hâte de voir comment nos clients et partenaires le feront. bénéficier de nos solutions, d’autant plus que nous nous dirigeons vers des processeurs quantiques à grande échelle.

Pour plus de détails, vous pouvez trouver le document technique ici.

rewrite this content and keep HTML tags

Microsoft et Quantinuum ont annoncé aujourd'hui une avancée majeure dans la correction des erreurs quantiques. Grâce au matériel piège à ions de Quantinuum et au nouveau système de virtualisation qubit de Microsoft, l'équipe a pu réaliser plus de 14 000 expériences sans la moindre erreur. Ce nouveau système a également permis à l'équipe de vérifier les qubits logiques et de corriger les erreurs rencontrées sans détruire les qubits logiques.

Selon les deux sociétés, cela a permis de faire sortir l'informatique quantique de pointe de ce qui a généralement été surnommé l'ère des ordinateurs quantiques bruyants à échelle intermédiaire (NISQ). « Bruyant » parce que même les plus petits changements dans l'environnement peuvent conduire un système quantique à devenir essentiellement aléatoire (ou « décohéré »), et « à échelle intermédiaire » parce que la génération actuelle d'ordinateurs quantiques est encore limitée à un peu plus d'un millier de qubits au mieux. . Un qubit est l'unité fondamentale de calcul dans les systèmes quantiques, analogue à un bit dans un ordinateur classique, mais chaque qubit peut être dans plusieurs états en même temps et ne tombe pas dans une position spécifique jusqu'à ce qu'il soit mesuré, ce qui sous-tend le potentiel de quantique pour permettre un énorme bond en avant en termes de puissance de calcul.

Cependant, le nombre de qubits dont vous disposez n'a pas d'importance si vous avez à peine le temps d'exécuter un algorithme de base avant que le système ne devienne trop bruyant pour obtenir un résultat utile – ou n'importe quel résultat du tout.

En combinant plusieurs techniques différentes, l’équipe a pu réaliser des milliers d’expériences sans pratiquement aucune erreur. Cela impliquait pas mal de systèmes de préparation et de présélection qui semblaient déjà en bon état pour une course réussie, mais il s'agit néanmoins d'une amélioration considérable par rapport à ce qu'était l'industrie il y a peu de temps.

C'est un pas dans la bonne direction pour l'informatique quantique. Il reste encore beaucoup de problèmes à résoudre (et ces résultats doivent également être reproduits, bien sûr), mais en théorie, un ordinateur doté de 100 de ces qubits logiques pourrait déjà être utile pour résoudre certains problèmes, tandis qu'une machine dotée de 1 000 qubits logiques pourrait déjà être utile pour résoudre certains problèmes. pourrait, selon Microsoft, « débloquer un avantage commercial ».

Les écarts (erreurs) entre les qubits intriqués.  Les divergences sont révélées en comparant les images de chaque qubit d'une paire, et toutes les différences existantes apparaissent sous forme de points dans l'image centrale entre chaque paire.

Les écarts (erreurs) entre les qubits intriqués. Les divergences sont révélées en comparant les images de chaque qubit d'une paire, et toutes les différences existantes apparaissent sous forme de points dans l'image centrale entre chaque paire. Crédits images : Microsoft

L'équipe a utilisé le processeur à fer piégé H2 de Quantinuum et a pu combiner 30 qubits physiques en quatre qubits logiques hautement fiables. Le codage de plusieurs qubits physiques en un seul qubit logique permet de protéger le système contre les erreurs. Les qubits physiques sont intriqués afin qu'il devienne possible de détecter une erreur dans un qubit physique et de la corriger.

C'est cette correction d'erreur qui a longtemps contrarié l'industrie : plus le bruit est faible et plus la qualité des qubits physiques est élevée, mieux c'est, bien sûr, mais sans correction d'erreur sophistiquée, il n'y a pas d'issue à l'ère NISQ car ces systèmes tous décohèrent tôt ou tard.

“Il est inutile d'augmenter simplement le nombre de qubits physiques avec un taux d'erreur élevé, sans améliorer ce taux d'erreur, car cela donnerait lieu à un grand ordinateur quantique qui ne serait pas plus puissant qu'avant”, a déclaré Dennis Tom, directeur général d'Azure. Quantum et Krysta Svore, vice-présidente du développement quantique avancé chez Microsoft, écrivent dans l'annonce d'aujourd'hui. « En revanche, lorsque des qubits physiques offrant une qualité de fonctionnement suffisante sont utilisés avec un système d'orchestration et de diagnostic spécialisé pour activer des qubits virtuels, l'augmentation du nombre de qubits physiques aboutit à des ordinateurs quantiques puissants et tolérants aux pannes, capables de fonctionner plus longtemps. , calcul plus complexe.

Il y a seulement quelques années, les qubits logiques ont commencé à surpasser les qubits physiques. Aujourd'hui, Microsoft et Quantinuum affirment que leur nouveau système matériel/logiciel présente le plus grand écart entre les taux d'erreur physiques et logiques, améliorant jusqu'à 800 fois l'utilisation de qubits physiques uniquement.

Crédits images : Microsoft

Les chercheurs notent que pour aller au-delà du NISQ, une grande séparation entre les taux d'erreur des qubits logiques et physiques est nécessaire, ainsi que la capacité de corriger les erreurs de circuits individuels et de générer une intrication entre au moins deux qubits logiques. Si ces résultats se maintiennent, alors l'équipe a atteint les trois et nous sommes effectivement entrés une époque stable l’ère de l’informatique quantique résiliente.

Il s'avère que le résultat le plus important ici pourrait en fait être la capacité de l'équipe à effectuer une « extraction active du syndrome », c'est-à-dire la capacité de diagnostiquer une erreur et de la corriger, sans détruire le qubit logique dans le processus.

“Cette réalisation marque la première étape vers la possibilité de corriger les erreurs sans détruire les qubits logiques et constitue une étape fondamentale dans la correction des erreurs quantiques”, expliquent Tom et Svore. “Nous avons démontré cet élément essentiel d'une informatique quantique fiable avec notre système de virtualisation de qubits, ce qui a abouti à un faible taux d'erreur logique sur plusieurs cycles d'extraction du syndrome.”

Il appartiendra désormais au reste de la communauté quantique de reproduire ces résultats et de mettre en œuvre des systèmes de correction d'erreurs similaires. Mais ce n’est probablement qu’une question de temps.

« Les résultats d'aujourd'hui marquent une réussite historique et reflètent merveilleusement la façon dont cette collaboration continue de repousser les limites de l'écosystème quantique », a déclaré Ilyas Khan, fondateur et directeur des produits chez Quantinuum. « Grâce à la correction d'erreurs de pointe de Microsoft, alignée sur l'ordinateur quantique le plus puissant au monde et à une approche entièrement intégrée, nous sommes très enthousiasmés par la prochaine évolution des applications quantiques et avons hâte de voir comment nos clients et partenaires le feront. bénéficier de nos solutions, d’autant plus que nous nous dirigeons vers des processeurs quantiques à grande échelle.

Pour plus de détails, vous pouvez trouver le document technique ici.

Laisser un commentaire