L’un des principaux obstacles à la commercialisation d’un ordinateur quantique commercial est la réduction des taux d’erreur sur les qubits, l’équivalent des taux d’erreur sur les bits dans le monde numérique. IBM aurait fait des progrès dans le domaine en exécutant son algorithme avancé de correction d’erreurs sur du matériel AMD disponible dans le commerce.

Dans un article soumis vendredi à arXiv, les chercheurs d’IBM ont rapporté que non seulement ils exécutaient leur algorithme quantique sur des puces AMD FPGA standard, mais qu’il fonctionnait 10 fois plus vite que nécessaire pour suivre le rythme d’un ordinateur quantique.

Il s’agit d’une avancée significative dans la correction d’erreurs, qui représente la moitié de la bataille pour qu’IBM atteigne son objectif de 2029 pour son ordinateur quantique à grande échelle Starling, a expliqué Rebecca Krauthamer, PDG et co-fondatrice de QuSecure, un fabricant de solutions de sécurité quantique, à San Mateo, en Californie.

« IBM dans le domaine de l’informatique quantique est connu pour toujours respecter ses feuilles de route », a-t-elle déclaré à TechNewsWorld. « C’est important car il semble que nous ayons un an d’avance sur le calendrier prévu en termes de correction d’erreurs. »

Lorsqu’IBM a présenté son nouvel algorithme de correction d’erreurs plus tôt cette année, il a proposé de l’exécuter sur un décodeur appelé BP+OSD. Le décodeur est l’algorithme classique qui s’exécute en parallèle de l’algorithme quantique. Il identifie les corrections à appliquer en fonction des informations du code de correction quantique.

Il y avait deux problèmes avec ce décodeur, a expliqué Diego Ruiz, physicien chez Alice & Bob, un constructeur d’ordinateurs quantiques tolérants aux pannes utilisant l’architecture « cat qubit », basé à Paris. « Ce n’est pas très précis, donc votre code de correction d’erreurs n’est pas aussi efficace qu’il pourrait l’être », a-t-il déclaré à TechNewsWorld. « Mais plus important encore, il n’était pas assez rapide, ce qui constitue un très gros problème car cela peut ralentir de manière exponentielle votre ordinateur quantique. »

IBM a ensuite proposé d’utiliser un nouveau décodeur, appelé Relay-BP, qui, selon lui, était plus rapide et plus précis. « Dans une recherche récemment publiée, IBM a effectivement implémenté le décodeur sur un FPGA AMD et a constaté qu’il était effectivement suffisamment rapide pour ne pas ralentir l’ordinateur quantique », a-t-il déclaré. « Je pense qu’il s’agit d’un résultat important car il supprime un goulot d’étranglement potentiel qui aurait pu limiter ces meilleurs codes. »

Le rôle de l’informatique classique dans le progrès quantique

Avec ce dernier développement, IBM renforce le fait que les ordinateurs classiques gouverneront et amélioreront les performances des ordinateurs quantiques dans un avenir proche, a noté Izhar Medalsy, PDG de Quantum Elements, fabricant d’une plate-forme de programmation native d’IA pour le matériel quantique, à Los Angeles. « Bénéficier des capacités de calcul classiques est essentiel au progrès du matériel informatique quantique », a-t-il déclaré à TechNewsWorld.

« Cette annonce ne fait que renforcer la nécessité d’augmenter les ordinateurs quantiques sur les appareils classiques », a-t-il déclaré. « Ce qui est démontré ici, c’est que la réduction du bruit et l’amélioration des performances du matériel quantique nécessitent une innovation dans les dispositifs classiques. »

Les résultats d’IBM montrent que le matériel classique peut désormais simuler et optimiser certains flux de travail de correction d’erreurs quantiques qui étaient autrefois considérés comme nécessitant de petits processeurs quantiques, a ajouté Simon Fried, vice-président du développement commercial et du marketing chez Classiq, un développeur de logiciels pour ordinateurs quantiques, à Tel Aviv, en Israël.

« L’exécution efficace d’un algorithme QEC sur les processeurs AMD démontre des progrès dans les logiciels de modélisation et de contrôle, plutôt que dans les performances des qubits elles-mêmes », a-t-il déclaré à TechNewsWorld. « Cela met en évidence une intégration plus étroite entre les couches classiques et quantiques, ce qui est essentiel pour la mise à l’échelle. »

Cependant, il ne pense pas que le nouveau développement accélérera directement le calendrier du matériel. « Cela montre que nous améliorons la pile logicielle et notre compréhension des opérations tolérantes aux pannes », a-t-il déclaré.

« Les facteurs décisifs restent liés au matériel, comme les qubits logiques stables, les seuils d’erreur et les architectures évolutives », a-t-il poursuivi. « Un ordinateur quantique utile et tolérant aux pannes d’ici 2029 est possible, mais il dépend encore davantage des progrès de la physique matérielle que des résultats de simulations classiques. »

Des ordinateurs quantiques en 2026 ?

Roger Grimes, conseiller RSSI chez KnowBe4, un fournisseur de formation de sensibilisation à la sécurité basé à Clearwater, en Floride, s’est montré plus optimiste quant au calendrier des ordinateurs quantiques.

« Je pense que les ordinateurs quantiques pratiques seront avec nous d’ici l’année prochaine, et tout progrès ultérieur dans le domaine quantique n’a guère besoin de cette invention d’IBM », a-t-il déclaré à TechNewsWorld. « Cela ne fait pas de mal, mais il y a tellement d’ordinateurs quantiques provenant de tellement de fournisseurs que cette amélioration n’est qu’une goutte de plus dans un très grand seau. »

« Cette nouvelle technique n’est qu’une amélioration dans la correction des erreurs quantiques des qubits », a-t-il déclaré. « Il y en a bien d’autres. »

« Je pense que la correction des erreurs quantiques par des puces binaires traditionnelles moins chères n’est pas une mauvaise chose », a-t-il poursuivi. « Moins cher, c’est mieux. Mais je ne pense pas que les premières entreprises qui cherchent à adopter rapidement les meilleurs ordinateurs quantiques vont chicaner ne serait-ce que des dizaines de millions de dollars de différences de prix. »

Luke Yang, analyste actions chez Morningstar Research Services à Chicago, a écrit dans une note de recherche qu’il appréciait l’approfondissement du partenariat entre IBM et AMD dans le domaine de l’informatique quantique.

« Il est logique que les FPGA d’AMD deviennent le premier type de puce associé aux systèmes quantiques d’IBM, car le volume de production relativement faible des FPGA les rend optimaux pour les cas d’utilisation de test », a-t-il noté. « Les FPGA sont moins chers que les puces quantiques dédiées, comme le Heron d’IBM, mais ils restent beaucoup plus chers que les CPU ou GPU les plus courants en termes de coûts unitaires. »

« L’ajout de FPGA dans les systèmes quantiques est un pas dans la bonne direction qui réduit les coûts globaux du quantique », a-t-il poursuivi. « Pourtant, nous ne pensons pas que cette percée conduise à elle seule à une adoption généralisée du quantum, étant donné le manque de cas d’utilisation commercialement réalisables pour la technologie existante. »

Implications en matière de sécurité quantique

Ce développement est préoccupant car il montre une voie vers la pertinence en relevant le défi technique obstinément persistant de la gestion des erreurs dans l’informatique quantique, a affirmé Philip George, stratège technique exécutif chez Merlin Cyber, un fournisseur de solutions de cybersécurité, de gestion des identités et des accès, à Vienne, en Virginie.

« La différence cruciale ici est que la solution potentielle utilise des puces FPGA qui sont largement disponibles et ne nécessitent pas de nouveaux processus de fabrication », a-t-il déclaré à TechNewsWorld.

« Si cette méthode s’avère viable, nous pourrions envisager un délai encore plus proche pour les ordinateurs quantiques cryptographiquement pertinents, qui sont disponibles à la fois pour les États-nations et pour un usage commercial », a-t-il déclaré. « Cela signifie que le gouvernement et l’industrie pourraient, en substance, manquer de temps pour faire des progrès significatifs vers l’adoption des nouvelles normes de sécurité quantique. »

Jason Soroko, chercheur principal chez Sectigo, un fournisseur mondial de certificats numériques, a ajouté que l’exécution d’une boucle de gestion des erreurs quantiques en temps réel sur les FPGA AMD disponibles dans le commerce indique que la pile de contrôle classique pour les systèmes quantiques arrive à maturité et devient moins chère.

« Cela réduit les obstacles à l’évolutivité et à la reproductibilité, rapproche ces systèmes des pratiques habituelles des centres de données et répartit la chaîne d’approvisionnement en matériel entre des composants largement utilisés », a-t-il déclaré à TechNewsWorld. « C’est encourageant pour les progrès à court terme vers des qubits plus stables et pour qu’IBM respecte sa feuille de route, mais cela ne change pas le tableau des risques à court terme liés à la rupture du chiffrement actuel. »

« Toutefois, l’histoire de la sécurité évolue rapidement une fois que le contrôle passe aux équipements de base, car la surface d’attaque s’étend au-delà de l’électronique sur mesure et s’étend aux micrologiciels, aux pilotes, aux logiciels d’orchestration et aux interfaces physiques qui relient les racks aux dispositifs cryogéniques », a-t-il expliqué.

« L’annonce d’IBM est le dernier développement de ce qui semble être une série ininterrompue de signaux sur la rapidité avec laquelle le quantique progresse, depuis les lignes directrices du NIST pour la cybersécurité post-quantique jusqu’aux conseils du CIO du ministère de la Défense », a ajouté Krauthamer de QuSecure.

« Ce qui était autrefois des signaux clairsemés concernant une menace imminente est devenu des signaux très denses qui apparaissent chaque semaine », a-t-elle poursuivi. « Les délais s’accélèrent à l’approche du jour où un ordinateur quantique pourra briser tous les systèmes de cryptographie à clé publique actuels, ce qui signifie que plus de 20 milliards d’appareils devront être migrés vers le post-quantique en seulement quelques années. »

A lire également