IBM dévoile Starling, son futur ordinateur quantique

IBM annonce Starling, un supercalculateur quantique tolérant aux fautes, capable de dépasser les limites structurelles des systèmes actuels.

L’informatique quantique a longtemps été promise à un avenir révolutionnaire, mais ses fondations restaient fragiles. À la différence du bit classique, le qubit — unité de base de l’information quantique — est extrêmement sensible à son environnement. Plus leur nombre augmente, plus les interférences (« le bruit ») génèrent d’erreurs, rendant les calculs complexes impraticables. Résultat : impossible jusqu’ici de dépasser les performances des superordinateurs classiques, faute de machines stables et fiables.

Ce mardi, IBM affirme avoir franchi cette barrière. Le géant américain a dévoilé Quantum Starling, un projet de superordinateur quantique tolérant aux pannes, premier du genre à grande échelle. Jay Gambetta, vice-président d’IBM Quantum, parle d’un “changement de paradigme” : « Nous avons désormais l’architecture, les percées scientifiques et une feuille de route claire. Ce n’est plus un problème de science fondamentale, mais d’ingénierie. »

A LIRE AUSSI
Le pari fou d’Alice & Bob pour l’ordinateur quantique sans erreur

Starling, une architecture conçue pour durer

Le projet Starling est déjà en cours de construction à Poughkeepsie, dans le centre de données quantiques d’IBM, au nord de New York. Son objectif : être pleinement opérationnel d’ici 2029. L’entreprise affirme que l’engin pourra exécuter jusqu’à 100 millions d’opérations sur 200 qubits logiques — une capacité 20 000 fois supérieure aux systèmes quantiques actuels.

Pour y parvenir, IBM s’attaque à la faiblesse structurelle de ces machines : la fragilité du qubit physique. En construisant des qubits logiques à partir d’ensembles redondants de qubits physiques corrigés, Starling promet une fiabilité radicalement accrue. Cette transition vers un système tolérant aux fautes constitue une étape historique vers une informatique quantique réellement scalable.

LDPC : le code qui change la donne

Au cœur de cette avancée, une nouvelle méthode de correction d’erreurs dévoilée dans Nature en mars dernier : le code LDPC (low-density parity-check). Jusqu’ici, les architectures reposaient principalement sur le code de surface, efficace mais très coûteux en ressources. IBM affirme que le LDPC réduit de 90 % la charge en qubits physiques nécessaire pour stabiliser un qubit logique.

Concrètement, là où un code de surface exigeait près de 3 000 qubits physiques pour en stabiliser un seul logique, le LDPC permet d’en utiliser seulement 288. Résultat : 12 qubits logiques peuvent désormais être préservés pendant un million de cycles. Le seuil d’erreur atteint (0,7 %) dans les simulations standard marque un tournant.

Une feuille de route jusqu’en 2033

L’ambition d’IBM ne s’arrête pas à Starling. L’entreprise a dévoilé une feuille de route technique s’étalant jusqu’à 2033, jalonnée par plusieurs étapes intermédiaires.

  • Quantum Loon (2025) testera les composants clés de l’architecture LDPC, notamment les coupleurs, éléments qui relient des qubits distants.
  • Kookaburra (2026) introduira les premiers modules combinant mémoire et logique quantique.
  • Cockatoo (2027) reliera deux modules entre eux, ouvrant la voie à des architectures évolutives sans limitation de taille de puce.
  • Starling (2029) constituera le premier système tolérant aux fautes de bout en bout.
  • Enfin, Blue Jay (2033) visera une machine capable d’exécuter un milliard d’opérations quantiques sur 2 000 qubits logiques — une puissance dix fois supérieure à celle de Starling.

Chaque étape sera validée par des critères précis, fondés sur des seuils d’erreurs, la connectivité entre qubits, et la robustesse opérationnelle des processeurs.

Les applications visées sont vastes : développement de nouveaux médicaments, simulation de matériaux complexes, chimie quantique, optimisation logistique ou financière. L’entreprise souligne également le rôle de ses 600 000 utilisateurs, répartis dans plus de 300 institutions partenaires, pour expérimenter et affiner les algorithmes compatibles avec l’architecture en développement.

Une course mondiale à haut débit

IBM n’est pas seule dans cette quête. En cette année 2025, proclamée Année internationale des sciences et technologies quantiques par l’UNESCO, les annonces se multiplient.

Google a présenté Willow, une puce qui résoudrait en 5 minutes un problème nécessitant des quadrillions d’années sur un superordinateur classique. Microsoft affirme avoir identifié un nouvel état de la matière permettant un contrôle inégalé de la fameuse particule de Majorana.

AWS et Caltech ont publié dans Nature les résultats d’un processeur expérimental, Ocelot, qui réduirait les coûts de correction d’erreurs de 90 %, à l’instar du LDPC d’IBM.

Majorana : l’ultime horizon

En toile de fond, une quête continue : celle de la particule de Majorana, entité théorique capable de préserver la cohérence quantique de manière naturelle, et donc de réduire massivement les besoins en correction d’erreurs. IBM poursuit cet objectif depuis plus d’une décennie, en parallèle de son développement industriel.


Réagissez à cet article