Dans un contexte marqué par la volonté politique d’accroître la compétitivité industrielle civile et de défense française, l’informatique quantique apparaît comme un domaine de recherche hautement stratégique car susceptible de résoudre des problèmes complexes en un temps réduit. Néanmoins, pour être pleinement opérationnelle, elle doit encore surmonter de nombreux verrous technologiques. Dans ce cadre, l’INAS a organisé la conférence « informatique quantique : quelles perspectives pour l’industrie du futur ? » afin de présenter l’état actuel des connaissances scientifiques en la matière, de dresser un panorama de l’écosystème actuel français et de démontrer en quoi cette technologie constituait un levier stratégique sur lequel il fallait investir. Pour aborder ces enjeux, la conférence a réuni Daniel VERT, Docteur en informatique quantique et Coordinateur du Hub Advanced Engineering et Computing (AE&C) du pôle Systematic Paris Region, Jean-Loup VILLE, Docteur en physique quantique et Responsable de l’équipe de recherche en physique quantique expérimentale à Alice&Bob, Timothée PRESLES, Docteur en algorithmie quantique et chercheur en algorithmie quantique à ColibriTD et Amara KEITA, expert en iQuantique et Quantum Computing Research Intern à Quobly.
En ouverture de la conférence, les intervenants ont défini deux notions fondamentales qui caractérise la physique quantique, à savoir sa superposition et l’intrication, afin de comprendre les bénéfices de son application à l’informatique. Selon Timothée Presles, la superposition quantique se définit comme « l’ensemble des états que peut prendre un système quantique et où chacun des états est associé à une probabilité d’observation ». En d’autres termes, la superposition d’états quantiques appliquée à l’environnement binaire de l’informatique signifie que le système quantique peut être à la fois, le 0 et le 1. Contrairement à l’informatique classique où un bit ne peut prendre la forme que du 0 ou du 1 mais pas des deux à la fois. Quant à l’intrication, Timothée Presles définie la notion comme « les états de deux systèmes quantiques qui ne peuvent être exprimés indépendamment ». Cela signifie que lorsqu’on connaît un état quantique d’un des deux systèmes, on connaît également l’état quantique du deuxième système quantique.
Ainsi, grâce à ces deux notions fondamentales de la physique quantique, l’informatique quantique est en mesure d’accélérer la résolution de problèmes complexes, en particulier ceux caractérisés par une complexité dite « exponentielle », c’est-à-dire, une complexité qui augmente au fur et à mesure que le nombre d’entrées introduites dans la problématique se multiplie. Plus précisément, « l’informatique quantique permet de réduire l’échelle de la complexité d’un problème » a souligné Daniel Vert. De ce fait, les cas d’usage de l’informatique quantique sont nombreux. Par exemple, son application à l’optimisation combinatoire, en particulier au problème du voyageur de commerce (TSP) constitue un exemple concret. Le problème du voyageur de commerce s’explique de la façon suivante : si cette personne souhaite traverser cinq villes le plus rapidement possible alors elle doit donc minimiser son temps de trajet global et pour cela, identifier le parcours le plus rapide. Elle va donc combiner toutes les possibilités existantes (ici 120) et ne retenir que celle dont le temps de voyage global est le plus petit. Si à cette échelle le calcul reste faisable, il se complique à mesure que le nombre de villes augmente. Par exemple, pour 50 villes, le nombre de possibilités est de 1*1064. Or, à cette échelle, avec un ordinateur classique, le problème ne peut pas être résolu, a expliqué Daniel Vert.
Outre l’optimisation combinatoire, l’informatique quantique peut également être appliquée au domaine des télécommunications, de l’énergie, de la simulation moléculaire, de la chimie, de la recherche de matériaux, etc. D’ailleurs, certains domaines sont plus en avance que d’autres dans la résolution de problèmes complexes par l’informatique quantique, a affirmé Amara Keita. C’est notamment le cas de la chimie et de la recherche de matériaux. Pour cause : les milliards d’investissements réalisés dans ces domaines (de l’ordre de 80 milliards), a précisé le chercheur.
Aujourd’hui, plusieurs algorithmes quantiques ont déjà été développés : les algorithmes théoriques et les algorithmes hybrides (algorithmes composés à la fois de CPU – Central Processing Unit – et de QPU – Quantum Processing Unit). Parmi les algorithmes théoriques, figurent l’algorithme de Shor, développé par Peter Shor en 1994 et capable de factoriser un grand nombre en un temps relativement réduit, ainsi que l’algorithme de Grover qui quant à lui permet d’accélérer la recherche dans un ensemble de données ou au sein d’une base de données dense. Durant la conférence, Timothée Presles a mis en avant le fait que les algorithmes hybrides constituent une approche très prometteuse de l’informatique quantique. Notamment en raison de leur capacité à s’adapter à nos machines informatiques actuelles, lesquelles peuvent être parfois bruitées. Ce qui constitue une avancée majeure puisque d’ordinaire, l’informatique quantique est très sensible au bruit.
Cependant, si l’informatique quantique offre de nombreuses opportunités scientifiques, elle peut également être à l’origine de nouvelles menaces, notamment dans le domaine de la cybersécurité. En effet, compte tenu de sa puissance de calcul, l’informatique quantique sera en mesure de casser facilement et rapidement les mécanismes d’encryptage actuellement utilisés pour protéger les données des utilisateurs et plus largement, le matériel informatique, ont averti les intervenants. Ce nouveau risque nous oblige déjà à rechercher des solutions capables de contrer la menace future, ce qui conduit les chercheurs à s’intéresser à la cryptographie post-quantique. Cette dernière consiste à développer de nouvelles techniques de cryptage capables de résister à des attaques cybers quantiques.
Si le développement de l’informatique quantique progresse doucement et si certaines applications concrètes commencent à émerger, de nombreux défis technologiques et verrous scientifiques restent à surmonter. C’est la raison pour laquelle l’informatique quantique constitue encore un domaine de recherche fondamentale, a précisé Daniel Vert. De nombreuses étapes sont encore à franchir avant d’industrialiser un ordinateur quantique aux performances supérieures à celles des ordinateurs actuels. En effet, actuellement, la puissance de calcul des quarante QPU cumulés ne dépasse pas les cinq qubits bruités, c’est-à-dire qu’ils ne sont pas capables de factoriser par quatre, a annoncé Jean-Loup Ville.
Ainsi, un des principaux verrous scientifiques dans le développement d’un ordinateur quantique porte sur la capacité à atteindre un taux d’erreur suffisamment faible (de l’ordre de 10-10 et 10-15). Ce taux d’erreur est essentiel pour faire en sorte que les calculs réalisés par l’ordinateur quantique soient fiables. Or, actuellement, les plateformes quantiques en sont encore très loin. A titre d’exemple, le taux d’erreur de la nouvelle puce quantique de Google, sortie en 2019 et appelée Willow, est de l’ordre de 10-2 et 10-3. Cela représente un défi considérable, tant en termes de recherche scientifique, que de ressources disponibles car pour obtenir 1 qubit logique, c’est-à-dire un qubit dépourvu d’erreurs, il est nécessaire de disposer de 1000 qubits physiques. En conséquence, pour obtenir 100 qubits corrigés (nombre de qubits nécessaires pour atteindre le taux d’erreur de 10-10 et 10-15), il faudrait disposer de 100 000 qubits physiques. Or, pour stocker lesdits qubits physiques, il faudrait construire plusieurs data center et ce, uniquement pour des calculs simples à réaliser. Ainsi, à mesure que nous souhaitons résoudre des problèmes plus complexes (décrypter des messages codés, réaliser des paiements sur internet…) avec l’informatique quantique, des qubits logiques supplémentaires seront nécessaires a affirmé Jean-Loup Ville. Ce qui, en termes de ressources, semble complètement irréalisable.
Pour remédier à cette problématique, des start-ups spécialisées dans la correction d’erreurs quantiques comme Alice&Bob, s’attachent à faire émerger d’autres solutions qui nécessitent moins de ressources. En ce sens, Alice&Bob développe les qubits de chat. Ici, les milliers de qubits nécessaires pour faire un qubit logique, ne sont pas utiles. Avec le qubit de chat, seule une trentaine de qubits physiques sont nécessaires pour obtenir un qubit logique, ce qui réduit considérablement la quantité de ressources nécessaires au développement d’un algorithme quantique et facilite son passage à l’échelle. Mais pour l’heure, la technologie reste moins mature que d’autres et de nombreux développements sont encore attendus pour qu’elle puisse passer à l’échelle, a souligné Jean-Loup Ville.
Outre le verrou scientifique lié au taux d’erreur, le défi relatif à la supraconductivité des puces électroniques quantiques (où sont implémentés les qubits) constitue également un enjeu majeur. Or, pour les rendre supraconductrices, lesdites puces doivent être dans un environnement électronique proche du zéro de Kelvin (-273,15°). Ce qui nécessite de concevoir des machines de l’ordre d’un mètre cube, capables de refroidir l’ensemble des étages de l’ordinateur. De plus, protéger les puces de la chaleur implique également de les mettre sous vide et de les protéger de la lumière pour éviter que la chaleur ne soit transmise par l’air et la lumière. Répondre à ces contraintes techniques est donc essentiel. C’est pourquoi certaines start-ups, à l’image de Viqthor, se sont spécialisées sur ces questions.
Actuellement, nous comptons 300 start-ups spécialisées dans le quantique à l’échelle mondiale. Elles se situent principalement aux Etats-Unis et en Europe, a précisé Daniel Vert. D’ailleurs, les start-ups peuvent être classées en plusieurs catégories : les start-up matérielles telles que Alice&Bob, Quandela Pasqal, fondée, en 2019, par Alain Aspect, Prix Nobel de physique de 2022 ou Welinq, start-up française spécialisée dans le développement de mémoire quantique. Les start-up matérielles sont spécialisées dans le développement des QPU en France. Les start-up logicielles, telles que ColibriTD, Cubisoft ou Multivers, qui travaillent sur la couche supérieure de l’ordinateur quantique et enfin, les start-up spécialisées dans l’électronique quantique telles que Viqthor, spécialisée dans la photonique quantique. Plus précisément, l’un des objectifs de Viqthor est de développer les meilleures solutions techniques afin d’intégrer de l’électronique quantique dans des environnements cryogéniques et de récupérer un signal qui soit utilisable à la sortie.
De ce fait, si les Etats-Unis constituent un acteur étatique extrêmement compétiteur dans le domaine de l’informatique quantique, la France et l’Europe occupent également une place importante, ce qui minimise, pour le moment, les écarts de concurrence. Néanmoins, si la France et l’Union européenne ont pris conscience des enjeux liés au développement de l’informatique quantique, comme en témoigne les différentes stratégies politiques mises en place (la stratégie quantique de l’Union européenne, la Stratégie Nationale Quantique) les investissements réalisés en la matière restent encore largement inférieurs à ceux consacrés à d’autres secteurs stratégiques comme l’intelligence artificielles, a souligné Daniel Vert. Tant du côté privé que du côté public. En effet, si certains fonds d’investissements font déjà le choix d’investir, ils ne sont pas très nombreux, a ajouté Jean-Loup Ville. Or, selon Daniel Vert, « l’intérêt d’investir maintenant réside dans la nécessité de former des talents, ne serait-ce que pour comprendre les défis scientifiques actuels du domaine ».
Les enjeux stratégiques liés au développement de l’informatique quantique sont variés. Mais un en particulier mérite de retenir notre attention : celui de la dépendance aux QPU étrangers. En effet, en l’absence de QPU français suffisants pour faire fonctionner les ordinateurs quantiques, la France et plus largement l’Union européenne devront se tourner vers des fabricants extérieurs. Elles se retrouveront alors vulnérables aux aléas du marché et aux éventuelles crises diplomatiques. C’est notamment pour ces raisons que l’informatique quantique est devenu un véritable enjeu de défense et de sécurité nationale.
Ainsi, les intervenants ont déclaré, de manière unanime, que les investissements devaient être accrus pour continuer à concurrencer les technologies quantiques américaines et chinoises et conserver la place actuelle de la France et de l’Union européenne dans l’écosystème quantique. En rappelant qu’à défaut, les espoirs de rattraper les avancées faites en la matière par d’autres acteurs étatiques seraient très minces, mettant ainsi en péril le développement d’une autonomie stratégique dans ce domaine, ambition pourtant chère à la France et à l’Union européenne.
Raphaële Cuisinier, analyste au sein de la Commission de l’Innovation de défense de l’INAS
L’INAS a pour mission de contribuer au débat public sur les questions stratégiques. Ses publications reflètent uniquement les opinions de leurs auteurs et ne constituent en aucune manière une position officielle de l’organisme.