Ce qu’il faut savoir sur l’informatique quantique pour briller en société !

Article original publié sur Linkedin par Lara Dirian, Senior Data Scientist chez Verteego.

L’informatique quantique fait partie de ces nouvelles technologies montantes dont on entend parler dans les milieux geek bien informés (ou pas…). Elle correspond à un nouveau type d’informatique basé sur l’utilisation, non plus de bit, mais de Quantum Bits (aussi appelé “qubits”) comme unité de gestion de base de l’information.

0 ou 1 ? Les deux Messieurs-Dames !

Pour petit rappel, le “bit” (ou élément binaire) est une unité physique qui peut prendre deux valeurs, 0 ou 1 (plus concrètement, 0 correspond à l’absence de courant et 1 au passage du courant dans le bit). La combinaison des bits (octets = 8 bits) permet d’encoder et de stocker l’information de manière complexe.

Contrairement au bit classique utilisé dans nos ordinateurs actuels, le qubit est une combinaison probabiliste des états 0 et 1.

Hum… késako me direz-vous !?

Le concept du qubit est basé sur la physique quantique qui est régie par différents principes dont l’un est appelé la “superposition d’états”. Ce dernier dit qu’une particule à l’échelle quantique oscille tellement rapidement entre deux états, comme une “vibration”, qu’elle possède les deux états à la fois.

La valeur du qubit est un vecteur à deux dimensions dont la norme (longueur du vecteur) est toujours de 1, et qui se positionne au sein de la Sphère de Bloch (modèle mathématique probabiliste). La surface de la sphère représente donc toutes les valeurs que peut prendre le qubit.

Au cours de son cycle de vie, le qubit est d’abord initialisé à 0 puis le passage dans différentes portes quantiques modifie son état. Enfin, on lit sa valeur de sortie à la fin de ce traitement. Cette valeur sera 0 ou 1 à la lecture mais la même opération répétée plusieurs fois donnera des résultats différents, ce qui déterminera la probabilité que le qubit prenne 1 ou 0 pour cette opération. Ces probabilités sont encodées par les variables α et β qui sont respectivement un nombre réel, et un complexe (rappel sur les nombres complexes : nombre qui comprend un i dont le carré est égal à -1). Particularité : la somme de chacune de ces variables élevée au carré est égale à 1.

Pour ceux pour qui tout ceci n’est pas plus compréhensible que du chinois (lorsqu’on ne parle pas le chinois bien évidemment), vous pouvez retenir que le qubit est donc une unité de traitement de l’information dont la valeur est à la fois 0 et 1, chacun dans une certaine proportion.  

Alors à quoi ressemble un qubit physiquement ?

Concrètement, les qubits sont composés de particules élémentaires (ions, photons, électrons,…) qui sont piégées soit de manière unitaire ou à plusieurs dans un dispositif micro-électronique. Ces particules sont donc initialisées, puis leur état est modifié grâce aux portes quantiques et enfin leur valeur est lue à la fin du traitement. Contrairement au bit qui se déplace dans l’espace à travers des portes logiques, le qubit est fixe. Son état ne varie pas dans l’espace mais dans le temps par l’influence des portes quantiques. La valeur d’un qubit ne peut pas être copiée, ce qui implique que la lecture soit faite avant la réinitialisation de celui-ci.

Il existe plusieurs types de qubits étudiés à ce jour.

Chacun présente des avantages et des inconvénients et fait l’objet d’un domaine de recherche. Citons l’exemple du qubit supraconducteur. Celui-ci est basé sur l’utilisation de plusieurs électrons piégés qui tournent dans des sens opposés et sont dans des états divers. Pour résumer, il s’agit donc d’un courant qui oscille. C’est à ce jour le qubit qui fait l’objet des recherches les plus avancées et qui est utilisé dans les premiers ordinateurs quantiques commerciaux (chez le Canadien D-Wave comme chez IBM).

Tout l’enjeu de l’informatique quantique est d’arriver à combiner ces qubits mais surtout à les faire interagir dans une structure de façon à ce qu’ils soient capables de traiter de l’information collégialement et de manière fiable. La notion de fiabilité est un des défis majeurs des prochaines décennies. En effet, comme expliqué, le qubit contient des portes quantiques qui correspondent à des traitements logiques effectués sur les particules du qubit. Chacune de ces portes, comme tout système de traitement, est caractérisée par un taux d’erreur intrinsèque. Les portes quantiques se trompent donc à chaque traitement d’un certain pourcentage… Si l’on considère que les particules du qubit vont subir les transformations d’un nombre de portes quantiques pouvant aller jusqu’à 1000, on comprend facilement que cette erreur influe plus ou moins sur la fiabilité du résultat produit par le qubit. Nous allons donc devoir arriver à la réduire pour atteindre un niveau acceptable de taux d’erreur. Afin de déjà limiter les erreurs et le bruit intrinsèque du système, certains de ces qubits doivent être placés à des températures proches du zéro absolu (0 K = -273.15°C), isolés magnétiquement et sous vide.

Une des notions que nous n’avons pas évoquée jusqu’ici mais néanmoins essentielle dans le fonctionnement et la collaboration des qubits entre eux est le principe d’intrication (ou couplage). En physique quantique, ce principe énonce que deux particules peuvent être distantes et pour autant dépendantes l’une de l’autre; la modification de la première pouvant entraîner un changement sur la seconde. Ce principe est aussi appliqué aux qubits. Pour arriver à générer des ordinateurs quantiques, nous allons donc devoir être capables de positionner les qubits les uns à côté des autres mais aussi de les intriquer de façon à ce qu’ils influent les uns sur les autres lors d’un traitement. Des équipes de recherche à travers le monde, et en particulier en France au CEA, travaillent actuellement à générer des qubits intriqués qui arrivent à des niveaux de fiabilité satisfaisants.

Mais alors en quoi tout ceci est-il si intéressant et pourquoi cela suscite tellement d’émoi ? Va-t-on bientôt avoir un ordinateur quantique dans son salon ?

Les chercheurs s’accordent à dire que l’ordinateur quantique, s’il voit le jour, ne sera pas destiné à des usages quotidiens (donc attention ! Si Apple appelle son prochain iphone “iphone quantique” et qu’il vous explique qu’il prend des photos quantiques de vous avec des pixels quantiques et que vous pouvez le poster sur un nouveau réseau social quantique, méfiez-vous! Je vous invite à vous renseigner…). Son utilisation sera plutôt dédiée à des problématiques d’optimisation combinatoire, de simulation de molécules du vivant, d’apprentissage lourd en intelligence artificielle, ou encore de factorisation de très grands nombres.

Il est important de rappeler à ce stade que toutes les hypothèses selon lesquelles l’informatique quantique permettrait d’améliorer le temps de calcul sont donc elles-mêmes basées sur des calculs théoriques… Mais, d’après la Loi de Moore, certaines des problématiques complexes que nous avons citées ci-dessus prendraient des milliards d’années à être traitées avec nos ordinateurs actuels alors qu’il est estimé que l’informatique quantique permettrait de les résoudre en quelques heures, minutes voire secondes, selon les cas de figure.

A l’heure de la data où nous cherchons sans relâche de la puissance de calcul pour résoudre des problèmes de plus en plus complexes, la perspective de pouvoir brancher sur nos ordinateurs actuels des modules quantiques dédiés aux calculs combinatoires serait donc très intéressante.

Quid de l’informatique quantique et l’apprentissage machine ?

Depuis plusieurs années, le “machine learning” constitue une discipline qui connaît un très grand essor. Il existe un vrai enjeu lié à l’accès à de la puissance de calcul pour arriver à satisfaire la demande de productions de modèles d’intelligence artificielle de plus en plus complexes.

Malgré l’absence d’ordinateurs quantiques dépassant quelques dizaines de qubits à ce jour, des chercheurs développent déjà des algorithmes basées sur l’utilisation de qubits théoriques. Des versions des algorithmes de machine learning classiquement utilisés aujourd’hui tels que l’algorithme de Principal Component Analysis (PCA), de Support Vector Machin (SVM)de clustering (K-means, clustering hiérarchique) ou encore des algorithmes de réseaux de neurones ont déjà été faites pour s’adapter à l’utilisation du qubit.Ces premiers essais montrent une amélioration considérable du temps que l’algorithme met à converger ce qui est très prometteur pour de futurs applications.

Perspectives

Bien que l’informatique quantique n’en soit pour l’instant qu’à ses tous débuts, elle représente un marché potentiellement important. Des entreprises se sont spécialisées dans la production de composants, sur la construction d’ordinateur quantique mais aussi dans la fabrication de logiciels adaptés. La France est au 8ème rang mondial des publications scientifiques mais les Etats-Unis et la Chine restent néanmoins les leaders dans ce domaine. Les supercalculateurs et l’émergence des systèmes de Cloud avec des plateformes répondent dans la majorité des cas à la problématique de puissance de calcul. Mais pour combien de temps encore ? Beaucoup de défis restent encore à relever mais les plus optimistes considèrent que l’ordinateur quantique verra le jour d’ici seulement une trentaine d’années. Alors encore un peu de patience…

Les images de cet article sont tirées de l’ouvrage “Comprendre l’informatique quantique”, Olivier Ezratty, septembre 2018. Je vous invite à le lire pour approfondir le sujet.

L’illustration de couverture a été faite lors de la conférence “Le quantique, c’est fantastique” du 14 juin 2018 à Nantes au Web2day par Hélène Pouille, c.f. son site et la vidéo de la conférence.

Pour plus d’informations sur les algorithmes de machine learning et le quantique, Quantum Machin learningJ. Biamonte and al., 2018

Lara Dirian, Senior Data Scientist.