WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Informatique quantique


par Ludovic SACHOT
YNOV - Titre RNCP - Expert Informatique et systèmes d'information 2022
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Introduction

Plus de puissance de calcul, une rapidité accrue du traitement de l'information et une meilleure protection de nos systèmes, voilà ce que nous promet les technologies quantiques. La soif de progrès nous pousse à toujours rechercher l'évolution de nos appareils, logiciels, protocoles et algorithmes.

L'essor du nombre d'appareils connectés, notamment avec l'IoT, entraine inéluctablement un besoin de cyber protection supplémentaire. Les logiciels certes, de plus en plus performants, mais également de plus en plus gourmands en ressources, sont soumis à la puissance de calcul du ou des processeurs de la machine hôte. Le besoin en bande passante s'accroit, les besoins en matière de protection des flux réseau également.

L'informatique tend, dans un premier temps, à répondre aux besoins des professionnels : Les supercalculateurs actuels, certes performants, paraissent obsolètes face aux ordinateurs quantiques et leur puissance de calcul bien supérieure. Certaines opérations complexes, notamment la modélisation de phénomènes climatiques ou médicaux ou encore des estimations extrêmement précises pourront s'effectuer bien plus rapidement qu'a l'heure actuelle, avec nos superordinateurs.

Les technologies quantiques ne s'appliquent pas uniquement à l'aspect matériel, de nouvelles méthodologies algorithmiques, qui seront en capacité d'exploiter l'accélération quantique et les principes d'intrication et superposition devront être développées, ne serait-ce que pour un souci de compatibilité entre la couche logicielle et matérielle.

Malgré l'ensemble des aspects positifs que présente l'informatique quantique, cette dernière expose ceux qui n'y sont pas préparés à des risques de sabotage. Les technologies quantiques seront aptes à déchiffrer les algorithmes de sécurité actuels. Les appareils, base de données et tout autre type de biens matériel ou immatériel protégé par des algorithmes traditionnels sont exposés aux algorithmes dits « quantiques ».

La première partie du mémoire permettra de définir les bases de l'informatique quantique, en démontrant certains principes fondamentaux de la mécanique quantique, tout en s'appuyant sur des faits. Nous analyserons également l'impact des technologies quantiques au sein des réseaux dits quantiques.

La deuxième partie du mémoire sera consacrée à l'analyse des risques engendrés par l'essors des technologies quantiques. Nous nous pencherons également sur les actions défensives possibles et entreprises notamment par les hautes instances gouvernementales.

4

1. En quoi consiste l'informatique quantique ?

Étant donné que les principes de physiques « classiques » ne permettaient pas d'expliquer certains phénomènes, le principe de physique quantique a été admis au cours du XXème siècle. Il regroupe un ensemble de théories physiques décrivant le comportement des atomes et des particules. Elle agit donc au niveau atomique.

La physique quantique est utilisée dans l'ensemble des domaines recourant aux lois de la mécanique quantique, l'informatique, et plus précisément l'architecture de nos microprocesseurs, en fait partie.

L'informatique quantique découle de la physique quantique, et se présente comme une révolution technologique. Si l'on devait résumer les apports potentiels des technologies quantiques, ces dernières permettraient de démultiplier la vitesse de calcul et de traitement des données de nos appareils et programmes, tout en apportant des algorithmes de cryptage bien plus robustes que ceux utilisés de nos jours.

Constat de l'existant : pourquoi adopter une démarche quantique dans le cadre de l'informatique ?

Au rythme actuel, et avec les technologies conventionnelles d'aujourd'hui, il est estimé que nous pourrons miniaturiser nos appareils technologiques durant encore les vingt prochaines années. Le quantique promet également une amélioration de la puissance de calcul des processeurs, tout en réduisant leur consommation d'énergie grâce au principe de superposition, qui sera développé plus tard. Une vitesse accrue du traitement des informations permettrait de résoudre plus rapidement des problèmes mathématiques, renforcer les systèmes de cybersécurité, développer de nouveaux algorithmes de chiffrement, traiter de plus grandes quantités d'informations

L'objectif serait de garder notre rythme de croisière en matière d'évolution technologique le plus longtemps possible.

Comment fonctionnent les algorithmes quantiques?

La plupart des algorithmes quantiques suivent le schéma suivant:

· Étape de préparation: préparer les qubits d'entrée et définir la valeur initiale de ces derniers. Habituellement, une partie de cette préparation consiste à mettre les qubits les uns sur les autres.

· Étape de calcul: Lancement de la conversion des qubits afin de minimiser les résultats incorrects. Pour cela, des qubits intriqués sont généralement nécessaires.

· Etage de mesure: mesure le qubit, détruisant ainsi l'état interne de l'amplitude du sous-bit mesuré et obtenant la sortie classique de 1 et 0.

5

·

Étape itérative: Les résultats obtenus étant probabilistes et pas toujours les résultats attendus,

il est généralement nécessaire de vérifier si les résultats obtenus sont valides ou il est nécessaire de redémarrer l'algorithme. À d'autres moments, vous pouvez obtenir le résultat statistiquement attendu en le répétant plusieurs fois.

Loi de Moore

Cette loi, énoncée en 1965 par Gordon E. Moore, l'un des co-fondateurs de la société Intel, repose sur l'évolution de la taille et du prix des microprocesseurs.

Elle postule qu'à coût égal, le nombre de transistors présents sur une puce double tous les ans.

Elle a été revisitée en 1975 par cette même personne, et postula que désormais, ce doublement aurait lieu tous les deux ans jusqu'en 2015 au minimum.

De nombreux experts, dont Gordon E. Moore, postulaient que cette loi atteindrait ses limites dès lors que les limites physiques de la micro-électronique seraient atteintes, et ce fût le cas ; la courbe d'évolution de nombre de transistors décline depuis environ 2015.

La quantité toujours plus importante de transistors amène de nouvelles problématiques, dont celle de la gestion et de la dissipation de la chaleur générée par la fréquence en Hertz des microprocesseurs. Cette dernière stagne depuis environ 2004 pour, en partie, les mêmes raisons.

Les limites de la Loi de Moore

Nous sommes en droit de nous demander jusqu'à quelle date cette loi sera fiable. Jusqu'où les limites technologies peuvent allées ? Comment l'améliorer lorsque ces dernières stagneront ?

Le quantique tend à répondre partiellement à ces questions, en proposant un champ technologique nouveau, basé sur des principes technologiques encore très peu exploités. La transition vers de nouvelles lois commence à être opérée.

Les limites de notre technologie

Au fur et à mesure de la progression de la puissance de calculs et de la quantité d'informations traitées par les microprocesseurs, nous constatons les limites d'une architecture binaire. L'informatique quantique permettrait de modifier la manière dont les informations sont traitées et conçues, ce qui amènerait un accroissement des performances des algorithmes de calculs et de traitement des données.

6

Loi de Neven

La loi de Neven, nommée en l'honneur d'Hartmut Neven, scientifique de renom chez Google, est présentée et pressentie comme la remplaçante et l'évolution de la loi de Moore. Elle dicte la rapidité avec laquelle les processeurs quantiques s'améliorent ou accélèrent le traitement des calculs par rapport aux ordinateurs classiques.

Cette loi constitue l'une des raisons qui a poussé Google à annoncer qu'ils venaient d'atteindre la « suprématie quantique », le 23 octobre 2019.

D'après eux, leur ordinateur quantique aurait été capable de résoudre un calcul en 3 minutes et 20 secondes, tandis que cela prendrait environ 10 000 ans au supercalculateur traditionnel le plus rapide du monde.

Relation entre la physique quantique et l'informatique

Pour commencer, il est bon de savoir comment une donnée est stockée et transmise. Un bit (Binary Digit) désigne d'une part la plus petite quantité de donnée possible pouvant être transmise par un message, et d'autre part l'unité de mesure de base de l'information.

Un bit peut avoir deux états : 0 et 1. En adoptant une démarche humainement logique, nous pouvons considérer qu'un bit peut adopter les états « faux », associé au 0, et « vrai », associé au 1.

Les « qubits », évolution du « bit »

Un « qubit » ou « bit quantique » partage le même principe qu'un bit, mais embarque une structure plus complexe. La grande différence s'identifie dans le fait qu'il soit capable d'adopter plusieurs états à la fois, lui permettant de contenir plus d'informations tout en ayant la possibilité de les traiter simultanément, ayant pour effet d'augmenter la vitesse de traitement des données. Le qubit est soumis à de nouveaux principes nommés « superposition » et « intrication »

Le bruit

L'état d'un bit peut, dans certains cas, être modifié à causes de perturbations extérieures (radiations, champs électromagnétiques), de sorte que la valeur 0 peut être convertie en la valeur 1 et inversement. Ce phénomène se dénomme SEU, pour Single Event Upset.

Ce phénomène s'observe la plupart du temps dans les domaines de l'aéronautique et du spatial, du fait principalement du rayonnement solaire. La miniaturisation constante de nos appareils les rend plus vulnérables aux SEUs, de par le fait que moins d'électrons circulent dans ces derniers. L'altération d'un système comportant un faible nombre d'électrons à plus de chance de modifier l'état des bits transmettant l'informations, ce qui entraine une détérioration de la fiabilité.

7

Spin quantique

Le spin est une caractéristique quantique des particules intimement liée à leurs propriétés de rotation. Il s'agit d'une manifestation du magnétisme de la particule dans le champ de la mécanique quantique

Valeurs discrètes & valeurs continues

Une variable discrète est une variable qui ne peut prendre des valeurs que dans un ensemble d'éléments, tandis qu'une variable continue prendra ses valeurs dans un intervalle.

Bien qu'à l'échelle classique, le processeur utilise un "support continu" pour placer des données discrètes, il est impossible de faire de même au niveau quantique. En effet, à cette échelle, le niveau d'énergie n'est plus une donnée continue mais discrète. Puis est apparu un problème théorique qui ne pouvait pas être résolu par la mécanique classique, le soi-disant problème du corps noir. Le terme « corps noir » fait référence à un objet capable d'absorber tout rayonnement qui lui est dirigé, quel que soit le type de rayonnement. Un tel objet ne réfléchit pas la lumière, c'est pourquoi on l'appelle aussi corps noir. En fait, ce corps ne sera pas complètement noir. En fait, s'il absorbe du rayonnement, cela signifie qu'il chauffe. Or, tout objet chauffé émet un rayonnement, ce qui est le vrai principe des ampoules électriques.

Le chat de Schrödinger

Le chat de Schrödinger est une expérience imaginée en 1935 par le physicien autrichien Erwin Schrödinger, considéré comme l'un des pères de la physique quantique.

Le chat peut adopter 2 états ; s'il est mort, son état est considéré comme 0, et s'il est encore vivant, son état est considéré comme 1.

Le chat est placé dans une boîte fermée, contenant un flacon de gaz motel (de l'acide cyanhydrique, d'après le physicien) et une source radioactive.

Il est impossible de voir le contenu du chat de l'extérieur. Dans la boîte est également placé un dispositif conçu pour libérer des poisons si la désintégration des atomes est détectée.

L'appareil ne peut fonctionner que pendant un temps limité, après quoi il y a 50 % de chances de trébucher.

Une fois l'expérience commencée, il est impossible de connaître l'état du chat, alors la probabilité qu'il soit encore en vie est égale à la probabilité que le poison ne soit pas libéré, et la probabilité qu'il soit mort est égale à la probabilité que le poison soit libéré.

Cependant, la libération de poison est aléatoire. Si nous pouvons calculer la probabilité, Il est impossible d'en être sûr. Ce n'est que par l'observation directe du chat, c'est-à-dire la «mesure», que nous pouvons connaître sa véritable condition.

8

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous devons apprendre à vivre ensemble comme des frères sinon nous allons mourir tous ensemble comme des idiots"   Martin Luther King