WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Stockage d'information sur une structure chaotique

( Télécharger le fichier original )
par Jean-Pierre Bachy
Université Joseph Fourier Grenoble - Mémoire de recherche 1993
  

précédent sommaire

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.3 Phase de restitution

La restitution du vecteur à partir de ses transformés revient à extraire un signal d'un

bruit.

Nous avons choisi une méthode dérivée de celle utilisée pour les potentiels évoqués: l'annulation du bruit est obtenue par moyennage de copies multiples du signal, chacune étant bruitée de façon différente.

Pour une clé donnée le vecteur de sortie est obtenu en faisant la moyenne des vecteurs transformés inscrits sur le réseau:

mD K

1 k

Sj = ~ T(j*b k )mod(d+1)

~

D d =m1 k=1

3- Modèle avec une modulation associée à la transformation chaotique

Le principe est le même que le précédent mais on introduit un traitement du signal avant ou au moment du stockage. Il s'agit d'une modulation d'amplitude par un signal sinusoïdal.

L'utilisation d'une modulation d'amplitude en radiophonie permet de décaler, dans le spectre des fréquences, la fréquence propre du signal à transmettre. Elle permet d'éviter la superposition des stations émettrices

Y(t) = A(t).sin 2pi F.t

Y(t) est le signal modulé, A(t) le signal modulant, F la fréquence modulée ou porteuse.

Ici la modulation va avoir pour effet d'orthogonaliser plus encore les vecteurs à mémoriser, sans perte d'information, puisque la démodulation restitue le signal d'origine.

La porteuse est générée par échantillonnage d'une sinusoïde dont la période est un sous-multiple de la dimension des vecteurs transformés. En d'autres termes, on trouve un nombre entier de périodes dans chaque vecteur transformé.

Le pas d'échantillonnage est égal au paramètre b qui est la clé affectée à chaque vecteur à mémoriser.

Quelques porteuses obtenues par échantillonnage de la sinusoïde de base:

exemple de signal modulé obtenu avec b = 7

La figure suivante montre le gain obtenu en orthogonalisation pour un même vecteur, transformé avec des b premiers différents {5..51}

Le gain en orthogonalisation reste faible pour la seule transformation chaotique mais celle-ci génère une modulation propre à chaque image qui se révèle très puissante.

Si nous prenons deux vecteurs différents à l'origine les vecteurs transformés deviennent quasi orthogonaux:

4- Etudes:

4.1 Visualisation de l'activité du réseau

La figure ci-dessous montre les 100 premières valeurs des 4 premières zones de stockage Qm1, Qm2, Qm3, Qm4, après l'inscription de 6 vecteurs transformés Tk k{1.. 6}sur le réseau et la partie du vecteur somme correspondant. On remarque que les valeurs particulières

à chaque image s'annulent et que le signal sinusoïdal échantillonné au départ est reconstitué par addition des porteuses affectées aux images.

4.2 Capacité maximale théorique de stockage:

L'opération de modulation est une méthode d'orthogonalisation. Nous l'avons comparée à la méthode de référence de GRAM SCHMIDT [KEE].

Un premier vecteur à mémoriser est transformé avec une «clé» b en un ensemble de vecteurs chaotiques de dimensions d différentes (Q1 à QD). Cet ensemble constitue la base sur laquelle viendront s'additionner les ensembles suivants.

Un deuxième vecteur est transformé avec une clé différente et génère un deuxième ensemble de vecteurs chaotiques.

Si on veut additionner les deux ensembles de façon à ce que l'un apparaisse comme un bruit par rapport à l'autre, il faut orthogonaliser le deuxième ensemble par rapport au premier. C'était le rôle de la modulation dans notre méthode.

Dans la méthode de GRAM SCHMIDT l'ensemble est recalculé. Le coefficient à appliquer à chaque composante d'un vecteur transformé de dimension d donnée est mémorisé. Il permettra la reconstruction du vecteur d'origine en phase de restitution.

Les vecteurs suivants sont mémorisés de la même façon: chaque nouvel ensemble est recalculé de façon à être orthogonal aux éléments déjà mémorisés.

Dans notre expérimentation la méthode de GRAM SCHMIDT permet de doubler la capacité de stockage (20 vecteurs-tests à niveaux de gris au lieu de 10).

La suite logique de ce travail est l'articulation de ce modèle avec une mémoire associative classique et l'étude quantitative des capacités de mémorisation en fonction de la dimension du réseau.

20 «images» mémorisées

exemples restitution après superposition

Ci-dessus quelques échantillons d'images 1D mémorisées sur le réseau et leur restitution après stockage, sans traitement

5- Références

[DAV89] Eric Davalo, Patrick Naïm, Le modèle de HOPFIED , in des Réseaux de Neurones, Eyrolles 89, p 104-112

[DEW87] Dewdney A., Explorez le monde étrange du chaos, Récréations informatiques, in Pour la Science, N° 119, Sept 87, p 13-16

précédent sommaire






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Je ne pense pas qu'un écrivain puisse avoir de profondes assises s'il n'a pas ressenti avec amertume les injustices de la société ou il vit"   Thomas Lanier dit Tennessie Williams