3.6.2. Règles d'apprentissage
Les quatre règles précédemment
énoncées sont ici successivement énoncées.
3.6.2.1. Règle de correction d'erreurs
Cette règle s'inscrit dans le paradigme d'apprentissage
supervisé, c'est-à-dire dans le cas où l'on fournit au
réseau une entrée et la sortie correspondante. Si on
considère la variable y comme étant la sortie
calculée par le réseau, et la variable d la sortie
désirée, le principe de cette règle est d'utiliser
l'erreur (d-y), afin de modifier les connexions et de diminuer ainsi
l'erreur globale du système. Le réseau va donc s'adapter
jusqu'à ce que y soit égal à d ou
très proche. Ce principe est notamment utilisé dans le
modèle Perceptron.
3.6.2.2. Règle de Boltzmann
Les réseaux de Boltzmann sont des réseaux
symétriques récurrents. Ils possèdent deux sousgroupes de
cellules, le premier étant relié à l'environnement
(cellules dites visibles) et le second ne l'étant pas (cellules dites
cachées). Cette règle d'apprentissage est de type stochastique,
relevant partiellement du hasard et consiste à ajuster les poids des
connexions, de telle sorte que l'état des cellules visibles satisfasse
une distribution probabiliste souhaitée.
3.6.2.3. Règle de Hebb
La règle de Hebb, basée sur des données
biologiques, modélise le fait que si des neurones, de part et d'autre
d'une synapse, sont activés de façon synchrone et
répétée, la force de la connexion synaptique augmente. Il
est à noter ici que l'apprentissage est localisé,
c'est-à-dire que la modification d'un poids synaptique wij ne
dépend que de l'activation d'un neurone i et d'un autre neurone j.
3.6.2.4. Règle par compétitions
La particularité de cette règle vient du fait
que l'apprentissage ne concerne qu'un seul neurone. Le principe de cet
apprentissage est de regrouper les données en catégories. Les
patrons similaires vont donc être rangés dans une même
classe, en se basant sur les corrélations des données, et seront
représentés par un seul neurone, on parle de
"winner-take-
all". Dans un réseau à
compétition simple, chaque neurone de sortie est connecté aux
neurones de la couche d'entrée, aux autres cellules de la couche de
sortie (connexions inhibitrices) et à elle-même (connexion
excitatrice). La sortie va donc dépendre de la compétition entre
les connexions inhibitrices et excitatrices.
|