WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Reconnaissance des caractères arabes imprimés par l'approche neuro-génétique.

( Télécharger le fichier original )
par Marwa AMARA
Ecole nationale des sciences de l'informatique - Master  2010
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE 2. FONDEMENTS THÉORIQUES

FIGURE 2.1 - Modèle d'un réseau de neurone de type perceptron simple

L'action d'un neurone de type perceptron simple est d'intégrer toute l'information conte-

nue dans un vecteur d'entrée x = [x1, x2, , xn]T ? IRn afin de produire une valeur de
sortie y. La fonction de transfert entre les entrées d'un neurone et sa sortie tient compte du fait que des connexions plus ou moins excitatrices relient le neurone à chacune des variables d'entrée x ,i = 1, 2, ...n.

Le comportement d'une connexion est déterminé par son poids w , i = 1, 2, ..., n. Un coefficient synaptique w élevé tente d'activer le neurone pour l'entrée x , tandis qu'à l'inverse, un coefficient synaptique faible cherche à l'inhiber. Le neurone détermine son niveau d'activation total en réalisant une somme pondérée des entrées et des coefficients synaptiques. Lorsque son niveau d'activation est supérieur ou égal à son seuil d'activation le perceptron s'active et produit une sortie positive (y = 1). Dans le cas contraire, il s'inhibe et produit une sortie négative (y = -1). Mentionnons que couramment le seuil d'activation est appelé le biais du neurone. Nous pouvons écrire que le perceptron simple cherche à réaliser une transformation ? : IRn[-1; +1] telle que :

(?x ? IRn) ? y = ?( Xn x w - è ) ? [-1,1] (2.1)

=1

Ou ?()est la fonction du seuil :

?

?

?

+1sií = 0 -1siv < 0

Selon l'équation (2.2), le comportement du perceptron simple est entièrement commandé par l'équation de l'hyperplan :

Xn x w - è = 0 (2.2)

=1

23

CHAPITRE 2. FONDEMENTS THÉORIQUES

Cet hyperplan permet de tracer une frontière de décision séparant l'espace d'entrée en deux sous-espaces. Le perceptron simple peut discriminer des données appartenant à deux classes distinctes se situant de part et d'autre de cette frontière. Un hyperplan ne peut pas avoir une forme concave ou convexe. Les deux classes doivent être linéairement séparables pour pouvoir être distinguées par un perceptron simple. L'objectif visé par l'apprentissage supervise d'un perceptron simple consiste donc à déterminer l'équation de l'hyperplan qui permet de séparer correctement des données appartenant à l'une ou l'autre des deux classes. Les perceptrons simples présentent des limites. Un seul perceptron ne peut pas séparer des données appartenant à plus de deux classes et même des données qui ne sont pas linéairement séparables (figure-2.2).

FIGURE 2.2 - Deux situations pour lesquelles un perceptron simple ne peut pas discriminer les classes [Héb99]

Il est donc nécessaire d'améliorer ce réseau afin d'obtenir des frontières de décision mieux adaptées à la complexité d'un problème posé. Nous décrivons, dans la prochaine section, l'extension naturelle du perceptron simple qui donnera solution à ces problèmes.

2.1.2 Architecture d'un perceptron multicouche

Tel qu'il est présenté dans la figure-2.3, un PMC est composé d'une certaine couche de neurones de type perceptron. A travers ces couches, l'information se propage des entrées vers les sorties. Toutes les couches de neurones qui se trouvent avant la couche de sortie sont appelées les couches cachées du réseau. Le PMC est un réseau complètement connecté. La sortie d'un neurone d'une couche cachée devient une entrée pour tous les neurones situés sur la couche suivante et ainsi de suite jusqu'à la couche de sortie. La propagation d'un vecteur

24

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'imagination est plus importante que le savoir"   Albert Einstein