3.8.2. Tolérance au manque d'information
Vu que la distribution de l'information est parallèle,
l'endommagement d'un neurone, ou d'une connexion, ou bien la perte de
données, ne provoque pas un échec irrémédiable dans
la performance du réseau, mais seulement une dégradation moins
sérieuse dans les résultats. Ceci est seulement vrai si la couche
cachée est munie de suffisamment de neurones. Le calcul de la sortie
étant mené par plusieurs neurones, il y a différents
chemins pour relier l'entrée à la sortie.
3.8.3. Résistance aux entrées aberrantes
Du fait des filtres saturants que constituent les fonctions
d'activation sigmoïde, le réseau est résistant aux valeurs
aberrantes qui pourraient se glisser dans les différentes séries
hydroclimatiques dont nous disposons. Néanmoins, un réseau de
neurones est prisonnier des données qui ont servi à sa
calibration (apprentissage). Pour cette raison, des analyses statistiques sont
nécessaires afin de détecter et de remplacer les données
aberrantes de nos différentes séries. Si ces données ne
sont pas réparties sur tout le continuum de leur variabilité, le
réseau sera incapable d'extrapoler sur les données. Par contre,
pour un modèle linéaire, il suffit que, les exemples pour
l'estimation des paramètres se situent sur les extrémités
de ce continuum.
3.8.4. Possibilité de se passer de pré
requis
Le Réseau de neurones est en principe capable de faire
correspondre à un ensemble de sorties, un ensemble de données
d'entrée, sans avoir recours pour cette opération à une
distribution de probabilité des variables du modèle ou à
un pré requis des relations entre elles, (Haykin, 1999). Cette notion,
bien que présente dans plusieurs références de base sur
les réseaux de neurones formels, n'est pas partagée par les
statisticiens évoluant dans ce domaine. En fait, Bishop (1995)
démontre que les Réseaux de neurones Formels requièrent
les mêmes hypothèses de distribution que les autres modèles
statistiques pour obtenir des estimations efficaces et optimales.
3.8.5. Non-unicité des modèles neuronaux par
rapport aux paramètres
Dans les modèles neuronaux, on peut trouver deux
ensembles de poids différents qui génèrent la même
sortie. De même, un même ensemble d'entrées et de sorties
peut aboutir à des ensembles de paramètres très
différents à chaque fois que le réseau est
entraîné. Les performances de ces différents modèles
peuvent cependant être identiques.
|