WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude du calage, de la validation et des performances des réseaux de neurones formels à  partir des données hydro-climatiques du bassin versant du Bandama blanc en Côte d'Ivoire

( Télécharger le fichier original )
par Yao Blaise KOFFI
Université de Cocody Abidjan - Doctorat  2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

5.4. OUTILS D'ANALYSE STATISTIQUE

5.4.1. Estimation de la robustesse des modèles

L'une des techniques les plus utilisées pour évaluer la robustesse des modèles est la technique du double échantillon. Elle permet de tester l'adaptabilité des modèles quelle que soit leur complexité. Si l'on dispose d'observations chronologiques au pas de temps mensuel et annuel par exemple, il suffira de subdiviser la période d'observation de chaque bassin versant en sous-périodes, avec calage sur une période et validation sur le reste des observations. Dans cette étude, la robustesse est évaluée en faisant la différence des valeurs des Nash obtenus en calage et en validation (Klemes, 1986 in Perrin, 2000).

5.4.2. Méthode de l'analyse des résidus

Pour tester si les débits obtenus par un modèle de simulation ou de prévision sont significativement différents de ceux obtenus par un autre modèle, plusieurs tests sont disponibles : celui du quotient de vraisemblance (Rao, 1973) ou bien encore les tests non paramétriques comme celui de Wilcoxon (1945). Ces tests donnent bien souvent les mêmes résultats (Berthier, 2005). C'est pourquoi Hipel et McLeod (1994) ont recommandé l'utilisation du Test de Pitman (1939), équivalent au test du quotient de vraisemblance, plus rapide et aussi efficace. Le test de Pitman consiste à vérifier si la variance des erreurs de

simulation (ou de prévision) produite par un modèle est significativement différente de celle
d'un autre modèle. Cela revient à tester si le coefficient de corrélation de Pitman rp , entre St

(somme des erreurs de simulation ou de prévision des deux modèles comparés, S t = e1 , t+ e2 , t ) et Dt (différence entre les erreurs de simulation ou de prévision des deux modèles comparés, D t = e1 , t- e2 , t ) est significativement différent de zéro. A condition que le nombre (nf) de valeurs simulées pour le test dépasse 25, les deux modèles de simulation (ou de prévision)

comparés sont considérés significativement différents à 95% si rp

1,96

= . (44)

n f

Le test de Pitman a pour but de comparer les modèles de simulation ou de prévision deux à deux. Les résultats de ce test sont tabulés et les modèles sont facilement comparables deux à deux.

5.4.3. Méthode de détermination des incertitudes

Tout modélisateur sait que son modèle est incorrect, car ce dernier donne des résultats plus ou moins éloignés de la réalité. Pour utiliser le modèle et prendre des décisions, l'utilisateur doit donc connaître l'ordre de grandeur des incertitudes du modèle et ainsi quantifier et apprécier ces incertitudes (Berthier, 2005). Les origines de ces incertitudes peuvent être diverses (Perrin, 2002). Le tableau VIII fait correspondre le type d'erreur à la nature de l'erreur.

Tableau VIII : Correspondance entre le type d'erreur et sa nature (Perrin, 2002).

Type d'erreur Nature de l'erreur

Incertitude des données d'entrée Erreurs au moment de la collecte des données

et de leurs traitements, mauvaise
représentation de la variabilité spatio-
temporelle.

Incertitude du modèle Le modèle reste une représentation grossière

d'un système naturel complexe.

Incertitude des paramètres du modèle Dépend du choix de la fonction objective, des

performances d'optimisation, des échantillons
des données de calage.

Plusieurs méthodes existent dans la littérature pour estimer et représenter les incertitudes d'un
modèle en hydrologie : i) la méthode GLUE (l'échantillonnage par ordre d'importance) ; ii) la
méthode dérivée de Monte-Carlo fondée sur une approximation linéaire des écarts-types des

paramètres du modèle ; et iii) la méthode basée sur le rapport des débits observés et des débits calculés

5.4.3.1. Méthode GLUE : l'échantillonnage par ordre d'importance

La méthode Generalized Likelihood Uncertainty Estimation (GLUE) a été développée par

Beven et Binley (1992) et consiste à tirer un échantillon aléatoire de la fonction de vraisemblance et à pondérer les résultats par ordre d'importance (le meilleur résultat aura un poids maximal et le pire un poids minimal). La fonction de vraisemblance pourra être remise à jour lorsque de nouvelles données seront disponibles (Chahinian, 2004). Cette méthode gère la multiplicité possible des jeux de paramètres acceptables en les classant selon une mesure subjective traduisant l'ajustement aux données observées, tel le critère de Nash et Sutcliffe (1970) par exemple. Le succès de cette méthode dépend du choix de la fonction de vraisemblance et de la taille de l'échantillon (Kuczera et Parent, 1998). Elle est onéreuse en temps de calcul. La méthode GLUE rejette le principe du paramètre optimal unique. En effet, elle n'est pas réellement une méthode de calage dans la mesure où elle ne détermine pas un jeu de paramètres qui l'emporte sur un autre. En réalité un grand nombre de jeux de paramètres sont retenus, ce qui permet d'obtenir non pas un hydrogramme à comparer avec l'hydrogramme des débits mesurés, mais "n" hydrogrammes, ce qui permet le calcul d'un intervalle de confiance.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Le doute est le commencement de la sagesse"   Aristote