5.4. OUTILS D'ANALYSE STATISTIQUE
5.4.1. Estimation de la robustesse des modèles
L'une des techniques les plus utilisées pour
évaluer la robustesse des modèles est la technique du double
échantillon. Elle permet de tester l'adaptabilité des
modèles quelle que soit leur complexité. Si l'on dispose
d'observations chronologiques au pas de temps mensuel et annuel par exemple, il
suffira de subdiviser la période d'observation de chaque bassin versant
en sous-périodes, avec calage sur une période et validation sur
le reste des observations. Dans cette étude, la robustesse est
évaluée en faisant la différence des valeurs des Nash
obtenus en calage et en validation (Klemes, 1986 in Perrin, 2000).
5.4.2. Méthode de l'analyse des résidus
Pour tester si les débits obtenus par un modèle
de simulation ou de prévision sont significativement différents
de ceux obtenus par un autre modèle, plusieurs tests sont disponibles :
celui du quotient de vraisemblance (Rao, 1973) ou bien encore les tests non
paramétriques comme celui de Wilcoxon (1945). Ces tests donnent bien
souvent les mêmes résultats (Berthier, 2005). C'est pourquoi Hipel
et McLeod (1994) ont recommandé l'utilisation du Test de Pitman (1939),
équivalent au test du quotient de vraisemblance, plus rapide et aussi
efficace. Le test de Pitman consiste à vérifier si la variance
des erreurs de
simulation (ou de prévision) produite par un
modèle est significativement différente de celle d'un autre
modèle. Cela revient à tester si le coefficient de
corrélation de Pitman rp , entre St
(somme des erreurs de simulation ou de prévision des
deux modèles comparés, S t = e1 ,
t+ e2 , t ) et Dt
(différence entre les erreurs de simulation ou de prévision des
deux modèles comparés, D t = e1 ,
t- e2 , t ) est significativement
différent de zéro. A condition que le nombre (nf) de valeurs
simulées pour le test dépasse 25, les deux modèles de
simulation (ou de prévision)
comparés sont considérés significativement
différents à 95% si rp
1,96
= . (44)
n f
Le test de Pitman a pour but de comparer les modèles de
simulation ou de prévision deux à deux. Les résultats de
ce test sont tabulés et les modèles sont facilement comparables
deux à deux.
5.4.3. Méthode de détermination des
incertitudes
Tout modélisateur sait que son modèle est
incorrect, car ce dernier donne des résultats plus ou moins
éloignés de la réalité. Pour utiliser le
modèle et prendre des décisions, l'utilisateur doit donc
connaître l'ordre de grandeur des incertitudes du modèle et ainsi
quantifier et apprécier ces incertitudes (Berthier, 2005). Les origines
de ces incertitudes peuvent être diverses (Perrin, 2002). Le
tableau VIII fait correspondre le type d'erreur à la
nature de l'erreur.
Tableau VIII : Correspondance entre le
type d'erreur et sa nature (Perrin, 2002).
Type d'erreur Nature de l'erreur
Incertitude des données d'entrée Erreurs au moment
de la collecte des données
et de leurs traitements, mauvaise représentation de
la variabilité spatio- temporelle.
Incertitude du modèle Le modèle reste une
représentation grossière
d'un système naturel complexe.
Incertitude des paramètres du modèle Dépend
du choix de la fonction objective, des
performances d'optimisation, des échantillons des
données de calage.
Plusieurs méthodes existent dans la littérature
pour estimer et représenter les incertitudes d'un modèle en
hydrologie : i) la méthode GLUE (l'échantillonnage par ordre
d'importance) ; ii) la méthode dérivée de Monte-Carlo
fondée sur une approximation linéaire des écarts-types
des
paramètres du modèle ; et iii) la méthode
basée sur le rapport des débits observés et des
débits calculés
5.4.3.1. Méthode GLUE :
l'échantillonnage par ordre d'importance
La méthode Generalized Likelihood Uncertainty
Estimation (GLUE) a été développée par
Beven et Binley (1992) et consiste à tirer un
échantillon aléatoire de la fonction de vraisemblance et à
pondérer les résultats par ordre d'importance (le meilleur
résultat aura un poids maximal et le pire un poids minimal). La fonction
de vraisemblance pourra être remise à jour lorsque de nouvelles
données seront disponibles (Chahinian, 2004). Cette méthode
gère la multiplicité possible des jeux de paramètres
acceptables en les classant selon une mesure subjective traduisant l'ajustement
aux données observées, tel le critère de Nash et Sutcliffe
(1970) par exemple. Le succès de cette méthode dépend du
choix de la fonction de vraisemblance et de la taille de l'échantillon
(Kuczera et Parent, 1998). Elle est onéreuse en temps de calcul. La
méthode GLUE rejette le principe du paramètre optimal unique. En
effet, elle n'est pas réellement une méthode de calage dans la
mesure où elle ne détermine pas un jeu de paramètres qui
l'emporte sur un autre. En réalité un grand nombre de jeux de
paramètres sont retenus, ce qui permet d'obtenir non pas un hydrogramme
à comparer avec l'hydrogramme des débits mesurés, mais "n"
hydrogrammes, ce qui permet le calcul d'un intervalle de confiance.
|