Cours complet sur l’hydrologie statistique

Cours complet sur l’hydrologie statistique
Terminologie et notions fondamentales
L’analyse statistique permet de synthétiser l’information hydrologique représentée par des séries de mesure sur plusieurs années en quelques paramètres qui reflètent le phénomène étudié. L’analyse statistique consiste en la formalisation des données observées par une expression mathématique. Le problème consiste à choisir le modèle probabiliste qui représentera au mieux la série expérimentale. C’est l’ajustement théorique.
La série d’observation sera décrite par trois types de paramètres :
- Les valeurs centrales ;
- Les paramètres de dispersion ;
- Les caractéristiques de forme des courbes de fréquence.
Hypothèses de travail : Cette analyse suppose que l’échantillon a été choisi de manièrealéatoire (variable aléatoire) et que les données utilisées sont homogènes (extraites d’une même population) et indépendantes.
1.1. Définitions
- Population : l'ensemble de toutes les observations dont on tire les échantillons
- Echantillon : observations X1, X2, ..., Xn d'une variable aléatoire
- Evénement : l'occurrence d'une valeur spécifique d'une variable aléatoire.
1.2. Distribution d’une série statistique
Soit un échantillon de n observations décrivant une variable aléatoire X (x1, x2, x3,…., xn).
Probabilité d’une variable
Une variable aléatoire peut être discrète ou continue. La probabilité d’une variable discrète est :
P(X=x) = p(x)
Elle est caractérisée par :
p(x) ≤ 1 F(x) = p(X ≤ x)
Lorsque la variable aléatoire est continue, on parle d’histogramme de fréquences ou polygone de fréquences.
a- Polygone des fréquences d’apparition
La construction d’un histogramme des fréquences de la variable X consiste à graduer l’axe des abscisses en valeur croissante de la variable étudiée et découpée en intervalles de classes. En ordonnée, on porte le nombre d’apparitions constatées dans chaque intervalle. On obtient ainsi un graphique en « escalier ».
Certaines règles doivent être observées :
- Nombre de classes : entre 5 et 20
- Largeur des classes : entre 0.25 et 0.5 * écart-type
- Si on dénote par C le nombre de classes : C = 1+3.3 log(n)
…
Débits
Figure 1 : Histogramme de fréquences d’un échantillon
b- courbe des valeurs classées
Ces courbes représentent :
En ordonnées : les valeurs observées, classées en ordre décroissant
En abscisse : la fréquence d’apparition de l’ensemble des valeurs supérieures à la valeur portée en ordonnée.
Ce sont des courbes qui permettent de donner le pourcentage de probabilité où une valeur observée a été égalée ou dépassée. Elles ont généralement l’allure d’un S horizontale.
c- La courbe de distribution des fréquences
On peut construire soit la distribution des fréquences cumulées au non dépassement soit la distribution des fréquences cumulées au dépassement.
…
Figure 2 : Courbe de distribution des fréquences cumulées
La fonction de densité de probabilité :
Si la taille de l’échantillon devient grande et l’intervalle de classe te,d vers zéro, le polygone des fréquences relatives sera décrit par une courbe à laquelle est associée une fonction de distribution continue appelée fonction de densité de probabilité. Elle est notée f(x) et caractérisée par :
−∫∞ f (x)dx =1+∞
Ainsi l’effectif ou la fréquence d’apparition d’une valeur xi deviendra la densité de probabilité f’(xi).
La fonction de répartition
Elle représente la probabilité de non dépassement :
p(X ≤ x)=∫x f (x)dx = F (x)
−∞
La probabilité pour que la variable soit comprise entre deux valeurs a et b est :
p(a ≤ x ≤ b)= p(b)− p(a)=∫b f (x)dxa
La probabilité au dépassement est :

+∞p( X ≥ x)=∫ f (x)dx =1− p( X ≤ x)x
En hydrologie on parle surtout de probabilité de dépassement (ou probabilité d’apparition) :
p(X ≥ x)=1− F (x)
Figure 3 : Fonction de répartition
Probabilité d’apparition :
La probabilité d’apparition d’un phénomène est une notion importante pour le dimensionnement des structures conditionnées par un phénomène naturel. On définie l’intervalle moyen de récurrence, ou période de retour, par:
T =P1
P : probabilité de dépassement (p(X ≥ xT))
Exemple :
- un débit d’inondation dont la probabilité d’apparition ou de dépassement est de 0.033 est appelé crue de 30 ans (T=1/0.033)
Les intervalles de récurrence recommandés pour le dimensionnement de certaines structures sont présentés dans le tableau suivant.
Tableau 1 : Périodes de récurrence recommandée pour certains ouvrages
Type d’ouvrage | Période de récurrence (T) recommandée |
Déversoirs de barrage | 500 à 1000 ans |
Autoroutes | 100 ans |
Routes principales | 50 ans |
Routes secondaires | 25 ans |
Digues | 100 ans |
Plaines inondables | 100 ans |
Egouts pluvieux, fossés de drainage | 5 à 10 ans |
Egouts pluvieux de moindre importance | 1 à 2 ans |
Notions de risque :
Le concept de risque hydrologique est à la base du choix de la période de récurrence utilisée pour la conception d’ouvrages hydrauliques. Elle représente la probabilité qu’un critère de conception soit dépassé au moins une fois pendant la période de retour calculée
(T) ;
La probabilité que la variable aléatoire prenne la valeur x (probabilité pour qu’un événement se produise) pour la première fois dans les (k-1) prochaines années :
C’est le produit des probabilités de non apparition pendant (k-1) années et la probabilité d’apparition à la (kème) année :
p(1− p)k−1=T1(1−T1)k−1
On définit le risque hydrologique (R) comme étant la probabilité de dépassement de la valeur xT au cours des k années de la vie d’un projet. La probabilité pk que l’événement x se produise au moins une fois dans les (k) prochaines années : C’est la somme des probabilités d’apparition pendant les années 1, 2, 3, …..,k.
pk= p + p(1− p)+ p(1− p)2+ p(1− p)3+........+ p(1− p)k−1=1−(1− p)k pk= R =1−(1−T1)k
Exemple 1:
La probabilité d’apparition dans le 30 prochaines années (risque), d’un débit de valeur x dont l’intervalle de récurrence est T=100 ans:
p30=1−(1−1001)30=0.26
Pour un échantillon de 30 ans, il y a 26 sur 100 de chance (de risque) que cet échantillon contienne une valeur dont l’intervalle réel de récurrence est de 100 ans.

En spécifiant le risque, on peut déterminer la période de récurrence nécessaire.
Exemple 2:
Un risque de 10 % pour que la capacité d’un ouvrage ne soit pas dépassée durant les 25 prochaines années :
0.01 = 1 − (1 − T1 )25
La période de récurrence nécessaire est T =238 ans.
2. Caractéristiques d’une distribution
Une série statistique (échantillon) est caractérisée par trois types de paramètres : 1- les valeur centrales : (moyenne, mode, médiane)
2- les indices de dispersion :
- l’étendue (ou l’amplitude) : w = xmax − xmin
…
3. L’analyse fréquentielle
L'analyse fréquentielle est une méthode statistique de prédiction consistant à étudier les événements passés, caractéristiques d'un processus donné (hydrologique ou autre), afin d'en définir les probabilités d'apparition future. La figure 5 présente les étapes de l’analyse fréquentielle.
Définition et but de l’étude
Constitution d’une série de valeurs
Contrôle de la série des valeurs
Choix du modèle d’analyse fréquentielle
Ajustement du modèle
Contrôle de l’ajustement
Analyse des incertitudes
Exploitation du modèle
Figure 4 : Etapes de l’analyse fréquentielle.
La constitution d'échantillons, au sens statistique du terme, est un processus long, au cours duquel de nombreuses erreurs, de nature fort différente, sont susceptibles d'être commises. Par ailleurs, il est indispensable, avant d'utiliser des séries de données, de se préoccuper de leur qualité et de leur représentativité.
3.1. Analyse de fréquence :
Deux méthodes sont possibles pour effectuer l’analyse de fréquence :
– Méthode graphique
– Méthode analytique
Méthode graphique
C’est une méthode empirique qui consiste à placer sur un graphique les points constituant un échantillon donné, calculant pour chaque valeur sa fréquence expérimentale de dépassement ou de non dépassement.
Les étapes à suivre sont :
Classer les événements xi par ordre décroissant et affecter à la plus grande valeur l’ordre 1 Calculer la fréquence expérimentale associée à chaque événement à l’aide de la formule générale:
…
pm : probabilité de dépassement de la mème valeur m : le rang qu’occupe la valeur
n : le nombre d’observation
α : paramètre qui varie selon les auteurs (Voir tableau suivant)
Plusieurs formules sont présentées dans la littérature pour le calcul de la fréquence. La formule la plus utilisée est celle de Weibull pour laquelle α=0.
Tableau 4: Formules pour la détermination de la fréquence expérimentales pour la méthode graphique
Après avoir classé les événements par ordre décroissant et Calculé la fréquence expérimentale associée à chaque événement :
- Choisir un papier à probabilité correspondant à la fonction de densité choisie (Normale, lognormal ou autre);
- Positionner les points expérimentaux sur le papier;
- Tracer une courbe d’ajustement à travers le nuage de points;
- Interpoler ou extrapoler pour trouver la fréquence d’un événement donné ou obtenir la valeur de l’événement correspondant à une probabilité donnée.
La méthode graphique présente l’avantage d’être facile d’utilisation et permet l’évaluation visuelle de l’ajustement d’une fonction de distribution donnée à l’échantillon. Néanmoins, elle manque de précision et ne permet pas la comparaison entre différentes distributions.

Méthode analytique :
L’équation générale est la suivante : x = x + ∆xx : Moyenne
∆x : Ecart par rapport à la moyenne, fonction des caractéristiques de dispersion de la distribution. Cet écart peut être égal à :
∆x = k ⋅ s
k : Facteur de fréquence s : Ecart type
xT= x + kT⋅ s
…
3.2. Choix du modèle fréquentiel
La validité des résultats d'une analyse fréquentielle dépend du choix du modèle fréquentiel et plus particulièrement de son type. Diverses pistes peuvent contribuer à faciliter ce choix, mais il n'existe malheureusement pas de méthode universelle et infaillible.
A partir de l’échantillon de n observations, l’histogramme de fréquence d’apparition, la courbe de fréquence cumulée de non dépassement sont construits.
Si le nombre n devient grand, on cherche la loi de distribution de la population. La fréquence devient densité de probabilité.
Tableau 5: Variables hydrologiques et les lois qui généralement s’y ajustent
Lois | Variables |
Normale | Précipitations annuelles, Débits, Volume de stockage des réservoirs |
Log Normale | Débits maxima annuels, Précipitations journalières, Précipitations annuelles, Volume du ruissellement mensuel, Volume du ruissellement annuel |
Pearson type III(Gamma) | Débits maxima annuels, Précipitations journalières, Précipitations annuelles, Volume du ruissellement mensuel, Volume du ruissellement annuel |
Loi de Gumbel et Fréchet | Débits maxima annuels |
Loi exponentielle | Précipitations journalières, Durée entre deux événements |
Loi de Goodrich | Valeurs moyennes annuelles (débits, précipitations, etc.. |
Les lois les plus utilisées en hydrologie sont la loi normale (loi de Gauss) et la loi de Gumbel.
Considérations théoriques
Loi normale
La loi normale se justifie, comme la loi d'une variable aléatoire formée de la somme d'un grand nombre de variables aléatoires. En hydrologie fréquentielle des valeurs extrêmes, les distributions ne sont cependant pas symétriques, ce qui constitue un obstacle à son utilisation. Cette loi s'applique toutefois généralement bien à l'étude des modules annuels des variables hydro-météorologiques en climat tempéré. La fonction de densité de probabilité est définie par :
…
Les deux paramètres de cette distribution sont la moyenne m et l’écart type σ.
La fonction de densité f(x) se présente sous forme de courbe en cloche, symétrique par rapport à la moyenne m.
Si on opère le changement de variable suivant :
…
L’estimation de la moyenne de la distribution théorique (m) est la moyenne de l’échantillon ( x ). L’estimation de l’écart type de la distribution théorique (σ) à partir d’un échantillon de taille n est :
…
A partir de l’expression de la variable réduite on peut écrire : x = m + z ⋅σ
Le facteur de fréquence correspond donc à la variable réduite (kT=zT). L’équation de fréquence s’écrit :
xT= x + zT⋅ s
xT : la valeur de la variable pour une période de retour T.
Exemple :
Déterminons la valeur de la pluie pour la période de retour de 10 ans :

Moyenne : m=704 mm
Ecart type : s=252 mm
T = 10 ans :
P(Z≤z)=1-1/T=1-1/10=0.9
La valeur de la variable réduite selon la table (par interpolation) est : z=1.28 donc k10=1.28. x10= m + k10⋅ s =704+1.28⋅252=1027mm
Loi de Gumbel (distribution des valeurs extrêmes)
E.-J. Gumbel postule que la loi double exponentielle, ou loi de Gumbel, est la forme limite de la distribution de la valeur maximale d'un échantillon de n valeurs. Le maximum annuel d'une variable étant considéré comme le maximum de 365 valeurs journalières, cette loi doit ainsi être capable de décrire les séries de maxima annuels.
La fonction de répartition a la forme suivante :
− ( x − β )
F (x)= e−eα
La variable réduite u de Gumbel est définie par :
u= x – βα d’où , F(x)=e−e−u
Où α et β sont les paramètres de la loi. Le paramètre α est un paramètre caractéristique de la dispersion. On démontre que β est le mode (la valeur la plus probable).
L’estimation des paramètres peut être calculée par la méthode des moments:
α = 0.78 ⋅ s
β = x − 0.45 ⋅ s
s est l’écart type de l’échantillon ; x est la moyenne de l’échantillon.
La variable réduite u de Gumbel se calcule par :
u = −Log(−Log(F )) ;
F étant la probabilité de non dépassement.
L’équation de fréquence la loi de Gumbel s’écrit:
xT= x + kT⋅ s
Si la taille de l’échantillon est supérieure à 100, on peut démontrer en remplaçant α et β par leur valeurs dans l’équation de fréquence que:
…
Si la taille de l’échantillon est inférieure à100, le facteur kT est obtenu à partir de valeurs tabulées en fonction de la taille de l’échantillon.
Distribution de Pearson (Gamma) Type III
La fonction de densité de probabilité de la loi de Pearson Type III à deux paramètres :
…
α,β et γ sont des paramètres.
Si on introduit la variable u=x- γ dans l’équation précédente la loi Pearson III devient une distribution à deux paramètres.
Estimation des paramètres :
2 2β = Csλ = sβγ = x + sβ
Cs est le coefficient d’asymétrie.
Equation de fréquence : xT = x + kTs
Le facteur de fréquence kT peut être calculé selon la formule :
…
Où z est la variable réduite de la loi normale correspondant à la période de retour T.
Si Cs=1 la loi Pearson III correspond à la loi normale.
Loi de Galton (Loi log-normale)
Lorsque les valeurs du logarithme d’une variable X suivent une distribution normale, on dit que la variable X suit une loi de Galton.
La loi log-normale est préconisée par certains hydrologues qui la justifient en argumentant que l'apparition d'un événement hydrologique résulte de l'action combinée d'un grand nombre de facteurs qui se multiplient.
Loi de Frechet

On dit qu’une variable suit une loi de Frechet si la variable log(X) suit une loi de Gumbel.
Il est à remarquer que plus le nombre de paramètres d'une loi est grand, plus l'incertitude dans l'estimation est importante. Pratiquement il est par conséquent préférable d'éviter l'utilisation de lois à trois paramètres ou plus.
3.3. Contrôle de l’ajustement
Il existe toujours des écarts entre les fréquences expérimentales des valeurs observées et les fréquences des mêmes valeurs calculées à partir d’une fonction de répartition quelconque. L’ajustement graphique est la première étape mais reste insuffisante pour le choix définitif de la loi théorique. Le test statistique d’adéquation consiste à comparer l’adéquation de plusieurs lois afin d’adopter le moins mauvais ajustement. Les tests les plus utilisés sont le test χ2 et le texte de Kolmogorov Smirnov.
Le test d’adéquation de χ2 :
Ce test permet de faire une comparaison entre la distribution empirique et la distribution théorique. Le principe consiste à faire l’hypothèse que les deux distributions ne différent pas. Si la probabilité qu’il en soit ainsi est faible, on rejette l’hypothèse et on conclura que la distribution théorique ne s’ajuste pas à l’échantillon étudié. Si au contraire cette probabilité est forte, la loi théorique sera acceptée.
Soit un échantillon de taille n (x1,x2,…..xn)
Hypothèse: Ho : x1,x2,…..xn sont issus d’une population distribuée selon la loi de probabilité F(x) à p paramètres.
La mise en oeuvre consiste à subdiviser l’échantillon en k classes équiprobables, chacune ayant une probabilité théorique : Pi telle que Pi = vni où vi est l’effectif théorique (nombre d’éléments) de chaque classe i.
En réalité l’effectif réel de chaque classe i est ni, plus ou moins différent de vi.
Le problème est de vérifier si l’écart entre les vi et les ni des différentes classes est significatif. La vérification se fait par le calcul de la moyenne des carrées des écarts entre ces deux effectifs :
…
Cette quantité suit une loi χ2 à µ degrés de liberté. Avec :
µ = k − p −1≥1
Ce qui implique que k ≥ p+2
Le test n’est significatif que si vi ≥ 5.
χcalculé2est comparée à une valeur tabulée, χtabulé2, fonction du nombre de degré de liberté et duseuil de signification α imposé en général à 5%.
Des tables donnant la loi χtabulé2 à la probabilité α de dépassement existent. si χcalculé2 > χtabulé2,µ On rejette l’hypothèse nulle.
Si χcalculé2 ≤ χtabulé2,µ la loi d’ajustement sera retenue.
Le test de Kolmogorov Smirnov
Ce test se base sur la fonction de répartition empirique Fn(x) définie par :
= nombre d'observations ≤ F (x) x
F(x) est comparée à l’échantillon selon le principe suivant : On calcule la quantité Dn telle que :
NDn=max F (xi)− Fn(xi) i=1
Pour chaque événement xi observé, on calcule sa fréquence théorique F(xi) et Fn(xi).
Dn est la valeur maximale de toutes les quantités calculées F (xi ) − Fn (xi ) . Le test repose sur la valeur de Dn. Si celle-ci est assez grande, la loi sera rejetée.
Le test consiste à calculer la quantité Dn,α, fonction de la taille de l’échantillon n,et d’un seuil de risque imposé α sur des tables appropriées au test de Kolmogorov-Smirnov.
Si Dn > Dn,α alors l’hypothèse de validité est rejetée.
Intervalle de confiance
La valeur d’une variable estimée ne correspond pas à la vraie valeur qui ne peut être connue qu’avec un échantillonnage de dimension infinie. La notion d’intervalle de confiance représente un certain nombre de chances de trouver la vraie valeur du paramètre cherché. Son amplitude est d’autant plus grande que :
- Le degré de confiance choisi est grand
- La dispersion (écart) est grande
- La taille de l’échantillon est réduite
Le chois du degré de confiance dépend du risque que le projecteur accepte. Le degré est choisi d’autant plus élevé que l’on recherche la sécurité.
Valeurs communément admises :
- 95 % pour les projets importants économiquement et/ou exigeant une sécurité élevée
- 70 % pour les projets d’importance économique moindre et / ou n’exigeant pas une sécurité très poussée
Loi Normale
xT= x + kT s
On peut montrer que la valeur xT pour une période de retour T a α % de chance d’appartenir à l’intervalle :
…