Problème à signaler:


Télécharger Cours complet sur l’hydrologie statistique



★★★★★★★★★★3 étoiles sur 5 basé sur 1 votes.
3 stars
1 votes

Votez ce document:

Télécharger aussi :

Cours complet sur l’hydrologie statistique




Cours complet sur l’hydrologie statistique

Terminologie et notions fondamentales

L’analyse statistique permet de synthétiser l’information hydrologique représentée par des séries de mesure sur plusieurs années en quelques paramètres qui reflètent le phénomène étudié. L’analyse statistique consiste en la formalisation des données observées par une expression mathématique. Le problème consiste à choisir le modèle probabiliste qui représentera au mieux la série expérimentale. C’est l’ajustement théorique.

La série d’observation sera décrite par trois types de paramètres :

-          Les valeurs centrales ;

-          Les paramètres de dispersion ;

-          Les caractéristiques de forme des courbes de fréquence.

Hypothèses de travail : Cette analyse suppose que l’échantillon a été choisi de manière aléatoire (variable aléatoire) et que les données utilisées sont homogènes (extraites d’une même population) et indépendantes.

1.1.  Définitions

  • Population : l'ensemble de toutes les observations dont on tire les échantillons
  • Echantillon : observations X1, X2, ..., Xn d'une variable aléatoire
  • Evénement : l'occurrence d'une valeur spécifique d'une variable aléatoire.

1.2.  Distribution d’une série statistique

Soit un échantillon de n observations décrivant une variable aléatoire X (x1, x2, x3,…., xn).

Probabilité d’une variable

Une variable aléatoire peut être discrète ou continue. La probabilité d’une variable discrète est :

P(X=x) = p(x)

Elle est caractérisée par :

p(x) ≤ 1 F(x) = p(X ≤ x)

Lorsque la variable aléatoire est continue, on parle d’histogramme de fréquences ou polygone de fréquences.

a- Polygone des fréquences d’apparition

La construction d’un histogramme des fréquences de la variable X consiste à graduer l’axe des abscisses en valeur croissante de la variable étudiée et découpée en intervalles de classes. En ordonnée, on porte le nombre d’apparitions constatées dans chaque intervalle. On obtient ainsi un graphique en « escalier ».

Certaines règles doivent être observées :

  • Nombre de classes : entre 5 et 20
  • Largeur des classes : entre 0.25 et 0.5 * écart-type
  • Si on dénote par C le nombre de classes : C = 1+3.3 log(n)

Débits

Figure 1 : Histogramme de fréquences d’un échantillon

b- courbe des valeurs classées

Ces courbes représentent :

En ordonnées : les valeurs observées, classées en ordre décroissant

En abscisse : la fréquence d’apparition de l’ensemble des valeurs supérieures à la valeur portée en ordonnée.

Ce sont des courbes qui permettent de donner le pourcentage de probabilité où une valeur observée a été égalée ou dépassée. Elles ont généralement l’allure d’un S horizontale.

c- La courbe de distribution des fréquences

On peut construire soit la distribution des fréquences cumulées au non dépassement soit la distribution des fréquences cumulées au dépassement.

Figure 2 : Courbe de distribution des fréquences cumulées

La fonction de densité de probabilité :

Si la taille de l’échantillon devient grande et l’intervalle de classe te,d vers zéro, le polygone des fréquences relatives sera décrit par une courbe à laquelle est associée une fonction de distribution continue appelée fonction de densité de probabilité. Elle est notée f(x) et caractérisée par :

 f (x)dx = 1+∞

Ainsi l’effectif ou la fréquence d’apparition d’une valeur xi deviendra la densité de probabilité f’(xi).

La fonction de répartition

Elle représente la probabilité de non dépassement :

p( x) = x f (x)dx = F (x)

−∞

La probabilité pour que la variable soit comprise entre deux valeurs a et b est :

p( x  b) = p(b)  p(a) = b f (x)dxa

La probabilité au dépassement est :

+∞p( X  x) =  f (x)dx = 1  p( X  x)x

En hydrologie on parle surtout de probabilité de dépassement (ou probabilité d’apparition) :



p( x) = 1  F (x)

Figure 3 : Fonction de répartition

Probabilité d’apparition :

La probabilité d’apparition d’un phénomène est une notion importante pour le dimensionnement des structures conditionnées par un phénomène naturel. On définie l’intervalle moyen de récurrence, ou période de retour, par:

= P1

P : probabilité de dépassement (p(X ≥ xT))

Exemple :

- un débit d’inondation dont la probabilité d’apparition ou de dépassement est de 0.033 est appelé crue de 30 ans (T=1/0.033)

Les intervalles de récurrence recommandés pour le dimensionnement de certaines structures sont présentés dans le tableau suivant.

Tableau 1 : Périodes de récurrence recommandée pour certains ouvrages

Type d’ouvrage

Période de récurrence (T) recommandée

Déversoirs de barrage

500 à 1000 ans

Autoroutes

100 ans

Routes principales

50 ans

Routes secondaires

25 ans

Digues

100 ans

Plaines inondables

100 ans

Egouts pluvieux, fossés de drainage

5 à 10 ans

Egouts pluvieux de moindre importance

1 à 2 ans

Notions de risque :

Le concept de risque hydrologique est à la base du choix de la période de récurrence utilisée pour la conception d’ouvrages hydrauliques. Elle représente la probabilité qu’un critère de conception soit dépassé au moins une fois pendant la période de retour calculée

(T) ;

La probabilité que la variable aléatoire prenne la valeur x (probabilité pour qu’un événement se produise) pour la première fois dans les (k-1) prochaines années :

C’est le produit des probabilités de non apparition pendant (k-1) années et la probabilité d’apparition à la (kème) année :

p(1  p)k −1 = T1 (1  T1 )k −1

On définit le risque hydrologique (R) comme étant la probabilité de dépassement de la valeur xT au cours des k années de la vie d’un projet. La probabilité pk que l’événement x se produise au moins une fois dans les (k) prochaines années : C’est la somme des probabilités d’apparition pendant les années 1, 2, 3, …..,k.

pk = p + p(1  p) + p(1  p)2 + p(1  p)3 + ........ + p(1  p)k −1 = 1  (1  p)k pk = R = 1  (1  T1 )k

Exemple 1:

La probabilité d’apparition dans le 30 prochaines années (risque), d’un débit de valeur x dont l’intervalle de récurrence est T=100 ans:

p30  = 1  (1  1001)30  = 0.26

Pour un échantillon de 30 ans, il y a 26 sur 100 de chance (de risque) que cet échantillon contienne une valeur dont l’intervalle réel de récurrence est de 100 ans.

En spécifiant le risque, on peut déterminer la période de récurrence nécessaire.

Exemple 2:

Un risque de 10 % pour que la capacité d’un ouvrage ne soit pas dépassée durant les 25 prochaines années :

0.01 = 1 − (1 − T1 )25

La période de récurrence nécessaire est T =238 ans.

2. Caractéristiques d’une distribution

Une série statistique (échantillon) est caractérisée par trois types de paramètres : 1- les valeur centrales : (moyenne, mode, médiane)

2-  les indices de dispersion :

- l’étendue (ou l’amplitude) : w = xmax − xmin

3. L’analyse fréquentielle



L'analyse fréquentielle est une méthode statistique de prédiction consistant à étudier les événements passés, caractéristiques d'un processus donné (hydrologique ou autre), afin d'en définir les probabilités d'apparition future. La figure 5 présente les étapes de l’analyse fréquentielle.

Définition et but de l’étude

Constitution d’une série de valeurs

Contrôle de la série des valeurs

Choix du modèle d’analyse fréquentielle

Ajustement du modèle

Contrôle de l’ajustement

Analyse des incertitudes

Exploitation du modèle

Figure 4 : Etapes de l’analyse fréquentielle.

La constitution d'échantillons, au sens statistique du terme, est un processus long, au cours duquel de nombreuses erreurs, de nature fort différente, sont susceptibles d'être commises. Par ailleurs, il est indispensable, avant d'utiliser des séries de données, de se préoccuper de leur qualité et de leur représentativité.

3.1. Analyse de fréquence :

Deux méthodes sont possibles pour effectuer l’analyse de fréquence :

–  Méthode graphique

–  Méthode analytique

Méthode graphique

C’est une méthode empirique qui consiste à placer sur un graphique les points constituant un échantillon donné, calculant pour chaque valeur sa fréquence expérimentale de dépassement ou de non dépassement.

Les étapes à suivre sont :

Classer les événements xi par ordre décroissant et affecter à la plus grande valeur l’ordre 1 Calculer la fréquence expérimentale associée à chaque événement à l’aide de la formule générale:

pm : probabilité de dépassement de la mème valeur m : le rang qu’occupe la valeur

n : le nombre d’observation

α : paramètre qui varie selon les auteurs (Voir tableau suivant)

Plusieurs formules sont présentées dans la littérature pour le calcul de la fréquence. La formule la plus utilisée est celle de Weibull pour laquelle α=0.

Tableau 4: Formules pour la détermination de la fréquence expérimentales pour la méthode graphique

Après avoir classé les événements par ordre décroissant et Calculé la fréquence expérimentale associée à chaque événement :

-          Choisir un papier à probabilité correspondant à la fonction de densité choisie (Normale, lognormal ou autre);

-            Positionner les points expérimentaux sur le papier;

-            Tracer une courbe d’ajustement à travers le nuage de points;

-          Interpoler ou extrapoler pour trouver la fréquence d’un événement donné ou obtenir la valeur de l’événement correspondant à une probabilité donnée.

La méthode graphique présente l’avantage d’être facile d’utilisation et permet l’évaluation visuelle de l’ajustement d’une fonction de distribution donnée à l’échantillon. Néanmoins, elle manque de précision et ne permet pas la comparaison entre différentes distributions.

Méthode analytique :

L’équation générale est la suivante : x = x + ∆x : Moyenne

x : Ecart par rapport à la moyenne, fonction des caractéristiques de dispersion de la distribution. Cet écart peut être égal à :

x = k ⋅ s

k : Facteur de fréquence s : Ecart type

xT  = x + kT   s

3.2. Choix du modèle fréquentiel

La validité des résultats d'une analyse fréquentielle dépend du choix du modèle fréquentiel et plus particulièrement de son type. Diverses pistes peuvent contribuer à faciliter ce choix, mais il n'existe malheureusement pas de méthode universelle et infaillible.

A partir de l’échantillon de n observations, l’histogramme de fréquence d’apparition, la courbe de fréquence cumulée de non dépassement sont construits.

Si le nombre n devient grand, on cherche la loi de distribution de la population. La fréquence devient densité de probabilité.

Tableau 5: Variables hydrologiques et les lois qui généralement s’y ajustent

Lois

Variables

Normale

Précipitations annuelles, Débits, Volume de stockage des réservoirs

Log Normale

Débits maxima annuels, Précipitations journalières, Précipitations annuelles, Volume du ruissellement mensuel, Volume du ruissellement annuel

Pearson type III(Gamma)

Débits maxima annuels, Précipitations journalières, Précipitations annuelles, Volume du ruissellement mensuel, Volume du ruissellement annuel



Loi de Gumbel et Fréchet

Débits maxima annuels

Loi exponentielle

Précipitations journalières, Durée entre deux événements

Loi de Goodrich

Valeurs moyennes annuelles (débits, précipitations, etc..

Les lois les plus utilisées en hydrologie sont la loi normale (loi de Gauss) et la loi de Gumbel.

Considérations théoriques

Loi normale

La loi normale se justifie, comme la loi d'une variable aléatoire formée de la somme d'un grand nombre de variables aléatoires. En hydrologie fréquentielle des valeurs extrêmes, les distributions ne sont cependant pas symétriques, ce qui constitue un obstacle à son utilisation. Cette loi s'applique toutefois généralement bien à l'étude des modules annuels des variables hydro-météorologiques en climat tempéré. La fonction de densité de probabilité est définie par :

Les deux paramètres de cette distribution sont la moyenne m et l’écart type σ.

La fonction de densité f(x) se présente sous forme de courbe en cloche, symétrique par rapport à la moyenne m.

Si on opère le changement de variable suivant :

L’estimation de la moyenne de la distribution théorique (m) est la moyenne de l’échantillon ( x ). L’estimation de l’écart type de la distribution théorique (σ) à partir d’un échantillon de taille n est :

A partir de l’expression de la variable réduite on peut écrire : = m + z σ

Le facteur de fréquence correspond donc à la variable réduite (kT=zT). L’équation de fréquence s’écrit :

xT  = x + zT   s

xT : la valeur de la variable pour une période de retour T.

Exemple :

Déterminons la valeur de la pluie pour la période de retour de 10 ans :

Moyenne : m=704 mm

Ecart type : s=252 mm

T = 10 ans :

P(Z≤z)=1-1/T=1-1/10=0.9

La valeur de la variable réduite selon la table (par interpolation) est : z=1.28 donc k10=1.28. x10 = m + k10  s = 704 + 1.28  252 = 1027mm

Loi de Gumbel (distribution des valeurs extrêmes)

E.-J. Gumbel postule que la loi double exponentielle, ou loi de Gumbel, est la forme limite de la distribution de la valeur maximale d'un échantillon de n valeurs. Le maximum annuel d'une variable étant considéré comme le maximum de 365 valeurs journalières, cette loi doit ainsi être capable de décrire les séries de maxima annuels.

La fonction de répartition a la forme suivante :

 ( x − β )

(x) = ee   α

La variable réduite u de Gumbel est définie par :

u = x  βα d’où , F (x) = ee u

Où α et β sont les paramètres de la loi. Le paramètre α est un paramètre caractéristique de la dispersion. On démontre que β est le mode (la valeur la plus probable).

L’estimation des paramètres peut être calculée par la méthode des moments:

α   = 0.78 ⋅ s

 β  = x − 0.45 ⋅ s

s est l’écart type de l’échantillon ; est la moyenne de l’échantillon.

La variable réduite u de Gumbel se calcule par :

= −Log(−Log()) ;

F étant la probabilité de non dépassement.

L’équation de fréquence la loi de Gumbel s’écrit:

xT  = x + kT   s

Si la taille de l’échantillon est supérieure à 100, on peut démontrer en remplaçant α et β par leur valeurs dans l’équation de fréquence que:

Si la taille de l’échantillon est inférieure à100, le facteur kT est obtenu à partir de valeurs tabulées en fonction de la taille de l’échantillon.

Distribution de Pearson (Gamma) Type III

La fonction de densité de probabilité de la loi de Pearson Type III à deux paramètres :

α,β et γ sont des paramètres.

Si on introduit la variable u=x- γ dans l’équation précédente la loi Pearson III devient une distribution à deux paramètres.



Estimation des paramètres :

2  2 β = Csλ =     sβ γ = x + s    β

Cs est le coefficient d’asymétrie.

Equation de fréquence : xT  = x + kT s

Le facteur de fréquence kT peut être calculé selon la formule :

Où z est la variable réduite de la loi normale correspondant à la période de retour T.

Si Cs=1 la loi Pearson III correspond à la loi normale.

Loi de Galton (Loi log-normale)

Lorsque les valeurs du logarithme d’une variable X suivent une distribution normale, on dit que la variable X suit une loi de Galton.

La loi log-normale est préconisée par certains hydrologues qui la justifient en argumentant que l'apparition d'un événement hydrologique résulte de l'action combinée d'un grand nombre de facteurs qui se multiplient.

Loi de Frechet

On dit qu’une variable suit une loi de Frechet si la variable log(X) suit une loi de Gumbel.

Il est à remarquer que plus le nombre de paramètres d'une loi est grand, plus l'incertitude dans l'estimation est importante. Pratiquement il est par conséquent préférable d'éviter l'utilisation de lois à trois paramètres ou plus.

3.3. Contrôle de l’ajustement

Il existe toujours des écarts entre les fréquences expérimentales des valeurs observées et les fréquences des mêmes valeurs calculées à partir d’une fonction de répartition quelconque. L’ajustement graphique est la première étape mais reste insuffisante pour le choix définitif de la loi théorique. Le test statistique d’adéquation consiste à comparer l’adéquation de plusieurs lois afin d’adopter le moins mauvais ajustement. Les tests les plus utilisés sont le test χ 2 et le texte de Kolmogorov Smirnov.

Le test d’adéquation de χ 2  :

Ce test permet de faire une comparaison entre la distribution empirique et la distribution théorique. Le principe consiste à faire l’hypothèse que les deux distributions ne différent pas. Si la probabilité qu’il en soit ainsi est faible, on rejette l’hypothèse et on conclura que la distribution théorique ne s’ajuste pas à l’échantillon étudié. Si au contraire cette probabilité est forte, la loi théorique sera acceptée.

Soit un échantillon de taille n (x1,x2,…..xn)

Hypothèse: Ho : x1,x2,…..xn sont issus d’une population distribuée selon la loi de probabilité F(x) à p paramètres.

La mise en oeuvre consiste à subdiviser l’échantillon en k classes équiprobables, chacune ayant une probabilité théorique : Pi telle que Pi = vni où vi est l’effectif théorique (nombre d’éléments) de chaque classe i.

En réalité l’effectif réel de chaque classe i est ni, plus ou moins différent de vi.

Le problème est de vérifier si l’écart entre les vi et les ni des différentes classes est significatif. La vérification se fait par le calcul de la moyenne des carrées des écarts entre ces deux effectifs :

Cette quantité suit une loi χ 2 à µ degrés de liberté. Avec :

µ = k  p −1  1

Ce qui implique que k ≥ p+2

Le test n’est significatif que si vi ≥ 5.

χcalculé2 est comparée à une valeur tabulée, χtabulé2 , fonction du nombre de degré de liberté et du seuil de signification α imposé en général à 5%.

Des tables donnant la loi χtabulé2 à la probabilité α de dépassement existent. si χcalculé2 > χtabulé2 ,µ On rejette l’hypothèse nulle.

Si χcalculé2  ≤ χtabulé2 ,µ la loi d’ajustement sera retenue.

Le test de Kolmogorov Smirnov

Ce test se base sur la fonction de répartition empirique Fn(x) définie par :

= nombre d'observations  F (x) x

F(x) est comparée à l’échantillon selon le principe suivant : On calcule la quantité Dn telle que :

N Dn  = max F (xi )  Fn (xi i=1

Pour chaque événement xi observé, on calcule sa fréquence théorique F(xi) et Fn(xi).

Dn est la valeur maximale de toutes les quantités calculées F (xi ) − Fn (xi ) . Le test repose sur la valeur de Dn. Si celle-ci est assez grande, la loi sera rejetée.



Le test consiste à calculer la quantité Dn,α, fonction de la taille de l’échantillon n,et d’un seuil de risque imposé α sur des tables appropriées au test de Kolmogorov-Smirnov.

Si Dn  > Dn,α  alors l’hypothèse de validité est rejetée.

Intervalle de confiance

La valeur d’une variable estimée ne correspond pas à la vraie valeur qui ne peut être connue qu’avec un échantillonnage de dimension infinie. La notion d’intervalle de confiance représente un certain nombre de chances de trouver la vraie valeur du paramètre cherché. Son amplitude est d’autant plus grande que :

  • Le degré de confiance choisi est grand
  • La dispersion (écart) est grande
  • La taille de l’échantillon est réduite

Le chois du degré de confiance dépend du risque que le projecteur accepte. Le degré est choisi d’autant plus élevé que l’on recherche la sécurité.

Valeurs communément admises :

  • 95 % pour les projets importants économiquement et/ou exigeant une sécurité élevée
  • 70 % pour les projets d’importance économique moindre et / ou n’exigeant pas une sécurité très poussée

Loi Normale

xT  = x + kT s

On peut montrer que la valeur xT pour une période de retour T a α % de chance d’appartenir à l’intervalle :



366