Outline
Comptes Rendus

Géophysique externe, climat et environnement
La prédétermination des crues
[Predetermination of floods]
Comptes Rendus. Géoscience, Volume 337 (2005) no. 1-2, pp. 219-227.

Abstracts

La prédétermination peut être définie comme l'annonce des caractéristiques physiques et statistiques d'un événement futur non précisément daté, différant en cela de la prévision qui s'attache à dater l'annonce d'un événement physique spécifié. La prédétermination sera donc inséparable de la notion de probabilité d'occurrence d'un événement donné ou, de façon équivalente, de sa durée de retour. En matière de crues, on cherchera à estimer, pour une section donnée d'un cours d'eau, soit la probabilité de dépassement d'un débit donné, soit, de façon symétrique, le débit ayant une probabilité donnée d'être dépassé. Ces estimations, à l'encontre des approches basées sur les PMP/QMP (pluies et débits maximums possibles), permettent une approche rationnelle des problèmes socio-économiques de dimensionnement d'ouvrages et d'occupation des sols. Les seules données utilisables ont longtemps été les seules mesures instrumentales de débit, dont les séries sont courtes, quelques dizaines d'années en général, et atteignant rarement le siècle. On fait appel, depuis quelque temps, aux données dites historiques, compilées à partir d'informations recueillies dans des documents anciens et valorisées par des études hydrauliques, voire à des études géomorphologiques et sédimentologiques, qui permettent d'accroître considérablement la profondeur de champ des analyses statistiques de valeurs extrêmes. Une grande confusion règne encore en ce qui concerne les modèles statistiques utilisés, dont le choix, trop souvent soumis à la seule dictature de l'ajustement graphique, est cependant fondamental pour l'interprétation des données. En l'absence d'un corps de doctrine universellement admis, les résultats manquent encore de crédibilité. Un méritoire effort de normalisation a été entrepris aux États-Unis où, depuis la fin des années 1960, l'utilisation de la loi log-Pearson III est obligatoire pour tous les projets fédéraux, mais les bases physiques et statistiques de ce choix restent sujettes à caution. Les importants efforts consacrés à l'enrichissement des bases de données, comme aux développements théoriques s'appuyant sur la physique des phénomènes hydrologiques, et en particulier sur leurs invariances d'échelle, devraient cependant permettre, dans un proche avenir, de formaliser rigoureusement le comportement asymptotique des séries hydrologiques et de définir des méthodes de prédétermination efficaces pour l'ingénierie.

Predetermination (or statistical prediction) can be defined as the announcement of the physical and statistical characteristics of a future event non-precisely located in time. So, it is quite different from forecasting, whose objective is to give the precise date of occurrence of a specified physical event. Predetermination will then be inseparable of probabilistic concepts such as the probability of occurrence of a given event or, equivalently, of its return period. About floods, one will estimate, for a given river cross-section, whether the probability that the discharge would exceed a given threshold or, symmetrically, the discharge which has a given probability of exceedance. Such estimations, the spirit of which is definitively different of that of PMP/PMF (Probable Maximum Precipitation or Flood), enable a rational approach of socio-economic problems linked to hydraulic works design and land use. The only available data has long been the instrumental discharge measurements, whose series are rather short, some decades in general, seldom reaching a century. More recently the so-called historical data have been used. They are compiled from old documents and supplemented by hydraulic studies and even geomorphological or sedimentological studies. Such data increase considerably the length of extreme events' time series available. There is still a great confusion about the statistical models to be used. The choice of such models is too often only dictated by the best graphical fit, while this choice is fundamental for data interpretation. Without a wide theoretical agreement, the results are still not so reliable. A very important standardisation effort has been done in the US, where, since the end of the sixties, the use of the Log-Pearson III distribution has been made compulsory for all federal projects, but the physical and even statistical arguments of this choice remain quite weak. All the efforts done to enlarge the data bases, as well as the theoretical developments based upon the physics of hydrological processes and especially their scale invariance, should nevertheless enable us to formalize in a near future the asymptotical behaviour of hydrological time series and to define effective predetermination methods in engineering.

Metadata
Received:
Accepted:
Published online:
DOI: 10.1016/j.crte.2004.08.008
Mots-clés : Crue, Prédétermination, Statistique, Probabilité, Loi de probabilité, Temps de retour, Multifractals
Keywords: Flood, Statistical prediction, Statistics, Probability, Probability law, Return time, Multifractals

Pierre Hubert 1

1 UMR Sisyphe, École des mines de Paris, 35, rue Saint-Honoré, 77305 Fontainebleau, France
@article{CRGEOS_2005__337_1-2_219_0,
     author = {Pierre Hubert},
     title = {La pr\'ed\'etermination des crues},
     journal = {Comptes Rendus. G\'eoscience},
     pages = {219--227},
     publisher = {Elsevier},
     volume = {337},
     number = {1-2},
     year = {2005},
     doi = {10.1016/j.crte.2004.08.008},
     language = {fr},
}
TY  - JOUR
AU  - Pierre Hubert
TI  - La prédétermination des crues
JO  - Comptes Rendus. Géoscience
PY  - 2005
SP  - 219
EP  - 227
VL  - 337
IS  - 1-2
PB  - Elsevier
DO  - 10.1016/j.crte.2004.08.008
LA  - fr
ID  - CRGEOS_2005__337_1-2_219_0
ER  - 
%0 Journal Article
%A Pierre Hubert
%T La prédétermination des crues
%J Comptes Rendus. Géoscience
%D 2005
%P 219-227
%V 337
%N 1-2
%I Elsevier
%R 10.1016/j.crte.2004.08.008
%G fr
%F CRGEOS_2005__337_1-2_219_0
Pierre Hubert. La prédétermination des crues. Comptes Rendus. Géoscience, Volume 337 (2005) no. 1-2, pp. 219-227. doi : 10.1016/j.crte.2004.08.008. https://comptes-rendus.academie-sciences.fr/geoscience/articles/10.1016/j.crte.2004.08.008/

Original version of the full text

L'humanité se préoccupe des crues et des inondations, en raison des atteintes aux personnes et aux biens qu'elles sont susceptibles de provoquer. Il peut s'agir de préoccupations urgentes liées à l'alerte, et on a pour cela mis en place des organismes spécialisés comme le SCHAPI (Service central d'hydrométéorologie et d'appui à la prévision des inondations, récemment créé à Toulouse), qui utilisent des modèles de prévision plus ou moins complexes. L'objectif est alors de prévoir aussi précisément que possible quelle sera, dans les heures ou jours qui viennent, la cote de l'eau en des sites précisés en vue de prendre des mesures appropriées.

Mais il peut aussi s'agir de préoccupations liées à la conception d'ouvrages ou à la planification de l'occupation des sols, c'est-à-dire à des décisions qui sont prises à l'avance et une fois pour toutes. La notion de probabilité d'occurrence associée à un événement donné est alors fondamentale pour prendre des décisions rationnelles. Concernant la conception d'un ouvrage (ouverture d'un pont ou capacité d'un évacuateur), elle permet en effet d'évaluer le coût total d'un choix donné, somme du coût de l'ouvrage lui-même (qui bien sûr croît avec la puissance de la crue pour laquelle il est conçu) et l'espérance mathématique (le mot étant ici bien mal venu) du coût des dommages, dans le cas où interviendrait une crue supérieure à la crue nominale de l'ouvrage (coût qui décroît lorsque celle-ci augmente, puisque tout événement inférieur à cette crue de référence ne provoque aucun dommage). Il est alors possible d'optimiser ce choix en retenant celui qui minimise le coût total [34,36]. Dans le cas de l'aménagement du territoire, c'est grâce à une expression commune en termes de probabilités qu'il est possible de cartographier et de comparer l'aléa hydrologique et la vulnérabilité des établissements et activités humaines dans les zones inondables et de nourrir ainsi un débat fécond (méthode « Inondabilité » du Cemagref [6]). Les approches du type Précipitation maximale possible ou Débit maximum possible [23], en vogue dans certains pays et qui s'attachent à estimer un hypothétique maximum des précipitations et des débits (théoriquement valeurs dont la probabilité de dépassement serait nulle), ne permettent pas d'aborder rationnellement le problème du dimensionnement ou de l'aménagement du territoire car, si elles décrivent des événements extrêmes, elles ne leur associent pas une probabilité d'occurrence utilisable pour une évaluation économique.

Penchons-nous donc d'abord sur la définition des notions de probabilité et de temps de retour. Soit un événement particulier, par exemple que le débit moyen selon un certain pas de temps d'une rivière en un point donné dépasse 1500 m3s−1 au cours d'une année donnée. La probabilité de cet événement est une mesure de la vraisemblance de sa réalisation et elle est par convention évaluée par un nombre compris entre 0, lorsqu'il est impossible que l'événement se produise et 1, lorsque sa réalisation est certaine. Si p est la probabilité qu'un événement donné se produise au cours d'une année donnée, le temps de retour attaché à cet événement est défini comme l'inverse de cette probabilité : T=1/p. Le temps de retour n'est donc qu'une autre façon d'exprimer, sous une forme qui se veut plus imagée, la probabilité d'un événement à un moment donné. Malgré son nom, sans doute mal choisi, il ne fait en aucun cas référence à des idées de régularité ou de périodicité et peut même s'appliquer à des événements qui ne se sont jamais produits et qui ne se produiront peut-être pas à l'avenir. Il est parfaitement légitime de s'intéresser, en particulier pour des études de sécurité d'ouvrages, aux crues millénales ou décamillénales (crues ayant respectivement une probabilité 0,001 et 0,0001 de se produire au cours d'une année donnée) d'une rivière qui n'existait pas il y a cinq mille ans et qui n'existera peut-être plus dans dix mille ans, de la même façon que, dans l'industrie, on s'intéresse à la probabilité de défaillances qui ne se produiront sans doute pas, la minimisation de leur probabilité d'occurrence étant d'ailleurs un aspect d'une politique de sécurité industrielle.

Nous venons de parler de la caractérisation d'une crue par le débit moyen selon un certain pas de temps et c'est sur cette base que nous parlerons dans la suite de ce papier. Il ne faut cependant pas oublier qu'une crue est un phénomène complexe et que d'autres variables peuvent lui être attachées, comme son débit de pointe instantané (lorsque le pas de temps considéré tend vers zéro), mais aussi sa durée (durée de dépassement d'un seuil), son volume au cours de cette durée, etc. Ces variables ont leurs statistiques propres et il n'y a aucune raison qu'une crue qualifiée de millénale selon son début moyen journalier le soit également selon sa durée ou son volume. Remarquons également que chacune de ces variables hydrologiques a une pertinence socio-économique propre (hauteur ou durée de submersion par exemple) et qu'une approche spécifique peut s'avérer nécessaire.

Les ambiguïtés liées à la notion de temps de retour viennent du fait que l'estimation des probabilités s'est jusqu'à présent essentiellement, voire uniquement, appuyée sur l'étude de chroniques de mesures. Reprenant l'exemple cité plus haut, on peut imaginer d'observer le débit d'une rivière pendant un très grand nombre d'années. Si au cours de ces N années, l'événement considéré se produit n fois, sa fréquence d'occurrence observée f=n/N est un bon estimateur de sa probabilité p. En moyenne, l'événement se produit p fois par an et sa durée de retour est égale à T=1/p années (si p est suffisamment petit), et il est possible de donner une interprétation plus concrète au temps de retour : c'est la durée moyenne séparant deux occurrences de l'événement. Cette procédure d'estimation ne peut être directement mise en œuvre qu'à partir de séries de mesures, et l'on sait que les séries météorologiques et hydrologiques sont en général relativement brèves, de l'ordre de quelques dizaines d'années et atteignant rarement le siècle, ce qui limite l'estimation à des durées de retour elles aussi de quelques dizaines d'années.

Conscients des limitations imposées par la brièveté des séries de mesures instrumentales, des chercheurs ont cherché à exploiter d'autres données historiques ou sédimentologiques. Il s'agit par exemple d'observations consignées dans des registres municipaux et qui présentent l'avantage d'une précieuse continuité au cours du temps. Les observations consignées le sont souvent en termes de hauteur d'eau, et il est nécessaire de faire un détour par des modèles hydrauliques, qui nécessitent de connaître la géométrie des cours d'eau, et son évolution possible au cours du temps, pour remonter aux débits. On a aussi cherché à tirer avantage des dépôts sédimentaires parfois laissés par les fortes crues et à reconstituer ainsi une véritable stratigraphie des crues [33]. Ces travaux sont particulièrement délicats. Ils doivent s'appuyer sur des données d'origines diverses souvent difficiles à rassembler et nécessitent la collaboration d'hydrologues, d'hydrauliciens, d'historiens et de sédimentologues, mais ils permettent, lorsqu'ils peuvent être entrepris, d'accroître considérablement, parfois d'un ordre de grandeur, la durée des observations concernant les fortes crues.

Ces très longues séries reconstituées posent avec beaucoup d'acuité le problème de leur stationnarité et, par suite, celui de la pertinence des analyses statistiques telles qu'elles sont pratiquées. Des chercheurs se sont penchés sur cette question et ils nous livrent des résultats concordants, que ce soit en Espagne (Rio Llobregat, Ter), en France (Ardèche) ou en Europe centrale (Elbe et Oder) [1,16,21] sur des séries reconstituées de plusieurs centaines d'années où, en dépit de variations climatiques avérées (petit âge de glace, par exemple), il n'apparaît pas que le régime des crues extrêmes ait changé. Le régime des crues faibles ou moyennes, c'est-à-dire dont le temps de retour n'excède pas une vingtaine d'années, beaucoup plus sensibles aux transformations anthropiques des bassins, a pu, en revanche, connaître des fluctuations. Les affirmations tonitruantes sur l'aggravation des crues consécutives à l' « intensification » du cycle de l'eau ne sont donc absolument pas prouvées, et il semble au contraire très raisonnable de s'appuyer, pour le XXIe siècle, sur une hypothèse de stationnarité des crues extrêmes.

Partant des données mesurées ou reconstituées, il faut nécessairement, pour évaluer les événements de faible probabilité qui n'ont jamais été observés, faire des hypothèses permettant d'extrapoler les données, c'est-à-dire choisir un modèle statistique, ce qui est toujours un exercice périlleux. On suppose que le phénomène étudié obéit à une certaine loi statistique, dont on ajuste les paramètres à partir des données : on admet que cette loi demeure valable pour les événements encore jamais observés. Cette opération très simple à décrire fait en réalité appel à une « cuisine » assez complexe, impliquant elle-même des choix concernant l'attribution de probabilités empiriques aux événements observés ou reconstitués ou la méthode d'ajustement utilisée (méthode des moments ou méthode du maximum de vraisemblance, par exemple, mais il y en a d'autres et l'imagination des hydrologues statisticiens s'est montrée fertile en la matière ...). Les estimations des probabilités et des temps de retour que l'on estime alors dépendent bien sûr de la loi statistique adoptée, dont le choix ne se justifie empiriquement que sur sa capacité à décrire les événements effectivement observés. De très nombreuses lois ont été proposées et utilisées, et ce choix en apparence innocent se révèle souvent lourd de conséquences : dans une étude de sensibilité consacrée à une analyse coût/bénéfice d'un projet de surélévation d'un barrage à but multiple sur l'Ennepe dans la Ruhr [31], il a été montré que le choix de la loi de distribution des crues était un élément déterminant du choix de la solution économiquement optimale, élément beaucoup plus important que des paramètres tels que le prix de l'eau ou l'évaluation des dégâts des inondations.

La pratique de la prédétermination des crues s'est développée depuis le début du XXe siècle dans une certaine confusion, particulièrement en ce qui concerne les lois statistiques utilisées. Pour ne prendre qu'un exemple, le logiciel HYFRAN développé à l'INRS–ETE de Québec (http://www.inrs-eau.uquebec.ca/activites/groupes/chaire_hydrol/chaire9.html), logiciel au demeurant très convivial et doté de remarquables outils numériques et graphiques, ne propose pas moins de 12 lois statistiques dans son « menu », différentes méthodes de calage pouvant être utilisées pour chacune d'elles, mais ne propose pas de critères de choix de la loi à utiliser pour une analyse particulière.

Les résultats concernant l'estimation d'une crue de récurrence donnée peuvent donc être très différents selon les analystes, qui peuvent être tentés d'utiliser les « ficelles » de leur métier afin de fournir les résultats les plus conformes aux attentes de leur « client », ce qui décrédibilise passablement l'exercice... On conçoit, par exemple, qu'il soit difficile de reprocher à une administration ou à un élu de ne pas avoir prémuni ses administrés contre une crue millénale, mais on ne lui pardonnerait pas de ne pas les avoir protégés contre une crue quinquagennale et qu'ils « préfèreront » une analyse fournissant une durée de retour « exceptionnelle » ... C'est pour palier cet état de choses que le Water Resources Council (WRC) des États-Unis a recommandé, dans un rapport remis au Congrès en 1966 [37], de mettre au point une technique uniforme de détermination des fréquences de crue, ce qui fut fait l'année suivante par une équipe dirigée par M.A. Benson, assisté de deux statisticiens [38]. Cette équipe a étudié l'application de six lois : gamma à deux paramètres/Gumbel/log-Gumbel (Fréchet)/log-normal/log-Pearson type III/Hazen, à dix longues séries (en moyenne 50 ans) de maximums annuels des États-Unis, choisies dans des conditions climatiques et hydrologiques variées et pour des bassins versants allant de quelques dizaines à quelques dizaines de milliers de kilomètres carré, mais en rejetant les séries comportant des horsains (événements particulièrement exceptionnels). L'application consistait à estimer les crues de temps de retour 2, 5, 10, 25, 50 et 100 ans. C'est finalement la loi log-Pearson type III qui a été retenue pour sa stabilité, et son utilisation est depuis obligatoire pour tous les projets relevant du gouvernement fédéral américain. On peut cependant s'interroger sur ce choix. La base de données est bien petite et il n'a pas été tenu compte des effets que cela induit au niveau de l'échantillonnage. Et pourquoi avoir éliminé systématiquement les horsains, qui sont d'authentiques valeurs extrêmes ? Aucun raisonnement ou argument physique n'a été invoqué pour conforter le choix de la loi log-Pearson type III que rien ne prédispose, statistiquement parlant, à être une loi des extrêmes, à l'encontre des lois de Gumbel ou de Fréchet, [4,5,25]. Si on ne peut que louer l'effort de normalisation entrepris par le Water Resources Council, la procédure et le choix qu'il a adopté ne peuvent nous satisfaire.

Voilà donc où nous en sommes à l'aube du XXIe siècle. L'approche purement statistique développée au cours du XXe siècle n'a pas permis aux hydrologues théoriciens et praticiens de s'accorder sur un corpus de connaissances et de méthodes. Sans accord sur l'essentiel, ils ont passé beaucoup de temps sur l'accessoire, en sophistiquant bien inutilement des formules de probabilité empirique ou des méthodes d'ajustement. Si nous ne voulons pas négliger le rôle de l'analyse des données, qui reste et restera indispensable, il serait peut-être temps de la conforter par la prise en compte de la physique des phénomènes, c'est-à-dire l'hydrologie proprement dite, si souvent évitée et qui est peut-être en fait la clef du problème !

L'attribution d'une probabilité à un événement ne passe, en effet, pas nécessairement ou uniquement par une analyse de fréquence. Certaines symétries des objets ou des phénomènes étudiés peuvent également être utilisées, seules ou concurremment à l'analyse de données. Si l'on prend l'exemple d'un lancer de dé, on peut affirmer a priori que la probabilité d'obtenir par exemple un « 6 » est égale à 1/6, parce qu'il y a six résultats possibles et qu'ils sont évidemment équiprobables. Point n'est besoin, sinon pour voir si un dé est pipé, de le lancer indéfiniment pour estimer empiriquement la probabilité de chaque résultat possible. Dans ce cas, comme pour les jeux de hasard en général, la probabilité d'un événement est définie a priori comme le rapport du nombre de cas favorables (ceux auxquels l'événement étudié est associé) au nombre de cas possibles. N'est-il pas possible d'utiliser des raisonnements analogues pour comprendre certaines propriétés des distributions statistiques des débits ? Nous le pensons et nous rappellerons que les équations de Navier et Stokes qui régissent en toute généralité l'écoulement des fluides sont invariantes d'échelles [29]. Cette propriété devrait se retrouver dans les équations aux dérivées partielles (inconnues) régissant les précipitations et les débits qui sont des intégrations, non conservatives, des précipitations dans l'espace et dans le temps [9]. À partir de là, il est possible, en analysant des séries hydrologiques, de voir empiriquement si on y retrouve bien les invariances d'échelle présumées, mais aussi, au plan théorique, d'en tirer des conséquences sur la nature des lois statistiques devant régir ces séries et d'aborder des questions fondamentales jusqu'ici négligées comme le rôle de l'échantillonnage.

C'est en ayant explicitement en tête le problème de la dépendance de certaines mesures à l'échelle d'observation que Mandelbrot [18,19] a créé la géométrie fractale, en s'appuyant sur des résultats mathématiques oubliés ou occultés du début du XXe siècle, qu'il a développés et appliqués à de nombreux problèmes des sciences de la nature. Il a reconnu, dans une dimension fractale (non entière), le lien susceptible de relier une mesure et une échelle de mesure pour de nombreux objets géométriques susceptibles de modéliser des objets naturels. On doit noter certaines applications hydrologiques de cette géométrie, en particulier pour la description des réseaux hydrographiques et des bassins versants [2], mais aussi pour caractériser le support temporel des précipitations [10]. Ces résultats ne doivent cependant pas nous faire oublier que les phénomènes complexes tels que les précipitations, et plus encore l'écoulement, ne se résument pas à occurrence ou absence et qu'il convient de se préoccuper de l'intensité de la pluie ou de l'écoulement selon l'échelle de temps considérée. La notion d'intensité est d'ailleurs implicitement présente dans la définition du seuil de référence définissant un objet géométrique, par exemple l'occurrence de pluie, et on a pu remarquer [11] que la dimension fractale de l'occurrence de pluie est une fonction décroissante du seuil de référence. Cette dépendance de la dimension d'un ensemble à la valeur de son seuil de référence, déjà notée par Schertzer et Lovejoy [26] ou par Halsey et al. [8], amène à dépasser en pratique, dans ce type d'études, la notion d'objet fractal au profit de celle de champ multifractal.

L'approche multifractale vise à relier échelle et intensité pour des processus en cascade concentrant de la matière et/ou de l'énergie dans des domaines spatio-temporels de plus en plus ténus [17,27]. Les modèles multifractals auxquels nous nous sommes intéressés ont d'abord été développés comme modèles phénoménologiques de la turbulence. Ils ont été conçus pour reproduire, dans des cascades multiplicatives, les principales propriétés (symétries, conservation ...) des équations non linéaires (Navier et Stokes) qui régissent la dynamique de ce phénomène. Nous avons déjà indiqué plus haut pourquoi il nous semblait légitime d'importer ces modèles en hydrologie, mais nous rappellerons ici que, dans un autre contexte, la similarité des comportements asymptotiques des pluies et des débits a été déjà postulée [7] et a fait l'objet de développements opérationnels. Considérer un champ spatial et/ou temporel comme multifractal revient à le caractériser à la fois de façon multi-échelle et multi-intensité, les intensités de plus en plus fortes du champ correspondant à des singularités de plus en plus extrêmes et de plus en plus rares, donc associées à des dimensions fractales de plus en plus faibles. Contrairement à la plupart des modèles, toutes les singularités, moyennes comme extrêmes, sont générées par le même processus élémentaire. Le théoricien n'a plus à ajouter « à la main » les anomalies (les horsains...), puisqu'elles existent en germe dans le champ moyen et l'expérimentateur n'a plus à discriminer laborieusement le comportement extrême du comportement ordinaire.

Ce lien a priori insolite entre extrêmes et moyenne d'un champ peut d'abord être compris par des propriétés d'universalité : bien qu'un champ multifractal dépende d'une infinité de paramètres, seul un petit nombre d'entre eux peut finalement se révéler pertinent, les autres étant en quelque sorte lessivés par la répétition du phénomène élémentaire. L'exemple classique d'universalité est le mouvement brownien, attracteur universel de toute marche aléatoire dont la variance des pas infinitésimaux est finie. Dans le cas des processus multifractals, bien que nous ayons plutôt à considérer des processus multiplicatifs, des propriétés d'universalité similaires ont été mises en évidence et c'est l'indice de multifractalité α (compris entre 0 et 2), proportionnel au rayon de courbure de la codimension des singularités autour du champ moyen, qui détermine la distribution des extrêmes [28]. Ce lien peut aussi être relié à un phénomène physique connu sous l'appellation d'auto-organisation critique, dès que l'on considère le comportement du champ de pluie sur un grand nombre d'échantillons. En effet, à partir d'une certaine singularité critique qD, l'intensité observée du champ de précipitation est fréquemment bien plus importante que celle prévue par un modèle ne prenant en compte que les échelles supérieures à l'échelle d'observation. Cela est dû au fait que, non seulement les fluctuations à petite échelle restent perceptibles à grande échelle, mais que finalement elles pilotent les extrêmes à cette échelle. Ce lien entre microscopique et macroscopique est analogue aux transitions de phase des systèmes conservatifs, où la distance de corrélation diverge pour une température critique. Ici, c'est le rapport effectif d'échelle qui se met à diverger. Parmi les multiples implications de cette « transition de phase multifractale de premier ordre », la plus importante est certainement la chute algébrique (c'est-à-dire lente) de la distribution de probabilité des intensités au-delà d'un certain niveau :

Prob[X>x]x**(qD)

Il est important de noter que cette chute algébrique de probabilité entraîne la divergence des moments statistiques d'ordre supérieur à qD, divergence qui a de nombreuses conséquences théoriques et expérimentales, puisque la loi des grands nombres ne s'applique plus, d'où perte d'ergodicité, divergence des estimateurs usuels, sensibilité des estimations à la taille des échantillons, etc. Les conséquences pratiques d'un tel comportement algébrique de la distribution de probabilité sont considérables, car les lois algébriques décroissent infiniment plus lentement que les lois à caractère exponentiel habituellement utilisées pour la détermination d'événements de récurrence donnée, qui seraient alors considérablement sous-estimés.

L'application des concepts d'invariance d'échelle aux débits des rivières se situe dans la lignée des travaux de Hurst [14], qui le premier avait mis en évidence, à partir de préoccupations fort pratiques concernant le dimensionnement des réservoirs, des dépendances statistiques à long terme dans les séries chronologiques de débits. Turcotte et Greene [35] ont étudié la fréquence des crues de dix rivières américaines. Ils caractérisent l'invariance d'échelle qu'ils mettent en évidence, pour des échelles de temps allant de 1 à 100 ans, par le rapport de la crue centennale à la crue décennale, égal dans le cadre de cette approche au rapport de la crue décennale à la crue annuelle. Ce rapport varie de 2 à 8 environ, et les auteurs associent ces variations aux différences climatiques des bassins considérés. Tessier et al. [32] ont étudié les séries de pluies et de débits de 30 bassins français dont la surface allait de 40 à 200 km2. Ils mettent en évidence une invariance d'échelle pour des durées allant de la journée à 30 ans et notent un changement de régime autour de 16 jours, qu'ils attribuent au maximum synoptique. Le paramètre qD (moment critique de divergence), estimé à partir de l'ensemble des données, est de l'ordre de 3,2 pour les échelles de temps supérieures à 30 jours, de l'ordre de 2,7 pour les échelles de temps inférieures à 16 jours (avec une importante plage d'erreur). Une étude plus récente de Pandey et al. [24] s'est intéressée à 19 bassins américains, dont la taille allait de 5 km2 à près de deux millions de kilomètres carrés (ce dernier bassin étant celui du Mississipi), totalisant près de 700 années-stations. Ils concluent à un comportement multifractal pour des échelles de temps allant de 23 à 216 jours. Ils remarquent également un changement de régime aux alentours de huit jours. En ce qui concerne les paramètres multifractals, en particulier le paramètre qD de décroissance algébrique de la distribution de probabilité, qu'ils estiment en moyenne à 3,1, les estimations se rapprochent de celles de Tessier [32], mais, contrairement à Turcotte [35], ils attribuent au seul hasard la dispersion des estimations relatives aux différents basins. Notons aussi une étude de Labat et al. [15] sur des sources karstiques du Sud-Ouest de la France, qui estime des valeurs du paramètre qD aux environs de 4, et celle que nous avons réalisée sur les débits du Blavet en Bretagne [12], pour lesquels ce paramètre a été estimé à 3. Nous signalerons enfin une étude de Tchiguirinskaia et al. [30] portant sur environ 1500 stations de jaugeage de Russie–Sibérie, représentant plus d'un million de données, extraites de la base de données R-Artic Net (http://www.r-arcticnet.sr.unh.edu). Cette étude propose une estimation de qD de l'ordre de 6 pour les rivières considérées, mais elle est surtout intéressante pour prendre explicitement en compte le caractère saisonnier des séries de débits, qui avait malheureusement été négligé dans la plupart des études antérieures, ce qui est susceptible d'affecter la qualité de la scalance (invariance d'échelle) mise en évidence. Ces études, en particulier la recherche des invariances d'échelle et de leur étendue, devraient évidemment être poursuivies sur des corpus de données importants, voire sur l'ensemble des bases de données disponibles, afin de conclure de façon définitive sur ce point qui, s'il était établi, ouvrirait, au plan théorique et au plan pratique, des perspectives inédites sur la maîtrise des effets d'échelle dont il est difficile d'apprécier toute la portée.

Nous ne prétendrons pas, à l'issue de cette brève présentation de l'approche multifractale de l'analyse des débits de rivières, que tous les problèmes sur lesquels bute la pratique de la prédétermination des crues sont résolus, ni que toutes les ambiguïtés sont levées, mais nous pensons que l'invariance d'échelle et la modélisation multifractale qui en découle constituent une base à partir de laquelle il est possible de progresser rapidement. Cette hypothèse, formulée à partir de considérations théoriques, se trouve confortée par l'analyse des séries chronologiques empiriques, qui montre que les lois asymptotiquement algébriques (domaine d'attraction de Fréchet) en rendent mieux compte que les lois asymptotiquement exponentielles (domaine d'attraction de Gumbel). Cette constatation n'est d'ailleurs pas nouvelle : elle avait été faite par Morlat et al. [20] qui, dans le cadre des études de dimensionnement du barrage de Serre Ponçon, rejetaient explicitement la loi de Gumbel au profit de la loi de Fréchet. Ce sont les estimations fondées sur cette dernière qui avaient finalement été retenues, ce qui semble parfois avoir été oublié aujourd'hui. Les assureurs [4,25], sont également beaucoup moins frileux que bien des hydrologues pour adopter des lois statistiques à décroissance algébrique. Le couplage entre développements théoriques et analyses empiriques des données est particulièrement novateur en hydrologie statistique, qui n'avait pratiquement eu que le seul ajustement graphique comme boussole depuis près d'un siècle. Les travaux sur les débits que nous avons présentés ici se situent dans le prolongement de travaux plus nombreux encore sur l'analyse multifractale des précipitations [9], qui présentent, au-delà des différences climatiques, une remarquable constance du paramètre qD avec partout des valeurs de l'ordre de 3, et qui permettent d'ores et déjà d'envisager des développements opérationnels [3]. Si des jalons ont été posés [13,30], beaucoup de travail reste à faire au plan scientifique, en particulier pour la mise au point de véritables modèles multifractals pluies–débits, susceptibles de maîtriser complètement les effets d'échelle de temps et d'espace, et de relier les statistiques des débits à celles des précipitations (comme le préfigure la méthode du GRADEX [7] pour les petits bassins), ainsi qu'aux caractéristiques des bassins, réconciliant ainsi l'hydrologie déterministe et l'hydrologie statistique. Beaucoup de travail reste à faire aussi pour faire passer ces résultats dans la réglementation et dans l'ingénierie. Ceci est particulièrement nécessaire à une époque où toutes les sociétés doivent, et plus encore devront, assumer une augmentation objective du risque hydrologique [22] due à une vulnérabilité accrue, que les pratiques passées de l'hydrologie appliquée ont certainement souvent sous-estimée.

Acknowledgments

Je remercie, par ordre alphabétique, Hocine Bendjoudi, Angelbert Biaou, Shaun Lovejoy, Daniel Schertzer et Ioulia Tchiguirinskaia pour leurs discussions, leurs conseils et leur soutien.


References

[1] M. Barriendos; D. Cour; M. Lang; M.-C. Llasat; R. Naulet; F. Lemaitre; T. Barrera Stationary and climatic analysis of historical flood series in France and Spain with a classification of events based on historical flood levels or damage, Natural Hazard and Earth System Science, CSIC-Centro de Ciencias Medioambientales, Madrid, 2003

[2] H. Bendjoudi; P. Hubert Le coefficient de Gravélius : analyse critique d'un indice de forme des bassins versants, J. Sci. Hydrol., Volume 47 (2002) no. 6, pp. 921-930

[3] H. Bendjoudi; P. Hubert; D. Schertzer; S. Lovejoy Interprétation multifractale des courbes intensité-durée-fréquence des précipitations, C. R. Acad. Sci. Paris, Ser. IIa, Volume 325 (1997), pp. 323-326

[4] P. Embrechts; C. Klüppelberg; T. Mikosh Modelling Extreme Events for Insurance and Finance, Springer-Verlag, Berlin, Heidelberg, 1999

[5] J. Galambos The Asympotic Theory of Extreme Order Statistics, Wiley and Sons, New York, 1978

[6] O. Gilard; N. Gendreau Inondabilité : une méthode de prévention raisonnable du risque d'inondation pour une gestion intégrée des bassins versants, Rev. Sci. Eau, Volume 11 (1998) no. 3, pp. 429-444

[7] P. Guillot; D. Duband La méthode du GRADEX pour le calcul de la probabilité des crues à partir des pluies, Publication AIHS, vol. 84, 1967, pp. 560-569

[8] T.C. Halsey; M.H. Jensen; L.P. Kadanoff; I. Procaccia; B.I. Shraiman Scaling measures and singularities, Phys. Rev. A, Volume 33 (1986), p. 1141

[9] P. Hubert Multifractals as a tool to overcome scale problems in hydrology, Hydrol. Sci. J., Volume 46 (2001) no. 6, pp. 897-905

[10] P. Hubert; J.-P. Carbonnel Dimensions fractales de l'occurrence de pluie en climat soudano-sahélien, Hydrologie continentale, Paris, Volume 4 (1989), pp. 3-10

[11] P. Hubert; F. Friggit; J.-P. Carbonnel Multifractal structure of rainfall occurrence in west Africa (Z.W. Kundzewicz, ed.), New Uncertainty Concepts in Hydrology and Water Resources, Cambridge University Press, Cambridge, UK, 1995, pp. 109-113

[12] P. Hubert; I. Tchiguirinskaia; H. Bendjoudi; D. Schertzer; S. Lovejoy Multifractal Modeling of the Blavet River Discharges at Guerledan, Proc. Third Celtic Hydrology Colloquium, Galway, Ireland, 10–12 July 2002, National University of Ireland, Galway, 2002

[13] P. Hubert; I. Tchiguirinskaia; H. Bendjoudi; D. Schertzer; S. Lovejoy Multifractal modelling of floods, paleofloods, historical floods and climatic variability: application in flood risk assessment (V.R. Thorndycraft; G. Benito; M. Barriendas; M.C. Llasat, eds.), Proc. PHEFRA Workshop, Barcelona, Spain, 16–19 October 2002, CSIC, Madrid, 2003, pp. 256-260

[14] H.E. Hurst Log-term storage capacity of reservoirs, Trans. Am. Soc. Civ. Eng., Volume 116 (1951), pp. 770-808

[15] D. Labat; A. Mangin; A. Ababou Rainfall–runoff relations for Karstic springs: multifractal analyses, J. Hydrol., Volume 256 (2002), pp. 176-195

[16] M. Lang; R. Naulet; A. Recking; D. Cour; C. Gigon Étude de cas : l'analyse des pluies et crues extrêmes observées depuis 200 ans dans un bassin cévenol, l'Ardèche, La Houille Blanche, Volume 6/7 (2002), pp. 131-138

[17] S. Lovejoy; D. Schertzer Scale Invariance, symmetries, fractals and stochastic simulations of atmospheric phenomena, Bull. AMS, Volume 67 (1986), pp. 21-32

[18] B.B. Mandelbrot Les objets fractals, forme, hasard et dimension, Flammarion, Paris, 1975

[19] B.B. Mandelbrot The Fractal Geometry of Nature, Freeman, San Francisco, 1977

[20] G. Morlat; A. Billiet; J. Bernier Les crues de la haute Durance et la théorie des valeurs extrêmes, IAHS Publ., Volume 42 (1956), pp. 99-114

[21] M. Mudelsee; M. Börngen; G. Tetzlaff; U. Grünewald No upward trends in the occurrence of extreme floods in central Europe, Nature, Volume 425 (2003), pp. 166-169

[22] L. Neppel; C. Bouvier; F. Vinet; M. Desbordes Sur l'origine de l'augmentation apparente des inondations en région méditerranéenne, Rev. Sci. Eau, Volume 16 (2003) no. 4, pp. 475-493

[23] OMM (Organisation météorologique mondiale), Guide des pratiques hydrologiques, 5e éd., publication OMM n° 168, Genève, Suisse, 1994

[24] G. Pandey; S. Lovejoy; D. Schertzer Multifractal analysis of daily river flows including extremes for basin of five to two million square kilometres, one day to 75 years, J. Hydrol., Volume 208 (1998), pp. 62-81

[25] R.-D. Reiss; M. Thomas Statistical Analysis of Extreme Values, Birkhäuser Verlag, Basel, Boston, Berlin, 1997

[26] D. Schertzer; S. Lovejoy On the dimension of atmosphere motion (T. Tatsumi, ed.), Turbulence and Chaotic Phenomena in Fluids, Elsevier, North-Holland, New York, 1984, pp. 505-508

[27] D. Schertzer; S. Lovejoy Physical modeling and analysis of rain and clouds by anisotropic scaling and multiplicative processes, J. Geophys. Res., Volume 92 (1987) no. D8, pp. 9693-9714

[28] D. Schertzer; S. Lovejoy Nonlinear Geodynamical Variability: multiple singularities, universality and observables (D. Schertzer; S. Lovejoy, eds.), Non-linear Variability in Geophysics, Scaling and Fractals, Kluwer, Dordrecht, The Netherlands, 1991, pp. 41-82

[29] D. Schertzer; S. Lovejoy From scalar cascades to Lie cascades: joint multifractal analysis of rain and cloud processes (R.A. Feddes, ed.), Space and Time Scale Variability and Interpendencies in Hydrological Processes, Cambridge University Press, Cambridge, UK, 1995, pp. 153-173

[30] I. Tchiguirinskaia; P. Hubert; H. Bendjoudi; D. Schertzer; E. Asabina Multifractal Modeling of River Runoff and Seasonal Periodicity, Proc. Conf. Preventing and Fighting Hydrological Disasters, Timisoara, Romania, 21–22 November 2002, Orizonturi Universitare, Timisoara, 2002, pp. 43-46

[31] U. Tegtmeier; G.A. Schultz; K.U. Rudolf Economic Evaluation of the Effects of a Dam Rise, Proceedings, IHP Symposium Decision Making in Water Resources Planning, Oslo, 1986

[32] Y. Tessier; S. Lovejoy; P. Hubert; D. Schertzer; S. Pecknold Multifractal analysis and modeling of rainfall and river flows and scaling, causal transfer functions, J. Geophys. Res., Volume 101 (1996) no. D21, pp. 26427-26440

[33] Palaeofloods, Historical Data and Climatic Variability: Applications in Flood Risk Assessment, Proc. PHEFRA International Workshop, Barcelona, 16–19 October 2002 (V.R. Thorndycraft; G. Benito; M. Barriendos; M.C. Llasat, eds.), CSIC-Centro de Ciencias Medioambientales, Madrid, 2002

[34] M. Tribus Décisions rationnelles dans l'incertain, Masson, Paris, 1972

[35] D.L. Turcotte; L. Greene A scale-invariant approach to flood-frequency analysis, Stoch. Hydrol. Hydraul., Volume 7 (1993), pp. 33-40

[36] J. Ulmo; J. Bernier Éléments de décision statistique, Presses Universitaires de France, Paris, 1973

[37] WRC, A Uniform National Program for Managing Flood Losses, House Doc 465, US Congress, Washington, 1966

[38] WRC A uniform technique for determining flow frequencies, Water Resour. Council Bull., Volume 15 (1967)


Comments - Policy