L'humanité se préoccupe des crues et des inondations, en raison des atteintes aux personnes et aux biens qu'elles sont susceptibles de provoquer. Il peut s'agir de préoccupations urgentes liées à l'alerte, et on a pour cela mis en place des organismes spécialisés comme le SCHAPI (Service central d'hydrométéorologie et d'appui à la prévision des inondations, récemment créé à Toulouse), qui utilisent des modèles de prévision plus ou moins complexes. L'objectif est alors de prévoir aussi précisément que possible quelle sera, dans les heures ou jours qui viennent, la cote de l'eau en des sites précisés en vue de prendre des mesures appropriées.
Mais il peut aussi s'agir de préoccupations liées à la conception d'ouvrages ou à la planification de l'occupation des sols, c'est-à-dire à des décisions qui sont prises à l'avance et une fois pour toutes. La notion de probabilité d'occurrence associée à un événement donné est alors fondamentale pour prendre des décisions rationnelles. Concernant la conception d'un ouvrage (ouverture d'un pont ou capacité d'un évacuateur), elle permet en effet d'évaluer le coût total d'un choix donné, somme du coût de l'ouvrage lui-même (qui bien sûr croît avec la puissance de la crue pour laquelle il est conçu) et l'espérance mathématique (le mot étant ici bien mal venu) du coût des dommages, dans le cas où interviendrait une crue supérieure à la crue nominale de l'ouvrage (coût qui décroît lorsque celle-ci augmente, puisque tout événement inférieur à cette crue de référence ne provoque aucun dommage). Il est alors possible d'optimiser ce choix en retenant celui qui minimise le coût total [34,36]. Dans le cas de l'aménagement du territoire, c'est grâce à une expression commune en termes de probabilités qu'il est possible de cartographier et de comparer l'aléa hydrologique et la vulnérabilité des établissements et activités humaines dans les zones inondables et de nourrir ainsi un débat fécond (méthode « Inondabilité » du Cemagref [6]). Les approches du type Précipitation maximale possible ou Débit maximum possible [23], en vogue dans certains pays et qui s'attachent à estimer un hypothétique maximum des précipitations et des débits (théoriquement valeurs dont la probabilité de dépassement serait nulle), ne permettent pas d'aborder rationnellement le problème du dimensionnement ou de l'aménagement du territoire car, si elles décrivent des événements extrêmes, elles ne leur associent pas une probabilité d'occurrence utilisable pour une évaluation économique.
Penchons-nous donc d'abord sur la définition des notions de probabilité et de temps de retour. Soit un événement particulier, par exemple que le débit moyen selon un certain pas de temps d'une rivière en un point donné dépasse au cours d'une année donnée. La probabilité de cet événement est une mesure de la vraisemblance de sa réalisation et elle est par convention évaluée par un nombre compris entre 0, lorsqu'il est impossible que l'événement se produise et 1, lorsque sa réalisation est certaine. Si p est la probabilité qu'un événement donné se produise au cours d'une année donnée, le temps de retour attaché à cet événement est défini comme l'inverse de cette probabilité : . Le temps de retour n'est donc qu'une autre façon d'exprimer, sous une forme qui se veut plus imagée, la probabilité d'un événement à un moment donné. Malgré son nom, sans doute mal choisi, il ne fait en aucun cas référence à des idées de régularité ou de périodicité et peut même s'appliquer à des événements qui ne se sont jamais produits et qui ne se produiront peut-être pas à l'avenir. Il est parfaitement légitime de s'intéresser, en particulier pour des études de sécurité d'ouvrages, aux crues millénales ou décamillénales (crues ayant respectivement une probabilité et de se produire au cours d'une année donnée) d'une rivière qui n'existait pas il y a cinq mille ans et qui n'existera peut-être plus dans dix mille ans, de la même façon que, dans l'industrie, on s'intéresse à la probabilité de défaillances qui ne se produiront sans doute pas, la minimisation de leur probabilité d'occurrence étant d'ailleurs un aspect d'une politique de sécurité industrielle.
Nous venons de parler de la caractérisation d'une crue par le débit moyen selon un certain pas de temps et c'est sur cette base que nous parlerons dans la suite de ce papier. Il ne faut cependant pas oublier qu'une crue est un phénomène complexe et que d'autres variables peuvent lui être attachées, comme son débit de pointe instantané (lorsque le pas de temps considéré tend vers zéro), mais aussi sa durée (durée de dépassement d'un seuil), son volume au cours de cette durée, etc. Ces variables ont leurs statistiques propres et il n'y a aucune raison qu'une crue qualifiée de millénale selon son début moyen journalier le soit également selon sa durée ou son volume. Remarquons également que chacune de ces variables hydrologiques a une pertinence socio-économique propre (hauteur ou durée de submersion par exemple) et qu'une approche spécifique peut s'avérer nécessaire.
Les ambiguïtés liées à la notion de temps de retour viennent du fait que l'estimation des probabilités s'est jusqu'à présent essentiellement, voire uniquement, appuyée sur l'étude de chroniques de mesures. Reprenant l'exemple cité plus haut, on peut imaginer d'observer le débit d'une rivière pendant un très grand nombre d'années. Si au cours de ces N années, l'événement considéré se produit n fois, sa fréquence d'occurrence observée est un bon estimateur de sa probabilité p. En moyenne, l'événement se produit p fois par an et sa durée de retour est égale à années (si p est suffisamment petit), et il est possible de donner une interprétation plus concrète au temps de retour : c'est la durée moyenne séparant deux occurrences de l'événement. Cette procédure d'estimation ne peut être directement mise en œuvre qu'à partir de séries de mesures, et l'on sait que les séries météorologiques et hydrologiques sont en général relativement brèves, de l'ordre de quelques dizaines d'années et atteignant rarement le siècle, ce qui limite l'estimation à des durées de retour elles aussi de quelques dizaines d'années.
Conscients des limitations imposées par la brièveté des séries de mesures instrumentales, des chercheurs ont cherché à exploiter d'autres données historiques ou sédimentologiques. Il s'agit par exemple d'observations consignées dans des registres municipaux et qui présentent l'avantage d'une précieuse continuité au cours du temps. Les observations consignées le sont souvent en termes de hauteur d'eau, et il est nécessaire de faire un détour par des modèles hydrauliques, qui nécessitent de connaître la géométrie des cours d'eau, et son évolution possible au cours du temps, pour remonter aux débits. On a aussi cherché à tirer avantage des dépôts sédimentaires parfois laissés par les fortes crues et à reconstituer ainsi une véritable stratigraphie des crues [33]. Ces travaux sont particulièrement délicats. Ils doivent s'appuyer sur des données d'origines diverses souvent difficiles à rassembler et nécessitent la collaboration d'hydrologues, d'hydrauliciens, d'historiens et de sédimentologues, mais ils permettent, lorsqu'ils peuvent être entrepris, d'accroître considérablement, parfois d'un ordre de grandeur, la durée des observations concernant les fortes crues.
Ces très longues séries reconstituées posent avec beaucoup d'acuité le problème de leur stationnarité et, par suite, celui de la pertinence des analyses statistiques telles qu'elles sont pratiquées. Des chercheurs se sont penchés sur cette question et ils nous livrent des résultats concordants, que ce soit en Espagne (Rio Llobregat, Ter), en France (Ardèche) ou en Europe centrale (Elbe et Oder) [1,16,21] sur des séries reconstituées de plusieurs centaines d'années où, en dépit de variations climatiques avérées (petit âge de glace, par exemple), il n'apparaît pas que le régime des crues extrêmes ait changé. Le régime des crues faibles ou moyennes, c'est-à-dire dont le temps de retour n'excède pas une vingtaine d'années, beaucoup plus sensibles aux transformations anthropiques des bassins, a pu, en revanche, connaître des fluctuations. Les affirmations tonitruantes sur l'aggravation des crues consécutives à l' « intensification » du cycle de l'eau ne sont donc absolument pas prouvées, et il semble au contraire très raisonnable de s'appuyer, pour le XXIe siècle, sur une hypothèse de stationnarité des crues extrêmes.
Partant des données mesurées ou reconstituées, il faut nécessairement, pour évaluer les événements de faible probabilité qui n'ont jamais été observés, faire des hypothèses permettant d'extrapoler les données, c'est-à-dire choisir un modèle statistique, ce qui est toujours un exercice périlleux. On suppose que le phénomène étudié obéit à une certaine loi statistique, dont on ajuste les paramètres à partir des données : on admet que cette loi demeure valable pour les événements encore jamais observés. Cette opération très simple à décrire fait en réalité appel à une « cuisine » assez complexe, impliquant elle-même des choix concernant l'attribution de probabilités empiriques aux événements observés ou reconstitués ou la méthode d'ajustement utilisée (méthode des moments ou méthode du maximum de vraisemblance, par exemple, mais il y en a d'autres et l'imagination des hydrologues statisticiens s'est montrée fertile en la matière ...). Les estimations des probabilités et des temps de retour que l'on estime alors dépendent bien sûr de la loi statistique adoptée, dont le choix ne se justifie empiriquement que sur sa capacité à décrire les événements effectivement observés. De très nombreuses lois ont été proposées et utilisées, et ce choix en apparence innocent se révèle souvent lourd de conséquences : dans une étude de sensibilité consacrée à une analyse coût/bénéfice d'un projet de surélévation d'un barrage à but multiple sur l'Ennepe dans la Ruhr [31], il a été montré que le choix de la loi de distribution des crues était un élément déterminant du choix de la solution économiquement optimale, élément beaucoup plus important que des paramètres tels que le prix de l'eau ou l'évaluation des dégâts des inondations.
La pratique de la prédétermination des crues s'est développée depuis le début du XXe siècle dans une certaine confusion, particulièrement en ce qui concerne les lois statistiques utilisées. Pour ne prendre qu'un exemple, le logiciel HYFRAN développé à l'INRS–ETE de Québec (http://www.inrs-eau.uquebec.ca/activites/groupes/chaire_hydrol/chaire9.html), logiciel au demeurant très convivial et doté de remarquables outils numériques et graphiques, ne propose pas moins de 12 lois statistiques dans son « menu », différentes méthodes de calage pouvant être utilisées pour chacune d'elles, mais ne propose pas de critères de choix de la loi à utiliser pour une analyse particulière.
Les résultats concernant l'estimation d'une crue de récurrence donnée peuvent donc être très différents selon les analystes, qui peuvent être tentés d'utiliser les « ficelles » de leur métier afin de fournir les résultats les plus conformes aux attentes de leur « client », ce qui décrédibilise passablement l'exercice... On conçoit, par exemple, qu'il soit difficile de reprocher à une administration ou à un élu de ne pas avoir prémuni ses administrés contre une crue millénale, mais on ne lui pardonnerait pas de ne pas les avoir protégés contre une crue quinquagennale et qu'ils « préfèreront » une analyse fournissant une durée de retour « exceptionnelle » ... C'est pour palier cet état de choses que le Water Resources Council (WRC) des États-Unis a recommandé, dans un rapport remis au Congrès en 1966 [37], de mettre au point une technique uniforme de détermination des fréquences de crue, ce qui fut fait l'année suivante par une équipe dirigée par M.A. Benson, assisté de deux statisticiens [38]. Cette équipe a étudié l'application de six lois : gamma à deux paramètres/Gumbel/log-Gumbel (Fréchet)/log-normal/log-Pearson type III/Hazen, à dix longues séries (en moyenne 50 ans) de maximums annuels des États-Unis, choisies dans des conditions climatiques et hydrologiques variées et pour des bassins versants allant de quelques dizaines à quelques dizaines de milliers de kilomètres carré, mais en rejetant les séries comportant des horsains (événements particulièrement exceptionnels). L'application consistait à estimer les crues de temps de retour 2, 5, 10, 25, 50 et 100 ans. C'est finalement la loi log-Pearson type III qui a été retenue pour sa stabilité, et son utilisation est depuis obligatoire pour tous les projets relevant du gouvernement fédéral américain. On peut cependant s'interroger sur ce choix. La base de données est bien petite et il n'a pas été tenu compte des effets que cela induit au niveau de l'échantillonnage. Et pourquoi avoir éliminé systématiquement les horsains, qui sont d'authentiques valeurs extrêmes ? Aucun raisonnement ou argument physique n'a été invoqué pour conforter le choix de la loi log-Pearson type III que rien ne prédispose, statistiquement parlant, à être une loi des extrêmes, à l'encontre des lois de Gumbel ou de Fréchet, [4,5,25]. Si on ne peut que louer l'effort de normalisation entrepris par le Water Resources Council, la procédure et le choix qu'il a adopté ne peuvent nous satisfaire.
Voilà donc où nous en sommes à l'aube du XXIe siècle. L'approche purement statistique développée au cours du XXe siècle n'a pas permis aux hydrologues théoriciens et praticiens de s'accorder sur un corpus de connaissances et de méthodes. Sans accord sur l'essentiel, ils ont passé beaucoup de temps sur l'accessoire, en sophistiquant bien inutilement des formules de probabilité empirique ou des méthodes d'ajustement. Si nous ne voulons pas négliger le rôle de l'analyse des données, qui reste et restera indispensable, il serait peut-être temps de la conforter par la prise en compte de la physique des phénomènes, c'est-à-dire l'hydrologie proprement dite, si souvent évitée et qui est peut-être en fait la clef du problème !
L'attribution d'une probabilité à un événement ne passe, en effet, pas nécessairement ou uniquement par une analyse de fréquence. Certaines symétries des objets ou des phénomènes étudiés peuvent également être utilisées, seules ou concurremment à l'analyse de données. Si l'on prend l'exemple d'un lancer de dé, on peut affirmer a priori que la probabilité d'obtenir par exemple un « 6 » est égale à , parce qu'il y a six résultats possibles et qu'ils sont évidemment équiprobables. Point n'est besoin, sinon pour voir si un dé est pipé, de le lancer indéfiniment pour estimer empiriquement la probabilité de chaque résultat possible. Dans ce cas, comme pour les jeux de hasard en général, la probabilité d'un événement est définie a priori comme le rapport du nombre de cas favorables (ceux auxquels l'événement étudié est associé) au nombre de cas possibles. N'est-il pas possible d'utiliser des raisonnements analogues pour comprendre certaines propriétés des distributions statistiques des débits ? Nous le pensons et nous rappellerons que les équations de Navier et Stokes qui régissent en toute généralité l'écoulement des fluides sont invariantes d'échelles [29]. Cette propriété devrait se retrouver dans les équations aux dérivées partielles (inconnues) régissant les précipitations et les débits qui sont des intégrations, non conservatives, des précipitations dans l'espace et dans le temps [9]. À partir de là, il est possible, en analysant des séries hydrologiques, de voir empiriquement si on y retrouve bien les invariances d'échelle présumées, mais aussi, au plan théorique, d'en tirer des conséquences sur la nature des lois statistiques devant régir ces séries et d'aborder des questions fondamentales jusqu'ici négligées comme le rôle de l'échantillonnage.
C'est en ayant explicitement en tête le problème de la dépendance de certaines mesures à l'échelle d'observation que Mandelbrot [18,19] a créé la géométrie fractale, en s'appuyant sur des résultats mathématiques oubliés ou occultés du début du XXe siècle, qu'il a développés et appliqués à de nombreux problèmes des sciences de la nature. Il a reconnu, dans une dimension fractale (non entière), le lien susceptible de relier une mesure et une échelle de mesure pour de nombreux objets géométriques susceptibles de modéliser des objets naturels. On doit noter certaines applications hydrologiques de cette géométrie, en particulier pour la description des réseaux hydrographiques et des bassins versants [2], mais aussi pour caractériser le support temporel des précipitations [10]. Ces résultats ne doivent cependant pas nous faire oublier que les phénomènes complexes tels que les précipitations, et plus encore l'écoulement, ne se résument pas à occurrence ou absence et qu'il convient de se préoccuper de l'intensité de la pluie ou de l'écoulement selon l'échelle de temps considérée. La notion d'intensité est d'ailleurs implicitement présente dans la définition du seuil de référence définissant un objet géométrique, par exemple l'occurrence de pluie, et on a pu remarquer [11] que la dimension fractale de l'occurrence de pluie est une fonction décroissante du seuil de référence. Cette dépendance de la dimension d'un ensemble à la valeur de son seuil de référence, déjà notée par Schertzer et Lovejoy [26] ou par Halsey et al. [8], amène à dépasser en pratique, dans ce type d'études, la notion d'objet fractal au profit de celle de champ multifractal.
L'approche multifractale vise à relier échelle et intensité pour des processus en cascade concentrant de la matière et/ou de l'énergie dans des domaines spatio-temporels de plus en plus ténus [17,27]. Les modèles multifractals auxquels nous nous sommes intéressés ont d'abord été développés comme modèles phénoménologiques de la turbulence. Ils ont été conçus pour reproduire, dans des cascades multiplicatives, les principales propriétés (symétries, conservation ...) des équations non linéaires (Navier et Stokes) qui régissent la dynamique de ce phénomène. Nous avons déjà indiqué plus haut pourquoi il nous semblait légitime d'importer ces modèles en hydrologie, mais nous rappellerons ici que, dans un autre contexte, la similarité des comportements asymptotiques des pluies et des débits a été déjà postulée [7] et a fait l'objet de développements opérationnels. Considérer un champ spatial et/ou temporel comme multifractal revient à le caractériser à la fois de façon multi-échelle et multi-intensité, les intensités de plus en plus fortes du champ correspondant à des singularités de plus en plus extrêmes et de plus en plus rares, donc associées à des dimensions fractales de plus en plus faibles. Contrairement à la plupart des modèles, toutes les singularités, moyennes comme extrêmes, sont générées par le même processus élémentaire. Le théoricien n'a plus à ajouter « à la main » les anomalies (les horsains...), puisqu'elles existent en germe dans le champ moyen et l'expérimentateur n'a plus à discriminer laborieusement le comportement extrême du comportement ordinaire.
Ce lien a priori insolite entre extrêmes et moyenne d'un champ peut d'abord être compris par des propriétés d'universalité : bien qu'un champ multifractal dépende d'une infinité de paramètres, seul un petit nombre d'entre eux peut finalement se révéler pertinent, les autres étant en quelque sorte lessivés par la répétition du phénomène élémentaire. L'exemple classique d'universalité est le mouvement brownien, attracteur universel de toute marche aléatoire dont la variance des pas infinitésimaux est finie. Dans le cas des processus multifractals, bien que nous ayons plutôt à considérer des processus multiplicatifs, des propriétés d'universalité similaires ont été mises en évidence et c'est l'indice de multifractalité α (compris entre 0 et 2), proportionnel au rayon de courbure de la codimension des singularités autour du champ moyen, qui détermine la distribution des extrêmes [28]. Ce lien peut aussi être relié à un phénomène physique connu sous l'appellation d'auto-organisation critique, dès que l'on considère le comportement du champ de pluie sur un grand nombre d'échantillons. En effet, à partir d'une certaine singularité critique , l'intensité observée du champ de précipitation est fréquemment bien plus importante que celle prévue par un modèle ne prenant en compte que les échelles supérieures à l'échelle d'observation. Cela est dû au fait que, non seulement les fluctuations à petite échelle restent perceptibles à grande échelle, mais que finalement elles pilotent les extrêmes à cette échelle. Ce lien entre microscopique et macroscopique est analogue aux transitions de phase des systèmes conservatifs, où la distance de corrélation diverge pour une température critique. Ici, c'est le rapport effectif d'échelle qui se met à diverger. Parmi les multiples implications de cette « transition de phase multifractale de premier ordre », la plus importante est certainement la chute algébrique (c'est-à-dire lente) de la distribution de probabilité des intensités au-delà d'un certain niveau :
Il est important de noter que cette chute algébrique de probabilité entraîne la divergence des moments statistiques d'ordre supérieur à , divergence qui a de nombreuses conséquences théoriques et expérimentales, puisque la loi des grands nombres ne s'applique plus, d'où perte d'ergodicité, divergence des estimateurs usuels, sensibilité des estimations à la taille des échantillons, etc. Les conséquences pratiques d'un tel comportement algébrique de la distribution de probabilité sont considérables, car les lois algébriques décroissent infiniment plus lentement que les lois à caractère exponentiel habituellement utilisées pour la détermination d'événements de récurrence donnée, qui seraient alors considérablement sous-estimés.
L'application des concepts d'invariance d'échelle aux débits des rivières se situe dans la lignée des travaux de Hurst [14], qui le premier avait mis en évidence, à partir de préoccupations fort pratiques concernant le dimensionnement des réservoirs, des dépendances statistiques à long terme dans les séries chronologiques de débits. Turcotte et Greene [35] ont étudié la fréquence des crues de dix rivières américaines. Ils caractérisent l'invariance d'échelle qu'ils mettent en évidence, pour des échelles de temps allant de 1 à 100 ans, par le rapport de la crue centennale à la crue décennale, égal dans le cadre de cette approche au rapport de la crue décennale à la crue annuelle. Ce rapport varie de 2 à 8 environ, et les auteurs associent ces variations aux différences climatiques des bassins considérés. Tessier et al. [32] ont étudié les séries de pluies et de débits de 30 bassins français dont la surface allait de 40 à . Ils mettent en évidence une invariance d'échelle pour des durées allant de la journée à 30 ans et notent un changement de régime autour de 16 jours, qu'ils attribuent au maximum synoptique. Le paramètre (moment critique de divergence), estimé à partir de l'ensemble des données, est de l'ordre de 3,2 pour les échelles de temps supérieures à 30 jours, de l'ordre de 2,7 pour les échelles de temps inférieures à 16 jours (avec une importante plage d'erreur). Une étude plus récente de Pandey et al. [24] s'est intéressée à 19 bassins américains, dont la taille allait de à près de deux millions de kilomètres carrés (ce dernier bassin étant celui du Mississipi), totalisant près de 700 années-stations. Ils concluent à un comportement multifractal pour des échelles de temps allant de 23 à 216 jours. Ils remarquent également un changement de régime aux alentours de huit jours. En ce qui concerne les paramètres multifractals, en particulier le paramètre de décroissance algébrique de la distribution de probabilité, qu'ils estiment en moyenne à 3,1, les estimations se rapprochent de celles de Tessier [32], mais, contrairement à Turcotte [35], ils attribuent au seul hasard la dispersion des estimations relatives aux différents basins. Notons aussi une étude de Labat et al. [15] sur des sources karstiques du Sud-Ouest de la France, qui estime des valeurs du paramètre aux environs de 4, et celle que nous avons réalisée sur les débits du Blavet en Bretagne [12], pour lesquels ce paramètre a été estimé à 3. Nous signalerons enfin une étude de Tchiguirinskaia et al. [30] portant sur environ 1500 stations de jaugeage de Russie–Sibérie, représentant plus d'un million de données, extraites de la base de données R-Artic Net (http://www.r-arcticnet.sr.unh.edu). Cette étude propose une estimation de de l'ordre de 6 pour les rivières considérées, mais elle est surtout intéressante pour prendre explicitement en compte le caractère saisonnier des séries de débits, qui avait malheureusement été négligé dans la plupart des études antérieures, ce qui est susceptible d'affecter la qualité de la scalance (invariance d'échelle) mise en évidence. Ces études, en particulier la recherche des invariances d'échelle et de leur étendue, devraient évidemment être poursuivies sur des corpus de données importants, voire sur l'ensemble des bases de données disponibles, afin de conclure de façon définitive sur ce point qui, s'il était établi, ouvrirait, au plan théorique et au plan pratique, des perspectives inédites sur la maîtrise des effets d'échelle dont il est difficile d'apprécier toute la portée.
Nous ne prétendrons pas, à l'issue de cette brève présentation de l'approche multifractale de l'analyse des débits de rivières, que tous les problèmes sur lesquels bute la pratique de la prédétermination des crues sont résolus, ni que toutes les ambiguïtés sont levées, mais nous pensons que l'invariance d'échelle et la modélisation multifractale qui en découle constituent une base à partir de laquelle il est possible de progresser rapidement. Cette hypothèse, formulée à partir de considérations théoriques, se trouve confortée par l'analyse des séries chronologiques empiriques, qui montre que les lois asymptotiquement algébriques (domaine d'attraction de Fréchet) en rendent mieux compte que les lois asymptotiquement exponentielles (domaine d'attraction de Gumbel). Cette constatation n'est d'ailleurs pas nouvelle : elle avait été faite par Morlat et al. [20] qui, dans le cadre des études de dimensionnement du barrage de Serre Ponçon, rejetaient explicitement la loi de Gumbel au profit de la loi de Fréchet. Ce sont les estimations fondées sur cette dernière qui avaient finalement été retenues, ce qui semble parfois avoir été oublié aujourd'hui. Les assureurs [4,25], sont également beaucoup moins frileux que bien des hydrologues pour adopter des lois statistiques à décroissance algébrique. Le couplage entre développements théoriques et analyses empiriques des données est particulièrement novateur en hydrologie statistique, qui n'avait pratiquement eu que le seul ajustement graphique comme boussole depuis près d'un siècle. Les travaux sur les débits que nous avons présentés ici se situent dans le prolongement de travaux plus nombreux encore sur l'analyse multifractale des précipitations [9], qui présentent, au-delà des différences climatiques, une remarquable constance du paramètre avec partout des valeurs de l'ordre de 3, et qui permettent d'ores et déjà d'envisager des développements opérationnels [3]. Si des jalons ont été posés [13,30], beaucoup de travail reste à faire au plan scientifique, en particulier pour la mise au point de véritables modèles multifractals pluies–débits, susceptibles de maîtriser complètement les effets d'échelle de temps et d'espace, et de relier les statistiques des débits à celles des précipitations (comme le préfigure la méthode du GRADEX [7] pour les petits bassins), ainsi qu'aux caractéristiques des bassins, réconciliant ainsi l'hydrologie déterministe et l'hydrologie statistique. Beaucoup de travail reste à faire aussi pour faire passer ces résultats dans la réglementation et dans l'ingénierie. Ceci est particulièrement nécessaire à une époque où toutes les sociétés doivent, et plus encore devront, assumer une augmentation objective du risque hydrologique [22] due à une vulnérabilité accrue, que les pratiques passées de l'hydrologie appliquée ont certainement souvent sous-estimée.
Acknowledgments
Je remercie, par ordre alphabétique, Hocine Bendjoudi, Angelbert Biaou, Shaun Lovejoy, Daniel Schertzer et Ioulia Tchiguirinskaia pour leurs discussions, leurs conseils et leur soutien.