Capitalisant 10 ans d'expérience en recherche dans le cadre de l'OTHU (Observatoire de Terrain en Hydrologie Urbaine), le LGCIE de l'INSA de Lyon a formalisé dans un logiciel une méthodologie et des outils permettant de fiabiliser la métrologie et les données de l'autosurveillance des réseaux d'assainissement urbain. Ce logiciel, utilisable par les maîtres d'ouvrage, gestionnaires et bureaux d'études publics et privés, propose une gestion simple et rigoureuse des différentes étapes nécessaires à l'obtention des résultats d'autosurveillance : étalonnage des capteurs, correction des données brutes, pré-validation automatisée des données corrigées, validation finale, exploitation des résultats, estimation des incertitudes, ainsi qu'un ensemble complet d'utilitaires associés.
, Professeur des Universités - LGCIE, INSA Lyon
Depuis la parution du premier arrêté établissant l’autosurveillance des systèmes d’assainissement en 1994 (JO, 1994), et ses révisions successives (JO 2007, DEB 2013), la métrologie en réseau d’assainissement s’est considérablement développée (Bertrand-Krajewski et al., 2000). De nombreux réseaux d’assainissement sont désormais instrumentés, et les efforts des maîtres d’ouvrage et des exploitants se poursuivent (GRAIE, 2006 à 2013).
Si les réseaux de petite et moyenne taille ne sont pas encore tous instrumentés comme l’exigent les textes, les acteurs les plus engagés dans l’autosurveillance ont pris conscience que la simple satisfaction des obligations réglementaires ne pouvait être une fin en soi : l’ambition est clairement orientée vers la mise en place du diagnostic permanent (Joannis, 1991 ; Joannis et al., 2005) afin d’articuler de la manière la plus efficace possible la métrologie et la modélisation, pour améliorer la conception des ouvrages, leur exploitation et la qualité des milieux aquatiques (Certu, 2003 ; Roux 2012).
L’autosurveillance et la métrologie en réseau d’assainissement font appel à des compétences nouvelles pour de nombreux exploitants : instrumentation et capteurs, métrologie, correction, critique et validation des données, traitement des données, exploitation et valorisation des résultats.
Parallèlement, les chercheurs en hydrologie urbaine, depuis plus de 10 ans, ont mis en place des dispositifs expérimentaux afin de mieux comprendre et modéliser les phénomènes qui se produisent au sein des réseaux d’assainissement, en adoptant une approche métrologique complète : étalonnage et vérification périodiques des capteurs, mesurage en continu des flux polluants, estimation systématique des incertitudes de mesure et traçabilité des opérations effectuées. C’est le cas par exemple de l’OTHU (Observatoire de Terrain en Hydrologie Urbaine) à Lyon (www.othu.org), un des observatoires du réseau français Urbis (www.hurrbis.org). Des méthodes et outils spécifiques pour traiter de manière automatisée des séries chronologiques à court pas de temps ont été développés, testés et validés par l’expérience et des publications scientifiques. Depuis 2001, pour ses propres besoins dans le cadre de l’OTHU, le LGCIE (Laboratoire de Génie Civil et Ingénierie Environnementale) de l’INSA de Lyon a développé deux versions successives d’un logiciel permettant d’effectuer l’ensemble des tâches relatives à la métrologie. Les besoins des chercheurs et des gestionnaires étant en grande partie identiques, le LGCIE a fait évoluer cet outil interne vers un logiciel nouveau et entièrement repensé pour un usage public. Ce logiciel, baptisé Evohé, est utilisable par tous les maîtres d’ouvrage, maîtres d’œuvre, gestionnaires et bureaux d’études publics et privés. Il propose une approche métrologique complète et rigoureuse, des capteurs jusqu’à la fourniture des résultats finaux. Cette approche métrologique, générique et transposable, est présentée dans cet article.
Appliquer une méthodologie structurée
La méthodologie générale est représentée figure 1. Elle permet de passer successivement des données brutes fournies par les capteurs aux données corrigées et affectées de leurs incertitudes, aux données pré-validées automatiquement par un ensemble de tests paramétrables par l’opérateur, puis aux données validées, aux données complétées pour remplacer les valeurs anormales ou les données manquantes et enfin aux données traitées (débits et volumes écoulés ou déversés, concentrations et charges polluantes rejetées, effets de premier flot éventuels, etc.). À chaque étape, les incertitudes sont systématiquement évaluées, la traçabilité et la réversibilité des opérations sont assurées. Cette succession d’étapes dans le traitement des données est organisée autour d’un ensemble d’outils, de fonctions et d’utilitaires simples d’emploi pour l’opérateur. Les résultats produits sont directement utilisables pour la préparation des rapports réglementaires d’autosurveillance par exemple. La séparation et l’ordre de succession des étapes constituent la garantie d’une bonne pratique métrologique.
Étalonner les capteurs
L’étalonnage périodique des capteurs est une étape indispensable et essentielle. Il permet de constater que les capteurs fonctionnent effectivement selon leurs spécifications (détection des biais, des dérives, etc.), notamment dans les conditions de linéarité et avec les niveaux d’incertitude voulus par l’utilisateur. Des fonctions d’étalonnage sont établies pour quantifier les corrections éventuelles nécessaires et estimer les incertitudes. Les fonctions utilisées sont généralement des polynômes, dont les coefficients sont estimés soit par une méthode classique (moindres carrés ordinaires), soit par une méthode plus élaborée que nous avons adaptée pour prendre en compte l’ensemble des sources d’incertitude (régression de type Williamson). Le choix de la fonction d’étalonnage optimale (figure 2 : exemple de fonction d’étalonnage d’un capteur piézorésistif de hauteur d’eau — polynôme de degré 2 pour une étendue de mesure de 0 à 2 m) est effectué au moyen de tests statistiques sur les variances et de critères sur les dérivées des fonctions, l’opérateur ayant toujours le choix de la décision finale. Par ailleurs, afin de faciliter l’analyse et l’interprétation des données, des capteurs supplémentaires peuvent être définis librement en complément des capteurs physiques réels (capteur virtuel, capteur de contexte temps sec/temps de pluie, capteur maintenance, etc.).
Valider les données
Les données brutes sont ensuite corrigées et affectées de leurs incertitudes liées aux capteurs et aux sites de mesure, avant d’être soumises à un ensemble de tests automatiques de pré-validation. L’autosurveillance des réseaux générant des quantités importantes de données, il est indispensable de procéder à une pré-validation automatisée, une des étapes clés de la méthodologie générale. En effet, les mesurages sont effectués dans des milieux et des conditions difficiles. C’est pourquoi les résultats de mesure, même fournis par des moyens technologiques sophistiqués, ne représentent pas toujours de façon fiable la réalité et sont soumis à de nombreuses sources d’erreurs. Outre les
Erreurs induites par les moyens technologiques mis en œuvre (erreurs d’étalonnage, dérive du capteur, défaillance d'un élément de la chaîne de mesure, etc.), il est également possible que le résultat de mesure soit correct mais ne représente pas le phénomène que l'on croit mesurer (problèmes d’encrassement des capteurs, contextes de fonctionnement imprévus ou mal identifiés tels que des réglages de seuils ou de vannes, etc.). Avant toute utilisation ultérieure, les données doivent donc faire l'objet d’une critique et d’une validation systématiques car la prise en compte de la fraction non valide des données, même faible, est susceptible de fausser les résultats et les interprétations ultérieurs.
La pré-validation automatisée consiste à appliquer un ensemble de tests, à choisir par l’opérateur, sur chaque série de données. Chaque test correspond à un critère de validation. Les tests appliqués sont de trois types :
a) les tests de base (maintenance du capteur effectuée, étendue de mesure du capteur, gammes fréquentes observées en temps sec et en temps de pluie, gradients fréquents observés en temps sec et en temps de pluie, comparaison directe…),
b) les tests de niveau expert (gradient étendu, redondance capteurs, redondance analytique…) et
c) les tests utilisateurs qui peuvent être créés et paramétrés sans limite par l’opérateur en fonction de ses besoins particuliers.
Le résultat de chaque test est une note de 1 à 3 servant d’indicateur de qualité : 1 pour une valeur satisfaisante, 2 pour une valeur douteuse et 3 pour une valeur non valide. Les notes 2 et 3 permettent de différencier les données manifestement fausses ou aberrantes (note 3) des données (note 2) qui méritent une analyse plus approfondie par un opérateur possédant l’expertise du phénomène mesuré et des outils métrologiques mis en œuvre. Les données notées 2 doivent donc, à l'issue de la validation finale sous la responsabilité de l’opérateur, soit être notées 3 si l’opérateur ne peut pas les valider, soit être notées 1 si, après analyse, l’opérateur les déclare valides. La pré-validation automatisée facilite ainsi la tâche de l’opérateur en ne requérant son attention que pour les données notées 2. Il peut cependant toujours analyser les données notées 1 ou 3 s'il le souhaite.
Les valeurs des paramètres des tests, spécifiques à chaque capteur et à chaque site, sont affinées par itérations successives. Les valeurs initiales sont fixées de manière plus ou moins empiriques par l’opérateur, en fonction de son expérience et des informations dont il dispose. Au fur et à mesure que des séries de données nouvelles sont acquises et validées, les paramètres des tests sont ajustés de telle sorte que la pré-validation automatique produise les mêmes résultats que ceux qu’aurait obtenus l’opérateur s'il avait traité manuellement les données, en évitant aussi bien les faux positifs (valeurs notées 3 ou 2 alors qu’elles auraient dû être notées 1) que les faux négatifs (valeurs notées 1 alors qu’elles auraient dû être notées 2 ou 3). Ce processus d’apprentissage doit pouvoir être facilité autant que possible. C’est pourquoi la traçabilité et la réversibilité des opérations antérieures sont des fonctionnalités essentielles de l’outil : il est indispensable de pouvoir reprendre des séries initialement validées si les paramètres des…
Les tests ont évolué. Des analyses statistiques de séries de données validées permettent également de déterminer des valeurs optimisées des paramètres des tests.
L’étape finale de validation par l’opérateur, qui se concentre essentiellement sur les valeurs notées 2 dans la phase de pré-validation, doit également être facilitée le plus possible par des outils graphiques et de type tableur interactifs, permettant de traiter aisément des séries de données par bloc ou des valeurs individuelles.
À l’issue de la validation, il subsiste généralement des valeurs non validées et/ou des valeurs manquantes. Pour certains usages des données (connaissance des phénomènes, modélisation, performance du dispositif d’autosurveillance), ces lacunes ne posent pas de problème. Pour d’autres usages (calculs de bilans journaliers, événementiels ou mensuels, etc.), les lacunes doivent être comblées en remplaçant les valeurs mesurées non valides et en fournissant des valeurs lorsqu’il n’y en a pas. Lorsque les lacunes sont de très courte durée (quelques pas de temps), des techniques d’interpolation, couplées si possible avec des redondances ou des corrélations entre capteurs, permettent d’obtenir des résultats acceptables. Lorsque les lacunes sont de plus longue durée (plusieurs dizaines de minutes, plusieurs heures, voire davantage), des approches plus sophistiquées sont nécessaires, mettant en œuvre des analyses plus poussées des séries de données basées sur les notions de corrélation ou de similarité. L’estimation de l’incertitude des valeurs substituées ou ajoutées par l’opérateur est une étape délicate, généralement fondée sur des règles heuristiques d’approximation.
Dans tous les cas, il est nécessaire de garder une trace des données qui ne sont plus des données d’origine mais des données substituées ou ajoutées par l’opérateur, et de fournir cette information dans les résultats finaux. La figure 3 montre un bilan volumique journalier avec la valeur du volume, son incertitude et le pourcentage de données substituées qui apparaît également avec une couleur spécifique sur le graphique.
Traiter et exploiter les données
Les traitements effectués sur les données
Section mouillée / Wet section S (m²)
Hauteur d’eau / Water level A (mm)
tiques durée-fréquence dont l’exemple le plus connu est celui des courbes IDF (intensité-durée-fréquence) pour les précipitations.
Le calcul des débits est fondé sur différentes méthodes, applicables selon les capteurs utilisés et les choix d’instrumentation. Si seule la hauteur d’eau h est mesurée, le débit Q peut être déterminé à partir d’une relation hauteur-débit Q(h) spécifique (pour des canaux de type Venturi, des déversoirs types, etc.), d’une relation hauteur-débit expérimentale (courbe de tarage d'un point de mesure, d’un déversoir d’orage, d’un dispositif spécifique non normalisé, d’une modélisation hydrodynamique 3D, etc.) ou d'une relation de Manning-Strickler ajustée à partir de campagnes de mesures (traçages, exploration des champs de vitesse, etc.). Si on dispose des mesurages conjoints de la hauteur d’eau h et de la vitesse moyenne d’écoulement U (par capteur Doppler, capteur radar, cordes de vitesse, etc.), le débit Q est déterminé en multipliant la vitesse moyenne d’écoulement par la section mouillée elle-même calculée à partir de la hauteur d'eau. Il faut au préalable connaître ou établir une relation S(h) spécifique, avec le niveau d’incertitude requis. Dans tous les cas de figure, le débit doit toujours être déterminé avec son incertitude qui dépend elle-même des incertitudes de toutes les grandeurs qui concourent à la détermination du débit Q. Si, en collecteur, des dépôts sont présents, ils réduisent la section mouillée pour une hauteur d’eau donnée et doivent être pris en compte dans le calcul du débit.
La figure 4 : exemple de calcul de débit. En haut : profil du collecteur et relation S(h) expérimentale ; en bas : débit Q et son incertitude (intervalle de confiance à 95 %) sur une période de 4 jours en réseau unitaire montre un exemple de calcul du débit Q sur une période de 4 jours dans un collecteur visitable à banquette latérale dont la cunette centrale est occupée par un dépôt permanent d’environ 30 cm d’épaisseur.
Validées et complétées, les données peuvent être très nombreuses. En routine, il s’agit généralement de calculs de débits, de volumes et de masses de polluants transités ou déversés sur des périodes données (journée, semaine, mois, année, événement pluvieux), d’analyses statistiques de base sur ces valeurs (minimum, maximum, moyenne, percentiles des valeurs et des gradients) et d’analyses plus pointues de type courbes M(V) permettant d’étudier l'occurrence éventuelle des phénomènes de premier flot ou des analyses statis-
Délimiter les périodes de temps sec et de temps de pluie
Le mesurage des précipitations est indispensable à la compréhension du fonctionnement d'un système d’assainissement. Les pluviographes les plus couramment utilisés sont les modèles à augets basculants. Un algorithme simple permet de convertir les basculements horodatés à la seconde en intensité de pluie en mm/h à un pas de temps quelconque en minutes. Les pluviographes à pesée sont de plus en plus utilisés et il est souvent nécessaire de convertir leurs fichiers bruts spécifiques en séries chronologiques classiques à pas de temps constant.
À partir des séries pluviométriques et d'autres éléments de contexte (hauteur d'eau, débit, conductivité, turbidité, etc.), il est possible de délimiter automatiquement, avec des règles locales appropriées, les débuts et fins des périodes de temps de pluie et de temps sec. Comme pour la pré-validation, une délimitation automatique n’est pas toujours totalement fiable : des corrections manuelles par l’opérateur peuvent éventuellement s’avérer nécessaires, le plus souvent pour délimiter la fin des périodes pluvieuses, lorsque l’ensemble des grandeurs mesurées doivent être revenues à leurs valeurs habituelles de temps sec.
Évaluer les flux polluants rejetés
Certains capteurs ne fournissent pas directement la grandeur qui intéresse l’opérateur, mais une grandeur qui lui est corrélée. C’est par exemple le cas des turbidimètres : les valeurs de turbidité peuvent être converties en concentrations en MES (matières en suspension) ou en DCO (demande chimique en oxygène) en utilisant des fonctions de corrélation appropriées spécifiques au capteur utilisé et à son point d'implantation sur le réseau. Ces fonctions de corrélation, généralement sous forme de polynômes, sont établies à partir de données expérimentales obte-
nues sur des échantillons prélevés au cours de différents événements pluvieux et/ou pendant des jours de temps sec. Ces échantillons doivent être assez diversifiés pour couvrir la gamme complète des valeurs le plus souvent observées sur le point de mesure. Chaque échantillon fait l'objet de mesurages répétés de la turbidité (typiquement 10 à 25 mesurages répétés) puis d’analyses des MES ou de la DCO en laboratoire, au moyen de méthodes classiques (Afnor ou équivalentes, micro-méthodes validées), réalisées de préférence en triplicat afin de pouvoir en estimer l'incertitude. À partir de ces données, on peut établir des fonctions de corrélation permettant de convertir une série chronologique de turbidité en séries chronologiques de MES ou de DCO. Couplées au débit, ces séries de MES ou DCO permettent ensuite de déterminer les charges polluantes transférées dans le réseau ou rejetées au milieu aquatique à différentes échelles de temps. Ces fonctions de corrélation sont établies avec des algorithmes semblables à ceux utilisés pour l’étalonnage des capteurs avec une prise en compte de toutes les sources d’incertitudes. Les concentrations estimées en MES ou DCO sont ainsi données avec leur incertitude qui dépend elle-même des incertitudes sur les valeurs de turbidité, de MES ou de DCO des échantillons collectés et des incertitudes sur la fonction de corrélation elle-même. La figure 5 montre un exemple de calcul de flux polluants de MES et de DCO par temps de pluie à l'aval d'un réseau séparatif pluvial à partir de la turbidité mesurée en continu au pas de temps de 2 minutes.
Conclusion
La fonction métrologique est absolument indispensable pour mettre en œuvre de manière efficace et performante l’autosurveillance des réseaux d’assainissement. Elle demande des compétences, des méthodes et des outils adaptés : étalonnage et vérification périodiques des capteurs, estimation systématique des incertitudes, critique et validation des données avant utilisation, traçabilité des actions effectuées. Les bonnes pratiques métrologiques doivent être promues : elles sont un élément clé pour que l’autosurveillance et le diagnostic permanent puissent fournir des données et des résultats fiables contribuant à l’amélioration de la conception et de la gestion des ouvrages d’assainissement.