Les EDR ?Eau' constituent, au même titre que les EDR pour la santé publique un outil d'aide à la décision pour les gestionnaires de sites pollués. Une EDR ?Eau' doit être engagée dès lors que l'existence d'une pollution est avérée sur un site, et qu'une ressource en eau peut en être affectée. Elle est destinée à fournir des évaluations de concentrations en substances polluantes dans la nappe, en des points donnés, à un moment et dans des circonstances données. Une EDR ?Eau' peut être organisée de différentes façons, mais on doit y retrouver : - une étude documentaire préliminaire, - une étape d'explicitation des hypothèses de travail, d'élaboration d'un schéma conceptuel et du programme de diagnostic approfondi. - Le diagnostic approfondi : investigations de terrain et analyses en laboratoire. - une étude des transferts : modélisation des concentrations au droit des cibles et pour différents scénarios. - l'évaluation du caractère acceptable ou non des concentrations obtenues. Le caractère acceptable de ces concentrations relève soit de comparaisons à des normes ou des objectifs de qualité de la ressource, soit d'études de risques plus spécifiques comme celui lié à la baignade. L?expérience montre que trois questions doivent plus particulièrement être approfondies : - Quelles cibles sont prises en compte dans l'évaluation ? On insiste sur le fait que considérer la nappe sous le site en tant que cible n?est pas réaliste dans beaucoup de cas de pollutions anciennes, mais à l'inverse sur la nécessité de ne pas se contenter d'étudier les risques pour les seuls captages existants. Il faut étudier tous les scénarios ?plausibles' éventuellement ?majorants', sur lesquels pollueurs, administration et exploitants de la ressource doivent s'accorder. - Quelle est la source de pollution ? Une connaissance imparfaite du ?terme source? de l'équation ?Source-Vecteur-Cible? ne permet pas de produire des estimations fiables des risques. - Enfin, la non-prise en compte, dans le diagnostic approfondi et dans la modélisation des transferts, des phénomènes d'atténuation naturelle (bio-dégradation des composés organiques en particulier) aboutit à surestimer sensiblement les distances de migration et les concentrations en substances polluantes.
- une étude documentaire préliminaire,
- une étape d’explicitation des hypothèses de travail, d’élaboration d’un schéma conceptuel et du programme de diagnostic approfondi,
- le diagnostic approfondi : investigations de terrain et analyses en laboratoire,
- une étude des transferts : modélisation des concentrations au droit des cibles et pour différents scénarios,
- l’évaluation du caractère acceptable ou non des concentrations obtenues.
Le caractère acceptable de ces concentrations relève soit de comparaisons à des normes ou des objectifs de qualité de la ressource, soit d’études de risques plus spécifiques comme celui lié à la baignade.
L’expérience montre que trois questions doivent plus particulièrement être approfondies :
- Quelles cibles sont prises en compte dans l’évaluation ? On insiste sur le fait que considérer la nappe sous le site en tant que cible n’est pas réaliste dans beaucoup de cas de pollutions anciennes, mais à l’inverse sur la nécessité de ne pas se contenter d’étudier les risques pour les seuls captages existants. Il faut étudier tous les scénarios “plausibles” éventuellement “majorants”, sur lesquels pollueurs, administration et exploitants de la ressource doivent s’accorder.
- Quelle est la source de pollution ? Une connaissance imparfaite du “terme source” de l’équation “Source-Vecteur-Cible” ne permet pas de produire des estimations fiables des risques.
- Enfin, la non-prise en compte, dans le diagnostic approfondi et dans la modélisation des transferts, des phénomènes d’atténuation naturelle (bio-dégradation des composés organiques en particulier) aboutit à surestimer sensiblement les distances de migration et les concentrations en substances polluantes.
Autant que les pollutions diffuses agricoles, les pollutions “ponctuelles” du sol ou du sous-sol, qu’elles aient pour origine des pollutions “historiques” sur des sites industriels, ou des déversements accidentels plus récents, peuvent avoir des impacts majeurs sur les ressources en eau. Bien qu’affectant des volumes d’eau moindres en principe que les pollutions diffuses, elles peuvent conduire çà et là à la fermeture de tel ou tel captage, à l’obligation de mise en place d’un système de traitement de l’eau. Plus que cela, dans certains secteurs
où la densité de ces pollutions ponctuelles est importante, c’est toute la nappe qui, à l’échelle régionale, peut voir sa qualité générale dégradée.
Pour le gestionnaire d’un site pollué, comment évaluer les risques à court et long terme que fait peser une pollution ponctuelle sur la ressource en eau souterraine, comment évaluer la nécessité de procéder à des travaux de dépollution et comment en fixer les objectifs ?
Vis-à-vis du risque « santé publique », des outils et des modèles élaborés sous l’égide du Ministère chargé de l’Environnement, et à présent bien rodés existent. Ils sont rassemblés dans la méthodologie des « Évaluations Détaillées des Risques pour la santé publique » (EDR « sanitaires »).
Pour ce qui est du risque « Ressources en eau », de tels outils et modèles existent aussi, mais restent encore mal précisés, peu pratiqués. Leurs possibilités, limites, domaines de validité sont peu ou mal connus des industriels confrontés à ces cas de pollution, ainsi que de l’administration.
À l’heure où se prépare un cadre législatif européen sur la préservation des ressources en eau souterraine, le besoin se fait sentir d’une meilleure clarification de ces outils de l’EDR « Eau ».
Burgeap, fort de son expérience de plus de 50 ans de bureau d’études spécialiste de l’étude, la gestion et la protection des eaux souterraines, souhaite contribuer à cette clarification.
Quand faut-il faire une EDR « Eau » et que faut-il en attendre ?
Une EDR pour les ressources en eau s’impose de façon évidente quand, après un premier diagnostic, on a constaté :
- * qu’il existe une source de pollution sur le site, et
- * qu’un impact sur les eaux, sur le site ou en aval, attribuable à cette source, est avéré ;
- * ou qu’il existe un potentiel de migration dans les eaux environnantes à partir de cette source (substances plus ou moins solubles, nature des terrains favorables aux écoulements), et
- * qu’il existe une cible vulnérable en aval (captage par exemple), ou
- * qu’il existe une ressource en eau, même non exploitée, mais exploitable ou protégée.
Une EDR « Eau » est un outil de gestion du risque, qui permet :
- * de quantifier le risque lié à l’utilisation d’une ressource en eau en aval d’un site pollué,
- * en cas de risque inacceptable, de définir des concentrations maximales admissibles au droit de la source de pollution,
- * d’orienter les stratégies de gestion : mise en place de servitudes, d’un confinement ou d’une dépollution.
Les principes d’une EDR « Eau »
Les évaluations de risques pour la ressource en eau suivent le schéma « conceptuel » classique source-vecteur-cible, comme illustré ci-dessus.
Le résultat brut d’une EDR « Eau » est une série de mesures ou de valeurs prédictives de concentrations en substances polluantes dans l’eau :
- * en des points donnés (piézomètres de surveillance, captages AEP, points de référence dans une rivière) ;
- * à un moment donné (actuel ou futur), en fonction de circonstances données (usage différent du site ou de la ressource, créations de nouveaux captages, crues exceptionnelles, construction d’un tunnel souterrain...).
Le caractère « acceptable » ou « non acceptable » de ces valeurs de concentration relève le plus souvent d’une simple comparaison à des normes (cas des captages AEP), ou à des valeurs d’objectifs de qualité (cas d’une ressource de valeur « patrimoniale »).
Cela peut relever aussi d’études techniques spécifiques (concentrations tolérables dans une eau de process pour un captage industriel) ; ou bien d’autres types d’évaluation de risques (usage pour l’irrigation, risques liés à la baignade).
Une EDR « Eau » peut être organisée de différentes façons, mais on doit y retrouver les grandes étapes suivantes :
- * Étape 1 : étude documentaire visant à identifier les sources, voies de transfert et cibles potentielles, les différents polluants potentiels.
- * Étape 2 : explicitation des hypothèses de travail, clarification des questions posées, élaboration du programme des investigations complémentaires à mener.
- * Étape 3 : diagnostic approfondi : investigations de terrain et analyse laboratoire.
- * Étape 4 : étude des transferts : interprétation des données de diagnostic, choix des polluants pris en compte, calculs prévisionnels des concentrations au droit des cibles
ou des points de surveillance, pour les différents scénarios, et évaluation des incertitudes.
* Étape 5 : Évaluation du caractère acceptable ou non des concentrations obtenues.
Les phénomènes en jeu
Des mécanismes physiques, chimiques et biologiques d’une extrême complexité et diversité sont mis en jeu dans une pollution du milieu souterrain. La figure 1 en propose une illustration synthétique dans le cas de pollutions par des composés organiques volatils (hydrocarbures légers et solvants par exemple). Sans vouloir être parfaitement exhaustif, on citera ci-après les types de mécanismes les plus importants.
* Les mécanismes qui concernent le “terme source” et qui sont responsables du flux de substances polluantes émises dans la nappe. Ce sont : l’infiltration ou le ruissellement de la pluie dans ou sur les sols au droit de la source de pollution, la dissolution des substances polluantes dans l’eau de percolation ou de ruissellement, l’infiltration dans le sol des polluants présents sous forme de phase liquide...
* Les mécanismes physiques qui règlent le transport des polluants dans le milieu souterrain sont : la diffusion (les polluants “diffusent” dans la masse d’eau même immobile), la convection (les polluants sont entraînés par le mouvement de la masse d’eau), la dispersion (les polluants sont dispersés par la sinuosité et l’irrégularité du mouvement de la masse d’eau), l’adsorption (les polluants sont “retardés” par leur adhésion sur les particules du terrain)...
* Les mécanismes physico-chimiques et biologiques qui règlent la transformation des polluants dans les terrains sont : l’évaporation/volatilisation, l’oxydo/réduction qui fait précipiter ou fait passer en solution des composés minéraux, la bio-dégradation qui fait disparaître des composés organiques. Cette bio-dégradation s’accompagne parfois de l’apparition de composés intermédiaires (métabolites) de toxicité différente ou même supérieure aux composés d’origine.
Première étape : quelles données rechercher ?
La première étape d’une EDR “Eau” vise à recueillir, analyser et synthétiser les données bibliographiques disponibles. On citera ci-dessous les principales données utiles et aisément accessibles, qu’il est toujours indispensable de rechercher.
* Au sujet de la source de pollution, on exploitera tout d’abord les données du diagnostic initial. Les données utiles sont : la géométrie de la source de pollution quand il s’agit d’un volume de sol pollué ou d’un dépôt de déchets (extension horizontale et verticale), la quantité de polluants présents dans la source (stock), les chroniques de débit de rejet lorsqu’il s’agit d’un effluent, la nature et la forme chimique des substances présentes dans la source de pollution ou rejetées dans l’effluent.
* En ce qui concerne le vecteur, on exploitera les données du diagnostic, mais également toutes les informations disponibles sur l’environnement physique (cartes géologiques et données du service géologique régional, données météorologiques, etc.). Les données nécessaires sont : la nature, la disposition, l’épaisseur des couches géologiques ; la perméabilité verticale et horizontale des terrains, la transmissivité des aquifères, les chroniques de pluviométrie, les chroniques du niveau des nappes, du niveau et du débit des cours d’eau.
* Enfin, ce qui concerne les cibles, il s’agit là de réaliser, par enquête, des inventaires aussi exhaustifs que possible : recensement des captages d’eau potable, industrielle ou agricole ; inventaire des sources, cours d’eau, plans d’eau ; recensement de tous les accès possibles aux eaux naturelles (cressonnières, baignade, chantiers de travaux publics impliquant des rabattements de nappe, drainages agricoles, etc.). La zone à couvrir par ces inventaires correspondra aux limites “naturelles” des bassins-versants hydrographiques ou hydrogéologiques.
Ces inventaires doivent porter sur les usages actuels, mais il est également indispensable d’avoir une indication des usages futurs, en consultant les documents de prospective et de planification : les schémas d’aménagement et de gestion des eaux (SAGE) lorsqu’ils existent, les schémas directeurs d’assainissement et les documents d’urbanisme...
Deuxième étape : schéma conceptuel et explicitation des hypothèses
À ce stade, il convient de clarifier les questions posées, d’expliciter les hypothèses de travail. Cela se fait en élaborant un schéma conceptuel, qui présente de façon graphique et aisément compréhensible l’organisation du processus Source-Vecteur-Cible et le mode d’interaction des différents phénomènes à prendre en compte.
On présente à la figure 2 un exemple simple de schéma conceptuel. On y trouve les points essentiels suivants :
* La coupe géologique, qui indique que la nappe s’écoule dans une formation calcaire à porosité de fissures.
* La nappe phréatique, dont on comprend qu’elle s’écoule vers le Nord-Est, et qu’elle présente une épaisseur de battement de près de 10 mètres entre son niveau le plus haut et son niveau le plus bas (données issues des chroniques de piézométrie disponibles dans la bibliographie consultée).
* L’origine de la pollution est un déversement de solvants en surface. Celui-ci est arrêté depuis longtemps, mais il subsiste un “stock” de solvants imprégnés dans les terrains, qui constitue une “source secondaire”. En effet, le déversement de solvants a atteint la nappe, y a créé une “galette” de solvants flottants sur la nappe, et, à la suite des variations de niveau de celle-ci, les solvants en phase organique ont imprégné les terrains dans la zone de battement de la nappe.
* L’écoulement des eaux souterraines au travers de la source de pollution secondaire entraîne une dissolution de la fraction soluble des solvants, et génère un “panache” de composés en solution qui migre vers l’aval. Le schéma aide à comprendre qu’en épisode de nappe “haute”, le flux de polluants dissous émis dans la nappe est supérieur.
La cible susceptible d’être affectée est un captage d'eau potable.
Au total, la deuxième étape et l’élaboration du schéma conceptuel doivent aboutir à :
- décrire les scénarios qui vont être étudiés,
- inventorier les données manquantes,
- proposer un programme de reconnaissances et d’acquisition de données.
Troisième étape de l’étude :
le diagnostic approfondi
On résume dans le schéma ci-dessus les principaux outils disponibles pour acquérir les données nécessaires à l’évaluation du risque.
Quelques remarques utiles, au sujet des différentes techniques de diagnostic, peuvent être formulées.
Un cas très fréquent concerne les pollutions par des composés organiques volatils (solvants par exemple), et les difficultés liées aux imperfections des analyses de sols en laboratoire. Nous avons très souvent constaté une sous-évaluation de la masse de solvants présents dans le sol, quand on se base sur les analyses. En effet, pour les composés volatils, celles-ci donnent des teneurs systématiquement très en dessous du contenu réel des sols. Dans ce cas, nous préférons procéder de la manière suivante :
- délimitation de la géométrie de la source et du volume de sols pollués par des voies indirectes comme par exemple : maillage de mesures de gaz du sol, ou maillage de piézomètres pour dosage des composés dissous dans la nappe au droit de la source,
- application de valeurs de la bibliographie donnant les saturations résiduelles en phase huile,
- application sur cette teneur globale en phase huile, de la composition massique en différents composés mis en évidence dans les analyses de sols.
Un autre problème souvent rencontré est en rapport avec le fait qu’un aquifère, même quand il s’agit d'une couche sableuse épaisse et apparemment homogène, comporte, à l’échelle décimétrique ou métrique, des hétérogénéités non visibles mais réelles. Certaines couches sont légèrement plus perméables : l'eau y circule plus vite, et quand l’aquifère a été pollué, celles-ci sont lessivées plus vite et les teneurs dans l'eau y sont moindres. Dans les couches légèrement moins perméables, l’eau circule moins vite, les pollutions y sont moins lessivées, et les teneurs sont plus fortes.
Ceci a une incidence sur la représentativité du prélèvement des eaux souterraines. En effet, il existe trois grandes modalités de prélèvement.
- Le prélèvement par pompage : dans ce cas les couches les plus perméables sont sur-représentées. L’échantillon est certes représentatif d’un échantillon “moyen” tel qu'il serait obtenu dans un forage d’exploitation, mais on n'obtient pas une image représentative du flux moyen de la nappe telle qu'elle s'écoule “naturellement”.
- Le prélèvement à l'hydrocapteur (ou préleveur jetable) : on prélève un échantillon en surface de la nappe. Dans le cas de pollutions par des substances plus légères que l'eau (hydrocarbures), on surestime évidemment la concentration par rapport au flux moyen de pollution transporté par la nappe, et la donnée n'est pas du tout représentative de ce qui serait obtenu dans un forage d’exploitation de la nappe.
- Le prélèvement statique “multi-niveaux”. Cette méthode permet de connaître les répartitions verticales de concentrations de polluants dans la nappe. Elle fait appel à un préleveur multi-niveaux équipé de cellules de dialyse à usage unique et installés dans les piézomètres. Les cellules de dialyse sont positionnées aux profondeurs de prélèvements souhaitées et les échantillons d'eau sont recueillis sans perturber l'écoulement naturel, sur une durée d’une semaine.
Quatrième étape :
L'évaluation des concentrations au droit des cibles
Cette étape débute par le choix définitif des substances à prendre en compte dans l’évaluation. À ce stade d’étude détaillée, il faut raisonner par molécule, et non plus par famille de substances : par exemple le benzène, et non pas les “hydrocarbures totaux”.
En application du principe de “transparence”, le choix des substances doit être justifié. Il peut se faire sur la base de la liste des substances présentes dans la source, en considérant celles qui sont les plus solubles ou les plus mobiles, celles qui présentent un risque toxicologique avéré, celles qui présentent un risque spécifique sur les cibles considérées (exemple : les sulfates qui peuvent avoir une incidence sur la prise des coulis de ciment d’un chantier de tunnel).
L'essentiel de la tâche consiste ensuite à fournir des valeurs de concentrations en ces substances au droit des cibles identifiées dans le schéma conceptuel, et pour les différents scénarios envisagés. Il existe pour cela plusieurs approches.
La première approche à entreprendre consiste évidemment à se baser sur les valeurs de concentrations mesurées au droit, ou à proximité des cibles, ou de points d’observation tels que des piézomètres, judicieusement placés.
Les mesures ont l'avantage de pouvoir être répétées, et elles sont fiables. Elles sont à juste titre classiquement considérées comme préférables et plus crédibles que les valeurs issues de prévisions par modèles. Elles peuvent pourtant poser un problème de représentativité. Par exemple, s'il s’agit de mesures ponctuelles, elles ne représentent pas forcément la valeur “moyenne” quand on étudie des milieux dans lesquels des variations importantes sont constatées (rivières). Dans ce cas, il est utile de faire des prélèvements répétés.
Quand les phénomènes étudiés subissent des évolutions lentes de long terme (ce qui s'observe souvent dans le cas des eaux souterraines), une mesure, et même une série de mesures sur plusieurs mois, ne permet pas de savoir à quel stade d’évolution on se situe. À titre d'illustration, le graphique de la figure 3 présente les courbes d’évolution possible des teneurs dans un piézomètre de surveillance en aval d'un site pollué, selon deux hypothèses envisageables concernant les caractéristiques de la source de pollution. On voit qu'une teneur mesurée aujourd'hui (flèche) dans ce piézomètre ne permet pas de déterminer l’évolution future du risque.
tent d’évaluer le risque actuel pour les cibles connues, elles ne permettent évidemment pas de faire des prévisions, ni d’étudier d'autres scénarios d’usage de la ressource. Pour cela, en seconde approche, des approches par calculs et modèles sont indispensables.
Il existe un premier niveau de complexité de calculs, que l'on qualifiera de modèles numériques simples. Ils consistent le plus souvent à calculer les concentrations attendues en certains points au moyen de formules simples décrivant un processus unitaire, les formules pouvant être combinées les unes aux autres pour rendre compte de processus plus complexes.
À titre didactique, la figure 4 présente un des cas les plus simples de prévision des concentrations dans la nappe en aval d'un dépôt de terres polluées au travers duquel percolent les eaux de pluie.
Le calcul se fait ici en 3 étapes, en adoptant des hypothèses simplificatrices à chaque étape :
- • Cp : c’est la concentration que présente l’eau après son transit au travers des sols pollués. On peut considérer soit les valeurs théoriques de solubilité des substances, soit les concentrations mesurées dans des tests de percolation réalisés en laboratoire sur des échantillons de sols pollués. Le flux annuel de pollution s’infiltrant vers la nappe est estimé par :
PU × S × Cp,
où PU est la quantité de pluie s’infiltrant au travers des sols pollués sur la surface S.
- • Cs : est la concentration de l’eau d’infiltration qui atteint la nappe. Cs peut être considérée égale à Cp, si l’on ne prend pas en compte des phénomènes comme la biodégradation ou l’adsorption.
- • Co : est la concentration dans la nappe en aval du site pollué. Elle peut être estimée par une hypothèse de mélange « parfait » dans le débit Qo de la nappe transitant sous le site :
Co = (Cp × PU) / Qo
Ce type d’approche surestime les concentrations, car elle ne prend pas en compte les phénomènes d’atténuation naturelle. Elle permet toutefois très souvent d’évaluer de façon à peu près réaliste les flux et les ordres de grandeur quand le cas est simple. En revanche, dès que les phénomènes se complexifient un peu, il est indispensable d’avoir recours à des modèles élaborés.
Les modèles : comment cela marche et comment s’en servir ?
Les modèles mathématiques visent à reproduire de façon schématisée le comportement complexe des polluants et des écoulements souterrains, en considérant successivement plusieurs aspects. Le modélisateur s’attache tout d’abord à construire un outil qui rend compte de façon réaliste de l’écoulement des eaux dans le milieu. Le cadre hydrogéologique fait l'objet d'une « schématisation » : la géométrie des couches est modélisée par un système de mailles en 3 dimensions. Le domaine modélisé couvre une surface très supérieure à celle du site : ses limites doivent être des réalités hydrogéologiques « naturelles » non influencées par les simulations qui seront faites au droit du site : limites de bassins-versants, fleuves, limites étanches.
Le modélisateur saisit pour chaque maille les valeurs, mesurées ou estimées probables en fonction des cartes géologiques, des paramètres hydrodynamiques caractéristiques des différentes couches de terrains. Les données dont il faut disposer à ce stade sont, par exemple :
- • des chroniques de pluie utile ;
- • des relevés piézométriques ;
- • des valeurs de perméabilité et d’épaisseur des couches de terrain, des valeurs de porosité, de coefficient d’emmagasinement, de coefficients de drainance ;
- • les cotes et débits des cours d'eau pour différentes saisons ;
- • les débits des forages d’exploitation.
On introduit au droit des mailles concernées les entrées d'eau : débit entrant latéralement, par les rivières, les valeurs de pluie infiltrée, etc. On introduit de même les valeurs de sorties d'eau : drainage par les rivières, infiltration dans les nappes sous-jacentes, et on positionne sur les mailles correspondantes les valeurs de débit de prélèvements des captages inventoriés...
Le calcul est ensuite lancé : le modèle résout un système complexe d’équations équilibrant le bilan hydrique pour chacune des mailles, et établit ainsi une carte piézométrique résultante.
Le modélisateur procède ensuite au calage hydrodynamique du modèle. Cette opération consiste à affiner les valeurs des différents paramètres entrés dans le modèle de façon à ce que celui-ci prouve sa capacité à
Reproduire de façon fiable un certain nombre de situations réelles et mesurées, comme par exemple des cartes piézométriques relevées à des dates précises. Contrairement aux modèles de dispersion atmosphérique, par exemple, les modèles d’écoulements souterrains doivent obligatoirement faire l’objet d’un calage minutieux.
Une fois le modèle calé sur le plan hydrodynamique, il est possible de passer à l’étape suivante de modélisation de la pollution. Plusieurs types de codes existent pour conduire ces modélisations, qui ont la capacité de rendre compte de phénomènes différents.
Burgéap utilise le plus souvent le code Simuscopp, qui est un code général tridimensionnel capable de simuler à la fois la migration des polluants organiques dans les milieux poreux souterrains et de nombreux procédés de réhabilitation de sites.
Dérivé des codes de gisement pétrolier Sarip et Athos, il a été développé dans le cadre du programme Eureka/Rescopp par l’Institut Français du Pétrole, Burgéap et des sociétés italiennes du groupe ENI.
Ce code prend en compte :
- * les écoulements de plusieurs phases : eau / huile / gaz ;
- * le transport de masse (convection/dispersion cinématique/diffusion moléculaire) ;
- * cinq mécanismes d’atténuation de la pollution : la dissolution de la phase huile, la volatilisation, l’adsorption de la pollution dissoute sur la matrice solide, la biodégradation de la phase huile résiduelle et la biodégradation de la phase dissoute.
On introduit dans le modèle, sur les mailles concernées, les données relatives à la source de pollution : soit le flux d’un effluent, soit une quantité donnée d’un stock de polluant dans le terrain. On introduit également l’ensemble des paramètres caractérisant le comportement des substances dans le milieu souterrain.
Le modèle calcule ensuite des cartes d’isoconcentrations dans la nappe pour les substances considérées, et à différents pas de temps.
Quand c’est un stock de polluant qui a été introduit, il est évidemment de la plus grande importance de considérer le facteur temps : le modèle « fait passer » de l’eau au travers de la source de pollution et en « épuise » ainsi progressivement les différentes substances : d’abord les plus solubles, puis les moins solubles, jusqu’à épuisement complet.
La situation à un mois, dix ans, trente ans après le déversement est donc très différente en termes de types de substances transportées.
Il importe, quand cela est possible, de procéder à un calage en vérifiant que le modèle reproduit de façon satisfaisante les concentrations mesurées.
Ce n’est qu’alors que l’on peut procéder à des simulations prédictives, soit pour évaluer les concentrations futures dans les eaux souterraines dans les différentes conditions imposées par les scénarios envisagés, soit pour étudier les effets de différentes solutions de dépollution ou de confinement.
Les figures 5 à 8 donnent des exemples de restitution des résultats par le modèle Simuscopp.
TRESCOPP : REhabilitation des Sites COntaminés par des Produits Pétroliers
Quelques enseignements
La pratique des évaluations des risques pour les ressources en eau souterraines nous permet de souligner les points qui posent le plus de problèmes méthodologiques. Nous traiterons trois questions principales.
Première question : quelles « cibles » prendre en compte ?
Bien qu’il s’agisse du dernier terme de l’équation Source-Vecteur-Cible, c’est le premier à clarifier, puisque c’est là l’objet principal de l’étude. L’expérience montre à quel point le responsable de la pollution, le prestataire de l’étude et l’administration (DRIRE / DDASS) doivent s’entendre sur la réponse à cette question. Plusieurs approches existent.
Quand on se situe dans le contexte d’une nappe exploitable reconnue comme une ressource importante, une première approche con-
Sisterait à considérer que la cible est la nappe elle-même, en tant que ressource à caractère « patrimonial ». Il s’agit de considérer par principe que cette ressource doit être exploitable en tout point, y compris le cas échéant par un captage situé à la limite aval du site.
L’avantage apparent de cette approche « radicale » est que dans beaucoup de cas aucune étude n’est nécessaire pour arriver à la conclusion. Si l’on considère à nouveau l’exemple illustré à la figure 2, dans lequel la source de pollution est « dans l’aquifère », on voit que la pollution de la nappe sur site et même en aval proche est déjà avérée.
Dans ce cas, une telle démarche aboutit automatiquement à la conclusion qu’il faut dépolluer le site et enlever la source de pollution, ou bien mettre en place un confinement sur le site. Or, souvent, une telle opération se révèle soit techniquement infaisable, soit excessivement coûteuse. Même si elle est abordable, ses résultats ne sont souvent pas garantis à très long terme, et il subsiste toujours un risque de dysfonctionnement du dispositif de confinement, ou bien après traitement il reste encore une source de pollution « résiduelle ». Dans la réalité, on est donc très souvent ramené à devoir étudier les risques vis-à-vis de cibles concrètes comme des captages existants.
Une seconde approche vise donc à vérifier les risques actuels sur les cibles existantes. Par exemple étudier si un risque existe vis-à-vis d’un ou plusieurs captages d’eau potable, industrielle ou agricole bien identifiés et exploitant à un débit connu.
En dehors des cas de pollutions « accidentelles » très proches d’un captage exploité, avec un risque « immédiat » important, et dans l’objectif de mettre en œuvre rapidement des mesures de protection de ce captage, cette approche est en général beaucoup trop limitative et ne permet pas une protection durable des ressources en eau.
En effet, cette vision est trop « statique ». L’une des principales raisons en est que dans le domaine de l’hydrogéologie les cibles ont un effet sur le vecteur, et que les conditions des écoulements souterrains sont loin d’être constantes. La figure 8 illustre ce phénomène. On y a représenté les directions d’écoulement dans une grande nappe exploitée pour l’AEP, à partir d’un site recelant une source de pollution, à deux dates éloignées de 25 ans. On voit que l’arrêt de plusieurs gros captages à l’Ouest du site provoque une modification drastique des sens d’écoulement, et que le captage situé à l’Est, qui n’était pas a priori en position de risque, est à présent menacé.
En réalité, l’approche que nous recommandons comme la plus réaliste consiste à travailler à partir de scénarios « théoriques ». Cette approche comporte :
- • d’une part évidemment une étude des risques de migration de la pollution vers les cibles actuellement identifiées, dans les conditions actuelles, mais aussi d’autre part ;
- • l’examen des risques dans le cas de plusieurs scénarios « majorants » mais « plausibles », comme : création d’un nouveau captage, remise en service d’un ancien captage à présent abandonné, arrêt de certains pompages industriels, création d’un captage pour l’irrigation, construction d’un barrage sur une rivière, etc.
La notion de scénario « plausible » conduira par exemple à écarter l’hypothèse de création future d’un captage AEP en limite aval du site au motif qu’à cet endroit se situe une autoroute puis une zone artisanale ou industrielle.
Cette même notion conduira par contre à étudier le cas de la création future d’un captage pour l’irrigation au milieu d’une zone de prairies, à une distance plus faible du site que les captages d’AEP existants, et en envisageant la possibilité d’utilisation « marginale » de cette eau pour la boisson. Le caractère « majorant » pourra consister à envisager ce dernier scénario de façon concomitante à l’arrêt d’importants prélèvements industriels qui influencent fortement les écoulements souterrains.
On voit l’importance qu’il y a, à ce stade de l’étude, de se concerter avec l’ensemble des parties prenantes (pollueur, DRIRE, DDASS, exploitants de la ressource, associations) pour préciser les scénarios « majorants » plausibles et les cibles à considérer pour chaque scénario.
Deuxième question : quel est le « terme source » ?
Nous constatons que souvent les choses ne sont pas assez clairement explicitées. Or une bonne connaissance du « terme source » est fondamentale pour établir des prévisions fiables.
Deux informations sont recherchées par l’évaluateur de risque au sujet de la source :
1. Quel flux de quelles substances est émis dans les eaux (souterraines, de surface) à partir de la source ? C’est en effet ce flux (en kg/an), introduit dans le débit d’eau (en m³/an) de la ressource affectée par cette pollution, qui va générer des concentrations en polluants (en kg/m³) dans la ressource.
2. Quel est le stock de substances polluantes contenues dans la source ? C’est en effet cette quantité totale (en kg) qui s’introduit progressivement dans la ressource suivant le flux cité plus haut, qui détermine la durée (en ans) de la pollution. Or, c’est une évidence de dire que plus la durée pendant laquelle la source pollue la ressource est longue, plus la quantité de ressource susceptible d’être affectée est grande et plus les cibles susceptibles d’être atteintes sont lointaines de la source.
Évidemment, ces informations ne sont que très rarement connues directement. Il faut les calculer ou les déduire d’autres données plus aisément mesurables. Mais il faut savoir quoi mesurer. C’est pourquoi quelques notions fondamentales doivent être clarifiées lors de la deuxième étape de l’étude au sujet de la source :
- • S’il s’agit d’une source « active » (exemple : rejet direct d’un effluent s’infiltrant dans un sol) ? Dans ce cas l’évaluation du flux est aisée : il suffit de connaître les historiques et les prévisions de débit et de concentration de l’effluent. Mais il peut aussi s’agir d’une fuite chronique sur un réseau d’eaux usées fissuré ou endommagé. Dans ce cas, l’éva-
Évaluation du flux devient plus délicate.
- • S'il s'agit d'une source « passive » du type « tas de déchets exposé au lessivage par la pluie » ? Dans ce cas la connaissance du flux se calcule à partir de données du type : quelles sont les substances présentes dans la source et quelle est leur solubilité, quelle surface de tas est exposée à la pluie, quelle fraction de la pluie s'infiltre et quelle fraction ruisselle ?
- • S'il s'agit d'une source « passive » du type « galette d’hydrocarbures flottant sur la nappe » ? Dans ce cas, le flux dépend de la solubilité des substances présentes dans la galette d’hydrocarbures (donc la nature de celle-ci), de la surface d’échange entre celle-ci et la nappe (géométrie de la galette, amplitude de la fluctuation du niveau de la nappe), du débit de la nappe.
- • S'il s'agit d'une source « passive » du type « composés en phase organique plus dense que l'eau » ? Dans ce cas, le flux dépend de la solubilité des substances présentes, des caractéristiques géologiques (calcaire fissuré ou sables ?), du débit de la nappe.
- • Etc...
Troisième question : la prise en compte de l’atténuation naturelle
La non-prise en compte de l'atténuation naturelle aboutit souvent à surestimer de façon très importante les distances de migration des pollutions et les teneurs en composés dissous.
Les cartes des figures 9 et 10 montrent la différence qui existe entre la simulation prédictive d'un panache de pollution sans prise en compte de l'atténuation naturelle, et celle qui la prend en compte. Le calage et les mesures de terrain indiquent que c’est la seconde simulation qui rend compte de la réalité observée.
À l'inverse, ne pas prendre en compte l'atténuation naturelle conduit à sous-estimer la présence de composés dérivés ou métabolites, dont certains peuvent avoir une toxicité notable (la dégradation du Trichloroéthylène aboutissant à l’apparition de chlorure de vinyle en est l'exemple le plus souvent cité).
Pour ces raisons, il faut :
- • s'attacher à mesurer lors des reconnaissances tous les indices qui peuvent prouver et quantifier les phénomènes d’atténuation naturelle : consommation d'oxygène dissous, réduction des nitrates et des sulfates, présence de forme particulière de métaux, dosage des métabolites ;
- • utiliser des modèles qui permettent de prendre en compte de façon réaliste ces phénomènes dans les prédictions.
Il est utile de préciser que, quand il s'agit de polluants minéraux, les phénomènes ne sont pas de même nature que dans le cas de composés organiques : ce sont les équilibres thermo-dynamiques au sein des aquifères, les équilibres entre formes dissoutes et la matrice qui jouent. Dans une nappe captive en conditions anaérobies, une pollution par nitrates peut disparaître entièrement ; les ions de métaux toxiques peuvent précipiter et être rendus non mobiles en passant d'un aquifère de sables quartzitiques à des calcaires.