Your browser does not support JavaScript!

Nappes polluées : les méthodes biologiques stimulées se développent grâce aux progrès des méthodes analytiques

29 février 2012 Paru dans le N°349 à la page 21 ( mots)
Rédigé par : Christian GUYARD

La pollution des nappes souterraines se révèle de plus en plus : hydrocarbures, solvants chlorés, produits chimiques de toutes sortes, métaux lourds. Le diagnostic préalable des polluants et de leur localisation est essentiel. Entre la volonté d'éliminer la pollution et la nécessité de ne pas aggraver une situation, il faut savoir jouer sur les capacités des différentes méthodes. Les méthodes d'analyses les plus élaborées sont mises en ?uvre dans une discipline émergente, la forensie environnementale.

Les activités industrielles se sont développées très majoritairement dans les plaines alluviales, la pollution des nappes est donc une question générale. La nappe phréatique (libre) la première rencontrée depuis le sol n'est pas la seule concernée ; les nappes plus profondes,

[Photo : La méthodologie d’investigation et la qualification des intervenants sont essentielles. Il est crucial d’identifier la nature des polluants, les sources de pollution et de cerner précisément l’étendue de la pollution de la nappe.]
[Photo : COLAS Environnement a créé des unités mobiles d’essai (venting, extraction sous vide, pompage). Présentation d’une unité mobile de pompage pour la réalisation d’essai : réalimentation en hydrocarbure d’une nappe, détermination de rayons d’influence.]

lorsque semi-captives, peuvent également être impactées par des pollutions provenant de la surface, car connectées avec la nappe libre sus-jacente par drainance au travers d’une couverture semi-perméable (limono-sableuse ou sablo-argileuse par exemple). La drainance est un processus qui peut entraîner la diffusion lente d’un polluant dissous, associé à un flux d’eau à composante verticale passant d’un aquifère à un autre à travers une couche semi-perméable, ou échangé entre un aquifère profond et une nappe d’eau superficielle sous l’effet d’un gradient de pression », explique Thierry Blondel, expert et gérant du Cabinet Conseil Blondel, premier bureau d’études certifié LNE Service Site et Sols Pollués en 2011, pour le Domaine A (études, assistance et contrôle).

En majorité, la dépollution des nappes concerne des sites industriels, très souvent encore en activité. Une règle de base : traiter en priorité la source responsable de la dissémination des polluants dans la nappe. « Afin d’identifier précisément les sources de pollution, une analyse historique et documentaire visant à retracer les pratiques d’autrefois et les éventuels accidents est essentielle » estime Damien Faisan, Responsable Technique National Sites et sols pollués chez Dekra. Vis-à-vis des nappes, on distingue les composés minéraux et organiques, ces derniers plus ou moins denses que l’eau (flottants ou plongeants). Autre facteur important, la solubilité dans l’eau : très faible (mais pas nulle et fonction de la température) pour certains hydrocarbures et solvants chlorés, ou très élevée pour des produits comme les alcools, des acides, etc. Les flottants se retrouvent au toit de la nappe et dans sa zone de battement, les plongeants en bas de nappe, bloqués par le substratum imperméable, et dans toute la nappe pour la fraction soluble. La répartition réelle dépend de l’hydrogéologie : vitesse et direction d’écoulement de la nappe, sa variabilité selon les saisons (nappe alluviale d’accompagnement, zones côtières avec marées).

La complexité géologique a parfois des effets inattendus : les polluants denses peuvent « remonter » à l’amont d’une source si la pente du substratum est inverse au sens d’écoulement de la nappe (écoulement gravitaire). Les plongeants peuvent aussi s’accumuler dans des points bas du substratum et constituer des sources secondaires d’émission.

[Encart : Une solution pour la caractérisation et le diagnostic des contaminations Un diagnostic fiable et précis de la contamination est incontournable avant le lancement d’opérations de dépollution. Pouvoir apprécier à tout moment les incertitudes qui subsistent quant à la connaissance de la pollution est tout aussi important. Pour résoudre cette problématique, la géostatistique est reconnue par les donneurs d’ordre comme une technologie pertinente pour le contrôle qualité des données de diagnostic, leur optimisation, la cartographie 3D des contaminations en place ainsi qu’une quantification précise des incertitudes. Dans ce cadre, Geovariances, éditeur logiciel depuis plus de 25 ans, développe et commercialise depuis 2010 une nouvelle solution logicielle baptisée Kartotrak. Kartotrak s’articule autour d’un système d’information géographique (SIG) et permet un positionnement précis des installations de surface et des points de mesure, une optimisation en temps réel du plan d’échantillonnage, une analyse pointue des données couplée avec un contrôle qualité optimal, une cartographie de la pollution basée sur la géostatistique et une quantification des incertitudes associées aux volumes de sol contaminés. En réduisant au maximum le délai entre acquisition de mesure et diagnostic de la situation, Kartotrak optimise les délais et donc les coûts de diagnostic, tout en améliorant la caractérisation. Le développement de Kartotrak, qui est né d’un partenariat avec le CEA (Commissariat à l’Énergie Atomique et aux Énergies Alternatives), a bénéficié du soutien financier de la région Île-de-France au titre de l’Aide à l’Innovation Responsable et également du Conseil Général.]
[Publicité : SITA REMEDIATION]

Forensique environnementale

Une nouvelle expression se répand dans les questions de pollution des sols et nappes : forensique environnementale. Directement importé du mot anglais « forensic », l'expression désigne la recherche de preuves en matière environnementale : « quel est le polluant, d’où vient-il, depuis quand est-il là ? » Des questions que posent les assureurs et la justice pour établir les responsabilités. « De plus en plus chez HPC nous utilisons ces méthodes », explique Franck Karg, P-DG d'HPC, première société certifiée 30/11/2011 en NFX 31-620 Domaine A + B.

Cette discipline repose sur les méthodes analytiques les plus avancées. Par exemple la chromatographie en phase gazeuse ou liquide qui permet de séparer très finement les différentes molécules d'un mélange d'hydrocarbures ou de solvants et de les différencier entre des sources de pollution différentes. On peut ainsi « profiler » un mélange d'hydrocarbures et le comparer avec les produits de telle ou telle raffinerie. Le profil évolue dans le temps du fait de la volatilité et de la solubilité propre à chaque molécule ; on pourra ainsi avoir une idée de l'ancienneté de la pollution. On peut aussi rechercher les additifs d'un carburant pour affiner le diagnostic. La chromatographie sera couplée à la spectrométrie de masse (MS) pour identifier les molécules.

Les progrès de la MS sont tels que l'on peut identifier les différentes variétés d'une molécule dues à l'existence d'isotopes stables. Exemple le plus simple, l'eau H₂O peut être composée de deux atomes d'hydrogène et d’un atome d’oxygène 16 (les plus répandus), mais aussi d'un ou deux atomes de deutérium (hydrogène « lourd ») et d'un atome d’oxygène 18. Cette variabilité isotopique naturelle existe sur beaucoup d’atomes (carbone 13, azote 15, chlore 37, etc.). Son influence se révèle dans les phénomènes de diffusion et de dégradation naturelle par digestion microbienne : « les micro-organismes attaquent préférentiellement les liaisons chimiques entre isotopes légers ce qui entraîne une augmentation de la concentration en molécules à isotopes lourds. Si localement on connaît la vitesse de l'eau, on peut calculer des vitesses de dégradation de polluants et même faire une datation de la pollution », explique Franck Karg.

Autre méthode de datation : la dendrochronologie, l'étude des cernes de croissance des arbres sur lesquels on réalise des analyses chimiques pour détecter les polluants, donc dater une pollution.

[Photo : HPC]

Un diagnostic aussi précis que possible

Devant cette complexité, la méthodologie d'investigation et la qualification des intervenants sont essentielles (voir encadré normes). Il est crucial d'identifier la nature des polluants, les sources de pollution et de cerner précisément l’étendue de la pollution de la nappe. « Quelle que soit la technique de traitement retenue, elle sera d'autant plus efficace et moins coûteuse au final, que l'on aura bien localisé la source. L’économie en amont n'est pas une bonne approche ; il vaut mieux dépenser plus en investigations, par exemple avec la méthode MIP Membrane Interface Probe, et ne pas se tromper sur le traitement », affirme Jérôme Duchêne de l'équipe Sites et sols pollués d’Artelia Eau-Environnement (bureau d’études et maîtrise d’œuvre). La méthode MIP est de plus en plus utilisée. « Cette technique apporte plus de souplesse et d’efficacité lors des phases de sondages. La lecture directe des paramètres fournis par la MIP permet d’orienter l’implantation des sondages au gré de l’avancement des investigations », souligne Damien Faisan, Dekra. Au lieu de faire un piézomètre, prélever puis envoyer les échantillons en laboratoire, avec tous les problèmes de conservation d’échantillons, le MIP travaille rapidement sur site.

Il convient pour les produits volatils, solvants chlorés, hydrocarbures et leurs produits de dégradation. La sonde MIP introduite dans le sol par fonçage depuis un véhicule de terrain dispose d’un élément chauffant (environ 120 °C) qui volatilise les polluants ; ils entrent dans la sonde par une membrane semi-perméable et sont entraînés par un courant d’azote vers un chromatographe en phase gazeuse (doté de plusieurs types de détecteurs) à bord du véhicule. Si la sonde mesure aussi la conductivité, on aura accès à la nature du sous-sol.

En une journée, et selon la profondeur, une dizaine de points de sondage donneront un profil vertical des polluants. Un quadrillage dense localisera les sources et donnera une vision de l’étendue du panache de pollution. « La phase de post-exploitation des données MIP est primordiale pour disposer d'une bonne lecture des sources et des éventuels panaches de pollution », souligne …

[Photo : Plusieurs intervenants disposent de tous les moyens nécessaires et notamment d’unités mobiles pour tester en vraie grandeur l’efficacité d’une méthode, ajuster les paramètres de traitement. Ianesco Chimie teste sur unités pilote en laboratoire les technologies qui vont permettre de traiter les eaux contaminées en déterminant également la bonne séquence de traitement.]
[Photo : Sur des sols homogènes et s’il y a une phase pure, le pompage est la solution la plus rapide mais il reste des quantités plus ou moins grandes selon la nature de l’aquifère. Le pompage écrémage, le sparging, vu la durée des chantiers (plusieurs années) sont coûteux en énergie et en maintenance pour un résultat parfois décevant lorsque la géologie et l’hydrogéologie sont complexes.]
[Publicité : Veolia – GRS Valtech]
[Photo: Pour les substances oxydables comme les hydrocarbures, l’oxydation chimique, notamment par le permanganate, peut constituer une solution : encore faut-il avoir bien localisé les zones à traiter sous peine de consommer beaucoup de réactif.]

Damien Faisan, Dekra. Ainsi, les piézomètres seront mieux répartis pour surveiller la nappe, prélever et placer des préleveurs passifs (longue durée d’échantillonnage). HUB-Environnement, de son côté, fait systématiquement des campagnes de géoradar sur ses sites pour maîtriser les hétérogénéités du sol. Les prélèvements restent d’actualité car les méthodes d’analyses ont fait des progrès considérables (encadré forensique).

Le contexte impose la méthode

« Il faut laisser la liberté aux entreprises de traitement de proposer des solutions innovantes, ne pas fermer a priori la porte à une technique » explique Jérôme Duchêne. Une position partagée par Christophe Chêne, directeur technique chez Soléo Services : « la préoccupation ne doit pas être la vente d’une technique mais bien le traitement d’une nappe en utilisant des méthodes adaptées à la géologie locale, aux polluants, au budget du client, tout en pensant aux riverains (bruit, odeurs, poussières…), voire à l’impact médiatique de la solution ». À ce sujet, il faut noter que le concept “d’éco-chantier” ou de “chantier propre” qui se développe de plus en plus, a permis à Cap Environnement de développer une offre pour élaborer les stratégies de surveillance des impacts atmosphériques sur l’environnement et les riverains ainsi que les expositions professionnelles aux risques chimiques, tout particulièrement en zone sensible dense qu’est le milieu urbain.

Même discours chez GRS Valtech, première société certifiée domaines B et C : « Nous utilisons la technique la plus adaptée au contexte local et à l’urgence. Nous insistons beaucoup sur les essais laboratoires et pilote sur site pour réduire les risques d’échec du traitement » explique Matthieu Hirrien de la direction technique opérationnelle. Plusieurs intervenants comme Brézillon, Sita Remédiation, ATI Services, Biogénie, Biobasic, Ikos, GTS, Soléo Services, Envisan ou Extract Ecoterres disposent de tous les moyens nécessaires et notamment d’unités mobiles pour tester en vraie grandeur l’efficacité d’une méthode, ajuster les paramètres de traitement. Jérôme Rheinbold de Colas Environnement qui réalise de nombreux essais de faisabilité et de dimensionnement précise « qu’ainsi,

[Photo: Sur cet ancien dépôt pétrolier contaminé au cours de son exploitation par des hydrocarbures, BTEX et HAP, Biogénie a assuré le traitement de la nappe par pompage en fond de fouille suivi d’un traitement par filtration sur charbon actif et réinjection séquentée des eaux en tranchées pour assurer une recirculation des eaux sur le site.]
[Encart: Les barrières actives plus compétitives Les barrières actives connaissent un regain d’intérêt mais nécessitent un diagnostic sérieux, notamment hydrologique. Le dispositif ne consomme quasiment pas d’énergie puisqu’il est passif ; il n’y a pas d’eau d’exhaure à traiter. « Des parois étanches sont réalisées in situ jusqu’au substrat pour diriger l’écoulement vers des parties perméables de la barrière, équipées de filtres spécifiques. Sur un site contaminé à l’arsenic, nous avons même placé une succession de 3 milieux réactifs : pour ajuster le pH, faire une rétention/élimination de substances qui perturbent le piégeage de l’arsenic et enfin traiter l’arsenic » explique Pierre-Yves Klein de Sol Environment. Il y a possibilité de remplacer les zones réactives lorsqu’elles sont saturées. Le coût de réalisation des barrières a considérablement baissé en faisant du malaxage de sol et un béton de sol in situ. « Pour une hauteur de 10 m, on peut faire 60 à 80 m de paroi par jour. Ces techniques sont vraiment utiles dans des géologies complexes et pour des sites importants afin de traiter des panaches, elles repoussent les limites d’intervention possibles » indique Pierre-Yves Klein.]
[Publicité : intersol 2012]

Dépollution des eaux souterraines : beaucoup de recherches en France et en Europe

Les nanoparticules de fer intéressent beaucoup de monde pour la dépollution des eaux souterraines. « Nanoferrées », nanoparticules de fer pour la remédiation des eaux, est un programme de l'Agence Nationale pour la Recherche démarré en 2009 pour une durée de 3 ans et un budget de 623 k€. Il est coordonné par le laboratoire LCPAM Université Paul Cézanne Marseille 3 avec pour partenaires le CNRS, l’INERIS, le CEREGE et l’ISM ainsi que les entreprises Serpol et Hyphen. Le programme est centré sur un traitement chimique par réduction in situ des solvants chlorés par nanoparticules de fer. Le programme porte sur la synthèse des nanoparticules, leur formulation optimale dans un liquide injectable et les tests sur le terrain.

[Photo : GIFSI (www.gifs.i)]

Ce sujet est aussi exploré par le GIFSI dans une approche pluridisciplinaire de la dépollution ; il dispose d'une station expérimentale à Homécourt.

CityChlor est un programme transnational d'amélioration des sols et nappes urbains dans une démarche intégrée face aux menaces de contaminations par les solvants chlorés (voir http://www.citychlor.eu/). Il assemble Belgique, France (Ademe et INERIS), Allemagne, Pays-Bas. Il a son pendant dans le programme Interreg IVB Upsoil qui rassemble Espagne, Belgique, Pays-Bas, Danemark, Suède, Lituanie, Pologne, Roumanie, République Tchèque et Autriche avec six centres de recherches et universités et sept PMI de traitement des sols pour développer des méthodes et méthodologies de remédiation.

Face à la complexité des analyses, « Dans le domaine de la dépollution, la performance, la réactivité, la présence technique et la qualité des laboratoires sont essentielles », souligne Audrey Goutagnieux, Wessling. « Les analyses chimiques sont complexes et nécessitent un appareillage de haute technologie et du personnel qualifié ». La présence de polluants organiques et inorganiques dans les eaux souterraines peut être d'origine très diverse. L'identification précise des composés ne peut se faire que par un appareillage performant alliant caractérisation et limite de détection basse. Dans le cas de composés organiques tels que les solvants chlorés, l'utilisation de chromatographie en phase gazeuse couplée à une spectrométrie de masse (GCMS) permet d'obtenir trois critères d’identification des molécules, ce qui est un gage précieux de qualité. Pour finir, ce type d’appareillage permet d’obtenir des seuils de détection relativement bas de l'ordre d'une dizaine de ppt selon les matrices.

Il est possible de s’engager auprès des maîtres d'ouvrage sur l'atteinte d’objectifs en termes de concentration, de respect des délais et des coûts. Pour optimiser la dépollution, plusieurs méthodes peuvent être mises en œuvre. « Nous utilisons aussi la modélisation pour estimer des débits, des pressions, des transferts de masse, mais l'hydrogéologie n'est pas une science exacte, les retours d’expériences sont aussi importants », indique Matthieu Hirrien. Des laboratoires comme Wessling, Alcontrol ou Lanesco Chimie disposent d’outils performants permettant de faire traitements des sols et nappes (36 mois du 1ᵉʳ octobre 2009 à fin 2012).

[Encart : Le droit à l'eau : une urgence humanitaire Bernard DROBENKO L'auteur analyse la nécessité de répondre à un besoin humain fondamental. Le droit à l'eau doit être compris comme la nécessité de disposer de suffisamment d’eau potable pour répondre aux besoins fondamentaux et d’un équipement pour récupérer les eaux usées. Sur la planète, tous les jours meurent des milliers de personnes qui ne disposent pas d'eau potable pour survivre et qui subissent les effets de l'absence d’équipements d’assainissement. L’ouvrage permet de situer d’abord le contexte planétaire et régional, mais aussi local qui conduit à cette situation dramatique. Alors que l’Assemblée Générale des Nations Unies a adopté en juillet 2010 une résolution reconnaissant formellement le droit à l'eau, l'intérêt de cet ouvrage est multiple : - il étudie les obstacles à la réalisation de ce droit et identifie les divers enjeux préalables à sa mise en œuvre ; - il décrit l’émergence de ce droit, son affirmation progressive et ses implications internationales ; - il identifie les conditions, y compris matérielles, permettant de satisfaire un besoin fondamental : celui de disposer du minimum d’eau nécessaire à la survie et de récupérer les eaux usées domestiques. En dégageant rapidement les moyens disponibles, l’auteur fait le pari que l'intelligence humaine est en capacité de générer solidarité, efficacité et paix. www.editions-johanet.com]
[Publicité : WESSLING]

Normes en 2011 : certification et labels

Depuis fin mai 2011, la Certification LNE Service Sites et Sols Pollués encadre la qualité des prestations dans le domaine des sites et sols pollués. Elle se réfère à la norme NF X31-620 parties 1 à 4, sortie en juin 2011 en remplacement de celle de septembre 2003 et couvre trois domaines :

  • A : Études, assistance et contrôle,
  • B : Ingénierie des travaux de réhabilitation,
  • C : Exécution des travaux de réhabilitation.

La norme et le référentiel de certification ont été établis à l’issue d’un travail mené par toutes les parties prenantes : administration, maîtres d’ouvrage, juristes et professionnels du secteur des sites et sols pollués.

Ces documents présentent seize engagements de service des prestataires vis-à-vis de leurs clients. Ces engagements garantissent notamment l’information des clients sur plusieurs points comme le recours à la sous-traitance (n° 8), l’engagement de minimiser l’impact environnemental de l’intervention sur le site et ses environs (n° 10), le caractère exceptionnel pour une entreprise (ou ses filiales) d'intervenir sur un même site dans les trois domaines, sauf demande expresse du client (n° 12), ou la traçabilité de la prestation, c’est-à-dire la gestion documentaire de tout ce qui a été fait (n° 16).

La certification LNE Services Sites et Sols Pollués vient se substituer au label Qualipol qui s’adossait à la norme NF X31-620 de 2003 et avait été mis en place dès 2005 par l’Union des Professionnels de la Dépollution des Sites (UPDS). La validité des labels Qualipol s’arrête donc à fin septembre 2012. Le 30 novembre 2011, cinq premières sociétés, toutes adhérentes de l’UPDS, ont été certifiées : il s’agit du Cabinet Conseil Blondel, pour le domaine A, de CSD Ingénieurs, HPC Envirotec et Socotec pour les domaines A et B et de GRS Valtech pour les domaines B et C.

Le référentiel de certification, le guide de l’auditeur ainsi que la liste des sociétés certifiées sont accessibles sur le site du LNE (www.lne.fr). Un guide du donneur d’ordre devrait également paraître dans le courant de l’année 2012.

Par ailleurs, en complément à la norme et à la certification, l’UPDS anime depuis fin 2009 un comité de pilotage dont la mission est de promouvoir l’établissement de la règle de l’art en matière de sites et sols pollués. Les premiers documents sont attendus fin 2012. Vous pouvez retrouver sur le site internet de l’UPDS (www.upds.org), de nombreux liens vers divers guides méthodologiques publiés par le MEDDTL, Ademe et le BRGM.

Tout est question d’urgence à traiter (terrain utilisé ou pas), de configuration (pollution sous bâtiment, habité ou non), de budget. Sur des sols homogènes et s’il y a une phase pure, le pompage est la solution la plus rapide mais il reste des quantités plus ou moins grandes selon la nature de l’aquifère. Le pompage écrémage, le sparging, vu la durée des chantiers (plusieurs années), sont coûteux en énergie et en maintenance pour un résultat parfois décevant lorsque la géologie et l’hydrogéologie sont complexes. Les méthodes thermiques ne sont pas destinées au traitement de la zone saturée et jugées coûteuses. Un argument que combat Claude Cédou de GTS : « les récents développements des méthodes thermiques qui leur ont permis de devenir peu coûteuses et de donner des engagements sur les résultats, les délais et les coûts, leur ouvrent également des horizons pour le traitement de la zone saturée : les technologies NSR, développées par TPSTech, avec qui nous avons signé une convention début 2012 a considérablement baissé les coûts de chauffage des sols. Le chauff-

[Encart : texte : Forensique environnementale : avis d’expert et mise au point La « forensique environnementale » est en fait un néologisme « franglais » qui signifie globalement : « recherche de la preuve » et « recherche en responsabilité » ; elle concerne en général des problématiques de contentieux « environnementaux » générés par des pollutions impactant un ou plusieurs milieux naturels ou anthropisés (air-eaux-sols-sédiments-végétaux...). De nombreuses méthodes utilisées pour de telles recherches existent de longue date dans le domaine des sciences et techniques environnementales, donc bien avant que ce terme « à la mode » n’apparaisse récemment dans la littérature technique et scientifique environnementale francophone, aidée en cela par la mode des séries télévisées de type « Les Experts » et autres... Ces méthodes de « recherche de la preuve et en responsabilité », dans le domaine de l’environnement, sont parfois très simples à mettre en œuvre et surtout très anciennes..., mais elles demandent en règle générale, et avant toute chose, une très bonne expérience et expertise en matière de caractérisation et d’estimation de la pollution des milieux (air-eaux-sols-sédiments-végétaux...), d’évaluation de risques sanitaires et environnementaux, et surtout une grande expérience de terrain... Toute bonne expertise en « forensique environnementale » doit débuter en premier lieu par une connaissance poussée du problème à résoudre : visite du site concerné et constats visuels/organoleptiques, réalisation de synthèses documentaires et d’études préalables, notamment historiques et documentaires, mesures sur site « non invasives » ou « non-destructives » (gaz du sol, air ambiant, géophysique, ...), etc. Ces études environnementales, préalables à toute « recherche de la preuve ou en responsabilité », doivent permettre de réaliser un « screening », une sélection des « voies à explorer... Elles doivent porter notamment sur la typologie et le comportement des polluants (potentiellement) en présence, au sein des différents milieux impactés, y compris leurs métabolites si existants, ainsi que sur le contexte d’occupation et d’usage des sols, actuel et passé, et sur le climat, la géomorphologie, le contexte hydrique et hydraulique, la pédologie, la géochimie, la sédimentologie, la géologie et l’hydrogéologie du secteur étudié, etc. Ces études préalables sont essentielles à toute recherche ou investigation en « forensique environnementale ». Ainsi, il est avéré qu’une étude historique et documentaire poussée, complétée par une expertise hydraulique, hydrogéologique et environnementale du site pollué concerné, en incluant un suivi de la qualité des eaux, sur un ou deux cycles hydriques complets – réalisé sur la base d’un réseau de surveillance adapté au contexte et au domaine étudié – suffisent en général à préciser l’occurrence et l’origine d’une pollution de nappe, ainsi que son devenir dans le milieu souterrain et les éventuelles parts de responsabilité des parties en cause. Il n’est donc pas systématiquement nécessaire de faire appel à des techniques et des méthodes analytiques de terrain ou de laboratoire « très modernes, complexes et pointues », souvent très coûteuses (mais parfois utiles voire nécessaires... pour des cas particuliers ou afin de précision ou justification notamment !), pour réaliser une bonne expertise ou prestation en « forensique environnementale ». Le bon sens, le pragmatisme et l'expérience sont des « outils humains » souvent bien plus précieux et surtout nécessaires que la technique en elle-même (et sauf, comme toujours, pour des cas bien particuliers et spécifiques), pour pouvoir mener à bien de telles études en « forensique environnementale » : en recherche de la preuve, et en recherche en responsabilité notamment. Une fois acquises, les données analytiques et les observations de terrain peuvent également être analysées en utilisant des méthodes géostatistiques, par exemple pour préciser l’occurrence spatiale et la répartition de polluants dans les milieux, et également afin de diminuer les aléas et incertitudes, notamment au niveau du milieu souterrain, par définition et en règle générale « non visible » depuis la surface... Sur la base des données de terrain, la réalisation de schémas conceptuels les plus réalistes possibles – qui seront néanmoins toujours une simplification de la réalité – puis l'utilisation de modèles analytiques ou numériques spécifiques – aérodispersif, hydrodispersif, ou en évaluation de risques sanitaires, etc... – sont également des « outils classiques » souvent utilisés et mis en œuvre en « forensique environnementale ». Les modèles analytiques ou numériques, lorsqu’utilisés en « forensique environnementale », permettent ainsi de préciser des éléments de preuves, et d’évaluer ou d’estimer le devenir de pollutions dans les milieux impactés. Ces données, ainsi acquises par des moyens « classiques », « connus et utilisés de longue date », sont essentielles en « forensique environnementale » pour définir le périmètre des responsabilités au regard des pollutions sur les milieux, constatées ou à venir, causées par telle activité, par tel site ou par telle partie prenante. En résumé : pour une bonne expertise environnementale, et quand il s’agit de rechercher des preuves, des justifications et surtout des responsabilités quant aux impacts environnementaux reconnus, possibles ou à venir suite à des problématiques de pollutions diffuses, chroniques ou accidentelles des milieux (sols, air, eaux, sédiments, végétaux, etc.), il faut privilégier tout le terrain : la connaissance et le suivi des impacts, la typologie, le comportement, le transfert et le devenir des polluants dans les milieux impactés, et surtout le bon sens et le pragmatisme, notamment au niveau de l’interprétation des résultats obtenus ou recherchés ! Se rappeler ici, et mettre en œuvre autant que faire se peut dans toute recherche en « forensique environnementale », un principe ancestral et fondamental bien connu et appliqué dans nombre d'activités et de réflexions humaines : le « rasoir d’Ockham » ... Pour rappel, il s'agit d’un principe de raisonnement : « Entia non sunt multiplicanda praeter necessitatem », qui veut dire littéralement « Les entités ne doivent pas être multipliées par-delà ce qui est nécessaire », ou, lorsque « traduit » en langage d’aujourd'hui et donc de manière plus moderne : « les hypothèses les plus simples sont les plus vraisemblables » !! Il s‘agit tout simplement d'un des principes fondamentaux de la science ! Donc, avant de se lancer dans des études longues et coûteuses, souvent très pointues et spécifiques techniquement (mais parfois nécessaires...), il convient de bien « remettre les choses à leur place » et de revenir aux bases de tout bon raisonnement scientifique. Que ce soit en investigations, en recherche de la preuve ou en recherche de responsabilité dans le domaine des études environnementales, je conclurai ainsi mes propos en adaptant quelque peu, et très librement, le fameux principe du rasoir d’Ockham : « les investigations et les recherches les plus « classiques » et les plus simples à mettre en œuvre – si elles sont bien orientées, bien cadrées et réalisées par des personnes d'expérience, et pour des contextes bien définis – sont souvent les plus efficaces, et donnent toujours de très bons résultats ». Longue vie donc à la « forensique environnementale » ... Dr. Thierry Blondel, Expert SSP Gérant du CCB]
[Publicité : HydroGaïa]

De nouvelles méthodes analytiques en traitement biologique des nappes

Le principal programme de recherche mené ces dernières années sur le traitement biologique des nappes et visant à développer de nouvelles méthodes analytiques est le projet EVASOL qui porte sur le traitement biologique des chloroéthènes en anaérobiose. EVASOL est un projet de recherche fondamentale et appliquée coordonné par Jean-Yves Richard (Sita Remédiation). Il associe également les sociétés Bonnard et Gardel Ingénieurs, Biobasic Environnement ainsi que le laboratoire des sciences analytiques (LSA) de l’Université Lyon 1, le laboratoire de biologie de protistes (LBP) de l’université de Clermont-Ferrand (UMR CNRS 6023) et le laboratoire Ampère de l’École Centrale de Lyon.

Les éthylènes chlorés sont des polluants toxiques fréquents des nappes phréatiques. Afin de mieux gérer ces sites pollués et notamment d’évaluer la faisabilité d’une atténuation naturelle ou d’un traitement biologique, le projet EVASOL vise à développer, valider et appliquer une approche de mesure de la qualité chimique et microbiologique des nappes phréatiques. Cette approche est basée sur :

  • le dosage des chloroéthènes par l’utilisation de biocapteurs bactériens ;
  • la détermination rapide, avec un haut niveau de spécificité et de sensibilité, des populations bactériennes présentes dans le sol par l’utilisation de biopuces à ADN.

Ces outils doivent permettre l’évaluation rapide de la faisabilité d’une atténuation naturelle ou d’un traitement biologique des éthylènes chlorés. Les données fournies par ces nouveaux outils doivent pouvoir compléter un modèle numérique d’écoulement pour en faire un outil prédictif de simulation de la biodéchloration directement utilisable par les professionnels de la dépollution.

Ces outils ont été testés, optimisés et validés au cours du traitement par biostimulation d’une nappe polluée par trichloréthylène en conditions réelles et sur une durée d’un an.

Le biocapteur utilise la bactérie Pseudomonas putida F1, capable de dégrader le trichloréthylène par cométabolisme. Cette bactérie a été immobilisée par liaison anticorps/antigène sur un support intermédiaire de nanotubes de carbone lui-même fixé sur un transducteur conductimétrique de faible dimension. Les améliorations successives (miniaturisation, fixation par liaison anticorps/antigène, utilisation de nanotubes de carbone) ont permis d’atteindre une limite de détection < 5 µg/L.

La biopuce fonctionnelle permet d’explorer les potentialités cataboliques d’une communauté microbienne envers les éthylènes chlorés. Toutes les bactéries et enzymes connues à ce jour comme étant impliquées dans la biodégradation des chloroéthènes sont ciblées par cette biopuce. Les sondes ont été déterminées grâce à un nouvel algorithme nommé HiSpOD permettant d’optimiser leur spécificité et leur sensibilité.

Un module complémentaire permettant de simuler la déchloration réductive, en intégrant les données des biopuces, a été développé pour FEFLOW, logiciel professionnel de modélisation d’écoulement des fluides et du transfert de masse dans le sous-sol. Ce module complémentaire permet une simulation numérique de la déchloration réductrice dans une nappe phréatique sous biostimulation.

L’apport de chaleur peut être utilisé de manière intelligente sur les polluants flottants : il devient possible de désorber par chauffage les polluants légers bloqués dans la zone non saturée. Autre possibilité sur les solvants chlorés : le chauffage de la zone saturée augmente fortement leur solubilité, ce qui accroît le rendement d’un pompage/traitement. On peut aussi aller jusqu’à l’ébullition afin de réaliser un stripping in situ très performant, limité à la zone source. « Pour les produits purs, le problème ne réside pas seulement dans leur extraction, mais avant tout dans leur mobilisation vers les puits d’extraction », souligne Jan Haemers (TPS Tech). « Le traitement thermique in situ (ISTD) permet de fluidifier fortement les huiles, d’éviter leur migration et d’augmenter très sensiblement les rendements d’extraction. Une telle technique réduit ainsi la durée du traitement de plusieurs années à quelques mois. » La thermique n’a donc pas dit son dernier mot.

Colas Environnement, GRS Valtech, Sita Remédiation, ICF Environnement, Orège ou Brézillon pratiquent l’oxydation chimique, notamment par le permanganate ; encore faut-il avoir bien localisé les zones à traiter sous peine de consommer beaucoup de réactif. « Nous avons développé un savoir-faire dans les méthodes d’injection des réactifs selon le terrain », indique Christophe Chéne. L’injection d’oxydant sert aussi à rendre le milieu aérobie pour démarrer une biodégradation. Elle peut s’entretenir sur plusieurs mois en injectant de l’oxygène à partir de bouteilles sous pression, une méthode très bon marché car passive.

Mais il ne faut pas que le remède soit pire que le mal. « L’augmentation des vitesses d’écoulement en périphérie de pompages et/ou la dégradation bactérienne de substances organiques issues de panaches polluants peuvent entraîner, par un changement de pH et des conditions oxydoréductrices des eaux souterraines et de l’aquifère, la solubilisation de composés minéraux fréquents voire abondants dans le milieu naturel, comme l’arsenic, le fer et le manganèse », explique Thierry Blondel.

« Si l’on injecte un oxydant fort en trop grande quantité, on détruit les microorganismes en place et l’on se prive des possibilités de bioremédiation », rappelle Matthieu Hirrien.

Les solvants chlorés sont traitables par injection d’un réducteur comme le fer sous forme de microparticules en suspension dans un liquide approprié (on parle de ZVI – zero valent iron). Il existe des formulations commerciales, mais des sociétés comme Soleo adaptent leur formulation au site. Les composés chlorés sont détruits in situ lorsque la solution arrive au contact. Et c’est bien là tout le problème. Soleo a développé une nouvelle approche qui couple le malaxage du sol par des tarières avec l’introduction de fer. Ce traitement est utilisable sur plus de 10 m de profondeur, le coût étant proportionnel au volume traité. L’avantage est sa rapidité, l’inconvénient la déstructuration du sol devenu moins porteur. La société l’a utilisé avec succès sur un site industriel pollué par des solvants.

[Encart : Deep Green réalise l’assainissement d’un ensemble immobilier commercial à Korbeek-Lo Une problématique complexe de contamination des sols et de la nappe phréatique s’est présentée dans le cadre des travaux de rénovation d’un ensemble immobilier commercial à Korbeek-Lo. La proximité d’un captage d’eau potable a nécessité une intervention rapide et radicale. La pollution est issue d’un défaut d’étanchéité d’anciennes citernes à mazout souterraines. Les polluants ont percolé durant des années à grande profondeur et ont impacté la nappe aquifère située à 12 m de profondeur. Une couche flottante de 80 cm (accumulation de mazout surnageant sur la nappe) s’est formée. Plusieurs essais de pompage se sont révélés inefficaces. La société immobilière en charge du projet a fait appel à Deep Green pour la mise en œuvre de sa technologie de traitement in situ Thermopile®, dont elle est propriétaire. Un réseau de tubes permet de porter les sols à température et d’extraire les polluants sous phase gazeuse par dépression en vue d’une destruction par oxydation en surface. La couche flottante est extraite par un effet de stripping dû à la vaporisation partielle de l’eau en surface de la nappe. Cette technique a été approuvée par le bureau expert Sol Libost ainsi que par l’OVAM, organisme flamand de contrôle. Le traitement a commencé le 4 décembre 2011 et devrait se clôturer fin février 2012 au plus tard.]
[Publicité : L’Eau, l’Industrie, les Nuisances]
[Photo : Colas Environnement réalise un pompage des eaux impactées par des BTEX suivi d’un stripping et d’un traitement des gaz d’un débit de 2500 m³/h par oxydation catalytique.]

Chlorés à Voiron : l’abattement est supérieur à 98 % sur les COHV adsorbés ; le résiduel inférieur à 0,1 mg/kg. Dans ce cas, le malaxage a concerné la source et la zone saturée en même temps, soit 150 m² sur 7 m de profondeur, en 300 passes sur deux semaines et demie.

Des essais préalables sur site ont permis d’optimiser le traitement.

Après un mois l’abattement était de 99,9 % avec un potentiel rédox favorable à la bio-anaérobie. Le pourtour et l’aval de cette zone ont été traités biologiquement en anaérobie avec injection de fluide par 42 aiguilles sur une période d’un an et demi. Un succès pour Soleo qui collabore avec le LRGP, le laboratoire CNRS de l’université de Lorraine, et le GISFI (Groupement d’Intérêt Scientifique sur les friches industrielles). Les nanoparticules de fer agissent sur de nombreux composés organiques, les métaux lourds et oxyanions (perchlorate, dichromate, etc.) par réduction chimique et dégradation anaérobie. Le malaxage de sol avec réactifs est utilisable aussi en fond de fouille pour créer un milieu réactif en zone saturée ; la fouille est comblée après malaxage et le terrain réutilisable.

Réduire les coûts et les impacts des traitements, biologie in situ

Très souvent, on constate une dégradation des polluants in situ, preuve d’une activité bactérienne. La science permet de comprendre ces mécanismes et de les utiliser au mieux. Il « suffit » de leur donner de bonnes conditions de développement et de travail : apport de sucres (mélasse), d’huiles végétales qui modifient le milieu et d’éléments indispensables à leur développement (azote, phosphore…). « Dynamiser les micro-organismes présents est une voie très prometteuse. Nous réalisons plus de 25 % de notre chiffre d’affaire en France et à l’export avec la Bio-Atténuation Naturelle Dynamisée (BAND) », affirme Franck Karg, P-DG d’HPC. Tendance confirmée par Jérôme Rheinbold de Colas Environnement qui a fait de la recherche et des pilotes dès 2007 et qui, actuellement, traite une majorité de sites par biodégradation. Jérôme Rheinbold explique que « les essais en laboratoire puis sur site sont des phases essentielles qui permettent de définir les réactifs stimulants, leur voie de dégradation la plus pertinente, aérobie ou anaérobie ».

[Encart : Le traitement biologique in situ des nappes phréatiques a le vent en poupe. De nombreux travaux et nouveaux procédés portent sur la stimulation de l’activité bactérienne par injection de réactifs gazeux ou liquides. Pour toutes ces approches, le point clé est donc la maîtrise et l’efficacité de l’injection, c’est-à-dire la bonne diffusion du composé autour du point d’injection. Pour l’introduction de gaz, une nouvelle solution d’origine canadienne arrive sur le marché européen. L’iSoc, diffusé en France par PLM Equipements et présenté au dernier salon Ifat, est un moyen de dissoudre avec un très fort rendement de l’oxygène ou d’autres gaz dans les nappes souterraines afin d’assurer la biodégradation des polluants en aérobie ou anaérobie (selon les gaz injectés). Ce système de diffusion de gaz se présente sous la forme d’un tube perforé dans lequel sont placées des fibres creuses, poreuses et hydrophobes présentant une grande surface de contact (7 000 m²/m³). Le gaz à dissoudre est injecté dans ces fibres à une pression légèrement inférieure à la pression de l’eau entourant la fibre (différente selon la profondeur du traitement). L’oxygène se dissout facilement dans l’eau en contact avec la membrane, comme le ferait du sel dans l’eau, jusqu’à saturation du liquide. L’écoulement de la nappe phréatique et la diffusion moléculaire transportent le gaz dissous. Les bactéries aérobies ou anaérobies du milieu se situent alors dans des conditions très favorables pour dégrader les polluants. Sur l’oxygène, l’iSoc revendique une dissolution de 4 à 10 fois plus importante que les technologies concurrentes. Autre point fort de ce système, il n’y a pas de perte gazeuse par bullage contrairement aux technologies traditionnelles dites de « sparging » et une diffusion homogène s’opère dans la nappe sur 3 à 6 m latéralement et bien davantage dans le sens d’écoulement de la nappe phréatique. Il n’y a donc pas besoin de multiplier le nombre de puits pour garantir la réalisation d’une véritable barrière biologique. En outre, l’investissement physique est réduit car l’un des atouts de l’iSoc est sa compacité. Il peut être mis en œuvre sur des sites en activité, sans générer de contraintes particulières d’exploitation. Déjà largement utilisé aux États-Unis, au Canada et en Grande-Bretagne, le procédé a d’ailleurs évolué vers plus de facilité d’utilisation et de miniaturisation. Ainsi, le panneau de commande qui détermine entre autres les débits de gaz est désormais intégré à l’iSoc et les réglages se font automatiquement en fonction de la profondeur. Tout cela contribue alors à un coût de traitement allégé. Très employé dans le traitement des hydrocarbures par stimulation de la biomasse aérobie, l’iSoc cible aussi le marché des polluants chlorés, même si l’approche est plus complexe. Il peut être parfois nécessaire de procéder par dépollution séquentielle, avec une phase anaérobie (injection d’alcane) puis aérobie (alcane et oxygène) pour dégrader le polluant principal et ensuite ses sous-produits. Certains solvants peuvent cependant être traités directement par cométabolisme aérobie (injection d’un cométabolite de type alcane et d’oxygène) ou directement par déchloration réductive grâce à une injection d’hydrogène. S’il existe déjà des références en Grande-Bretagne, en Belgique ou aux Pays-Bas, le marché français commence seulement à être exploré. Un des opérateurs majeurs du marché teste actuellement l’outil sur l’un de ses chantiers mais les résultats ne seront diffusés que d’ici quelques mois. Le contexte pour le déploiement de ce diffuseur est cependant très favorable, une pression forte étant exercée sur les sites industriels en activité pour la préservation des eaux souterraines et des zones de captage. COLAS Environnement a, en 2006, traité à l’aide de ce système une problématique en méthanol en équipant trois puits d’iSoc. Les concentrations ont été abattues de plus de 99,9 % en un an pour un coût de 40 k€. Ce système ne nécessite pas d’électricité et peut être totalement enterré en disposant la bouteille d’oxygène dans le sol à proximité du puits.]
[Publicité : Cyclatom]
[Publicité : Biobasic Environnement]

Aérobie, notamment pour les COHV. La biodégradation est plus une question d’ingénierie que de moyen à mettre en œuvre. Plus tôt, on a identifié les phénomènes, constaté l’efficacité, plus tôt on peut réagir pour atteindre les objectifs en termes de concentrations et de délai ». Claude Cédou précise : « Là encore, il faut faire preuve d’intelligence et profiter du battement de la nappe pour corriger le milieu, réoxygéner au bon moment pour relancer la biodégradation. La stratégie de traitement est essentielle, il n’existe pas de procédé miracle ». Encore faut-il s’assurer de l’efficacité par des analyses. « Les méthodes biologiques sont préférées aux chimiques dans certaines régions comme l’Alsace, l’Aquitaine, très soucieuses de leurs nappes » souligne Matthieu Hirrien.

Pour utiliser au mieux les microorganismes, on utilise les progrès de la médecine pour analyser génétiquement les populations. HPC place des préleveurs microbiologiques dans les piézomètres pour capter les bactéries locales sous forme de biofilm afin d’analyser via PCR leur patrimoine génétique et d’être capable de produire des enzymes capables de détruire des molécules toxiques. Ainsi, on peut faire un état des populations locales et juger de leur capacité à la dépollution. Enoveo va encore plus loin pour trouver les séquences des gènes qui codent la production des enzymes responsables de la destruction des polluants. « Nous analysons l’ADN des bactéries mais aussi l’ARN ce qui nous renseigne sur l’activité effective de dégradation. Nos analyses sont quantitatives, nous pouvons ainsi avoir une idée de la cinétique de dégradation des polluants par une mesure directe » explique Olivier Sibourg, gérant d’Enoveo. Une telle étude dure de 3 à 6 mois. La biologie a l’avantage de ne pas perturber le milieu, d’utiliser des communautés microbiennes indigènes, sans apport d’espèces étrangères, d’ailleurs la plupart du temps non adaptées.

En conclusion, les méthodes biologiques stimulées sont particulièrement bien adaptées lorsque les méthodes interventionnistes atteignent leurs limites. « Par exemple, lorsqu’un chantier de dépollution ou une maintenance à long terme d’installations de dépollution sont susceptibles de générer des impacts sur un milieu naturel sensible, il peut être intéressant de réfléchir à une alternative plus “douce” pour la nature » estime Yves Gué-lorget, Chef d’agence ICF Environnement à Aix-en-Provence. C’est dans cette optique qu’ICF Environnement a évalué récemment la faisabilité d’une biostimulation pour gérer les conséquences de la fuite de pétrole qui a eu lieu le 7 août 2009 dans la Réserve Naturelle des Coussouls de Crau.

[Publicité : revue-ein.com]
[Publicité : ARTELIA]
[Publicité : Cabinet Conseil Blondel]
[Publicité : HUB Environnement]
[Publicité : Soléo Services]
Cet article est réservé aux abonnés, pour lire l'article en entier abonnez vous ou achetez le
Acheter cet article Voir les abonnements