Your browser does not support JavaScript!

Diagnostic de sites pollués : une science en émergence

30 mars 2000 Paru dans le N°230 à la page 27 ( mots)
Rédigé par : Christian GUYARD

L?attente des populations exposées, les garanties demandées lors d'une transaction de terrain, le classement des sites orphelins, l'évaluation du coût de décontamination ou de dépollution d'un site? sont des enjeux considérables suspendus au résultat du diagnostic d'un site. Derrière tout diagnostic, il y a des investigations et des analyses dont les résultats prêtent parfois à discussion a posteriori. Qui a tort, qui a raison, qui a failli ? La question ne se pose pas en ces termes. Un bon diagnostic est d'abord une affaire de méthodologie et de traçabilité, mais aussi de moyens engagés.

[Photo : légende non lisible]

Il n’est pas rare de voir un budget prévisionnel de travaux largement dépassé par celui des travaux réels. Dura constater si ces travaux sont réalisés au forfait comme c’est de plus en plus le cas ! Diagnostic insuffisant ? Manque de coordination entre intervenants ? Un peu de tout à la fois. Une chose est sûre, chaque étape du diagnostic d’un site, depuis son identification jusqu’à son traitement éventuel demande de la rigueur et une certaine continuité.

Une demande de diagnostic peut avoir plusieurs origines : administrative, suite à un accident, pour recensement ou pour cause de cessation d’activité, être volontaire de la part d’un propriétaire, ou intervenir comme c’est de plus en plus le cas à l’occasion d’une transaction immobilière. Ce dernier cas s’élargit maintenant à la location en cas de changement d’exploitant. « Ces demandes à caractère commercial se développent y compris dans le cas d’achat de terrain vierge, le propriétaire souhaitant avoir un “point zéro”, une base qui lui servira en cas de revente ou de contestation » indique Franck Leclerc de Geoclean.

« Le demandeur d’un diagnostic doit être très vigilant quant à la compétence de la société qui réalise ce diagnostic. Faire des prélèvements est une chose, interpréter les résultats en est une autre » insiste Stéphane Rihouey de Rhodia Eco Services. En 1998 les membres de l’UPDS (Union Professionnelle des entreprises de Dépollution des Sites) ont réalisé près de 2000 études dont 505 ESR (Évaluation Simplifiée des Risques).

Si la demande de diagnostic a diverses origines, sa réalisation suit une démarche devenue systématique et bien acceptée par tous les acteurs du secteur. Elle est décrite dans le Guide de gestion des sites (potentiellement) pollués édité par le Ministère de l’environnement depuis mi 97 dont une pro-

[Photo : La compétence de la société qui réalise le diagnostic est fondamentale : faire des prélèvements est une chose, interpréter les résultats en est une autre.]
[Encart : Gaz de France : un problème générique bien cerné Gaz de France, qui a pris son essor avec le gaz naturel, doit assumer le passé industriel : 467 sites de production de gaz de ville. Un problème générique dans la mesure où il s’agit d’un procédé unique (distillation du charbon, parfois de pétrole) qui a fait l’objet d’un protocole signé le 25 avril 1996 pour 10 ans avec le Ministère de l’Environnement. Polluants identiques (goudrons, HAP, hydrocarbures BTEX, matières épurantes...) mais terrains différents qui demandent tous un diagnostic particulier. Avec le recul, Luc Démoulin, responsable de la mission réhabilitation de ces anciennes usines, constate le chemin parcouru depuis le début : « Nous avions développé notre propre cahier des charges pour le diagnostic. Il s’est progressivement calqué sur le guide édicté par le ministère de l’environnement. Au début, les investigations étaient moins bien séquencées et nous allions plus vite vers le diagnostic approfondi. Aujourd’hui les audits préalables sont beaucoup plus fins, nous allons voir dans les zones réputées propres. Nous réalisons aujourd'hui une véritable dépollution des sols et pas seulement la suppression des sources polluantes. Nous constatons une baisse des prix unitaires sur
[Photo : Un problème générique, mais des terrains différents qui demandent tous un diagnostic particulier.] les coûts d’analyse mais le nombre est augmenté (plus de piézomètres par exemple). Idem pour les travaux dont les coûts unitaires diminuent mais sur chaque site le volume de terres traitées a tendance à augmenter ». Au fil des consultations GDF s’est constitué un noyau dur de sociétés dont les compétences ont été évaluées. Aujourd’hui les leçons du Grand Stade et de Gennevilliers sont tirées. Sur les 467 sites, environ 150 dossiers sont ouverts (depuis le démarrage du diagnostic jusqu’à une fin de travaux), soit à peu près le rythme de 40 affaires par an à soutenir jusqu’en 2006. Mais le traitement effectif d’un site particulier sera fonction de la destination future, Gaz de France se refusant à soutenir des opérations immobilières déficitaires (la vente doit couvrir, à minima les coûts d’étude et de dépollution). Le problème est particulièrement aigu au niveau du risque sanitaire pour les substances cancérigènes génotoxiques. Selon la valeur retenue pour l’ERI (excès de risque individuel) correspondant à l’exposition des futurs occupants, le coût de dépollution varie énormément : de 1 à 20 sur une étude sommaire réalisée par GDF sur un site particulier. L’enjeu des décisions administratives et des résultats d’analyses est donc énorme.]
[Publicité : Protection et gestion pérenne de nos rivières]
[Publicité : BIOGENIE EUROPE]

Être actif sur la normalisation en devenir

La normalisation relative aux sols ne prenait pas en compte jusque récemment les problèmes de pollution. Les quelques textes existants (qualité des sols) n’étaient pas vraiment appropriés. Tout s’est accéléré à la fin des années 80 et dans la décennie 90. À l’ISO (International Standard Organisation), dès les années 1985/87, s’est mis en place le comité technique « qualité des sols » ISO/TC 190. Son équivalent en France au niveau de l’Afnor est la commission X 31 I (Commission générale « Qualité des sols ») qui se décline en cinq autres commissions directement en regard des sous-comités SC de l’ISO. On trouve ainsi la commission terminologie X 31 A (ISO/TC 190/SC 1), la commission échantillonnage X 31 B (SC 2), méthodes chimiques X 31 C (SC 3), méthodes physiques X 31 D (SC 5), méthodes de mesures environnementales applicables aux sites X 31 E – créée en 1995 – (Évaluation des sols et sites SC 7). Il existe dans ISO le SC 4 sur les méthodes biologiques dont le correspondant est la commission générale de biosurveillance de l’environnement qui recouvre tous les milieux. À voir les dates d’édition des normes du domaine (NF X 31-xxx), la plupart sont postérieures à 1995.

Elisabeth de la Vaissière, qui assure à l’Afnor le secrétariat de la commission qualité des sols, rappelle que les travaux de normalisation sont ouverts à tous les industriels. La présence des industriels est nécessaire pour pouvoir réaliser un réel consensus sur les textes, d’abord au niveau français, ensuite au niveau international. Ainsi pour les méthodes chimiques, E. de la Vaissière souligne que les pays ont développé leurs propres méthodologies, avec des solvants particuliers pour les extractions. Il est difficile ensuite d’obtenir le consensus.

Les normes internationales reprenant souvent des textes nationaux élaborés, il est essentiel d’avoir une force de proposition importante. Ainsi le travail de l’Inra a été « payant » sur les analyses chimiques et une dizaine de normes ISO sont d’origine française. Par contre sur l’échantillonnage, il n’y a pas de travaux français. Un projet important sur les lignes directrices concernant l’investigation du sol des sites urbains et industriels (ISO 10381-5 et NF S 31-008-5) risque de poser des problèmes aux Français. À surveiller aussi trois projets relatifs à l’échantillonnage des gaz, des matériaux en tas et des particules fines du sol. D’autres projets sont en cours sur la lixiviation : ce qui existe pour les déchets n’est pas applicable aux sols.

Quatre groupes de travail français se sont mis en place en novembre dernier sur la lixiviation batch, la percolation en colonne, les tests paramétriques (adsorption désorption, extraction séquentielle, biodégradation), et une norme guide pour l’utilisation des précédentes.

[Photo : Plusieurs groupes de travail se sont mis en place sur la lixiviation batch, la percolation en colonne, les tests paramétriques adsorption désorption, extraction séquentielle, biodégradation.]

En parallèle deux groupes ISO travaillent sur la percolation et la lixiviation batch. L’an dernier est parue une norme importante concernant le forage des piézomètres (X 31-614) qui sera complétée cette année par la X 31-615 sur l’échantillonnage de l’eau souterraine au droit d’un site potentiellement pollué.

Elisabeth de la Vaissière indique également qu’il existe une réflexion pour la mise en place d’un CT (comité technique) au niveau du CEN, Comité Européen de Normalisation. Il est donc essentiel de rester vigilant sur les normes ISO en cours qui pourraient éventuellement être acceptées par le CEN et ainsi devenir nationales de fait.

La chaîne version sortira en avril. Son application sera plus ou moins complète selon le site mais il est essentiel qu’elle débute bien : « la phase d’étude historique et documentaire est essentielle » confirme Olivier Déchelette, directeur de projet chez Ser…

Il n’y a pas d’analyse passe partout

Il faut être humble par rapport aux résultats d’échantillonnage et d’analyses pratiqués sur un site. Un type de prélèvement ne peut pas répondre à différentes problématiques : les résultats d’un forage pour l’identification des polluants ne fournissent pas les données géotechniques nécessaires à l’entreprise qui réalisera les excavations, le tri de matériaux et le traitement sur site. Et, selon le type de pollution, en panache ou discrète (fils, citernes…), un site peut réserver des surprises.

C’est en substance ce que Henri Molleron de Colas Environnement retire de sa pratique d’une dizaine d’années en dépollution des sols. Par comparaison avec son expérience américaine, il note aussi que les analyses en France sont chères (2 à 5 fois), y compris en regard des prix pratiqués ailleurs en Europe, et pour des résultats dont la fiabilité laisse parfois à désirer. L’entrepreneur des travaux a besoin de données fiables pour bien définir son intervention (moyens, logistique, conditions de fonctionnement…) et des analyses complémentaires sont bien souvent nécessaires, mais les clients sont peu disposés à les payer. Même pendant le déroulement des travaux, des analyses complémentaires sont utiles pour trier des sols.

Des laboratoires performants et bon marché ou des méthodes de terrain réellement fiables sont alors indispensables. Mais la dépollution des sols n’est pas une science exacte et l’important, selon H. Molleron, est de pouvoir instaurer un rapport de confiance entre client, entrepreneur de travaux et administration pour que l’objectif de dépollution envisagé soit atteint au meilleur coût et à la satisfaction de tous. Utopique?

[Publicité : Duke Engineering & Services]
[Publicité : ICF Environnement]
[Publicité : SERPOL]
[Photo : Un criblage du terrain est possible par l’analyse des gaz du sol in situ avec du matériel portable.]

Archives de sociétés, archives départementales, photos aériennes, interrogations d’anciens travailleurs... les sources sont variées et nombreuses, avec un degré de fiabilité plus ou moins grand. « Cette étude historique est trop souvent sous-dimensionnée » regrette Philippe Begassat de l’Ademe. En parallèle s’effectue une recherche documentaire sur la géologie et l’hydrogéologie pour avoir une idée des terrains rencontrés et de la circulation des nappes. Tout cela représente « un travail de quelques jours une fois tous les documents rassemblés, que l’on complète par une visite détaillée du site, si possible avec une personne le connaissant bien » indique F. Leclerc.

Des méthodes rapides sur le terrain

Il n’est pas toujours possible ou facile d’analyser en laboratoire : problèmes de représentativité, de conservation, de coût d’analyse mais aussi de rapidité d’acquisition des résultats. Analyser sur le terrain, c’est disposer d’un résultat rapide. L’idée d’un camion-laboratoire n’est pas une bonne réponse : coût trop élevé. Il existe aussi des kits d’analyses rapides essentiellement qualitatifs. On se tourne aussi vers des appareils unitaires, aussi simples que possible, mais donnant des résultats assez élaborés, surtout pour les hydrocarbures présents dans la moitié des sites pollués.

[Photo : Pollut-Eval quantifie les coupes pétrolières et permet de réaliser un bilan du carbone organique total.]

Dans le cadre d’un projet européen, l’IFP (Institut Français du Pétrole) développe Pollut-Eval qui quantifie les coupes pétrolières et permet de réaliser un bilan du carbone organique total. À partir d’un petit échantillon (0,2 g à 0,4 g) et par chauffage graduel (pyrolyse puis oxydation), on identifie et quantifie, grâce à des détecteurs infrarouges et PID (photo-ionisation), les hydrocarbures totaux, le carbone organique total et la matière organique naturelle. On peut ainsi distinguer une essence, d’un gazole ou d’une huile. L’analyse dure 15 à 45 minutes selon les produits légers ou lourds. On supprime ainsi tout le processus de conservation d’échantillon au froid et, du même coup, les causes d’incertitude associées. L’échantillonnage permet de délimiter de manière très précise (5 à 10 cm) une zone polluée. Le programme, qui s’achèvera fin 2000, sert à valider l’appareil en tant qu’outil de diagnostic et de chantier et à définir une version commerciale (10 sites pollués dont 5 déjà étudiés). Celle-ci aura des performances simplifiées (pas d’étape d’oxydation) et devrait être logeable dans des dimensions standards (genre rack 19 pouces). L’intérêt sur chantier est évident : l’analyse est plus rapide que le forage et pourra donc servir à diriger des investigations ou des travaux. Gester participe à ce programme ainsi que Vinci Technologie (filiale IFP) pour la fabrication de l’appareil (prix envisagé d’environ 250 kF).

Autre développement européen sur les hydrocarbures, réalisé à l’Insa de Lyon en collaboration avec l’Université d’État de Moldavie, l’Université technique de Bucarest et l’Université polytechnique de Catalogne. Un micro-chromatographe commercial (MTI racheté par Hewlett-Packard) a été adapté à l’analyse des sols pollués. L’échantillon (0,4 g) subit un chauffage dans une cellule spécifique pour volatiliser les hydrocarbures, injectés ensuite dans l’appareil. On peut ainsi identifier et quantifier, en moins de 10 minutes, des hydrocarbures jusqu’en C15. Un dépôt de brevet est en cours. L’aspiration directe des gaz du sol est aussi possible. La méthode peut servir au suivi d’une bioremédiation.

En cas de site industriel actif ou récent, dès cette étape on dispose assez logiquement de la nature des polluants présents. Il faut toutefois se méfier, car si un même procédé a été utilisé sur une longue période, les matières premières ont pu varier au cours du temps. Dans le cas des carburants automobiles, l’arrivée des essences sans plomb contenant des composés oxygénés a modifié la solubilité dans l’eau et donc leur mobilité dans le sol.

[Photo : Une traçabilité des échantillons prélevés est essentielle pour un suivi correct des études.]

CNRSSP Les sols un milieu éminemment complexe

Avec 144 sites recensés dans la base de données BASOL qui en compte plus de 1000 (sites et sols pollués appelant une action des pouvoirs publics) le Nord-Pas-de-Calais est en tête des régions concernées par la pollution des sols. L'implantation du CNRSSP (Centre National de Recherche sur les Sites et Sols Pollués) à Douai est donc au cœur du sujet. Parmi les thèmes de recherches abordés, les problèmes d'échantillonnage et d’analyses de sols, avec des études particulières sur les HAP et les PCB. Laurent Eisenlohr insiste sur la nécessité de développer les recherches en la matière : “les concentrations sont tributaires de la manière de prélever.”

[Photo : Une fosse ouverte à la pelle mécanique sur un ancien site industriel (profil de sol fortement hétérogène)]

Deux personnes qui prélèvent dans une même fouille ne conduiront pas au même résultat, car les terrains et les sites sont très hétérogènes. En outre chaque prélèvement doit être soigneusement identifié et conservé au frais, à l'obscurité et parvenir au laboratoire, sans interruption de la chaîne du froid.” Un résultat d’analyse est donc tributaire de nombreux facteurs. Dans ces conditions est-il bien raisonnable de faire une carte de pollution ? Bien sûr mais en ayant à l’esprit toutes ces causes d’erreurs et en sachant remettre en cause des résultats. L. Eisenlohr insiste sur l’enquête historique qui doit être très soignée, il ne sert à rien de multiplier les prélèvements; de plus ils doivent être adaptés au type de polluant recherché. L’expérience en la matière est essentielle.

Autre problème, la variabilité du résultat d’une analyse selon la méthode de préparation d’échantillon et selon son contenu en polluant. Des travaux menés par F. Belkessam montrent que cette variabilité existe dans l’analyse des 16 HAP. Mais avec quelle précision souhaite-t-on obtenir les résultats. Une chose est sûre, des discussions inutiles pourraient disparaître en normalisant les méthodes et en ne se faisant pas d’illusion sur les marges d’erreur.

La seconde étape peut être la reconnaissance par des méthodes géophysiques. Celles-ci sont nombreuses et leur choix est fonction à la fois des types de sols, des renseignements que l’on souhaite obtenir, de l’environnement immédiat du site. Toutes ces méthodes sont basées sur la variation d'une propriété (électrique, magnétique, densité, mécanique...) du sol due à un ouvrage (fosse, canalisation) ou directement aux polluants. Elles sont sujettes à de nombreuses interférences, y compris météorologiques. Leur utilisation et leur interprétation relèvent de personnels qualifiés. L’important est de choisir la méthode en fonction de ce que l’on souhaite mettre en évidence; elle révélera des contrastes entre zones et conduira à une “cartographie” du site mais n’identifiera pas la pollution.

Un criblage du terrain est possible par l’analyse des gaz du sol in situ avec du matériel portable. Il s’agit avant tout d’une analyse qualitative, mais il est important de relever pour chaque prélèvement température et pression de l’air, la localisation du prélèvement et d’autres paramètres (température du sol, pluviométrie précédente etc.) si d’autres mesures doivent être effectuées ensuite et comparées aux premières.

Toutes ces mesures doivent être validées ensuite par des analyses approfondies en laboratoire pour quantifier les polluants. M. Chevalier, d’Atos, s’insurge contre le peu de fiabilité des résultats de laboratoire. Mais ce qui est en cause le plus souvent n’est pas la méthode d’analyse elle-même mais tout ce qui précède, depuis la prise d’échantillon, son transport (réfrigéré), sa préparation avant l’analyse elle-même. «Aujourd’hui, quelle que soit la méthode d’analyse, le résultat est fourni avec une incertitude de 5 à 10 %. Le problème est au niveau de l’échantillonnage où l’on peut avoir des incertitudes énormes» indique P. Ricour d’Antéa, «il est essentiel d’avoir une traçabilité des échantillons et elle existe chez les sociétés sérieuses».

Pour avoir une bonne idée du niveau de pollution on s’oriente vers un “mix” entre méthodes rapides semi-quantitatives de terrain et analyses plus lourdes et pertinentes, les premières servant à orienter les secondes. Aujourd’hui les méthodologies et les outils existent. La qualité du diagnostic relève avant tout de l’expertise et de l’expérience des gens et des moyens engagés. Or on observe aujourd’hui des appels d’offre de travaux qui ne sont pas suffisamment étayés par des diagnostics sérieux constituant un piège si de plus leur montant est forfaitaire. De plus certaines sociétés répondent à des demandes de diagnostic alors qu’elles ne sont manifestement pas à la hauteur. «Mais on ne peut pas tout réglementer» soupire S. Rihouey. L’UPDS pratique en interne pour ses membres une qualification pour l’ingénierie et les travaux. Une pratique qu’il serait utile d’élargir.

[Photo : La qualité du diagnostic relève avant tout de l’expertise et de l’expérience des personnels ainsi que des moyens engagés.]
Cet article est réservé aux abonnés, pour lire l'article en entier abonnez vous ou achetez le
Acheter cet article Voir les abonnements