Your browser does not support JavaScript!

Intelligence artificielle et supervision : l'enjeu de demain...

30 avril 2020 Paru dans le N°431 à la page 37 ( mots)
Rédigé par : Patrick PHILIPON

L’intelligence artificielle pourrait apporter beaucoup à la gestion en temps réel des installations (Stations d’épuration, usines de production d’eau potable, procédés industriels…) mais elle n’est pas encore présente au niveau de la supervision. Certains outils spécialisés existent déjà mais leur mise en œuvre cohérente reste encore du domaine du développement.

L’ intelligence artificielle (IA) fait timidement ses premiers pas dans la gestion des réseaux d"eau (voir à ce sujet EIN 430). Mais qu’en est-il au niveau “central”, celui de la supervision et la conduite des installations – Stations d’épuration, usines de production d’eau potable, process industriels ? L’IA – ou tout au moins le traitement avancé des données en temps réel – s’installe-t-elle dans les SCADA, par exemple ?
Areal s’attache à rendre les données de Topkapi utilisables par des partenaires réalisant leur propre traitement avancé, à base d’intelligence artificielle ou non.

Si l’on en croit les fournisseurs de solutions comme par exemple Areal, Arc Informatique, Codra, Copa Data, Elutions, Factory Systèmes ou IT Mation, ce n’est pas encore tout à fait à l'ordre du jour. « L'IA est effectivement un sujet d'étude chez Codra mais il est encore trop tôt pour communiquer les premiers résultats. Notre démarche sur l'IA, reste en phase avec notre ADN, proposer le moment venu une technologie opérationnelle génératrice des résultats valorisables » affirme ainsi la responsable de la communication Kim Ho. L'éditeur de la plateforme Panorama investi également sur la Cybersécurité, « enjeu plus actuel et concret pour les acteurs de l'eau. Nous venons d'ailleurs de recevoir la Qualification ANSSI. Cela représente pour les OIV et sites sensibles la possibilité d'utiliser une solution dont le niveau de sécurité a été éprouvé, puis certifié et est aujourd'hui recommandé par l’Etat Français ». « Le déploiement de l’IA dans notre domaine n’est pas pour tout de suite » renchérit Jérôme Follut, directeur de Copa Data, l’éditeur de Zenon.

Même réserve chez Areal (Topkapi). « Le sujet n’est pas encore mûr : nous y réfléchissons, nous avons déjà fait des développements partiels mais rien n’est encore proposé dans Topkapi actuellement. Nous y viendrons, car c’est l’enjeu de demain : on instrumente de plus en plus, l’IoT arrive, il faudra aider les exploitants à s’y retrouver dans cette masse de données, et l’intelligence artificielle aura un rôle à jouer », analyse Arnaud Judes, directeur commercial d’Areal, qui confirme au passage que les clients sont actuellement plus préoccupés par les questions de cybersécurité... Geomod s’appuie, de son côté, sur l’éditeur de logiciels Innovyze pour adapter des produits au marché français.

La circulation des données, première étape

Areal a toutefois effectué un premier pas : rendre les données de Topkapi utilisables par des partenaires réalisant leur propre traitement avancé, à base d’IA ou non. « Nous travaillons avec des grands comptes comme Veolia, Suez, ou Saur, qui fournissent déjà des solutions de traitement de la donnée et d’optimisation, basées sur des modèles prédictifs. Nous avons développé des connecteurs informatiques qui leur permettent de récupérer nos données de façon transparente puis de faire redescendre dans l’outil de supervision les informations qu’ils auront travaillées pour obtenir des indications très opérationnelles » explique Arnaud Judes. Reste que ces plateformes d’IA sont des outils complexes coûteux, demandant beaucoup de paramétrages… ce qui n’est pas forcément adapté aux besoins du terrain, en particulier pour les petites collectivités. C’est pourquoi Areal réfléchit à l'installation, dans Topkapi, d’outils de traitement de données utilisant certes l’IA, mais “plus simples”, plus facilement utilisables par l’opérateur final. L’idée : aider les exploitants à mieux comprendre comment fonctionne leur installation et aller vers une maintenance prédictive.
Les centres de pilotage opérationnels (CPO) de Saur réunissent le meilleur des technologies du marché et le savoir-faire d’experts capables d’identifier les dysfonctionnements et les risques et de tirer le meilleur parti des données d’exploitation.

JS automation, expert de zenon, confirme que l’IA n’est pas encore une réalité dans ce secteur d’activités. « Cependant, on constate que les plateformes de supervision développent des outils tels que le Service Grid de zenon, permettant de mettre à disposition les données afin d’être mutualisées et traitées, explique Yann Guillodo chez JS automation. Nous avons développé un WPF de maintenance intégrant une forme d’intelligence. C’est une première étape dans l’aide à l’exploitation ».

Même démarche de facilitation et de mise à disposition des données chez Copa Data. « Le premier défi est de remonter les données vers les gros serveurs, ce qui pose des problèmes car les exploitants utilisent des réseaux privés hétérogènes. C’est pourquoi, dans la version 8.20 de Zenon, à sortir en mars, nous avons implémenté le Service Grid. Les composants Zenon, comme les Runtime, pourront désormais « pousser » leurs données et informations vers ce Service Grid » révèle Jérôme Follut. Cela permettra aux utilisateurs de Zenon de collecter leurs données dans des plateformes de type Azure (Microsoft) ou AWS (Amazon), ou vers des data centers privés. Au sein du service Grid, le service Hub permet à des applications tierces, pourquoi pas à base d’IA, d’accéder à ces données et les exploiter. Les résultats peuvent être envoyés vers les sites locaux pour créer des événements qui peuvent être affichés graphiquement, être intégrés dans la liste d’alarmes ou générer des actions locales. « Nous n’avons pas, à proprement parler, de service utilisant l’IA mais nous sommes en train de mettre en place toute la mécanique pour remonter les données et leur adjoindre des métadata : les étiqueter avec des informations facilitant leur analyse ultérieure par des applications tierces », souligne Jérôme Follut

S’inspirer d’autres filières industrielles ?

Si l’intelligence artificielle en supervision n’est pas encore tout à fait à l’ordre du jour dans les métiers de l’eau, il n’en va pas de même dans d’autres branches industrielles, aux installations plus “compactes”. On parle volontiers aujourd’hui d’“industrie 4.0” et d’usines connectées. IT Mation, éditeur d’Ignition, vient de ce monde-là, et aborde donc les métiers de l’eau avec une perspective différente des spécialistes. « Il y a des avancées utilisant l’IA dans nos solutions. Or, qu’il s’agisse de l’eau ou d’autres industries, tout peut se représenter virtuellement de manière similaire », avance Gilles N’Guyen, responsable du business développement.
Dans la version 8.20 de Zenon, disponible en mars, un service Grid pourra héberger des données. Un Hub pourra permettre à des applications tierces, pourquoi pas à base d’IA, d’accéder à ces données pour les exploiter.

IT Mation décide même de “mettre de l’intelligence” à trois niveaux. Tout d’abord dans les capteurs connectés, tout au moins certains d’entre eux. Pour cela, la firme travaille avec la société française Eolane, dont la filiale Cartesiam a mis au point Bob Assistant®, un capteur de vibrations que l’on peut poser sur le moteur d’une pompe, par exemple. « Or tout système industriel ou municipal utilisant l’eau se ramène en fin de compte à un ensemble de pompes, tuyaux, réservoirs et vannes », plaide Gilles N’Guyen. Bob embarque suffisamment d’intelligence pour être capable, après apprentissage, de reconnaître des profils de vibration anormaux et lancer une alerte, permettant ainsi d’anticiper la casse du moteur de pompe. « Ce n’est cependant qu’un capteur de vibrations, qui envoie cette information hors de tout contexte », souligne Gilles N’Guyen. Mais d’autres outils d’acquisition sont en cours de développement, poussés par des fabricants tels que Lacroix Sofrel, Perax Technologies, Ijinus, ndata ou encore nke instrumentation. De même, des solutions développées par des acteurs tels que Technilog ou Mios sont disponibles pour fédérer des connexions entre objets industriels connectés et rendre l’existant communicant. D’où le deuxième niveau d’IA, installée dans les “edge devices” d’Ignition. Ces dispositifs installés en bordure de réseau sont capables de recueillir des données provenant de divers instruments, de les formater pour pouvoir les envoyer au niveau central, mais surtout d’effectuer eux-mêmes des calculs qui soulageront le niveau central. Par exemple, ils peuvent contextualiser ces données de vibration avec d’autres provenant d’équipements reliés : intensité électrique, puissance, mode de fonctionnement (manuel ou automatique), opération en cours, etc. « On commence à rajouter de la valeur, à enrichir l’information d’un capteur, et ce sur des données fines, prises bien en dessous de la seconde sur des milliers de variables », souligne Gilles N’Guyen. Mais IT Mation va plus loin : « là-dessus, nous pouvons ajouter de l’IA pour identifier des profils inhabituels. Nous intégrons en effet dans nos algorithmes quelques bibliothèques contenant tout ce qui est disponible en Java et en Python pour faire de l’apprentissage par la machine. Ce qui veut dire que nous sommes aussi capables, à ce deuxième niveau, d’anticiper sur les modes de fonctionnement de l’installation » ajoute-t-il. Enfin, au niveau central, Zenon corrèle cette information concernant une zone de l’installation à autres d’informations plus générales, qui viennent croiser des données extérieures, par exemple des prévisions météorologiques.

Hach s’inscrit de son côté dans l’enrichissement des données disponibles concernant les analyseurs en ligne pour l’eau en intégrant des informations d’aide à la maintenance préventive : nombre de jours restants avant la prochaine maintenance et niveau de fiabilité du capteur, ces données étant envoyées à la supervision par la fonction Prognosys des transmetteurs Hach. De plus, en solutions connectées, ces informations sont complétées par les modes opératoires de maintenance accessibles avec la solution cloud Claros.

L’IA : « au-delà » du SCADA ?

La tendance qui semble se dessiner est donc que l’IA, si elle intervient au niveau central des installations (usines, réseaux, etc.), ne sera probablement pas intégrée au SCADA lui-même mais présente dans des plateformes accessibles proposant des applications “métier”. « L’idée est que des partenaires puissent développer des applications sur nos données. C’est là que vont entrer en lice les gens capables de faire de l’IA », précise ainsi Jérôme Follut. Copa Data n’a pas encore de partenaire dans le domaine de l’eau mais fonctionne avec ce type d’architecture dans d’autres industries, comme par exemple l’énergie solaire.

En amont de sa solution de supervision, Elutions adresse déjà depuis quelques années ce défi auprès de ses clients avec sa plateforme d’Intelligence Artificielle, Maestro. maestro s'intègre parfaitement aux systèmes et infrastructures clients existants, créant ainsi un réseau de neurones fusionnant l’Intelligence Artificielle formée sur le domaine avec l’automatisation opérationnelle et des processus continus de vérification-retour et de notification pour établir des prévisions opérationnelles, effectuer des ajustements opérationnels et des ordres de travail, et vérifier leur impact en temps réel, en optimisant de manière prédictive et continue la fiabilité de l'offre, l'efficacité, la capacité, la qualité, le rendement et la marge. « Les technologies des plateformes SCADA doivent évoluer en permanence pour prendre en charge les avancées en matière de systèmes de contrôle opérationnel, d'interopérabilité homme-machine et d'acquisition de données, souligne Christopher Voss, PDG d'Elutions France. La prochaine étape de l'évolution des systèmes d'entreprise consistera à institutionnaliser les plates-formes d'IA avec des technologies d'apprentissage automatique capables de traiter des millions de points de données complexes reliés instantanément - quelque chose qu'aucun humain n'est capable de faire. Une plateforme d'Intelligence Artificielle correctement formée, axée sur l'optimisation des avantages de la chaîne de valeur dans l'ensemble de l'organisation (production, maintenance, inventaire, approvisionnement, approvisionnement, etc.) deviendra un axe stratégique pour toutes les organisations complexes utilisant des données de manière intensive ».

Bob Assistant® de Cartesiam effectue un diagnostic en temps réel de l’état de santé des équipements à surveiller. L’assistant est composé de capteurs de vibrations et de température permettant, via ses puissants algorithmes de machine learning embarqués, de comprendre son environnement, de constituer son savoir de référence, puis de surveiller 24h/24h le comportement de l’équipement
sur lequel il a été installé.

Également présent sur le marché de l'eau, de l’énergie photovoltaïque et de l'industrie 4.0, Phoenix Contact développe des produits et des solutions qui permettent de protéger les infrastructures contre les cybermenaces et de remonter des informations. Conscient que la télémaintenance et la cybersécurité sont aujourd’hui des priorités majeures pour les entreprises, les pares-feux mGuard bloquent les accès non désirés et sécurisent les accès à distance via des tunnels VPN. Quant à la technologie PLCnext, elle permet l’intégration d’interfaces et de protocoles actuels et futurs pour une communication ouverte dans des systèmes d’automatisation hautement interconnectés.

IT Mation rejoint les autres sur le fait que les applications avancées spécialisés dans les métiers de l’eau ne seront pas forcément implantées dans les équipements de supervision. « Nous n’avons pas de fonctions purement métiers de l’eau (reconfiguration de réseaux, etc.) mais nous pouvons présenter de façon dynamique, à la fois en temps réel et en prévisionnel, tout ce que nous sommes capables de remonter, connecter et contextualiser comme information. En général, nous allons alimenter des outils de cartographie que nous savons coupler avec des outils d’hydrologie. Évidemment, une partie de l’intelligence est chez nous et l’autre, celle qui est purement liée à l’hydrologie, se trouve dans les outils d’hydrologie. C’est là que la convergence des métiers autour du web devient intéressante puisque le couplage des informations et des systèmes devient très simple », affirme Gilles N’Guyen.

L’IA pour quoi faire ?

La quasi-absence de solutions à base d’IA sur le marché n’empêche pas les acteurs du monde de l’eau de réfléchir à ce qu’elle pourrait permettre. L’idée générale étant d’adapter à tout moment les installations aux contraintes internes (techniques, variations de flux) et externes (aléas météorologique, variation de population, contraintes environnementales ...), de minimiser la consommation d’énergie et de produits divers, et d’aller vers une maintenance prédictive. « Pour les stations d’épuration, par exemple, on analyse la turbidité, par apprentissage et à partir de données historiques, pour pouvoir ensuite identifier des modes de fonctionnement ne donnant pas les résultats attendus. On sera également capables, là aussi, à partir de données historiques, de déterminer la quantité de réactifs à injecter dans le process en fonction de la charge globale arrivant en STEP » explique Gilles N’Guyen.
La station d’épuration de Decatur (Arkansas, USA), qui utilise un bioréacteur à membrane, reçoit des eaux usées urbaines, commerciales et industrielles. La ville souhaitait installer un SCADA avancé lui permettant de prendre des décisions en temps réel. Les sociétés chargées du projet – H2O Innovation pour le réacteur et Automation Station pour le SCADA – ont choisi une plateforme Ignition… avec des “plus”. Utilisant le langage Python, elles ont installé des capacités d’analyse en temps réel des données météorologiques et d’une carte radar, s’appuyant sur un apprentissage à partir de données historiques. Résultat : les services de la ville peuvent désormais prendre les mesures nécessaires en amont pour protéger la STEP lorsqu’un orage (ou tout autre évènement météo) menace. De même, le SCADA peut exploiter les données provenant du laboratoire d’analyse des effluents, afin de s’assurer que les rejets sont conformes à tout moment.
La solution numérique développée par Aquassay permet de surveiller en continu la qualité et la quantité d’eau utilisée au sein d’un process en analysant en temps réel des données et des tendances à partir de modèles prédictifs. 

Quelques grands exploitants vont plus loin et réfléchissent à des stratégies intégrées utilisant le traitement avancé de données, y compris l’IA, pour gérer en temps réel le fonctionnement de l’ensemble de leurs installations. C’est le cas du SIAAP, qui veut, à terme, comprendre et modéliser l’ensemble de son système, soit : le réseau d’assainissement, les STEPs et la Seine (milieu récepteur). L’idée est de pouvoir l’adapter en temps réel à toutes les circonstances (aléas météorologiques, variations du flux de pollution, ...). « Sans oublier l’optimisation constante de la consommation d’énergie », ajoute Vincent Rocher, directeur de l’Innovation au SIAAP. Pour cela, le SIAAP s’est allié à une vingtaine de partenaires académiques, dont Inrae et l’UTC (Université Technologique de Compiègne) et huit partenaires industriels. Au programme : des avancées en métrologie (capteurs) et un travail approfondi de modélisation et de contrôle commande. C’est là, précisément, que l’IA a toute sa place.

Chacun des trois compartiments du système fait l’objet de développements propres. En ce qui concerne le fleuve, le programme MeSeine a développé des systèmes de mesure, basés sur la microfluidique, donnant en temps réel la dynamique de la qualité de l’eau de Seine. « Nous voulons utiliser ces données pour alimenter des modèles indiquant l’évolution de la qualité écologique des eaux de Seine en fonction des scenarios d’exploitation testés. Ces modèles existent déjà mais fonctionnent a posteriori : nous voulons maintenant les transformer en outils opérationnels en temps réel » explique Vincent Rocher. C’est l’objet d’un travail de thèse avec l’École des Mines de Fontainebleau, et faisant appel à l’IA.
Ignition est capable de recueillir des données provenant de divers instruments, de les formater pour pouvoir les envoyer au niveau central, mais surtout d’effectuer des calculs qui soulageront le niveau central. Par exemple, il peut contextualiser les données recueillies avec d’autres provenant d’instruments reliés.

Au niveau du réseau d’assainissement, déjà instrumenté en termes d’hydraulique, il s’agit de recueillir des données qualitatives. Le SIAAP a déjà développé une station multiparamètres, implantée à Clichy, nœud de trois gros émissaires. Il s’agit maintenant de savoir transformer ces données brutes (absorbance UV par exemple) en informations intéressantes pour l’exploitant de station d’épuration (quantité de matière organique à traiter). « Dans une deuxième étape, il faudra savoir utiliser les données de Clichy, et deux autres stations à venir, pour prédire l’évolution de la qualité, donc des flux de pollution, dans l’ensemble du réseau. Nous ferons là aussi appel à des méthodes mathématiques » explique Vincent Rocher.

Enfin, entre le réseau, qui impose des contraintes, et la rivière, qui fixe des objectifs en termes de rejets, il y a les six stations d’épuration dont il faut adapter le fonctionnement en temps réel, en intégrant également des informations météorologiques ou évènementielles. C’est l’objet du programme Mocopée, entamé en 2014. Il s’agit de construire des modèles opérationnels, de véritables “STEPs numériques” capables de prédire le fonctionnement des STEPs et d’aider à la décision, en s’appuyant sur des bases de données historiques, le tout en temps réel. « L’étape finale consistera bien sûr à coupler les trois modèles pour savoir comment réagit l’ensemble du système et savoir l’adapter, toujours en temps réel » affirme Vincent Rocher.
Jean-Emmanuel Gilbert, Directeur Développement d’Aquassay, un des partenaires industriels de Mocopée, prend un exemple : « s’il pleut sur un arrondissement de Paris, il faut savoir ce que ça génère comme type d’effluents, ce qui va arriver à telle ou telle STEP et à quel moment, comment configurer le réseau pour orienter les flux, comment configurer les procédés dans les STEP pour ne pas nuire au milieu naturel ... qui lui-même est en train d’évoluer car il reçoit aussi la pluie ».

Les outils existent mais...

Finalement, des outils à base d’IA sont-ils prêts à entrer sur le marché de l’eau ? « La théorie est prête mais la mise en pratique est un peu décalée dans le temps par manque de ressources et par cloisonnement » estime Gilles N’Guyen. Il prend pour exemple une preuve de concept réalisée récemment par IT Mation avec la SAUR. « Ils ont des outils informatiques spécialisés en hydrologie et cartographie. Nous avons évalué le couplage avec notre plateforme de télégestion centralisée et démontré que c’est techniquement faisable. Il faut réaffirmer la volonté et bâtir des équipes pluridisciplinaires, rassemblant des spécialistes des réseaux d’eau, de la modélisation et du contrôle/commande » explique-t-il.
Le logiciel de supervision WebAccess de Prisma Instruments peut gérer des applications de toutes tailles, de quelques dizaines d'entrées/sorties jusqu’à des applications comportant plusieurs centaines de milliers de données. Il a notamment été retenu pour assurer la gestion de la production, l'alimentation et la distribution de l’eau pour l'agglomération de Shanghai qui compte plus de 20 millions d'habitants.

Aujourd’hui, les grands opérateurs comme Veolia, Suez ou SAUR ont des compétences en IA, voire même des plateformes logicielles opérationnelles, mais elles sont parfois isolées, pas toujours couplées aux supervisions des différents sites. « Dans le domaine de l’eau, on a des moyens techniques mais ils sont trop souvent en silos. Il faut pousser l’équivalent de l’“industrie 4.0” et affirmer la volonté de fédérer tout ça » conclut Gilles N’Guyen.