Your browser does not support JavaScript!

Télégestion, supervision : mieux exploiter la masse de données collectées
Patrick Philipon de GROUPE ROUGE VIF 30 avril 2019 Paru dans N°421 - à la page 41

Instrumentation des ouvrages et des installations aidant, les outils de télégestion et de supervision dédiés au domaine de l’eau doivent gérer et traiter une masse de données de plus en plus importante, transformer cette masse indifférenciée en informations intelligibles et distribuer cette dernière au bon endroit. Augmenter indéfiniment les capacités de calcul à technologie comparable ne va pas suffire, tout au moins pour les gros opérateurs. D’où l’émergence chez les éditeurs de logiciels de réflexions sur de nouvelles architectures systèmes, voire de nouveaux modèles économiques.

Sans qu’il soit possible de situer un point de départ ou une cause unique, un fait s’impose dans le monde de l’eau : les systèmes de télégestion et de supervision doivent traiter un nombre toujours plus important de données. « On instrumente de plus en plus les installations techniques. C’est assez ancien pour les usines d’eau potable et les stations d’épuration, maintenant c’est au tour des réseaux, avec la sectorisation et la prélocalisation. Sans compter les obligations de surveillance en assainissement. On voit aussi apparaître de nouveaux modes de communication. Résultat : la supervision a tendance à grossir » résume ainsi Arnaud Judes, directeur commercial d’Areal, qui commercialise Topkapi, un des SCADA “classiques” du domaine. Pour Jérôme Follut, directeur général de Copa Data France, éditeur du SCADA généraliste Zenon, « la numérisation des systèmes, en particulier pour des raisons de traçabilité, multiplie le nombre de variables à superviser ».
Elutions, éditeur de ControlMaestro, a pris acte de la numérisation croissante des installations et de l’afflux de données de toutes provenance (capteurs, équipements intelligents, systèmes tiers) vers les SCADA du domaine de l’eau. D’où le développement d’une nouvelle plateforme dernière génération, prévue pour début 2020, déjà en phase d’implémentation pilote chez un important syndicat de communes.

C’est en ce sens que la société Elutions a complètement repensé sa plateforme de supervision ControlMaestro en créant une nouvelle plateforme MaestroImperium™ qui utilise les dernières technologies et qui se veut capable de supporter la charge et le stress endurés par le système. Repoussant ainsi les limites logicielles, la collecte des variables se fait de manière quasiment illimitée et ininterrompue. Prévue pour début 2020, MaestroImperium est déjà en phase d’essai pilote chez un important client dans le domaine du traitement et de la distribution des eaux propres et usées.

Vincent Reynaud, chargé commercial du réseau “distributeurs” chez Aquassay, aborde le problème différemment : « nous vivons une transition hydrique, une prise de conscience du fait que l’eau coûte cher, qu’elle n’est pas illimitée et que notre relation à cette ressource doit changer du tout au tout. Il s’agit par exemple de mieux connaître la qualité des flux pour les appréhender chacun de manière adaptée plutôt que tout traiter indifféremment. Ce qui implique une multiplication des capteurs, donc des données ».

Quelle que soit la cause, d’ailleurs pas forcément unique, de cette inflation, le résultat est le même. Un système de supervision, même affecté à un seul site ou réseau, peut aujourd’hui avoir à stocker et traiter plusieurs dizaines de milliers de variables, voire beaucoup plus chez les grands acteurs de l’eau. « Nous répondons actuellement à plusieurs appels d’offres chez de gros exploitants traitant plusieurs millions de variables pour l’ensemble de leurs clients. Ca représente plusieurs milliards d’enregistrement par an ! » souligne ainsi Gilles Nguyen, directeur Business Development chez IT Mation, éditeur de logiciels industriels, dont la plateforme de supervision Ignition.

Aquassay a développé Opwee, un datapusher qui peut communiquer avec les installations sur divers protocoles (Modbus TCP, Profinet, Bacnet, ...) et pousse les données en continu vers un cloud privé, dédié à chaque client, conformément à la norme ISO27001. Les données sont centralisées dans des bases de données en série temporelles, adaptées à la requête et au calcul de tout historique en temps réel.

« Nous ressentons que les acteurs du monde de l’eau basculent de plus en plus d’un mode local pour passer à un mode plus centralisé, analyse de son côté Michael Delaroche, Directeur commercial chez Technilog. Il y a une réelle demande d’hypervision de l’ensemble de leurs sites et un fort besoin de mobilité, c’est-à-dire la capacité de l’éditeur à fournir un accès à l’information à n’importe quel moment. Cela se traduit concrètement par la capacité qu’aura le client à naviguer agilement entre une tablette, un pc et un smartphone ».

Outre leur quantité croissante, c’est l’hétérogénéité des données qu’il faut aujourd’hui savoir prendre en compte. Les équipements et systèmes présents dans les installations n’ont en effet pas tous évolué de manière cohérente, et la supervision doit “avaler” tout cela. « On nous demande de plus en plus de nous interfacer avec des produits divers et variés avec lesquels nous n’avions pas l’habitude de nous interconnecter, et avec de nouveaux modes de communication comme LoRa ou Sigfox » souligne ainsi Arnaud Judes. « La production des données a évolué, ne serait-ce qu’avec l’essor récent de l’IoT, en particulier dans le domaine de l’eau pour le comptage. Un SCADA va donc devoir traiter des données IoT, des données d’automatismes provenant des automates de la STEP, d’autres issues de la télégestion (stations de pompage, relevage, etc.). Chaque “silo” a son propre mode de communication et de représentation, mais on nous demande désormais de tout traiter et restituer en un seul point, dans un environnement homogène », complète Gilles Nguyen.

Même constat chez Elutions, la numérisation croissante des installations et l’afflux de données de toutes provenance (capteurs, équipements intelligents, systèmes tiers) oblige a repenser l’environnement SCADA du domaine de l’eau en entier. Entièrement modulable, la nouvelle plateforme MaestroImperium™ sera capable de prendre en charge un nombre illimité de variables de toutes natures et de sources diverses (dont objets IoT et BIM). « Le principe est de pouvoir récupérer toutes les données que le client souhaite utiliser, peu importe l’équipement ou le système d’origine… pourvu qu’il soit ouvert » souligne Lydia Cobo, responsable marketing et communication d’Elutions.


Récupérer et transmettre les données de provenances diverses

Areal, Codra, Arc Informatique, It Mation, Technilog, Elutions, Clever Technologies ou Factory Systèmes… Tous les éditeurs d’outils de supervision sont confrontés à cette problématique : être toujours plus simples tout en étant toujours plus ouverts à un nombre croissant de données hétérogènes,

Pour répondre à cette hétérogénéité des données et aux capacités très variables des équipements à les faire “remonter”, les éditeurs développent en général des “aspirateurs à données”, ou data pushers. Ces dispositifs logiciels et/ou matériels peuvent récupérer des données d’un appareil quelconque, même analogique, les formater et les transmettre à la supervision. Aquassay a par exemple développé le boîtier électronique Opwee, chargé de la collecte des données. « Nous avons parfois affaire à des machines un peu anciennes, incompatibles avec le Cloud. Opwee récupère leurs données, les formate et les envoie sur le Cloud » explique Vincent Reynaud. De même, chez Areal, Topkapi 6.0 offre d’ores et déjà des solutions pour cela. La prochaine version, qui verra le jour dans les mois à venir, accentuera encore cet aspect d’interopérabilité. « Selon les fabricants d’équipements avec lesquels nous collaborons, nous développons l’acquisition par e-mail, par Sigfox ou par MQTT » énumère Arnaud Judes, chez Areal. « Nous disposons actuellement d’environ 200 pilotes permettant de communiquer avec tous les équipements, mais la standardisation est en marche : il y a de moins en moins de protocoles propriétaires. C’est pourquoi MaestroImperium démarrera avec une dizaine de pilotes de base couvrant plus de 90 % du marché » précise de son côté Hervé Combe, responsable R&D d’Elutions. Copa Data affirme pour sa part disposer de plus de 300 drivers.

Parallèlement à la supervision, et sur l’ensemble de la chaîne d’acquisition, les outils se développent. FluksAqua a ainsi développé à l’intention des exploitants de réseaux d’assainissement des tableaux de bord qui permettent d’exploiter les données transmises par la télégestion ou la surveillance sur une interface unique.

IT Mation a choisi une autre option : “délocaliser” une partie du SCADA, avec Ignition Edge. « Il s’agit de placer les composantes d’acquisition d’Ignition directement dans des calculateurs terrain. On passe ainsi d’une application en mode polling (Modbus, par exemple) à un protocole IoT, ici MQTT. Ce “calcul de bordure de réseau” (edge computing), relativement nouveau dans le domaine de l’eau, s’exécute plutôt sur ordinateurs que sur automates. L’Edge Computing règle les problèmes de latence de réseau, de bande passante et de sécurité. C’est donc une nouveauté à la fois matérielle et logicielle » expose Gille Nguyen. Bouygues Energie & Services, par exemple, a choisi Ignition comme base d’une application de supervision pour le compte du Syndicat intercommunal d’Assainissement du BREDA, près de Grenoble.

MIOS propose une solution de bout en bout pour la collecte de données terrain de plus en plus hétérogènes. Elle consiste à donner dès l’acquisition de la donnée, un sens à cette donnée. Cela passe par une caractérisation et un ajout d’attributs à la donnée collectée. La gamme de produits développés par MIOS facilite le traitement métier en local grâce à des modèles basés sur l’Intelligence Artificielle (IA). La sécurité des données est intégrée nativement à l’ensemble des produits et des applicatifs. « L’approche “Edge computing” de nos solutions apportent la capacité à traiter en local une volumétrie importante de données et d’assurer également leur traitement à distance sur un mode de communication bi-directionnelle », explique Xavier Bon chez MIOS.

Les données hétérogènes ainsi caractérisées remontent de façon homogène (aux standards informatiques et IoT tels Web services RESTful, MQTT,…) vers la plateforme interopérable IoT et de monitoring appelé KIWI, véritable agrégateur d’échanges de données caractérisées et de services. Le SCADA traditionnel évolue vers un véritable système d’échange de données (web évolutif) pour offrir de nouveaux services. A partir de sa base de données SQL, KIWI offre plusieurs services multi métier tels le comptage des consommations, l’accès, le monitoring, la maintenance, le traitement des données.

Les partenariats permettent également de faire face à l’hétérogénéité. Le projet d’innovation EVE financé par l’ADEME dans le cadre du Programme d’Investissements d’Avenir en est un exemple. Il vise à développer une solution intelligente d’aide à l’exploitation d’usine de traitement des eaux résiduaires. Atos et Suez travaillent ensemble à la mise au point d’une solution prédictive basée sur le traitement de centaines de milliers de données internes et externes à l’usine comme la météo, les variations de population ou tout type de données ayant un impact sur son fonctionnement. L’intégration de ces données hétérogènes est possible grâce à la plateforme de traitement Atos au cœur du système Codex Datalake Engine et Codex Edge computing. Des algorithmes de prédiction et d’optimisation sont développés grâce aux outils de machine learning et de deep learning. Ces algorithmes sont exécutés dans l’usine au plus près du procédé (au niveau du Edge). L’objectif du projet est de démontrer que les technologies de Big Data permettent des gains de l’ordre de 20 % sur les dépenses énergétiques et de réactifs des usines de traitement des eaux résiduaires.

Elutions a déjà adressé ce défi auprès de ses clients avec sa plateforme d’Intelligence Artificielle, Maestro. Maestro s'intègre parfaitement aux systèmes et infrastructures clients existants, créant ainsi un réseau de neurones fusionnant l’Intelligence Artificielle formée sur le domaine avec l’automatisation opérationnelle et des processus continus de vérification-retour et de notification pour (i) établir des prévisions opérationnelles, (ii) effectuer des ajustements opérationnels et des ordres de travail, et (iii) vérifier leur impact en temps réel, en optimisant de manière prédictive et continue la fiabilité de l'offre, l'efficacité, la capacité, la qualité, le rendement et la marge.

Selon Christopher Voss, PDG d'Elutions France, « Alors que les technologies des plateformes SCADA doivent évoluer en permanence pour prendre en charge les avancées en matière de systèmes de contrôle opérationnel, d'interopérabilité homme-machine et d'acquisition de données, la prochaine étape de l'évolution des systèmes d'entreprise consistera à institutionnaliser les plates-formes d'IA avec des technologies d'apprentissage automatique capables de traiter des millions de points de données complexes reliés instantanément - quelque chose qu'aucun humain n'est capable de faire. Une plateforme d'Intelligence Artificielle correctement formée, axée sur l'optimisation des avantages de la chaîne de valeur dans l'ensemble de l'organisation (production, maintenance, inventaire, approvisionnement, approvisionnement, etc.) deviendra un axe stratégique pour toutes les organisations complexes utilisant des données de manière intensive ».


En amont et parallèlement à la supervision, les solutions se développent…

En amont et parallèlement aux outils de supervision, et sur l’ensemble de la chaîne d’acquisition, les outils se développent, et prennent notamment la forme de tableaux de bord permettant à l’exploitant de disposer de vues synthétiques. FluksAqua a ainsi développé à l’intention des exploitants de réseaux d'eau et d’assainissement des tableaux de bord qui permettent de valoriser les données issues de la télégestion ou la surveillance sur une interface unique de manière à minimiser les risques de déversements et ainsi maîtriser la qualité des rejets. Ces tableaux de bord permettent un suivi précis des déversements (nombre, temps, récurrences…), de prioriser les interventions en fonction de seuils préfinis sur déversoirs d’orage, et d’exporter les données collectées au format Sandre pour produire rapidement et façon automatisée les bilans réglementaires exigés par la réglementation. Au-delà des obligations liées à l’autosurveillance, l’outil évoluera prochainement vers l’élaboration de diagnostics permanents permettant d’initier des actions préventives et correctives.
Topkapi d’Aréal propose de nombreuses possibilités pour s’interfacer avec tout type d’applications ou matériels auxquels il est susceptible d’être associé. Qu’il s’agisse d’applications développées sur mesure, de progiciels du commerce (GMAO, SIG, MES, ERP, validation de données, ...), de matériels d’automatisme ou simplement communicants (Web Services, OPC, SGBD, ...).

Développé sur plusieurs sites pilotes avec le concours d’exploitants de manière à répondre de la façon la plus précise possible à leurs besoins, l’outil prend la forme d’une application disponible en mode SAAS. « Cette application est accessible via un simple abonnement et ne nécessite aucun investissement d’aucune sorte », souligne David Gotte, directeur commercial chez FluksAqua. L’offre démarre avec des tableaux de bord très simples sur un périmètre réduit à partir de 25 à 30 euros par mois, et s’élargit ensuite en fonction de la dimension du réseau considéré. « Ces formules diversifiées permettent de proposer à chaque exploitant un outil adapté à ses besoins, compte tenu de son réseau, de son degré d’équipement, et ceci sans qu’il n’ait besoin ni d’investir, ni de changer de matériel, explique David Gotte. Et contrairement aux logiciels standards ou aux applications spécifiques, notre application n’implique aucune modification ni intervention sur l’outil informatique de l’exploitant ». Sa mise en œuvre est simple et rapide grâce à un interfaçage avec l'outil de supervision permettant de pousser les données sur FluksAqua. Des tests gratuits sont réalisables sur simple demande.

Côté télégestion, la gamme S4W de Lacroix Sofrel intègre de nombreuses fonctions métiers évitant de recourir à des programmations ou paramétrages complexes. Elle propose de nombreuses fonctions dédiées “télégestion eau” telles que : bilans de fonctionnement, automatisme postes de relevage, calendriers, report d’alarmes, liaisons intersites, horodatage des données à la source, badges… Pour faciliter l’exploitation des données gérées par le S4W en local ou à distance, les exploitants disposent de deux interfaces de consultation graphique. S4-Display, un afficheur couleur tactile et intégrable en face avant d’armoire électrique permet la visualisation de synoptiques, de données et de courbes sur site. Totalement “plug and play”, il n’y a rien à paramétrer. S4-View est un logiciel sous environnement Windows pour consulter les données gérées par S4W. Il permet également le diagnostic de ses équipements à distance et propose de nombreux tableaux de bord.

Un des grands défis liés à l’accumulation de données collectées consiste à évaluer les informations récoltées et à en tirer les bonnes conclusions. A l’aide de la solution Zenon, Copa Data génère à la fois des calculs simples et des indicateurs clés de performance complets, en temps réel ou basés sur des données enregistrées.

Les produits Tbox, commercialisés par IP Systèmes, assurent également toutes les fonctionnalités classiques de la télégestion, comme l’enregistrement des événements, la gestion des alarmes, la multi-communication et l’interfaçage avec tout type de poste local. Les logiciels de configuration embarquent tous les outils nécessaires à la création des fonctionnalités souhaitées sans demander à l’utilisateur une quelconque spécialisation en informatique. Quelques “clics” permettent de définir, sans possibilité d’erreur, l’ensemble de ces fonctions autrefois lourdes et laborieuses à programmer dans le monde des automates programmables industriels.

Encore plus en amont dans la chaîne d’acquisition, les fabricants d’instrumentation développent leurs solutions. Chez Hach, par exemple, Claros MSM (Mobile Sensor Management) est un outil de télégestion des capteurs qui donne accès à tous les instruments d’analyse Hach enregistrés par le biais de n’importe quel appareil connecté à Internet. Il transforme les données de mesure et de diagnostic en informations exploitables, accessibles partout et à tout moment en comparant les mesures en ligne avec les mesures de laboratoire. La plate-forme Claros, en plus des données de mesure elles-mêmes, gère et transmet les informations internes des capteurs concernant leur maintenance, vérification, calibration, et fournit aux utilisateurs les modes opératoires en ligne pour leur bonne réalisation. « Au final, c’est non seulement la donnée de mesure qui est gérée, mais également son niveau de fiabilité », assure Jean-Pierre Molinier chez Hach.
Les CPO©, centres névralgiques de contrôle, de gestion et d’analyse des données des services d’eau et d’assainissement des collectivités développés par Saur modifient également sensiblement l’approche en apportant aux élus une vision complète du service en temps réel sur leur territoire.

Les traiteurs d’eau s’y mettent également. L’offre Bluwell, développée par BWT avec le concours d’Aquassay, en est une bonne illustration. Elle permet de s’interfacer avec différents types de capteurs et d’analyseurs, avec pour mission de récupérer les données pour une restitution en temps réel sous forme élaborée, permettant une maintenance préventive sur la boucle d’eau et ses équipements.

En aval, toutes ces données doivent être récupérées, stockées et traitées.

Stocker et traiter

Une fois récupérées, les données doivent être stockées et traitées. Là encore, le changement d’échelle, tout au moins pour le domaine de l’eau, implique des adaptations technologiques. Classiquement engrangées sous forme de fichiers au format propriétaire, les données sont désormais de plus en plus souvent stockées dans des bases de données SQL. La version 8.0 de Zenon, sortie en mars 2018, comporte des améliorations sur l’archivage. Les données brutes sont stockées provisoirement dans une base de données interne au format propriétaire, pour le traitement opérationnel. Cela garantit performance et sécurité.
En amont de la supervision, les solutions se développent. Chez Hach, par exemple, Claros MSM est un outil de télégestion des capteurs qui donne accès à tous les instruments d’analyse Hach enregistrés par le biais de n’importe quel appareil 
connecté à Internet.

Hervé Combe de la société Elutions rapporte de son côté que « les clients nous demandent de plus en plus d’exporter les données vers des bases SQL, soit locales, soit sur Cloud soit dans des data centers, pour archivage ». Aussi, dans la nouvelle plateforme d’Elutions, les données arrivantes sont gérées par un “service” : le Data Manager pour les gérer de manière très fluide et flexible. « Nous pouvons stocker toutes les données dans une seule grosse base, soit les séparer. Dans le domaine de l’eau, nous voyons les deux types d’option. Un de nos gros clients a choisi de tout centraliser et l’autre de séparer les données “eaux usées” et “eau potable” » révèle Lydia Cobo.

Même son de cloche chez Areal : « si l’on veut garder les données à long terme, il faut leur consacrer un serveur différent de celui de la supervision. Les bases de données du type SQL Server ou ORACLE sont exigeantes en terme de ressources informatiques. Nous les mettons “à part” et elles sont interfacée via un réseau Ethernet » révèle Arnaud Judes.

Un peu à part, IT Mation aborde le monde de l’eau du point de vue d’un éditeur ayant toujours traité de gros volumes de données dans ses domaines habituels d’application. « Contrairement à nos confrères qui travaillent en format fichier, notre système est dès l’origine architecturé de bases de données relationnelles », précise ainsi Gilles Nguyen.

Redistribuer l’information

Une autre tendance actuelle consiste à mettre virtuellement le SCADA à la portée des opérateurs de terrain – du moins ceux qui bénéficient d’un accès autorisé. Il s’agit alors de savoir gérer la “redescente” des données traitées – donc des informations – et de donner une possibilité d’intervention à distance.
L’offre Panorama Suite de Codra intègre un atelier de configuration interactif, permettant l’import automatique des configurations des équipements de télégestion afin de générer instantanément une grande partie de l’application de supervision.

IT Mation propose ainsi deux outils de présentation des données, générant dynamiquement des IHM fonctionnelles et 100 % Web, c’est à dire sans déploiement. Ignition Vision, classique de la supervision, est adapté au centre de contrôle. C’est un système de type RDA (Rich Desktop Application). Ignition Perspective, commercialisé à partir d’avril, est destiné aux agents de terrain. « On utilise le html5 responsive qui s’adapte des navigateurs de bureau aux tablettes et smartphones. Ignition Perspective permet le pilotage avec la même sécurité et les mêmes performances qu’un client lourd », précise Gilles Nguyen. Déjà déployée par l’Institution interdépartementale du bassin de la Sèvre Niortaise (IIBSN), cette solution reprend les bases de données existantes.

Copa Data reprend peu ou prou la même philosophe avec son Zenon 8.0. « Nous distinguons des “clients lourds”, qui peuvent se connecter à distance et utiliser toutes les fonctionnalités de la supervision avec un PC sous Windows, et des “clients légers”, qui utilisent html5 pour consulter sur des tablettes ou Smartphones » explique ainsi Jérôme Follut.
IP Systèmes propose également des outils permettant de développer les applications de supervision du petit système autonome jusqu’à de grands systèmes distribués redondant. Codesys, logiciel de développement d'application d'automatisme selon la norme IEC61131-3, de par son ouverture vers tous types de processeurs, permet de transformer n’importe quelle plateforme x86 ou x64 sous Windows ou Linux en automate temps réel intégrant les protocoles tels que EtherCAT, CAN Open, Profibus, Profinet, Ethernet-IP…

« Nos clients intégrateurs, distributeurs ou exploitants du monde de l’eau souhaitent principalement visualiser ou analyser leurs données pour leurs besoins, mais bien souvent, la redistribution de la donnée vers leurs propres clients est trop complexe, estime Michael Delaroche chez Technilog. C’est dans ce cadre-là qu’interviennent Web I/O, pour le Saas, et Dev I/O, pour l’acquisition, capables de mettre à disposition la donnée ou de la renvoyer vers d’autres SCADA comme Ignition d’IT Mation. Ce fut le cas par exemple pour le projet BREda. Il y a également la possibilité de redistribuer cette donnée vers des outils GMAO, d’intervention ou de facturation. Une donnée pouvant être pertinente pour plusieurs acteurs, il est très important pour nous de faciliter sa transmission et sa distribution pour donner plus de visibilité aux clients finaux sur la gestion de leur parc ».

Nouvelles architectures système

Même si les superviseurs actuels fonctionnent généralement en 64 bits, donc sur des machines relativement puissantes, cela ne suffit pas toujours pour traiter le flux de données et redistribuer l’information, d’où l’apparition de nouvelles architectures pour les systèmes. Avec Zenon 8.0, un outil de supervision de conception classique (base de données interne sous forme de fichiers), Copa Data joue sur la possibilité de mise en réseau. « Nous proposons une architecture avec plusieurs Zenon installés dans les différents sites, avec des outils éventuellement différents. La plupart du temps, nous installons en plus un système central d’hypervision, avec un protocole crypté pour collecter les données des différents Zenon. Il travaille sur une machine, alors qu’une autre - de préférence – sert de serveur auquel peuvent se relier les opérateurs », explique Jérôme Follut. L’intérêt ? Dans un domaine autre que l’eau, mais avec exactement le même logiciel, Copa Data a récemment installé aux États-Unis un système de 50 Zenon dispersés dans autant de sites, reliés à un Zenon central. « Chacun site traite 50 000 variables, soit 2,5 millions de variables pour l’ensemble », révèle Jérôme Follut.
Web I/O est un système de supervision cloud développé par Technilog pour tous les équipements industriels du monde de l’eau. Web I/O intègre les automates et les IoT (tels que Lora et Sigfox) quel que soit le constructeur. L’interface se veut visuellement simple pour retrouver facilement les informations et offre la possibilité d’analyser et comparer les données ou de générer des alarmes.

La nouvelle plateforme MaestroImperium d’Elutions reprend pour sa part les principes du Web. « Du fait de son fonctionnement en mode “Service”, le système fournit un système de briques pour construire de manière très modulaire et flexible une architecture optimisée répondant aux problématiques IT et à ses préoccupations, notamment en termes de sécurité. Le Service central qui gère tous les autres services se lance automatiquement au démarrage comme un service Windows le prémunissant des attaques extérieures. Chargé de la communication entre les différents “Services” (collecte, stockage, planification, reporting) du système, il garantit l’équilibrage des charges si l’un des services venait à saturer à cause de l’afflux et/ou traitement des données, évitant ainsi les interruptions de services. Les connexions entre services sont protégées, passant par un réseau dédié. Tous les utilisateurs peuvent se connecter en http ou https pour accéder aux données de supervision, exactement comme avec une interface Web et un serveur dédié », explique Hervé Combe.

IT Mation a adopté un autre parti : prétraiter localement les données brutes pour limiter le flux vers le serveur central. Cela implique de doter les “aspirateurs” de capacités de calcul. « Pourquoi remonter des données brutes toutes les 10 minutes alors qu’on pourrait les exploiter localement et ne remonter que l’information : nombre de démarrages de pompes par jour, volumes pompés, intensités maximales, etc. ? L’edge computing permet de conserver sur site les données brutes pour une éventuelle exploitation ultérieure, et ne remonter que l’information agrégée » affirme Gilles Nguyen, ajoutant que cela évite de multiplier les serveurs centraux, gourmands en énergie. Résultat : « une communication sécurisée, des architectures plus sécurisées et des données intègres » conclut-il.

Cloud, data centers, SaaS : une évolution inéluctable ?

Au-delà de l’innovation technologique, l’arrivée massive des données peut entraîner une révision des relations, voire des modèles économiques, entre exploitants d’installations et fournisseurs de solutions. Du côté des exploitants, les grands acteurs tels que Veolia, Suez ou Saur ont pris acte de l’entrée dans l’ère du big data et mettant sur pieds des data centers. « Suez a monté des centres régionaux de pilotage des informations. Ils concentrent en un seul point des milliers d’informations, avec des outils “métier” propres pour l’exploitation et l’analyse des données. Leur point d’entrée est un Topkapi, qui assume le traitement en masse, les alarmes, les calculs sur données horodatées… » souligne par exemple Arnaud Judes.

Les experts du Smart Operation Center de Suez supervisent ainsi au quotidien les infrastructures informatiques et télécoms des 4 millions de compteurs d’eau communicants en France et à l’international. Ils ont pour vocation de garantir leur performance et la restitution d’informations fiables et actualisées à leurs clients internes (centres Visio de Suez en France, données des clients régies, bailleurs, etc.). Cette vision globale permet de détecter au plus tôt tout incident, d’en alerter les exploitants et les accompagner dans l'utilisation et l’analyse des données issues des solutions de compteurs communicants. Les experts du Smart Operation Center travaillent au quotidien à l’amélioration continue des solutions en validant directement auprès des exploitants les nouveautés ou améliorations proposées. En lien direct avec les centres de pilotage régionaux VISIO, il joue un rôle de “back office” en assurant la fiabilité des données sur un territoire donné et planifier les interventions nécessaires au bon fonctionnement des systèmes de télérelève. L'intelligence opérationnelle se situe dans les VISIO. Le Smart Operation Center garantit la performance des infrastructures Smart.

Les CPO©, centres névralgiques de contrôle, de gestion et d’analyse des données des services d’eau et d’assainissement des collectivités développés par Saur modifient également sensiblement l’approche en apportant aux élus une vision complète du service en temps réel sur leur territoire.
Plutôt que travailler sur des ordinateurs propriétaires, toujours susceptibles de panne ou au moins d’interruption de service, et réclamant une maintenance coûteuse, pourquoi ne pas basculer sur le Cloud ? D’autant que les solutions sécurisées de mise en réseau via le Cloud, comme celle proposée par Wago, se développent. Les exploitants comme les fournisseurs y pensent, avec des démarches en général progressives… et un enthousiasme variable. Certains exploitants se montrent encore réticents, hésitant à franchir le pas pour des raisons de sécurité et de contrôle sur leurs propres données. « Le Cloud est possible mais uniquement pour récupérer les données, pas pour contrôler les systèmes car, même avec des connexions sécurisées en https, quasiment aucun client ne veut risquer que quelqu’un prenne la main à distance. Son utilisation se limite uniquement pour l’instant à la récupération des données, mais pas au contrôle des systèmes. Nous savons techniquement le faire mais en pratique, pour les SCADA, les clients n’en veulent pas » estime ainsi Hervé Combe, d’Elutions.

« Sur une architecture distribuée incluant de l’Edge Computing. La pile technique d’Ignition est compatible avec la virtualisation, le cloud et même la containerisation » affirme pour sa part Gilles Nguyen, pour IT Mation. « L’agilité d’Ignition permet de passer très simplement d’une installation locale et la faire évoluer au fil de l’évolution des besoins. Nativement web depuis l’origine, la mise à l’échelle (scalabilité) permet gérer plusieurs millions de variables et servir plusieurs milliers de clients en utilisant des solutions d’équilibrage de charge (load balancing). Le choix est laissé au client de déployer la solution sur son propre datacenter ou dans le cloud », illustre Gilles Nguyen.Les gros opérateurs du marché, Veolia, Suez et Saur, tendent vers ce type de modèle distribué entre machines physiques propriétaires et Cloud.

Pour les éditeurs de logiciels, la question se pose désormais de passer de la classique cession de licence à la fourniture de Saas. Certains s’y sont mis parmi lesquels Wonderware inTouch, Technilog ou Clever Technologies. Tous reconnaissent y réfléchir, poussés par la demande. « Nous hébergeons déjà une petite dizaine de clients. Ce sont des cas particuliers mais la tendance évolue. Parmi les derniers appels d’offres d’opérateurs, l’un demande explicitement une réponse dans les deux systèmes : cession de licence ou Saas. Aujourd’hui, nous avons deux possibilités : soit devenir un opérateur d’hébergement en achetant ou louant des baies dans un data center, soit nous associer avec une entreprise de service numérique ayant déjà ce type de fonctionnement, et compléter son offre par notre offre industrielle », révèle Gilles Nguyen. Areal se pose également la question, comme l’expose Arnaud Judes. « Techniquement, nous pourrions passer en Saas. Notre application de démonstration, par exemple, est hébergée sur le Cloud. Déjà, certains partenaires achètent un Topkapi, le mutualisent pour plusieurs clients et le proposent en mode hébergé en le faisant migrer sur Microsoft Azure. Nous n’avons pas encore changé notre modèle économique mais cela viendra peut-être car des appels d’offre sortent dans ce sens là ».
Distribué par IT MATION, l’automate EPIC intègre Ignition Edge et des fonctions d’automatismes basées sur Codesys. Relier IT et OT n’aura jamais été aussi simple, performant et sécurisé grâce à Ignition Edge et MQTT.

Copa Data reste pour l’instant un pur éditeur. Comme les autres acteurs, la société réfléchit toutefois aux services Cloud qu’elle pourrait proposer pour renforcer son offre… sans toutefois aller jusqu’au Saas. « Nous développons des services Cloud supplémentaires plutôt que proposer notre SCADA en Saas. Par exemple, nous pourrions dispatcher l’information à différents types d’utilisateurs. Typiquement, un grand opérateur a besoin d’une supervision locale (ou globale sur différents sites) mais exploite pour le compte d’un syndicat. Ce dernier a besoin aussi d’avoir des informations : ce qui se passe, l’état du système, les performances de production. Nous développons des services Cloud pour que tout le monde puisse accéder à ces informations » explique Jérôme Follut. Copa Data développe donc des prototypes de services Cloud. « Par exemple, un opérateur exploite les installations pour le compte d’une métropole. Il a accès à une supervision standard sur le Cloud mais la métropole peut aller voir le nombre d’alarmes en cours, la production réelle, des informations complémentaires… Il faut savoir partager ces informations, avec une technologie existante (services RESTful) qui permettrait même à la métropole de les intégrer à son site web pour les publier. Par exemple, les résultats de la dernière analyse de la qualité de l’eau, qui intéressent les citoyens », détaille Jérôme Follut.

« En ce qui nous concerne, la transition a été anticipée depuis 4 ans, indique de son côté Michael Delaroche chez Technilog. L’IoT est aujourd’hui notre quotidien et développer sur du LoRa, LoRaWan ou du Sigfox est devenu une habitude. Nous avons désormais une capacité de gestion d’environ 350 protocoles et plus de 200 IoT permettant ainsi de répondre à l’ensemble des besoins/usages de nos clients. Notre solution Web I/O est pensée développée, et déployée pour le Saas ».

Aquassay a également résolument franchi le pas. « Nous utilisions à la base notre suite logicielle pour nous. Puis nous avons commencé à pouvoir nous interfacer avec différents types de données : automates, capteurs en direct, machine to machine. Nous avons alors décidé de commercialiser eDatamotic sous forme d’abonnement Cloud. Eventuellement, si le client a des difficultés à faire remonter la donnée, nous avons de petits produits électroniques pour cela. Finalement, le client indique le nombre de paramètres qu’il doit gérer et nous proposons un abonnement. eDatamotic est né de cette idée », explique Vincent Reynaud.