Your browser does not support JavaScript!

Encart

Maîtriser les coûts d’exploitation

23 avril 2019 ( mots)
En tant qu’intégrateur, la société HTTP (High Tech for Telecontrol Project), spécialisée dans la mise en œuvre de solutions de pilotage et de supervision d’équipements techniques, voit les choses sous un angle particulier. « En fait, le volume de données générées est en contradiction avec notre action, il augmente le coût d’acquisition des systèmes automates et supervision, et il demande un temps d’exploitation par l’œil humain de plus en plus conséquent, voire impossible dans certains cas, explique Vincent Hemery, dirigeant de l’entreprise. A l’heure de la loi NOTRe et de l’optimisation des coûts, voir le coût des installations augmenter est un non-sens ! ».

« Si, aujourd’hui, les briques techniques fournies par les différents acteurs sont de bonne qualité et suivent l’évolution du marché, notamment en matière de sécurité de l’information et de la transmission, nous devons nous interroger sur notre modèle économique, explique Vincent Hemery. Ma réflexion m’a menée à un double constat ».

« Si notre métier d’intégrateur consiste à assembler des briques techniques pour répondre aux besoins des clients, ces derniers sont facturés, dans le schéma actuel, au point remonté. Or, plus nous en remonterons, même s’il y a un effet de masse, plus ce sera cher, car il faut aussi les exploiter. J’en suis arrivé au constat qu’il fallait transformer totalement notre approche, pour ne plus raisonner en point, mais en fonctionnalité. Cette approche, qui nécessite de sortir complètement d’une vision verticale, permet de penser autrement. En raisonnant par fonction, l’ensemble des données sources prises dans un même sous-ensemble, permet de générer plusieurs sous-produits, qui sont commercialisables soit en lien ou indépendamment. Cela permet de générer un nouveau business model qui valorise la donnée sous une autre forme. Et qui, par effet de domino, permet de faire baisser les coûts d’acquisition de manière spectaculaire. C’est donc un rapport gagnant/gagnant. Il ne faut pas attendre pour partir sur cette évolution, car elle redistribue les cartes. Ceux qui seront à la traîne prendront un retard difficile à rattraper.

Le deuxième constat repose sur l’intelligence artificielle. Plus il y a de données à exploiter, plus il faudra du personnel pour le faire dans le modèle actuel. Or, c’est impossible. Si nous augmentons le flux de données sources, il faudra augmenter la capacité de traitement, et ce 24h/24 7/j7. Ce qui est impossible d’un point de vue humain. Si, aujourd’hui, nos systèmes permettent d’informer les exploitants en cas de panne, les dérives d’une exploitation, sont beaucoup plus difficile à identifier pour l’œil humain, alors que les conséquences financières ou environnementales peuvent être importantes quand on les détecte tardivement. L’intelligence artificielle, qui, par apprentissage, permet de prévenir toute dérive dès son apparition, devient donc le complément indispensable du big data, pour en exploiter toute la richesse, tout en diminuant les coûts d’exploitation directs, comme indirects ».