Ici archive

Alors que la crise COVID perturbe encore l’économie mondiale, notamment en Chine qui continue à imposer régulièrement des confinements, la crise ukrainienne a déclenché une forte tension et envolée des prix sur les marchés de l’énergie. Dans un même temps, la lutte contre le réchauffement climatique devient une préoccupation majeure de la société, comme l’illustre la multiplication des règlementations sur le sujet.

Un secteur est particulièrement touché car souvent électro-intensif : l’industrie. Pour les industriels, disposer d’une énergie fiable et bon marché est une impérieuse nécessité. Dans un contexte où la disponibilité du parc nucléaire français est mise à mal par des problématiques de maintenance, le prix élevé de l’énergie et risque de pénurie fait peser sur lui une menace importante.

Martin Alteirac, Responsable Data for Sustainability chez Saegus, nous explique comment les industriels peuvent adopter une démarche data driven pour optimiser leur consommation énergétique, réduire leurs émissions de gaz à effet de serre et in fine assurer leur performance économique.

Quel est l’impact de la crise énergétique en cours sur l’industrie ?

Son impact est massif car cette crise, liée à la baisse de l’offre dans un contexte de reprise mondiale de la demande, a pour effet d’augmenter les prix de l’énergie et faire peser sur les entreprises le risque de coupures.

Tout d’abord, il faut se rendre compte que les prix de gros sur les marchés de l’électricité ont été multipliés par 10 entre le premier trimestre 2019 et le dernier trimestre 2022. Évidemment, il est probable que cette hausse massive ne soit qu’un pic à passer, mais les analystes prédisent que les prix de l’énergie resteront durablement à des niveaux élevés : il est probable que le monde post COVID soit un monde ou l’énergie restera près de quatre fois plus chère qu’elle ne l’était auparavant.

Pour l’industrie, un chiffre suffit à mesurer l’impact de cette hausse : pour un industriel dont l’énergie constituait 20% du coût de production avant la crise, cette même énergie représentera demain 50% de son coût de production, engendrant une augmentation de 60% de celui-ci.

Ensuite, sur la disponibilité : alors que les premières températures négatives sont annoncées et que le gouvernement annonce que des plans de délestage (de coupures) sont à l’étude, il est évident que la hausse des prix ne permettra même pas de garantir la disponibilité de l’énergie. C’est une contrainte insurmontable pour un pan de l’industrie qui a besoin de fonctionner en continu pour des raisons de process industriel (aciérie, verrerie…) ou de contraintes en matière de respect de la chaine du froid (industrie agroalimentaire et pharmaceutique).

Pour faire face à ces deux difficultés, la sobriété énergétique est une réponse efficace car elle permet de limiter le risque de pénurie et l’impact économique de cette hausse des tarifs.

Pourquoi sobriété énergétique et décarbonation sont-ils souvent abordés de concert ?

La première raison est mathématique : l’énergie représente (en moyenne) plus de 50% de l’empreinte carbone de l’industrie. Optimiser sa consommation énergétique est donc un moyen très efficace de diminuer son empreinte carbone. L’impact d’une démarche de réduction de consommation énergétique sur l’empreinte carbone dépend néanmoins du mix énergétique de l’industrie concernée.

Son impact est maximal lorsque l’énergie utilisée est majoritairement d’origine fossile : gaz évidemment, mais aussi pétrole même si celui-ci se fait (heureusement) de plus en plus rare. Lorsque l’énergie utilisée est majoritairement électrique, l’impact dépendra alors de l’intensité carbone de l’électricité. Sur cet aspect des disparités importantes existent au niveau mondial et européen.

En France sur les 12 derniers mois, l’intensité carbone était de 117g de CO2 par kwh d’électricité, que l’on peut comparer à quelques autres pays :

  • L’Allemagne : 513g/kwh
  • La Pologne : 875g/kwh
  • La Suède : 21g/kwh
  • Les États Unis : 522g/kwh
  • La Chine : 766g/kwh

En fonction de l’énergie utilisée et de la localisation de la production, l’impact d’une réduction de la consommation énergétique sur l’empreinte carbone sera donc à quantifier précisément.

Une autre raison poussant les entreprises à mutualiser ce type d’initiatives tient à l’autre inflation, règlementaire cette fois, qui demande aux industriels des efforts sur leur consommation énergétique mais également sur leurs émissions de gaz à effet de serre.

La stratégie nationale bas carbone prévoit une diminution des émissions de gaz à effet de serre de près de 35% à l’horizon 2030, ce qui nécessite de réduire tous les ans ces émissions de 3,5%.

Enfin, la dernière raison qui pousse fréquemment à travailler ces sujets de concert tient aux dispositifs de financement permettant d’optimiser le retour sur investissement de projets d’optimisation de la consommation énergétique industrielle. Des fonds sont mis à disposition par l’État dans le cadre du plan France Relance pour décarboner l’industrie, fond qui sert souvent à financer des projets de réduction de la consommation énergétique.

Comment la data peut-elle permettre de réduire sa consommation énergétique et ses émissions de gaz à effet de serre ?

Mesurer la consommation énergétique d’un site industriel avec la finesse nécessaire pour identifier des pistes d’optimisation concrètes et activables n’est pas aisé. Une grande partie des équipements industriels ne sont pas encore connectés voire ne produisent aucune donnée. Il faut donc commencer par identifier les données disponibles et mettre en place ou moderniser les systèmes de récupération, stockage et valorisation de ces données.

Ce dispositif de mesure permet d’abord d’objectiver le point de départ. Une fois cette étape franchie, il devient alors possible d’identifier les postes et les types de production les plus consommateurs. Deux types d’actions peuvent être mises en place :

  • Modernisation ou remplacement de certains équipements du process de production ;
  • Optimisation du process de production : une modification de la stratégie d’ordonnancement ou du réglage du process.

Plus largement, une mesure granulaire en temps réel permettra d’intégrer le critère énergétique, voire le critère carbone, dans l’organisation des opérations.

Enfin, ce dispositif de mesure est essentiel pour mesurer l’impact réel des actions mises en place en permettant de comparer rapidement la réalité des économies réalisées par rapport à celles espérées. Cette mesure est essentielle pour mettre en place une amélioration continue de la performance énergétique, dynamique indispensable pour atteindre chaque année l’objectif de 3,5% d’économies d’énergie fixé par les pouvoirs publics.

Vous souhaitez découvrir comment la data peut vous permettre de mesurer et réduire votre consommation énergétique et vos émissions de gaz à effet de serre ?

Visionnez notre dernier webinar sur le sujet :

Rédigé par Martin Alteirac, Responsable Data for Sustainability au sein de notre département Data Driven

La recherche de valeur, le but ultime

Nouveau paradigme pour les architectures de données, le Data Mesh bouscule les modèles inventés et mis en œuvre ces dernières années qui reposent sur une approche fédératrice et centralisée des données.

Cette recherche de centralisation a pour objectif de casser les silos et stocker dans un espace commun les données pour en tirer un maximum de valeur et permettre de croiser des informations issues de différents domaines métiers. Elle a ainsi conduit à la création de Data Warehouses ou plus récemment de Data Lakes afin de rassembler les données de l’entreprise au sein d’une structure unifiée.

Le Data Mesh introduit une nouvelle approche et une rupture avec le modèle de centralisation, en tirant parti des silos et en s’appuyant sur une organisation distribuée en réponse aux enjeux Data à l’échelle de l’entreprise.

Dans la mise en place d’une stratégie Data-Driven, les freins majeurs rencontrés par les entreprises pour passer à l’échelle sont souvent liés à une maturité Data hétérogène et à une organisation complexifiant les échanges. La recherche de centralisation au sein d’une architecture de type Data Warehouse ou Data Lake devient alors un goulet d’étranglement.

Le Data Mesh répond aux problématiques courantes liées à ces architectures, à savoir :

  • Le manque de connaissance métier au sein des équipes IT qui gèrent les données, ce qui entrainent parfois des incompréhensions et souvent des échanges multiples avec les équipes métiers, ralentissant fortement les processus ;
  • Un manque de flexibilité des plateformes de données centralisées qui conduit parfois à des solutions technologiques complexes ne pouvant répondre parfaitement à l’ensemble des spécificités ;
  • Une complexité et une latence forte dans la gestion des flux de données, chaque demande métiers nécessitant l’intégration des données dans l’architecture centralisée, rigidifiant cette dernière afin de répercuter les changements à tous les niveaux de la chaine de traitement.

La réponse ordinaire de centraliser pour mieux traiter n’est finalement pas la meilleure solution. Le Data Mesh apporte une nouvelle approche : ne pas lutter contre les silos mais s’appuyer dessus pour en tirer parti. Le but n’est pas de revenir à une vision complètement décentralisée mais d’adopter une approche fédérée pour conserver la maitrise du patrimoine informationnel de l’entreprise.

Le Data Mesh en quelques mots

Le Data Mesh repose donc sur une approche décentralisée ou distribuée équivalente à l’approche microservices dans l’architecture logicielle.

La notion de Data Mesh a été évoqué pour la première fois par Zhamak Dehghani (Monolithic Data Lake to a distributed Data Mesh) et a évolué pour devenir un concept établi. Il a fait l’objet d’une publication de référence en début d’année (Data Mesh, O’Reilly).

Logical architecture of Data Mesh Approach (martinfowler.com)

Le Data Mesh ne se résume pas à un concept technique ni à l’implémentation de briques technologiques. Il couvre l’étendue du spectre du Data Management et ses composantes, à savoir : organisation, compétences, méthodologies, gouvernance, architecture… Le Data Mesh se compose d’ensembles d’éléments appelés domaines de données. L’interconnexion de ces domaines formant ainsi le maillage (mesh) permet de donner une vision d’ensemble des informations métiers.

La notion de passage à l’échelle est un élément central et fournit un cadre de réponse aux freins pouvant être rencontrés. Par son approche globale, le Data Mesh constitue donc une approche adaptée pour répondre aux besoins de la stratégie Data-Driven :

  • Les réponses aux demandes de changement doivent être rapides : les modèles de données doivent pouvoir être modifiés rapidement et s’adapter aux besoins d’évolutions ;
  • Le nombre de producteurs de données est en évolution constante : nouvelles applications, nouvelles API…
  • Le nombre de consommateurs de données est en augmentation constante : nouvelles initiatives Data, nouveaux besoins métiers, augmentation des usages IA…

Le Data Mesh repose ainsi sur quatre grands piliers : Domaine, Produit, Plateforme et Gouvernance.

Les quatre piliers du Data Mesh
  • Data Domain : la connaissance est distribuée dans les différents domaines de données (dérivé du Domain Driven Design (DDD) d’Eric Evans). Les métiers, responsables des domaines, sont autonomes et responsables du pilotage de leurs initiatives Data ;
  • Data as a product : la donnée est gérée au sein des domaines comme un produit (Data Product). Avec le Data Mesh, les données deviennent le produit. Il revient à chaque domaine de données de mettre à disposition des produits tenant compte de leurs utilisateurs, leurs caractéristiques spécifiques et leur roadmap de développement. Ces produits sont fournis sous un format standardisé pour être utilisés à travers l’organisation ;
  • Self-service Data Infrastructure as a Platform : une infrastructure self-service est mise en place pour gérer ces Data Products. Le Data Mesh nécessite la gestion d’une plateforme interopérable pour l’ensemble des domaines de données. Cette mutualisation vise à permettre aux différents domaines de provisionner des ressources techniques à la demande pour la création des Data Products. L’objectif recherché est de rationaliser le socle technique et les technologies utilisées à travers l’organisation ;
  • Federated Data Governance : une gouvernance fédérée autour de la donnée est mise en œuvre : la gouvernance des données porte de nombreux enjeux et particulièrement l’interopérabilité entre les domaines. La gouvernance permet de gérer les normes réglementaires et de sécurité de l’information, ainsi que le dictionnaire des données. Les domaines ont pour responsabilité de documenter les données et produits mis à disposition. La gouvernance est donc pilotée de manière hybride avec des responsabilités distribuées et fédérées.

Le Data Mesh redistribue les rôles et responsabilités au sein des entreprises

Le Data Mesh intègre en son sein aussi bien les sujets d’architecture, d’organisation, de méthodologie et de gouvernance dans un but commun : intégrer les composantes et acteurs de l’entreprise sur les enjeux de valorisation des données en tant qu’actif stratégique. Il repose sur une organisation Data distribuée et fédérée et nécessite l’implication de l’ensemble de l’organisation avec un sponsoring fort de la Direction et des directions métiers et fonctionnelles (y compris IT).

Pour les métiers, l’approche Data Mesh leur permet d’acquérir autonomie, agilité et responsabilité dans la création de leurs produits Data, la gestion de leur cycle de vie et la gouvernance des données.

Pour la DSI, sa transformation opérée ces dernières années en tant que fournisseur de services IT se renforceavec la responsabilitéde fournir et opérer une plateforme modulaire, interopérable permettant la mise à disposition d’assets communs. Dans cet approche les solutions cloud et de virtualisation des données constituent des approches d’architecture particulièrement adaptées au Data Mesh. La DSI joue donc un rôle essentiel en étant garant de la modernisation, l’agilisation du SI et de l’apport des innovations technologiques (apportées notamment par les solutions Cloud).

Pour le Data Office, il joue un rôle central d’animation, d’acculturation et de fédération des initiatives Data. Il accompagne la démarche de mutualisation des données, la coordination des actions et la mise en oeuvre de la gouvernance. Le Data Office est donc la tour de contrôle de la fonction Data transverse de l’entreprise et en charge du maintien de la cohérence globale.

Le Data Mesh, une rupture fédératrice

Le Data Mesh apporte une rupture totale avec le dogme Data-Centric qui a porté les réflexions d’architecture et d’organisation Data ces dernières années, mais à laquelle les entreprises se heurtent avec l’explosion des données et les limites en termes de création de valeur et de passage à l’échelle.

Le Data Mesh apporte une approche globale au service de l’entreprise Data-Driven, contrairement aux approches purement technologiques. L’agilité dans la création de produits Data et leur mutualisation donne l’opportunité de raccourcir le time-to-market pour les métiers et leur permet de répondre plus rapidement aux exigences internes ou du marché.

Le Data Mesh réunit donc les éléments nécessaires pour une stratégie Data-Driven réussie :

  • Une approche globale (méthodologie, technologie, architecture…) ;
  • Une répartition et une gestion des compétences Data dans les différents Data domaines ;
  • Une plus grande autonomie des métiers pour la gestion et la valorisation de leurs données.

L’ensemble de ces éléments réunit autour des quatre piliers du Data Mesh :

  • Une organisation en Data Domain métiers ;
  • La création de Data Products ;
  • La mise en place d’une plateforme technologique fédérée ;
  • Une gouvernance des données distribuée et fédérée.

Ils font écho à l’approche de Saegus et sa proposition de valeur sur la modernisation de plateforme de données sur l’ensemble de ces composantes techniques, méthodologiques et organisationnelles. N’hésitez pas à nous contacter pour en savoir plus.

Rédigé par Julien Ayral, Directeur Data Driven

En dehors de quelques start-ups ou spécialistes de la tech, les usages de l’intelligence artificielle se sont développés de façon moins spectaculaire que ce qui était attendu il y a quelques années. On constate une prise de conscience générale sur le fait que l’intelligence artificielle n’est pas une solution magique : l’investissement est relativement couteux pour un ROI qui n’est pas toujours au rendez-vous. Transformer une entreprise Data Driven tient plus en sa capacité à disposer de données fiables (mise en qualité), partagées (gouvernance et catalogue) et utilisées par le plus grand nombre (accessibilité et acculturation) que de sa capacité à réaliser des expérimentations de Deep Learning ou Machine Learning.

Faut-il toujours croire au développement de l’intelligence artificielle dans les entreprises ?

Oui, bien sûr. Bien utilisée, l’intelligence artificielle est un accélérateur puissant pour résoudre des problématiques complexes ou générer plus d’efficacité. Toutefois, l’offre existante sur le marché n’est pas toujours lisible : faut-il aller sur des outils packagés avec des modèles pré-entrainés, choisir du sur-mesure ou utiliser des plateformes de développement dédiées aux Data Scientists comme Dataiku ? Les entreprises hésitent aussi bien sur les solutions à retenir que sur les organisations à mettre en place.

Existe-t-il des freins spécifiques à l’intelligence artificielle ?

Le point prioritaire reste la mise à disposition des données : elles doivent être accessibles, qualitatives et représentatives des phénomènes étudiés. Ce prérequis étant franchi, il reste deux autres problèmes à résoudre qui sont souvent sous-estimés :

  • L’automatisation et l’industrialisation : ou comment sortir du cadre de l’expérimentation pour mettre les services d’intelligence artificielle en production. Il convient de s’inspirer du DevOps et du Software Engineering en mettant en place un cadre MLOps et une chaîne d’intégration continue. Sans ces piliers, il est inenvisageable de faire de l’intelligence artificielle un pilier de croissance des entreprises ;
  • L’intelligence artificielle de confiance : dès lors que la finalité est opérée dans un cadre règlementaire ou éthique (RH par exemple), il est indispensable de « superviser » les modèles d’intelligence artificielle afin de les rendre transparents (mise en évidence du poids des variables dans la décision de l’algorithme). La bonne pratique à adopter – qui est notre conviction – est d’aller encore plus loin en ne se limitant pas à l’explicabilité du modèle. Il est nécessaire de superviser l’ensemble de la chaîne, notamment la représentativité des jeux d’entraînements (un algorithme qui apprend sur un jeu de données comportant des biais aura tendance à les reproduire).

Trouver les bons leviers pour maximiser l’apport de l’intelligence artificielle

La mission que s’est donnée Saegus est simple : « maximiser l’impact de l’intelligence artificielle dans les entreprises ». Comment ? À l’appui de supports :

  • Méthodologiques : la difficulté n’est pas de trouver des cas d’usages, mais de trouver les bons. Pour cela, nos équipes identifient les « Deep Use Cases » ayant un impact mesurable sur les fonctions de l’entreprise : opérations (Supply Chain, logistique, Demand Forecasting), procurement, ressources humaines, Sustainability… ;
  • Technologique : nos équipes apportent une prise de recul nécessaire pour recommander les bonnes solutions à leurs clients en fonction du contexte, de la maturité et de la constitution des équipes, ainsi que de leur écosystème technique ;
  • Organisationnel : en fonction de la taille de la culture et du modèle d’entreprise (centralisé ou décentralisé, répartition des activités entre les équipes core et les domaines métiers), nos experts aident les entreprises à structurer et agiliser leurs équipes Data Science : acculturation, montée en compétences, modèles de gouvernance, collaboration et interactions entre les équipes Business et IT… ;
  • Et d’accélérateur concrets : guides pratiques, démonstrateurs, supports de formations et kits prêts à l’emploi – comme notre Starter Kit MLOPS.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data ?

Rédigé par Alexander Mikheev, Manager Data Driven

Signes du dérèglement climatique, les conflits géopolitiques, catastrophes naturelles ou encore les difficultés d’approvisionnement de certaines denrées se multiplient. Ils semblent malheureusement nécessaire à la prise de conscience mondiale sur l’impact environnemental de nos activités, en tant que société et individu. En conséquence, les comportements évoluent : si nous sommes de plus en plus nombreux à ajuster nos comportements, ce changement de mentalité doit désormais s’appliquer à l’échelle de l’entreprise.

Cependant, réduire l’empreinte carbone d’une entreprise grâce à une meilleure gestion de sa consommation énergétique ou une optimisation de ses processus métiers n’est pas aussi simple qu’éteindre ses lumières, trier ses déchets ou limiter l’utilisation de sa voiture.

En conséquence, des réglementations sont mises en place pour aider les entreprises à mieux comprendre et maitriser leurs activités et faciliter le pilotage et l’optimisation de leur empreinte carbone. Depuis 2017, un grand nombre d’entreprises a pour obligation de communiquer sur leur performance RSE (responsabilité sociétale des entreprises), à l’appui d’un reporting extra-financier (remplaçant le rapport RSE).

Cette mesure n’est obligatoire que pour les entreprises de plus de 500 salariés et dont le chiffre d’affaires est supérieur à 40 millions d’euros pour les entreprises cotées en bourse ou 100 millions d’euros pour celles qui ne le sont pas. Toutefois, de nombreuses entreprises qui n’atteignent pas ces seuils font preuve d’initiative pour montrer l’image positive d’un groupe conscient et responsable auprès de ses clients et fournisseurs.

On ne peut que saluer ces initiatives : la conscience écologique doit être au cœur des stratégies des entreprises. Parce que les réglementations évoluent aussi vite que se dérègle le climat, ces mesures seront sans aucun doute appliquées à l’ensemble des entreprises dans les années à venir.

Comment la réglementation va-t-elle évoluer ?

Dès 2024, la CSRD – Corporate Sustainability Reporting Directive (remplaçant l’actuelle NFRD – Non Financial Reporting Directive) imposera la mise en place de nouveaux reporting extra-financiers. On estime qu’environ cinq fois plus d’entreprises seront concernées par cette nouvelle réglementation (par exemple les sociétés de plus de 250 salariés ou toutes les sociétés cotées en bourse).

Les entreprises doivent se préparer dès maintenant : c’est là que la Data entre en jeu. Afin de s’y préparer au mieux, les entreprises n’auront pas d’autres choix que de s’appuyer sur la donnée pour justifier leur conformité face au CSRD. On parle de Data Sustainability.

La Data Sustainability, un réel challenge pour les entreprises

Les lois se durcissent. Elles exigent la mise à disposition d’informations extra-financières, nécessitant plus de transparence dans le reporting et donc dans les données à identifier, collecter, préparer et diffuser. Là est la contradiction de ce système : diminuer l’empreinte carbone des entreprises tout en augmentant sa culture digitale et Data pour pouvoir y faire face.

L’hétérogénéité de la provenance des données, leur raffinement ou leur niveau de qualité est un casse-tête pour les entreprises. Cette complexité est associée à de grands challenges sous-jacents :

  • Le challenge réputationnel pour garantir des collaborations saines et durables auprès des fournisseurs, partenaires et clients, ainsi que des organismes de financement pour assurer les dépenses et la croissance de l’entreprise ;
  • Le challenge culturel de transformation de l’entreprise vers une stratégie digitale centrée sur la Data impliquant de nouvelles organisations pour répondre aux enjeux environnementaux de demain ;
  • Le challenge technologique d’implémentation de plateformes Data décentralisées en tirant parti d’une conception orientée produits, facilitant l’agilité dans la gestion, la maintenance et l’évolution des données.

Pour répondre à ces différents challenges, la mise en place d’une gestion robuste de la donnée est nécessaire. Elle doit être basée sur les 5 piliers de la gouvernance des données.

Les processus Data

Afin de garantir une maitrise des données tout au long de leur cycle de vie, il est indispensable de lancer des chantiers de cartographie des processus Data intégrant les sources internes et externes, des systèmes producteurs de données jusqu’aux systèmes consommateurs (dans l’exemple que nous prenons, jusqu’à l’utilisation des données dans les reportings extra-financiers).

La maitrise des processus Data garantit la traçabilité de la donnée, permet la mise en lumière d’éventuelles causes de non-qualité ou identifie les étapes de collectes manuelles en vue d’une industrialisation technologique.

L’organisation Data

La mise en place d’une organisation Data implique des rôles standardisés et partagés à l’ensemble de l’entreprise. À chaque rôle est affectée une fiche de poste caractérisée et reconnue en tant que position légitime par le management et les ressources humaines. Ces nouveaux rôles doivent être pilotés et accompagnés par un Data Office garant des instances de gouvernance pour assurer la cohérence et vision Data du groupe.

Cette organisation a pour objectif de faciliter les échanges entre les parties prenantes Data et garantir une collaboration étroite entre les domaines fonctionnels et la DSI coordonnée par le Data Office. Elle est indispensable à la mise sous contrôle du patrimoine de données.

La connaissance du patrimoine de données

Le patrimoine de données doit être intelligible et accessible à tous les collaborateurs de l’entreprise. Il assure la véracité et l’intégrité des données transmises lors des exercices extra-financiers. Il se décompose principalement en deux activités : le glossaire des données dans le lequel on retrouve un certain nombre d’attributs permettant de qualifier les objets métiers (définition, responsable, règle de gestion, etc). Il permet de définir un langage commun. Le dictionnaire des données, quant à lui, répertorie la localisation physique des données, les traitements associés et le type de collecte indispensable à la conception des processus Data.

Le catalogue de données apporte de nombreux bénéfices pour la capitalisation du patrimoine. Il a pour rôle d’améliorer la transparence des informations liées à la collecte des données de reporting et, dans notre contexte, prouver la traçabilité en cas d’audit.

La qualité des données

Les équipes Data sont responsables de la formation des collaborateurs aux grand principes de la qualité, aux dimensions suivies ou aux techniques de saisies de la Data. Ils sont indispensables à l’application des processus de qualité intégrant des plans d’actions correctifs et préventifs.

L’implémentation des plans de remédiation repose sur des processus de suivi itératifs à l’appui de tableaux de bord ou outils de gestion de la qualité. L’amélioration de la qualité des données passe par l’implémentation d’outils et de contrôles, mais surtout par la sensibilisation des équipes.

L’augmentation de la quantité, la diversité et la complexité des données des entreprises – dans notre cadre extra-financier où de nombreuses données sont collectées en provenance d’OTI (Organisme Tiers Indépendant) – rendent indispensable la mise en place d’une gestion rigoureuse de la qualité.

L’accessibilité des données

L’accessibilité des données se caractérise comme suit : d’une part elle requiert la définition d’un modèle documenté et partagé d’exploitation des données (Data Operating Model) ; d’autre part elle nécessite la mise à disposition de données qualifiées, dont l’intégrité et la disponibilité est assurée par des systèmes de gestion de la donnée adaptée et une mise en gouvernance robuste.

Le Data Operating Model, couplé à une infrastructure bien pensée, est essentiel dans l’équilibre de la gouvernance de données et favorise l’implémentation de nouveaux usages.

Les équipes de notre département Data vous accompagnent dans l’élaboration de stratégies liées à la Data Sustainability grâce à ses expertises techniques et méthodologiques. L’objectif : vous apporter des solutions Data clés en main répondant à des usages métiers spécifiques comme l’élaboration des reportings extra-financiers ou la mise sous gouvernance des données liées aux stratégies RSE.

Vous souhaitez en savoir plus ou être accompagnés par notre équipe Data for Sustainability ?

Rédigé par Martin Éliard, Manager Data Driven

Cette rentrée 2022 est marquée par une série d’annonces montrant que le rôle de la data dans les initiatives RSE – et en premier lieu celles destinées à lutter contre le réchauffement climatique – est en passe d’être reconnu essentiel par tous les acteurs du secteur.

Martin Alteirac, Senior Manager au sein de notre département Data Driven et en charge de notre offre Data for Sustainability, nous présente la plus impactante d’entre elles : la présentation des conclusions du forum 2022 du Cercle de Giverny.

Qu’est-ce que le Cercle de Giverny ?

Le Cercle de Giverny est un laboratoire d’idées hybride agissant en faveur du déploiement opérationnel de la RSE systémique. Il a dévoilé cette semaine 30 nouvelles propositions pour accélérer la transformation écologique et sociale de notre pays. Parmi ces propositions, 6 d’entre elles témoignent du rôle crucial de la data dans cette transformation.

Le groupe de travail du Cercle de Giverny, co-présidé par Come Perpère (Directeur du développement durable Microsoft France) et Rim Tehraoui (Chief Data Officer BNP Paribas), rappelle quelques chiffres :

  • 9% des entreprises évaluent leur impact environnemental de manière précise et complète, c’est-à-dire en mesurant les scopes 1, 2 et 3. En moyenne, le taux d’erreur dans leurs mesures d’émissions est de 30 % à 40 %. (Source : Rapport « Carbon Measurement Survey » 2021 de BCG Gamma)
  • Dans le monde, seulement 7% des entreprises ont combiné leur stratégie tech, RSE et business. 18% d’entre elles n’ont pas de politique de numérique responsable ou en appliquent les principes basiques. (Source : “Uniting Technology And Sustainability”, Accenture, 2022)

Pour dépasser ce constat, le groupe de travail formule 6 recommandations qui sont des leviers pour rendre actionnables les données nécessaires à la mise à l’échelle du développement durable.

En quoi consiste ces recommandations ?

Ces recommandations constituent les 6 grands axes à travailler au cours des prochaines années pour faciliter la collecte, la valorisation et l’échange des données qui doivent permettre aux entreprises et à la société de diminuer son empreinte environnementale :

  • Créer des consortiums sectoriels multi-parties prenantes pour normaliser les indicateurs d’impact environnemental,
  • Inclure dans le standard CSRD (développé par l’EFRAG) les indicateurs liés à l’empreinte environnementale des produits,
  • Améliorer l’interopérabilité et le partage des données environnementales (ex. : biodiversité et carbone) pour favoriser leur échange,
  • Assurer la qualité et la clarté de la donnée,
  • Rendre le processus de contribution au sourcing et à la gouvernance de la data attrayant pour tous les acteurs de la chaine de valeur,
  • Considérer la data comme un levier pour mesurer et modéliser l’impact extra-financier d’un projet à but social ou environnemental.

Ces grands axes sont ensuite complétés par une série de déclinaisons opérationnelles dont certaines me paraissent particulièrement intéressantes :

  • Imposer aux entreprises européennes la publication de leur empreinte environnementale pour une part croissantes des produits commercialisés : il est essentiel de permettre aux entreprises (comme aux particuliers) de prendre en compte ce critère lorsqu’elles comparent leurs fournisseurs. Comment y arriver si celles-ci ne se plient pas à l’exercice pour leurs propres produits ? Ce premier point commence à être pris en compte dans de plus en plus de solutions technologiques de mesure et réduction d’impact carbone, comme celle de la plateforme Sweep. Cette solution permet à ses clients d’engager leurs fournisseurs dans la démarche en leur permettant de saisir ou d’injecter automatiquement leurs données dans la plateforme. Cette possibilité fournit ainsi une solution de mesure des émissions de Scope 3 efficace et transparente à ses clients.
  • Créer un protocole d’interopérabilité d’échange des données incluant un modèle de données standard qui pourra servir de base à des APIs (Application programming interfaces) et promouvoir l’interopérabilité́ des plateformes inter-médiatrices (plateformes dédiées carbone, plateformes règlementaires) : interopérabilité et automatisation sont des enjeux clés pour déployer la mesure d’impact environnemental à l’échelle. La société Kabaun propose déjà une partie de la solution avec une plateforme entièrement APIsée permettant cette automatisation.
  • Le rôle crucial de la data gouvernance est souligné : la création de dictionnaires et référentiels ad-hoc, la mise en place de contrôle de qualité et d’explicabilité des variations tout comme la mise en place de rôles et responsabilités définis sont des facteurs de succès incontournables.

Comment appliquer concrètement ces recommandations ?

En commençant par prendre conscience de l’importance que vont prendre les données liées à ces sujets au cours des prochaines années, voire mois tant l’urgence à agir sur ces sujets se fait sentir.

Une fois cette prise de conscience effectuée, vient le temps de l’action et la constitution d’équipes réunissant les expertises nécessaires :

  • L’expertise carbone, afin de garantir la qualité et la compliance des analyses effectuées,
  • L’expertise technique indispensable au sourcing, au processing et à la valorisation des données récoltées, qu’il s’agisse de données internes ou de facteurs d’émission,
  • L’expertise méthodologique pour gérer ce type de projets à l’échelle dans des organisations complexes.

Ce tryptique d’expertise est à mon sens la clé pour garantir le fait que les enjeux sur ces sujets, parfaitement résumés par le Cercle de Giverny, puissent être pris en compte.

Vous souhaitez en savoir plus ou être accompagné·e·s par notre équipe Data for Sustainability ?

Rédigé par Martin Alteirac, Senior Manager Data Driven

Nous remarquons qu’il n’existe aujourd’hui pas de solution clé en main pour piloter une mission d’adoption. Si l’on prend comme exemple les outils Microsoft 365, nous avons observé chez nos clients qu’il était compliqué de piloter une mission en analysant de près les usages, comme l’évolution de la communication chez les collaborateurs. Par exemple : l’envoi des emails diminue-t-il au profit de la collaboration sur Teams ?

Se pose alors la question : comment mieux mesurer l’engagement des collaborateurs pour l’utilisation des outils M365 et comment le faire vivre ?

Définir des indicateurs clés pour suivre les actions d’accompagnement sur le terrain

Nous sommes partis de deux constats. Tout d’abord, peu d’indicateurs clés sont aujourd’hui disponibles pour suivre les évolutions d’une mission. Microsoft propose un Dashboard figurant l’évolution et utilisation des outils Office 365, mais il contient beaucoup d’informations qui ne sont pas assez explicites pour nos clients ; granularité d’analyse pas assez fine, méthodes de calculs complexes et la donnée n’est rafraîchie qu’une fois par mois.

Au sein de nos missions, nous accompagnons les collaborateurs en suivant un plan d’adoption sur-mesure défini en accord avec les besoins et la culture de l’entreprise. Or pour en assurer la réussite, il est primordial de suivre les actions d’adoption de près (utilisateurs actifs, récurrents, département) et les actions menées (fréquence des accompagnements, sujets proposés, participants, taux de collaborateurs touchés par les accompagnements). Il était donc nécessaire de développer un outil pour faciliter cette tâche : le Dashboard d’adoption.

Dans le cadre d’une mission au dispositif complexe (24 sites différents en France et à l’étranger, plusieurs langues à traiter, plus de 16 000 collaborateurs), nous avons mis en place un Dashboard pour avoir une vision globale sur les accompagnements menés sur les outils M365 (coachings personnalisés pour prendre en main les options de réunion sur Teams, ateliers d’équipe pour mettre en place un flux automatisé pour des tâches à faible valeur ajoutée par exemple). Les équipes étant décentralisées, le Dashboard a pallié le manque de lien qu’il y avait entre le plan d’adoption établi et les actions sur le terrain. Plusieurs accompagnements avaient par exemple lieu en même temps sur des sites différents, menées par des personnes différentes. Il a donc fallu créer un cadre pour que la remontée d’informations par chaque intervenant soit faite de manière identique.

Nous avions maintenant des chiffres concrets à présenter (le nombre de participants aux accompagnements par site, pays et entité). Sur deux sites d’un même pays, nous avons constaté que l’un était très investi alors que l’autre moins : les chiffres étaient respectivement très élevés et très bas. En comprenant que d’un côté, une personne transmettait les communications aux collaborateurs du site, nous avons mis en place de l’autre les actions adaptées : contacter les relais, comprendre pourquoi les communications n’étaient pas relayées, trouver des solutions et adapter le programme à cette population. C’est le Dashboard qui nous a permis de mieux identifier les zones de risque, ainsi que les actions concrètes à mettre en place en face de résultats non concluants.

Écran d’accueil : vue globale de l’utilisation de Microsoft 365 sur le nombre d’utilisateurs actifs par application sur les 30 derniers jours

Faire vivre l’engagement fait pleinement partie du plan d’adoption. Le piloter de près permet de se rendre compte du niveau d’engagement à des moments clés. La mission précédemment citée a été menée en période de COVID : grâce à ce Dashboard de pilotage, nous avons pu identifier les zones de risque, être plus agiles et restructurer notre stratégie plus rapidement. Le dispositif initial devait avoir lieu en présentiel à 100% (chaque intervenant devait se rendre sur les sites pour accompagner les collaborateurs), mais le confinement nous a obligé à le revoir sur la base de nouveaux indicateurs. Une liste de personnes clé a été formée en priorité aux outils. Nous avons adapté le Dashboard pour suivre de près l’engagement de ces personnes. Avec du recul, nous avons aussi observé les limites des accompagnements à distance. Dès que les conditions sanitaires l’ont permis, nous avons accompagnés sur site les pays qui en avaient le plus besoin.

Forts de cette expérience sur le terrain, nos équipes EMEX et Data ont ensemble créé une solution clé en main visant à donner une vision globale sur l’engagement et utilisation des outils des collaborateurs ainsi que le pilotage des actions menées par les consultants sur le terrain. L’objectif : faciliter la prise de décision en cours de mission et mettre en lumière l’évolution des usages au sein de l’entreprise.

Vue générale de l’utilisation de Teams

L’outil : un Dashboard clé en main au service du client

L’objectif de ce nouvel outil est de répondre aux problématiques d’accompagnement mentionnées, mais aussi d’être une solution flexible. Le déploiement des outils de la suite Office 365 n’est pas toujours fait en une seule fois ; certains clients migrent progressivement leur architecture On-Premises vers le cloud. Cette phase de transition peut être monitorée avec des sources de données différentes (une source On-Premises et une source cloud) en adaptant l’outil à cet effet. Les outils à monitorer ne sont pas forcément tous sur Office (salles de réunions, installation des logiciels sur les postes de travail). Un produit agile est tout naturel dans un tel contexte.

Vue détaillée de l’utilisation des applications Microsoft 365

Cette solution clé en main comporte plusieurs avantages :

  • Le Dashboard clé en main s’adapte aux outils déjà existants dans l’entreprise, sur le principe des “composants sur étagère“. Le client peut choisir les outils qu’il souhaite monitorer ;
  • Un déploiement accéléré de la solution en entreprise grâce à des composants technologiques disponibles par exemple sur la plateforme Azure ;
  • Des choix technologiques variés selon le contexte de déploiement. Le client peut par exemple choisir d’utiliser une base de données déjà existante pour minimiser les coûts de fonctionnement liés à la création et maintenabilité du produit ;
  • La chaine de valeur de la donnée étant totalement maitrisée, il est tout à fait envisageable de se servir de ce produit comme un socle solide pour l’adoption, puis d’y ajouter des extensions pour des usages internes à l’entreprise ;
  • Le produit suit les évolutions des API Microsoft pour que ses indicateurs soient à jour ;
  • Le design visuel du rapport est adaptable aux besoins du client pour qu’il s’intègre au mieux à l’écosystème déjà en place.

Concernant la partie technique :

  • Stockage de données : PostgreSQL sur Azure. La solution est flexible et peu onéreuse ;
  • Extraction des données : nous utilisons l’API Graph de Microsoft ;
  • Langage : nous utilisons Python couplé à Azure Data Factory pour les traitements et Azure Blob Storage pour le stockage des fichiers ;
  • Accès aux données : nous utilisons un Service Principal qui nous donne la possibilité de ne pas attribuer de droits à un utilisateur en particulier ;
  • Visualisation : notre choix s’est naturellement tourné vers Power BI pour compléter cette suite Microsoft/Azure.

Dans ce contexte, l’avantage de Power Bi est qu’il est parfaitement intégré aux outils de la suite Office 365. Nous bénéficions ainsi à la fois de Metrics (visuels d’objectifs de Power BI) et des fonctionnalités d’intégration dans Teams. Les données vont à l’utilisateur – et non l’inverse. L’utilisateur peut par exemple intégrer des visuels dans PowerPoint pour présenter des chiffres clés (grâce à la dernière mise à jour Power BI).

Conclusion

Forts de notre expertise et nos expériences sur le terrain, nous sommes convaincus que ce Dashboard de pilotage clé en main permet à nos clients d’avancer avec une meilleure visibilité. C’est une vraie valeur ajoutée pour piloter plus précisément une mission, identifier des zones de risque plus rapidement et donc être plus agile pour se réorganiser et structurer. Ne l’oublions pas : il est plus simple pour les parties prenantes de se rendre compte de l’évolution des usages au sein de leur entreprise à l’appui d’éléments concrets et résultats clairs.

Vous souhaitez en savoir plus ou être accompagnés par nos équipes EMEX et Data ?

Rédigé par Pauline Zimon, Consultante Employee Experience, et Maxime Mauray, Consultant Data Driven

Le métavers est un réseau d’environnements graphiques virtuels en ligne, accessible grâce à des équipements de réalité virtuelle ou augmentée. Les utilisateurs sont plongés dans une expérience immersive au sein de laquelle ils ont la liberté d’être qui ils souhaitent et d’aller et de faire ce qu’ils veulent sans limite. Le film “Ready Player One” est un bon exemple pour illustrer le métavers – les personnages vivent dans l’Oasis, une société virtuelle accessible grâce aux mêmes technologies. La réalité a donc rattrapé la science-fiction : il est aujourd’hui possible de basculer dans ce monde parallèle…

L’intention de Mark Zuckerberg de transformer l’entreprise Facebook en un métavers est devenu un sujet incontournable pour les entrepreneurs, et plus particulièrement les acteurs du marketing. En effet, le monde virtuel offre des opportunités commerciales générant de la valeur : il est essentiel de s’y adapter rapidement ! L’exposition des marques et des produits dans le métavers est aujourd’hui la clé pour se positionner sur ce nouveau champ de bataille. Mais comment procéder ?

La publicité OOH virtuelle

L’espace de publicité est le modèle principal de sources de revenus du métavers (ex-Facebook, donc). Les designers et ingénieurs qui créent ces mondes virtuels travaillent ensemble pour permettre aux marketers et publicitaires de diffuser leurs annonces dans des espaces dédiés. À l’image des publicités out-of-home (OOH) que l’on retrouve sur les immeubles, les panneaux publicitaires ou dans les transports en commun, les annonces sont exposées sous des formats multiples non-contraints par les lois de la physique.

Les événements virtuels

En 2019, Marshmello réalisait pour la première fois un concert de musique électronique dans le jeu vidéo Fornite, rassemblant ainsi les joueurs autour d’une expérience musicale immersive. Ce concert a levé les contraintes logistiques et de capacité d’accueil pour laisser place à la créativité. Il a ouvert la porte à de nouvelles opportunités événementielles pour les marques comme l’organisation de défilés de mode, de premières de films ou d’évènements sportifs. Les possibilités sont infinies… sky is the limit !

Le placement de produit virtuel

Le métavers n’est pas qu’un lieu de jeu : il est possible d’y créer son avatar en lui donnant l’apparence et le style que l’on souhaite. Certaines marques de luxes comme Balenciaga et Gucci se sont déjà positionnées sur ce marché en intégrant leurs produits dans le monde virtuel : des boutiques offrent aux clients une nouvelle expérience, ayant pour objectif d’accroitre à terme les ventes dans la réalité.

L’avenir du placement de produit dans le métavers

Notre conviction est que les marques et organisations seront une partie intégrante du métavers dès lors que son usage sera mainstream. Ainsi, nous pouvons imaginer que les entreprises et marques loueront des espaces virtuels pour déployer leurs activités. Mercedes y lancera des véhicules virtuels, Starbucks offrira des espaces virtuels où se retrouver…

Saegus saisit l’opportunité de valoriser les données marketing du métavers pour augmenter les insights consommateur en fournissant un conseil en stratégie. Nos experts du data marketing vous accompagnent sur l’analyse des données du métavers (comportement utilisateur et médias digitaux), la mise en place de stratégie marketing dans le métavers et la réalisation de contenus créatifs digitaux. Le futur est déjà le présent : nous sommes prêts, et vous ?

Vous souhaitez en savoir plus ou être accompagnés par nos équipes Data ?

Rédigé par Tanasit Mahakittikun, Consultant Data

Maximiser l’efficience et l’efficacité opérationnelle dans un monde en constante évolution est un défi pour toutes les entreprises aujourd’hui, quel que soit leur secteur d’activité. Les challenges opérationnels sont de plus en plus nombreux et complexes : perturbation des chaînes d’approvisionnement, numérisation massive des modes de consommation, augmentation ininterrompue des exigences qualité et guerre concurrentielle pour offrir les meilleurs prix ne sont que quelques-uns d’entre eux. Dans ce contexte, les données de l’entreprise sont un asset qu’il n’est plus possible de ne pas exploiter et valoriser à sa juste valeur.

Martin Alteirac, Senior Manager en charge du secteur Industriel au sein de l’équipe Data Driven Business chez Saegus, répond à nos questions.

Comment les nouveaux usages de la data peuvent-ils contribuer à l’excellence opérationnelle ?

Avant d’être une démarche, l’excellence opérationnelle est un état d’esprit. Un des piliers de cet état d’esprit est à mon sens la faculté à objectiver les problèmes, à être pragmatique, à raisonner sur des faits et pas sur des idées préconçues ou des préjugés.

La data est donc un atout majeur dans la quête de cette excellence car elle permet de mettre en évidence de manière factuelle les points de faiblesses d’une organisation. Deux grands usages peuvent contribuer à l’excellence opérationnelle des entreprises :

  • L’analytics, par sa faculté à apporter à chaque collaborateur·rice une information personnalisée et actionnable et à faire rayonner dans l’entreprise une culture de la mesure de la performance ;
  • La data science, par sa capacité à optimiser et/ou automatiser certains processus métier complexes ou à aider à la conception de nouveaux produits ou services.

Le premier enjeu est d’identifier les fonctions d’une entreprise les plus à même de bénéficier de ces nouveaux usages de la data.

Quelles sont les fonctions de l’entreprises les plus propices au déploiement de ce type de démarche ?

Toutes les fonctions de l’entreprise peuvent bénéficier d’une démarche Data Driven Ops :

  • La production ou les opérations pour délivrer des produits ou services d’une qualité irréprochable tout en optimisant leur coût de production ;
  • La Supply Chain pour servir ses clients toujours plus vite en sollicitant le minimum de ressources ;
  • La maintenance pour garantir que les moyens de production soient les plus productifs possible ;
  • Le procurement où la transformation digitale permet d’acheter toujours mieux et au meilleur prix ;
  • Les ressources humaines pour booster l’efficacité des équipes ;
  • La recherche et le développement pour développer les produits et services de demain.

Bien évidemment l’intérêt de ces différentes fonctions dépend généralement du secteur d’activité concerné :

  • Le secteur du manufacturing sera intéressé par les cas d’usages autour de la valorisation des données issues des équipements ou des systèmes d’information liés à la production : optimisation des rendements, qualité ou maintenance prédictive, optimisation de la planification… ;
  • Le secteur de la distribution B2B ou B2C sera friand de cas d’usages autour de la supply chain, du procurement ou du pricing ;
  • Enfin le secteur énergétique sera concerné par la récupération et l’exploitation de données physiques mesurées par des capteurs posés au niveau des équipements de production et de consommation d’énergie pour prévoir la demande ou la production en temps réel.

D’autres cas d’usages existent (gestion des ressources humaines, des achats) ; chaque entreprise pourra également imaginer des cas d’usages spécifiques sur les problématiques qui lui sont propres. C’est souvent le cas lorsqu’on touche à des sujets de R&D ou d’innovation ayant pour objectif le développement de produits ou services visant à développer son activité.

Comment mettre en place une démarche Data Driven Ops ?

Les données de l’entreprise sont une mine d’or mais, comme pour l’or, les obstacles à franchir sont nombreux pour passer de leur découverte à leur valorisation.

Pour qu’une démarche Data Driven aboutisse il faut donc fédérer des acteurs à même d’apporter les expertises nécessaires :

  • Une expertise métier pour s’assurer que la démarche soit menée par la recherche de valeur ajoutée concrète, qu’elle soit technique, économique ou opérationnelle ;
  • Une expertise technique qui permette de sélectionner les bons outils et les bonnes technologies à mettre au service des métiers ;
  • Une expertise méthodologique sans laquelle les chances de voir la démarche aboutir s’amenuisent à cause des freins techniques, organisationnels ou culturels que ce type de démarche rencontrera à un moment ou à un autre.

Qu’est-ce qui fait de Saegus un partenaire de choix pour ce type de projet ?

Saegus est capable d’apporter à ses clients l’expertise et les ressources nécessaires pour initier, conduire et pérenniser une démarche Data Driven. D’une part, les directeurs et managers du cabinet ont conduit de vastes programmes de transformation au sein des plus grandes entreprises françaises ; d’autre part, ses consultant·e·s possèdent les expertises sectorielles, fonctionnelles et technologiques requises et sont continuellement formé·e·s aux nouvelles technologies et solutions du marché.

Mais plus que tout, nos équipes placent les utilisateurs et les usages au centre de la démarche Data Driven. Cela garantit la meilleure adéquation possible entre les choix technologiques et les besoins de l’entreprise et surtout l’adoption la plus large et durable possible des outils développés.

J’aurai l’occasion de vous parler de nos cas d’usages les plus emblématiques dans de futurs articles. Stay tuned !

Envie d’en savoir plus ou d’être accompagné·e·s par nos équipes Data ?

La business intelligence est aujourd’hui “drivée” par plusieurs éditeurs de logiciels – les principaux étant Microsoft avec Power BI, Tableau et Domo :

Ces outils fournissent des tableaux de bord opérationnels sur différents domaines à plusieurs niveaux hiérarchiques pouvant aller jusqu’au CODIR. Conscients des enjeux de cyber sécurité qu’implique ce type de projets, les architectes groupes réfléchissent aux solutions les plus adaptées.

Comment ces outils fonctionnent-ils ? Concrètement, dans une première démarche, un outil de BI stocke la donnée collectée dans ses propres bases de données dont le client ne peut souvent pas choisir le fournisseur et la localisation. Par exemple, un Power BI récupère de la donnée dans une base de données client chez Google Cloud et la stocke dans sa base de données Azure.

C’est ainsi que la plupart des outils de BI proposent à présent au moins deux modes de connexion : l’Import Query et le Direct Query.

Plusieurs défis se posent alors :

  • Est-ce un problème que ma donnée soit stockée dans deux bases de données différentes ? On pense par exemple à une donnée très sensible telle que la donnée financière ;
  • Les connecteurs Live Query sont-ils assez robustes pour interroger un très gros volume de données ?
  • Quels sont les coûts engendrés par le choix de l’architecture ?

Définition : Import Query et Direct Query

Tout d’abord, quelle est la différence entre ces deux notions, qui peuvent varier selon les outils de BI ?

Import Query : le fait de collecter la donnée stockée dans une database dédiée et qui appartient à l’outil de BI.

Direct Query : le fait de lire de la donnée en direct dans la database source sans la stocker ailleurs.

Import Query

La majorité des outils de BI propose ce mode de collecte de la donnée et ce, pour plusieurs raisons.

Mindset

Cela crée de la valeur pour l’outil en question. Évidemment, l’outil de BI garantit la sécurité de la donnée collectée (elle ne la diffusera ou ne la vendra pas), mais elle possède bien une donnée qui ne lui appartient pas et qui est importante aux yeux d’une entreprise. Cette dernière aura donc tendance à se fidéliser auprès de cet éditeur.

Bénéfices pour l’utilisateur

Une fois que la donnée est stockée, l’outil de BI propose aux éditeurs qui la traitent d’y apporter des transformations, comme des jointures avec d’autres bases de données. Il s’agit ici de transformer la donnée brute en une donnée qui répond parfaitement aux besoins de la visualisation dans un tableau de bord.

En matière de performance, la donnée étant stockée chez l’éditeur, les requêtes permettant d’afficher les visualisations lors d’un changement de page seront plus rapides.

Coût

Enfin, un dernier aspect non négligeable, le coût du tableau de bord. Généralement, lorsque vous souscrivez à un outil de BI, vous payez une licence qui vous donne le droit à un certain volume de stockage. Power BI est par exemple gratuit jusqu’à 1 go par jeu de données. Il faut passer sur une licence premium pour augmenter ce volume de stockage à 10 go ou plus. Vous payez donc un volume maximum.

Ainsi, vos frais relatifs à la donnée s’arrêtent là (exceptés donc les autres coûts liés par exemple aux accès utilisateurs). Peu importe le nombre de fois qu’un utilisateur requête une visualisation, votre coût sera fixe. À noter que l’entreprise paiera donc deux fois le stockage de sa donnée, une fois via l’outil de BI et une fois via le serveur où est stockée sa donnée source.

Direct Query

Une entreprise souhaitant stocker sa donnée à un seul endroit n’aura donc pas d’autre choix que d’utiliser ce mode de collecte. Le Direct Query est moins avantageux pour un éditeur d’outils de BI car il perd les points expliqués ci-dessus.

Mindset

La seule valeur ajoutée de l’outil de BI devient la visualisation.

Bénéfices pour l’utilisateur

  • Afficher la donnée la plus fraîche provenant de la base de données ;
  • Un seul point de stockage de la donnée (préférable si la donnée est sensible).

Inconvénients pour l’utilisateur

  • Avec le Direct Query, la majorité des outils de BI ne proposent plus la possibilité de faire des transformations. La donnée devra donc être traitée avant d’être collectée par l’outil de BI dans un BigQuery ou un Snowflake par exemple ;
  • La performance sera impactée en fonction du temps de réponse entre le serveur source et l’outil de BI, qui sera généralement plus long que la méthode Import. Sur un très gros volume de données, le temps d’affichage des visualisations sera trop long et deviendra un frein à l’adoption et la navigation.

Coût

En matière de coût, l’éditeur de l’outil de BI est le grand perdant. Le grand gagnant est en fait le fournisseur de base de données qui contient la donnée source. Par exemple, GCP facture à la requête, même dans un data studio qui appartient à Google, chaque nouvelle requête sur ce tableau de bord engendre des coûts d’utilisation au client. Plus la volumétrie est importante, plus les coûts le seront. Une architecture mal optimisée au sein de GCP sera vraiment coûteuse au quotidien, comme un Direct Query sur une vue classique faisant la jointure entre deux tables très volumineuses. Il sera important de porter une attention particulière à la performance et au nombre de requêtes effectuées. C’est le prix à payer pour avoir la main totale sur sa donnée et être maître de sa localisation.

Bonus : Hybrid Query

Chez certains éditeurs, notamment Power BI, il existe un troisième type nommé “Hybride”. Ce mode combine les modes import Query et Direct Query au sein d’une même table.

Concrètement, vous pouvez cibler une partie de votre table pour qu’elle vous renvoie la donnée en live query – comme les données du mois précédent, tandis que la donnée antérieure à ce mois sera récupérée via l’import Query.

Bénéfice pour l’utilisateur

Dans le cas où l’utilisateur requête une base de données avec une très grosse volumétrie, cela améliorera le temps d’affichage de son tableau de bord en lisant la plus grosse partie de la base (la donnée historique par exemple) via l’Import Query. Il pourra tout de même avoir de la donnée en temps réel (la donnée la plus fraîche par exemple) via le Direct Query sur une partie ciblée de la base de données.

Conclusion

La sensibilité de la donnée et le coût à terme sont deux points essentiels à considérer pour choisir une approche adaptée afin d’ingérer de la donnée dans des outils de BI pour réaliser un tableau de bord.

D’un point de vue relatif à la sécurité, une entreprise n’a pas intérêt à stocker sa donnée dans plusieurs base de données.

Cependant, un connecteur Direct Query n’est pas assez robuste sur des très gros volumes de données : nous l’avons vu, le temps de chargement sur une page sera un frein à la navigation sur le tableau de bord. En revanche, il est très efficace sur des petits volumes de données, si les tables alimentant les visualisations ont été factorisées en amont au sein de l’entrepôt de données. Il pourra également répondre au besoin d’afficher de la donnée en temps réel.

À ce jour, la solution la plus pertinente, notamment pour de gros volumes de données, est de choisir un même fournisseur pour stocker et lire la donnée. Par exemple, un Power BI ingérant de la donnée en Import Query depuis Azure la stocke également dans Azure – si le serveur est différent, il s’agit bien du même fournisseur.

Pour résumer :

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Maxime Rousseau, Consultant Senior Data

Sources
(1) https://www.qlik.com/fr-fr/gartner-magic-quadrant-business-intelligence

Depuis ces dernières années, les solutions low-code se multiplient : accessible à un plus large nombre de personnes appelées “citizen developers”, le low-code atténue la barrière entre IT et métiers.

Qu’est-ce que le low-code ?

Le low-code est un environnement qui permet de développer des applications avec peu de code, contrairement au développement traditionnel. Les solutions low-code mettent ainsi en avant une interface graphique user-friendly souvent accompagnée de modèles prédéfinis pour accélérer et faciliter les développements. On estime que les lignes “low-code” représentent 20% du nombre moyen de celles créées dans les process classiques de développement.

Il est souvent fait mention de “no-code”. Il s’agit ni plus ni moins d’une sous branche du low-code qui pousse le concept jusqu’au point où coder n’est plus nécessaire pour développer.

Le contexte

Ces dernières années ont été marquées par l’accélération de la transformation numérique au sein des entreprises, renforcée et précipitée par la pandémie du Covid-19. Face à cette situation, les Directions des Systèmes d’information (DSI) ont vu une augmentation des demandes et des besoins qu’elle n’arrive souvent pas à prendre en charge face à la multiplication des projets et du fait de ressources financières et humaines limitées. La pénurie de développeurs sur le marché renforce d’autant plus ce constat.

La mise en place de solutions low-code a été l’une des réponses à cette situation.

Parce qu’ils requièrent moins de compétences techniques, ces outils permettent aux utilisateurs métiers de gagner en indépendance en créant rapidement leurs propres applications (interface de saisie, requêtes métiers, rapports de pilotage simple…). Un nouveau profil a alors émergé dans les entreprises, le “citizen developer” : généralement un profil métier avec une forte appétence pour le digital qui devient le pont entre la DSI, les solutions low-code et les équipes métiers.

Le citizen developer facilite ainsi la création d’applications au plus proche des besoins métiers. De ce fait, le time to market se voit réduit. Mendix, un des acteurs clés du marché low-code, considère que le temps de développement est divisé par deux ou plus par rapport à un développement traditionnel. À noter que la mise en place de ces solutions est accompagnée par les DSI dont le rôle évolue, devenant de véritables partenaires des métiers.

Le marché du low-code

D’après une étude réalisée par Forrester, cabinet d’étude et de conseil, le marché des solutions low-code est estimé à 21,2 milliards de dollars en 2022, contre 3,8 milliards de dollars en 2017.

Gartner, société américaine de conseil et recherche, prédit quant à elle que le low-code représentera 65 % des applications développées en 2024. La société a également publié en août 2021 un magic quadrant positionnant les différents acteurs du low-code actuels selon 4 axes : les challengers, les leaders, les solutions de niches et les visionnaires.

Parmi les leaders du low-code, on remarque Mendix, ServiceNow, Salesforce ou encore Microsoft, dont l’offre Power Platform propose 4 solutions low-code complètes :

  • Power Apps : transformez vos idées en solutions professionnelles, en permettant à chacun de créer des applications personnalisées destinées à relever les défis de l’entreprise ;
  • Power BI : prenez des décisions professionnelles fiables et avisées en fournissant à chacun des informations exploitables fondées sur des données ;
  • Power Automate : dopez la productivité et l’efficacité de votre entreprise en donnant à chacun les moyens d’automatiser les processus organisationnels ;
  • Power Agent : créez facilement des chatbots pour converser avec vos clients et vos employés, sans aucun codage requis.

Le low-code a donc un bel avenir devant lui avec des acteurs et des offres en plein essor !

Plus que de révolutionner le développement, c’est une invitation à réfléchir aux rôles et interactions des différents services dans les organisations et aux avantages concurrentiels qu’ils peuvent procurer.

L’enjeu est de déterminer la bonne solution et les cas d’usages avec une gouvernance associée, permettant ainsi de rassurer aussi bien les métiers que l’IT et offrir ainsi une alternative au shadow IT.

Vous souhaitez en savoir plus ou être accompagné·e·s par nos équipes Data ?

Rédigé par Claudio Anfuso, Consultant Senior Data