Ici archive

Durant la dernière décennie, de nombreuses entreprises ont adopté un modèle Data Driven basé sur l’exploitation massive de données pour orienter leurs décisions business ou opérationnelles.  

Cette démocratisation de l’utilisation des données est notamment due à l’émergence des technologies Cloud qui ont permis d’exécuter des traitements complexes sur de très grands jeux de données et de conserver un TCO maîtrisable. Toutefois, un inconvénient majeur s’est rapidement présenté : le manque de maîtrise (ou de confiance) sur la localisation des données. Ce dernier point tend aujourd’hui à disparaître, puisque la majorité des cloud providers intègrent à présent dans leur offre le choix du data center, et donc du pays d’hébergement (localisation UE/US…). 

Remarque : la maîtrise de l’information d’entreprise mise sur le cloud (et plus largement internet) est au centre de l’actualité sur la sécurisation des usages de ChatGPT. À titre d’exemple, Microsoft intègre dans l’offre Azure Open AI la possibilité d’étancher l’utilisation des données d’entreprise pour améliorer la pertinence de l’IA sur ses cas d’usage internes, tout en garantissant que ces données (potentiellement confidentielles ou personnelles) ne seront jamais exposées en dehors de l’entreprise.  

Dans un même temps, les États (particulièrement en Europe) ont largement renforcé la règlementation visant à protéger l’utilisation de données personnelles. Ils ont imposé un cadre de protection et exploitation de données de plus en plus strict, comme en témoignent les sanctions prévues en cas de non-respect de cette règlementation. 

Quelques chiffres présentés ci-après permettent de mieux appréhender la mise en application de ces contrôles. Par exemple, en Europe, les sanctions s’établissaient à 1,2 Mds€ en 2021 contre plus de 2,92 Mds€ en 2022 (dont 100 M€ en France). 

Au-delà des quelques amendes historiques (comme celle infligée à Amazon pour 746 M€ en 2022 ou 405 M€ infligée à Meta pour manquement à la protection de données personnelles des enfants sur Instagram), la forte hausse du nombre de condamnations est notable. 

Autre fait marquant, la démocratisation des services d’intelligence artificielle auprès du grand public, qui pousse les instances de régulation Européenne à suivre de près le sujet. Nous pouvons citer par exemple une amende de 7 M£ donnée par l’ICO britannique à la société de reconnaissance faciale ClearView AI. 

Pour prévenir ces risques et promouvoir une image éthique de leurs activités, nombre de sociétés s’organisent pour améliorer la sécurité et confidentialité de leurs données, à fortiori celles revêtant un caractère personnel. Les entreprises les plus matures disposent d’un Data Controller – personne en charge de la supervision et de la qualification des traitements informatiques. Ce rôle vient en complémentarité du DPO (data privacy officer), qui a une responsabilité vis-à-vis des instances de contrôle pour faire appliquer la règlementation par l’entreprise. 

En effet, les techniques de traitement de la confidentialité sont multiples et plus ou moins complexes. Il apparait donc nécessaire de bien étudier chaque cas d’usage en amont et d’appliquer une solution adaptée. 

Dans la suite de l’article, nous proposons d’explorer certaines de ces approches.  

Panorama des solutions existantes  

Les approches les plus fréquemment utilisées sont :  

  • La gestion des identités et des accès ;  
  • Le cryptage ;  
  • L’anonymisation.

La gestion des identités et des accès (IAM) permet de limiter l’accès à un groupe défini de personnes. Nous recommandons de suivre le principe de moindre privilège, c’est-à-dire le fait de limiter les permissions d’accès aux ressources au juste nécessaire pour effectuer une tâche. Si besoin, il convient d’utiliser un modèle d’accès aux rôles de base (RBAC) qui peut être affiné via des listes de contrôle d’accès (ACL). 

Remarque : les Cloud providers intègrent nativement des fonctions de sécurisation dans leur offre de service à l’instar de VMs protégées proposées par Google Cloud.  

 La pseudonymisation est une technique qui permet de « masquer » la lecture directe des données confidentielles. Les données sont remplacées par un code (« tokenisation ») selon différentes techniques (chiffrement déterministe, conservant le format, clé cryptographique…). Ces techniques de chiffrements sont réversibles. Elles permettent donc de revenir à la donnée initiale. En conséquence, ces traitements doivent être soumis à déclaration auprès de la CNIL et ne perdurer que le temps de la finalité déclarée.  

Les clés de cryptage peuvent être utilisées sur des données personnelles ou pour des raisons de sécurité sur des systèmes de fichiers pour en protéger l’accès (en cas de vol par exemple).  

L’anonymisation est un concept plus complexe et abstrait que les solutions précédemment évoquées. Selon une définition de la CNIL, l’anonymisation consiste à « utiliser un ensemble de techniques de manière à rendre impossible, en pratique, toute identification de la personne par quelque moyen que ce soit et de manière irréversible. » 

Par exemple, les données peuvent être masquées via des techniques de hachage cryptographique, puis encodées. Cette technique permet de créer un jeton à sens unique, qui ne permet pas de revenir à la donnée d’origine.   

Mais dans certains cas, ces techniques ne sont pas suffisantes. Par recoupement entre différentes informations (internes ou par croisement avec des données externe), il peut arriver que l’identité ou les données personnelles liées à la personne puissent être retrouvées. Plusieurs exemples de croisement sont à ce titre devenus des cas d’école, comme l’identification d’une personne anonymisée sur la base d’attributs particuliers (ville, date de naissance…). 

Il est par conséquent indispensable de prendre en considération l’ensemble des attributs ou données qui par recoupement permettraient de retrouver une information devant être protégée dans une démarche d’anonymisation. 

La confidentialité différentielle : quel usage ?   

La confidentialité différentielle (DP) est une technique dont l’objet est de protéger la confidentialité en injectant du « bruit » dans les données : en modifiant certaines valeurs, il doit rester un doute sur la véracité de l’information même si l’identification de la personne est retrouvée par recoupement. 

Cette technique a donc un impact sur la précision de la base de données (des données sont faussées), mais reste totalement exploitable sur des usages analytiques ou statistiques (ou d’IA). L’approche consiste à substituer des valeurs des variables en utilisant un algorithme (plus ou moins simple).   

Par exemple, sur une valeur pour laquelle la réponse est binaire (vrai ou faux) : imaginons que l’on lance une pièce pour déterminer si la valeur initiale est modifiée ou pas. Si la pièce tombe sur face, la réponse reste « vrai ». Si cela tombe sur pile, un deuxième lancé est effectué. S’il tombe sur face, la réponse reste « vrai », et s’il tombe sur pile, la valeur devient « faux ». 

Les « variant twins » 

Ce concept consiste à hybrider les différentes techniques pour obtenir une information totalement anonymisée et optimisée pour différents usages (d’où l’idée de variants). 

 Il est notamment porté par des plateformes dédiées à la sécurisation des données, comme Anonos (white paper variant twins).

Les solutions sur étagère

Dans le domaine du marketing, nous voyons par exemple l’émergence de plateformes dédiées au partage de données publicitaires respectant les contraintes réglementaires.   

À ce titre, Google lance Ads Data Hub en 2017, suivi par les solutions de Facebook et d’Amazon. Aujourd’hui, ils sont tous les trois connus comme des « data clean rooms » : soit un environnement isolé et sécurisé au sein duquel les éditeurs et annonceurs peuvent combiner, faire correspondre et analyser des ensembles de données anonymisés, tout en collaborant. 

Pour aller plus loin  

Le respect de la confidentialité des données est un défi majeur pour tous les intervenants dans un écosystème data. Il nécessite la mobilisation de tous les acteurs comme les cloud ops, cloud architects, statisticiens, data analysts et data scientists et bien sur les « data controllers », dont la présence devrait se démultiplier rapidement dans les entreprises.  

Il est important de comprendre que, bien que les solutions à mettre en œuvre soient très techniques, la bonne tactique dépend avant tout de la portée fonctionnelle de l’information et des cas d’utilisation souhaités.  

Nos experts sont à votre disposition pour établir les diagnostics sur la sensibilité de vos données et vous guider vers les bonnes stratégies d’implémentation.  

  

Rédigé par Alexander MIKHEEV, Lead Tech Engineer au sein de notre département Data Driven

Avec l’essor du numérique et le changement de comportement des consommateurs dû à la pandémie mondiale, notre client, grand acteur du secteur de la cosmétique, a dû s’adapter rapidement dans cet environnement en pleine mutation. L’enjeu : construire une Supply Chain de nouvelle génération intégrant nativement les contraintes environnementales (émission carbone, recyclage, gestion des déchets…), assurant plus de transparence sur la chaîne complète (de l’achat des matières premières à la distribution) et permettant une personnalisation plus forte des produits et services.

L’objectif de notre mission était de mettre en place une série d’indicateurs de performance permettant de donner une vision 360° sur les activités de Supply pour toutes les divisions, toutes les zones et tous les pays du monde. Cette maîtrise de l’information est essentielle afin que la direction puisse prendre les bonnes décisions, identifier les axes d’amélioration et détecter les éventuels signaux faibles.

Activités réalisées

#1 Définition et classification des indicateurs clés destinés au COMEX et au CODIR en collaboration avec la Direction Générale des Opérations et le Directeur de la Supply Chain :

  • 5 domaines analysés : clients, stocks, coûts, crédit et durabilité ;
  • 25 indicateurs identifiés dans les tops KPI stratégiques.

#2 Réalisation d’une série de workshops avec les Data Owners afin de définir les normes, définitions fonctionnelles et règles de calcul et d’identifier les sources de données adéquates :

  • 5 directeurs métiers identifiés en Data Owners ;
  • Rôles et responsabilités écrits et partagés aux 20 collaborateurs de l’équipe centrale.

#3 Intégration des cas d’usage Supply Chain dans l’un des programmes d’accélération du groupe afin de bénéficier du sponsorship nécessaire à la bonne réalisation du projet :

  • Comité du programme de la transformation digitale ;
  • Comité du programme Supply Chain ;
  • KPI program sprint review ;
  • KPI result monthly review.

Réalisation technique

  • Mise en place d’un espace de collaboration dédié au projet permettant une interaction naturelle entre les équipes techniques et les porteurs Business ;
  • Connexion directe aux sources d’information, modélisation des données (à la granularité pays) et automatisation du data processing ;
  • Mise en place d’un point d’accès unique à l’information via des tableaux de bord et des rapports dynamiques accessibles dans PowerBI et PowerBI Webapp.

Réussites

  • 25 KPI standardisés et mis en place en 7 mois ;
  • 60 rapports mis en production et automatisés dans PowerBI ;
  • Une adoption réussie en associant les 20 Data Owners à la diffusion des bonnes pratiques dans tous les pays.

Après la mission

Au-delà de la production d’indicateurs clés, cette mission à permis de casser des silos organisationnels et de permettre une collaboration “data driven” plus simple et fluide entre les porteurs business.
Une migration technologique à venir vers la plateforme Google Cloud permettra d’accéder à un niveau d’information plus détaillé et d’améliorer les performances.

Vous souhaitez en savoir plus ?

Avez-vous déjà essayé de comprendre du code source complexe et vous êtes retrouvé perdu dans un dédale de variables et de fonctions qui semblent écrites dans une langue inconnue ? Si tel est le cas, vous savez à quel point un code illisible peut être frustrant. Heureusement, il existe une solution : le clean code, une pratique de code qui peut aider les développeurs à écrire un code clair, simple et facile à comprendre. Dans cet article, nous allons vous expliquer ce qu’est le clean code, pourquoi il est important et comment vous pouvez l’appliquer à votre propre développement de logiciel. Que vous soyez un développeur chevronné ou simplement curieux de savoir comment fonctionne le code, cet article est pour vous ! 

Mais c’est quoi, le clean code ? 

Le clean code est une pratique de développement logiciel qui vise à produire du code lisible et maintenable. Il s’agit d’une approche axée sur la qualité qui encourage les développeurs à adopter des conventions de codage cohérentes et à se concentrer sur la clarté, la simplicité et la robustesse du code. 

En quoi est-ce important ? 

Le clean code permet de produire un logiciel de qualité supérieure. En écrivant du code clair, les développeurs peuvent simplifier leur travail et accélérer le processus de développement. De plus, le code propre est plus facile à tester, à déboguer et à améliorer au fil du temps, ce qui permet de garantir une meilleure qualité et une plus grande évolutivité du logiciel. En fin de compte, le clean code favorise une meilleure collaboration entre les développeurs et garantit la pérennité d’un projet. 

Les fondements du code propre : les cinq piliers du succès 

La philosophie du clean code peut-être résumée aux piliers suivants :  

1 – La lisibilité

Le code doit être facile à lire et à comprendre pour les autres développeurs. Pour améliorer la lisibilité, vous pouvez utiliser des noms de variables clairs et compréhensibles, éviter les abréviations et les acronymes obscurs, ajouter des commentaires si nécessaire et organiser votre code avec des espaces et une indentation claire. 

var x=10;y=20;if(x>y){console.log("x est plus grand que y");} 

Dans cet exemple, le code est mal formaté, difficile à lire et à comprendre. Les variables sont mal nommées et les blocs de code ne sont pas suffisamment bien formés pour apparaître au premier coup d’œil. 

const ageUtilisateur = 10; 
const ageMinimum = 18; 
 
if (ageUtilisateur < ageMinimum) { 
  console.log("Vous devez avoir au moins 18 ans pour accéder à ce contenu"); 
} 

Ici en revanche, le code est aisément lisible, avec des variables bien nommées et des blocs de code définis. Il est ainsi plus facile à comprendre pour les autres développeurs et à maintenir à l’avenir. 

2 – La simplicité

Chaque bloc de code doit être simple et élégant, sans fioritures inutiles. Pour simplifier votre code, vous pouvez utiliser des structures de contrôle de flux simples, éviter les structures de données complexes et les algorithmes compliqués et supprimer les variables inutiles. 

var x = 10; 
var y = 20; 
var result = 0; 
for (var i = 0; i < x; i++) { 
  result += y; 
} 
console.log(result); 

Dans cet exemple de mauvaise pratique, le code est plus complexe qu’il ne devrait l’être. Les variables sont mal nommées, les structures de contrôle de flux et les boucles sont utilisées inutilement pour effectuer une simple opération mathématique. 

const nombreRepetitions = 10; 
const nombreAjouts = 20; 
 
const resultat = nombreRepetitions * nombreAjouts; 
console.log(resultat); 

Dans cet exemple de bonne pratique, le code est simplifié en utilisant des variables clairement nommées et en évitant les boucles et les structures de contrôle de flux. Le code est plus facile à comprendre et à maintenir. De plus, le calcul est effectué en une seule ligne de code, ce qui le rend plus efficace. 

3 – La modularité

Le code doit être organisé en modules clairement définis, ayant des responsabilités précises. Pour rendre votre code plus modulaire, vous pouvez diviser votre code en petites fonctions réutilisables, utiliser des variables globales avec parcimonie et éviter les effets de bord (lorsqu’une fonction modifie une variable qui n’est pas passée en paramètre). 

var utilisateurs = []; 
 
function ajouterUtilisateur(nom, age) { 
  utilisateurs.push({nom: nom, age: age}); 
} 
 
function trouverUtilisateur(nom) { 
  for (var i = 0; i < utilisateurs.length; i++) { 
    if (utilisateurs[i].nom === nom) { 
      return utilisateurs[i]; 
    } 
  } 
} 
 
function supprimerUtilisateur(nom) { 
  for (var i = 0; i < utilisateurs.length; i++) { 
    if (utilisateurs[i].nom === nom) { 
      utilisateurs.splice(i, 1) ; 
      break;
    } 
  } 
} 

Dans cet exemple, toutes les fonctions manipulent une variable globale utilisateurs, ce qui rend le code difficile à comprendre et à modifier. 

class GestionUtilisateurs { 
  constructor() { 
    this.utilisateurs = []; 
  } 
 
  ajouterUtilisateur(nom, age) { 
    this.utilisateurs.push({nom: nom, age: age}); 
  } 
 
  trouverUtilisateur(nom) { 
    for (var i = 0; i < this.utilisateurs.length; i++) { 
      if (this.utilisateurs[i].nom === nom) { 
        return this.utilisateurs[i]; 
      } 
    } 
  } 
 
  supprimerUtilisateur(nom) { 
    for (var i = 0; i < this.utilisateurs.length; i++) { 
      if (this.utilisateurs[i].nom === nom) { 
        this.utilisateurs.splice(i, 1); 
        break; 
      } 
    } 
  } 
} 
 
const gestionUtilisateurs = new GestionUtilisateurs(); 
gestionUtilisateurs.ajouterUtilisateur("Jean", 30); 
const utilisateur = gestionUtilisateurs.trouverUtilisateur("Jean"); 
gestionUtilisateurs.supprimerUtilisateur("Jean"); 

Ici, nous avons défini une classe GestionUtilisateurs qui encapsule toutes les fonctions de gestion des utilisateurs. Les fonctions sont des méthodes de la classe, ce qui rend leur relation avec la classe plus explicite. Nous avons également utilisé le mot-clé this pour faire référence aux propriétés et méthodes de l’objet instancié à partir de la classe. L’utilisation d’une classe offre une abstraction plus élevée du code et facilite la réutilisation du code. La classe peut être facilement instanciée plusieurs fois, ce qui permet de gérer plusieurs listes d’utilisateurs indépendantes. 

4 – L‘évolutivité

Le code doit être conçu pour être facilement modifiable et extensible au fil du temps. Pour rendre votre code plus évolutif, vous pouvez prévoir des extensions futures, utiliser des structures de données et des algorithmes flexibles et isoler les parties du code qui sont susceptibles de changer. 

function calculerPrixTotal(articles) { 
  let total = 0; 
  for (let i = 0; i < articles.length; i++) { 
    total += articles[i].prix; 
  } 
  return total; 
} 

Dans cet exemple, la fonction calculerPrixTotal prend un tableau d’objets d’articles et calcule le prix total en additionnant le prix de chaque article. Bien que cette fonction fonctionne correctement pour le moment, elle n’est pas évolutive car elle ne prend pas en compte les futurs changements de spécifications. Par exemple, si vous souhaitez ajouter une remise ou un code promotionnel à la commande, vous devrez modifier cette fonction existante, ce qui peut entraîner des erreurs ou des bogues. 

class Commande { 
  constructor() { 
    this.articles = []; 
    this.remise = 0; 
  } 
  
  ajouterArticle(article) { 
    this.articles.push(article); 
  } 
  
  calculerPrixTotal() { 
    let total = 0; 
    for (let i = 0; i < this.articles.length; i++) { 
      total += this.articles[i].prix; 
    } 
  
    return total - this.remise; 
  } 
  
  appliquerRemise(codePromo) { 
    // logique de vérification du code promo 
    // si code valide, assigner la remise appropriée 
    this.remise = calculerRemise(codePromo, this.articles); 
  } 
} 
 
function calculerRemise(codePromo, articles) { 
 // logique de calcul de remise 
  return remise; 
} 

Ici, nous utilisons plutôt une classe Commande pour encapsuler la logique de commande, ce qui rend le code plus évolutif. La classe contient des méthodes pour ajouter des articles à la commande, calculer le prix total de la commande et appliquer une remise. La logique de calcul de remise a été extraite dans une fonction séparée, ce qui rend la classe Commande plus cohérente et facile à comprendre. Si nous voulons ajouter une nouvelle fonctionnalité à la commande, comme l’application d’une taxe de vente, nous pouvons simplement ajouter une nouvelle méthode à la classe Commande sans avoir à modifier la logique existante. Cela rend le code plus évolutif et plus facile à maintenir à long terme. 

5 – La robustesse

Le code doit être résistant aux erreurs et aux pannes et capable de gérer les situations imprévues de manière élégante. Pour cela, il est important de prévoir les cas d’erreurs et de les gérer de manière adéquate, de valider les entrées de l’utilisateur et de gérer les exceptions de manière appropriée. Un code robuste est capable de faire face à des situations imprévues sans plantage et de fournir des informations d’erreur claires et précises pour aider les utilisateurs à comprendre les problèmes rencontrés. 

function division(a, b) { 
  return a / b; 
} 

Dans cet exemple, si la variable b est égale à zéro, une erreur de division par zéro se produira. Cette erreur peut causer des plantages imprévus et des comportements indésirables du programme. 

function division(a, b) { 
  if (b === 0) { 
    throw new Error('Division par zéro impossible'); 
  } 
  return a / b; 
} 

Dans cet exemple, nous avons ajouté une vérification pour éviter la division par zéro. Si la valeur de b est égale à zéro, nous levons une exception avec un message clair pour informer l’utilisateur du problème. Ainsi, le programme ne plante pas et l’utilisateur est informé du problème. 

Le Clean Code, c’est donc penser à long terme

La qualité du code est une préoccupation constante pour tout développeur soucieux de produire des logiciels de qualité. Le clean code fournit des principes et pratiques qui permettent d’écrire du code clair, simple, lisible et facilement évolutif. En respectant ces principes, les développeurs peuvent créer des programmes durables, efficaces et évolutifs et ainsi contribuer à l’amélioration globale de la qualité du code dans leur entreprise ou leur communauté de développement.

En somme, le clean code est un moyen de travailler plus intelligemment et de créer des logiciels de qualité supérieure pour répondre aux besoins des utilisateurs finaux. L’adoption de ses pratiques est essentielle pour tout développeur qui souhaite améliorer sa productivité, son efficacité et son impact dans le domaine de la programmation.

Vous souhaitez en savoir plus ? Contactez notre équipe de développeurs à la Factory !

Rédigé par Daniel Azevedo, Manager et Lead Developer à la Factory 

À peine quatre mois après sa disponibilité auprès du grand public, Chat GPT 3 publié par Open AI a occasionné un fantastique coup de projecteur sur un champ particulier de l’intelligence artificielle : l’IA générative.

Martin Alteirac, Manager en charge des activités d’intelligence artificielle chez Saegus, dresse le bilan de ces derniers mois et dessine les premières perspectives concrètes en termes d’usages en entreprise de ces technologies.

4 mois après la présentation de Chat GPT par Open AI, qu’en retiens-tu ?

Tout d’abord, il est très intéressant de voir comment OpenAI a réussi, sur la base de différentes briques technologies préexistantes sur lesquelles de nombreuses autres sociétés tech travaillent, à créer un service disruptif qui génère à très court terme un engouement et une adoption massive.

ChatGPT a atteint les 100 millions d’utilisateurs mensuels actifs à peine 2 mois après sa publication, là ou Instagram a mis 2 ans et demi et TikTok presque un an pour atteindre un tel niveau d’adoption.

Cette réussite tient évidemment à la performance des différentes briques technologiques, mais surtout à mon sens à leur intégration dans une interface simple d’utilisation dont tout un chacun peut se saisir pour des usages du quotidien.

Il est également intéressant de voir à quel point cette large adoption a permis à ces technologies d’être utilisées dans des contextes et pour des usages que même ses créateurs n’avaient pas imaginés. C’est cette adoption à grande échelle qui permet de mesurer à quel point les LLM (Large Language Models) peuvent réaliser des tâches complexes et diverses à condition qu’on sache comment les utiliser.

Comment vois-tu la propagation de ces technologies dans notre quotidien ?

Je pense que trois grands types d’usages vont se démocratiser dans les prochains mois :

  • Le premier type d’usage est l’usage grand public : dans les mois à venir, il est probable qu’OpenAI parvienne à entrainer des modèles toujours plus grands sur des données toujours plus récentes, et que ce type de technologie parvienne à faciliter et accélérer la recherche et la création de contenus à partir de données publiques et typiquement remplacer à terme les moteurs de recherche,
  • Le deuxième type d’usage me semble être plutôt “bureautique” : il est quasiment certain que les capacités de synthèse et de génération de texte de ces IA vont devenir les meilleurs alliées de nos tâches récurrentes du quotidien – gestion des emails, création de contenu corporate ( présentations powerpoint, documents word… ) ;
  • Enfin, de nouveaux cas d’usages vont émerger : des cas d’usages où les équipes Data vont s’emparer des différentes briques technologiques qui constituent un outil comme Chat GPT pour développer de nouveaux cas d’usages internes. Il faudra pour ces cas d’usages apprendre à compléter le « savoir » de Chat GPT pour que ses réponses soient pertinentes dans un contexte d’entreprise, tout en préservant la confidentialité des données utilisées.

C’est sur ce troisième type d’usage que nos équipes travaillent aujourd’hui principalement.

À propos de ces usages spécifiques, peux-tu nous en dire plus sur les travaux en cours ?

Notre premier axe est centré sur la formation de nos équipes et la préparation de plusieurs démonstrateurs permettant de faciliter l’évaluation de la capacité de ces technologies à répondre à des problématiques dans un contexte d’entreprise. Ces démonstrateurs illustrent la performance de ces IA génératives en combinant plusieurs options :

  • Utilisation de données structurées au sein de systèmes d’information ou utilisation de données non-structurées (fichiers PDF ou word…) ;
  • Enrichissement du contexte d’une requête ou fine-tuning des modèles existants grâce aux données récoltées.

En se basant sur ces techniques, il devient possible d’utiliser un chatbot pour des usages internes sans partager de données sensibles avec OpenAI, notamment dans le domaine de l’analyse de contenus texte volumineux :

  • Avis clients sur une plateforme e-commerce ;
  • Verbatims envoyés à un service client pour demander du support ;
  • Documentation interne sous forme de procédures ou contrats, par exemple.

Le deuxième axe est plutôt destiné à compléter notre expertise en développement de produits et solutions d’intelligence artificielle grâce à l’utilisation de modèles pré-entrainés. C’est le deuxième changement majeur induit par ces nouveaux acteurs : la tendance de plus en plus répandue à ne pas systématiquement développer et entrainer des algorithmes custom mais à utiliser des modèles prédéveloppés.

Ce nouveau pan de l’intelligence artificielle va ouvrir la voie à une pratique plus collaborative de l’intelligence artificielle grâce à laquelle des communautés vont collaborer pour mettre à disposition du public des modèles généralistes très performants mais dont on va devoir apprendre à compléter l’apprentissage pour l’adapter à un contexte d’entreprise précis.

Vous souhaitez en savoir plus ?

Saegus est convaincu que la meilleure façon de former et d’accompagner les équipes est de les immerger dans la pratique et les expériences concrètes. C’est pourquoi nous avons imaginé un événement unique et axé sur la pratique pour accélérer l’adoption de Miro auprès de nos consultant·es.

L’ambition de la Miro Week ? Proposer une expérience gamifiée, ludique et engageante pour permettre aux consultants :

  • D’adopter et explorer l’outil de manière accélérée, peu importe leur profil et niveau de maturité ;
  • De recevoir un accompagnement personnalisé selon les besoins de chaque expertise.

Cet événement trouve sa place dans la lignée d’un partenariat entre Saegus et Miro visant à créer des synergies au service des équipes, à explorer les nouveaux usages et à co-construire les nouvelles pratiques de collaboration. Auprès de nos clients, nous sommes ainsi capables de mieux répondre aux enjeux de collaboration et d’être plus innovants dans les formats de collaborations visuelles. Pour en savoir plus sur ce partenariat, c’est par ici.

La Miro Week : how to

Organisé en quatre temps, l’évènement était animé par des temps d’échange entre les consultant·es et les équipes de Miro portant sur les cas d’usages, les fonctionnalités et les astuces d’utilisation de la plateforme. Le plus ? Chacun·e a pu partager ses expériences et conseils découverts au fil de ses missions avec les membres de l’équipe.

Nos équipes ont également rythmée la semaine par des challenges et tips destinés aux saegusien·nes.

Faire ou refaire découvrir Miro de manière ludique et apprenante : telle était l’ambition de l’évènement. C’était important pour nous de démarrer ce nouveau partenariat par un évènement marquant chez Saegus et l’objectif est réussi ! Nous souhaitions créer plus de lien entre nos équipes et celles de Miro et aller plus loin dans la découverte d’usages collaboratifs. C’était aussi un très bon moyen d’identifier les différents besoins d’accompagnement sur l’outil. Je recommande à toute entreprise qui souhaite faire adopter Miro en interne de démarrer par une Miro Week 

Chloé Berthier, Consultante Acceleration Tactics chez Saegus

Au programme de cette semaine, proposée en présentiel et à distance pour permettre au plus grand nombre d’y participer :

  • Jour 1 : session de lancement avec une présentation du partenariat et de Miro et lancement des challenges ;
  • Jour 2 : retours d’expériences par des expert·es Saegus ;
  • Jour 3 : retours d’expériences par des expert·es Saegus & clôture des challenges ;
  • Jour 4 : clôture de la Miro Week, annonce des gagnants des challenges et remise des cadeaux.

Quelques exemples d’activités proposées :

  • 1 session de lancement et 1 session de clôture
  • 1 présentation de Miro par l’équipe Miro France
  • 2 challenges gamifiés permettant aux participants d’explorer l’outil et de gagner des lots
  • 4 d’expériences de la part d’experts de chaque département ayant utilisé Miro en mission
  • 2 tips partagés chaque jour partagés sur tous les canaux (Teams, écrans phygitaux,..)
  • Plus de 20 lots à remporter

Les sessions keynote

En ouverture de l’événement, nous avons eu le plaisir d’accueillir les équipes de Miro France, qui ont présenté aux saegusien·nes la plateforme et la roadmap des nouvelles fonctionnalités en avant-première.

Des retours d’expérience par expertises

Les saegusien·nes ont pleinement pris part à cet événement en proposant leurs retours d’expérience sur des usages de l’outil, comme :

  • Animer et faciliter un hackathon d’innovation de deux jours sur Miro à l’appui d’une expérience gamifiée ;
  • Cadrer un atelier sur Miro pour engager la transformation digitale des outils de collaboration et communication en utilisant des fonctionnalités comme le brainstorming ou la priorisation ;
  • Cadrer, itérer et valider une gouvernance de la donnée via une suite d’ateliers sur Miro ;
  • S’appuyer sur Miro pour passer de l’idée à un prototype testable en utilisant des outils comme le mindmapping, le prototypage ou le story mapping.

J’ai été convié pour intervenir à la Miro Week sur un retour d’expérience d’une mission. Le sujet ? Préparer, faciliter et restituer un Hackhaton d’innovation sur Miro et de manière gamifiée. Notre intervention à la Miro Week a été une opportunité exceptionnelle de partager nos réalisations, notre retour d’expérience ainsi que les supports de travail Miro que nous avons réalisés et dont nous sommes fiers. Pour les saegusiens, c’était une bonne occasion de découvrir les fonctionnalités avancées de l’outil et de s’en inspirer pour leurs propres projets.

Huanxu Liu, Consultant Acceleration Tactics chez Saegus

Des challenges gamifiés

Pour challenger nos consultant·es – qui ont le sens du défi -, nous leur avons proposé deux challenges : un quizz et la “meilleure vitrine Miro”, regroupant les plus beaux tableaux et visuels créés par nos équipes. Voici quelques exemples de leurs plus belles réalisations :

Cette semaine a permis aux équipes d’aller plus loin dans l’usage de Miro. Les différents cas d’usages partagés lors de la semaine ont aidé à comprendre les nombreuses possibilités offertes par la plateforme. Les saegusien·nes ont également eu l’opportunité d’échanger avec les équipes de Miro sur les meilleures pratiques pour utiliser l’outil de manière efficace.

Nous sommes ravis de travailler avec Saegus et de jouer un rôle qui permet au Saegusiens de continuer à innover non seulement dans leurs projets quotidiens mais aussi chez leurs clients. La collaboration avec Saegus a apporté de nombreux avantages à notre entreprise, tels que l’amélioration de notre offre de produits et services, le développement de notre marché et une augmentation de la marque Miro auprès de notre public cible en France. Leur équipe est extrêmement compétente et dévouée, travaillant en étroite collaboration avec nous pour répondre à nos besoins et objectifs spécifiques. Leur engagement envers l’excellence et la satisfaction de leurs clients est exemplaire, et nous sommes fiers de faire partie de leur réseau de partenaires.

Florence Le, Strategic Marketing France chez Miro

La suite des aventures entre Saegus et Miro ?

Nous ne nous arrêtons pas là ! Pour continuer cette belle aventure, nos équipes ont créé un plan de suivi et d’événements pour maintenir l’engouement généré par la Miro Week.

En interne, l’objectif est de continuer à partager des assets Miro aux saegusien·nes pour qu’ils·elles puissent d’explorer de nouveaux usages en continu, sous la forme de fiches conseils et tips, ou de partages sur la roadmap d’évolution de la plateforme par exemple. Un parcours de formation complémentaire a été proposé à tou·tes à la suite de cet événement.

La suite : animer des meet-up sur les usages et fonctionnalités de Miro, des évènements internes… et bien plus encore !

Cet évènement vous intéresse ?

À propos de Saegus

Saegus s’est donné pour mission de faire découvrir, essayer et adopter le meilleur des usages du digital, et créer des approches uniques et innovantes centrées sur les utilisateurs pour résoudre les problématiques complexes de ses clients.  

Pour un savoir plus : https://saegus.com/fr/

À propos de Miro

Miro est une solution de tableau blanc collaboratif proposant une multitude de fonctionnalités et répondant à de multiples besoins d’équipes : réunions, ateliers, brainstorming, workflows agiles, UX design, mind mapping…

Pour en savoir plus : https://miro.com/app/dashboard/

Alors que les entreprises tentent de s’organiser pour répondre aux nouvelles exigences règlementaires en matière de reporting environnemental, la donnée est au cœur de cet enjeu. Savoir l’utiliser est crucial pour mesurer finement son empreinte environnementale, construire et appliquer une stratégie de diminution de cette empreinte, puis vérifier l’efficacité des initiatives mises en œuvre.

Martin Alteirac, responsable de l’offre Data for Sustainability de Saegus, et Édouard Neuville, Head of Academics d’Albert School, nous proposent leur vision de ce qui s’annonce comme un métier d’avenir : Emission Data Analyst.

Comment définir simplement le métier d’Emission Data Analyst ?

Édouard Neuville : l’Emission Data Analyst, c’est celui ou celle qui est capable de mesurer l’impact environnemental d’une fonction de l’entreprise et d’identifier des leviers d’actions pour réduire cette empreinte. Grâce à la puissance de la data, il·elle le fait plus précisément et rapidement. L’Emission Data Analyst est le principal enabler de la croissance durable de l’entreprise.

L’Emission Data Analyst est-il un Data Analyst comme les autres ?

Martin Alteirac : non ! Là où la mission d’un·e Data Analyst polyvalent·e consiste en général à implémenter des règles définies par les métiers pour construire des indicateurs dont la définition varie en fonction des entreprises, secteurs ou fonctions, l’Emission Data Analyst tient compte d’un cadre règlementaire plus contraint.

Toutes les entreprises vont devoir ces prochaines années avoir la capacité de mesurer de plus en plus précisément leur impact environnemental. Pour ce faire, elles vont devoir choisir d’utiliser un protocole ou standard de mesure auquel l’Emission Data Analyst devra se référer.

Quels sont les postes d’émission à mesurer ? Comment les mesurer ? Quelles données de référence utiliser ? Savoir répondre à ces questions permettra à l’Emission Data Analyst de participer à l’évaluation de l’impact environnemental d’une entreprise tout en garantissant la conformité des calculs et analyses effectués avec la règlementation en vigueur et les standards applicables.

De quelles compétences spécifiques va-t-il falloir doter ces Emission Data Analysts pour qu’ils·elles puissent opérer ?

Édouard Neuville : l’Emission Data Analyst est l’incarnation du métier hybride à un triple égard :

  • Data : être à l’aise avec la manipulation de données (ex : savoir coder), de la constitution d’un modèle unifié de données jusqu’aux Data Sciences exploratoires et modélisation avancées de machine learning ;
  • Business : saisir les enjeux business de l’entreprise et identifier en particulier les leviers opérationnels à activer pour réduire les émissions sans dévaloriser le P&L (Profit&Loss) ni nuire au modèle opérationnel ;
  • Durabilité : maîtriser le cadre règlementaire, comprendre les facteurs d’émission et les frameworks de mesure d’empreinte.

C’est aujourd’hui un métier très data, mais amené à évoluer davantage vers un métier IA.

Quelles seront les missions de ces Emission Data Analysts en entreprise ?

Édouard Neuville : les missions de l’Emission Data Analyst varieront essentiellement en fonction de la taille de l’entreprise, et de sa maturité sur les sujets environnementaux. Elles ont toutes pour dénominateurs communs :

  • La mesure : imaginer et mettre en œuvre les modèles de calcul d’émission à l’échelle de l’entreprise, de la collecte de la donnée jusqu’au reporting de KPIs ;
  • La réduction : contribuer à l’élaboration d’une stratégie de durabilité, en particulier en matière de décarbonation, en mettant en œuvre des modélisations d’impact grâce à la data et à l’IA.

Martin Alteirac : tout à fait ! Pour donner quelques exemples concrets, voici les missions les plus fréquentes chez nos clients :

  • À propos de la mesure : le bilan carbone tel qu’il est généralement réalisé aujourd’hui est une photographie de l’empreinte environnementale à un instant T – pas encore un outil de travail du quotidien permettant à l’ensemble des acteurs de l’entreprise de prendre en compte les critères de durabilité dans leur quotidien. Digitaliser et automatiser ce reporting en déployant des solutions spécialisées dans l’analyse des données environnementales est une attente répandue chez nos clients.
  • À propos de la réduction : la modélisation d’impact est un domaine dans lequel nous sommes régulièrement sollicités, particulièrement dans le secteur énergétique. Une fois une stratégie d’efficacité énergétique mise en place, mesurer son impact en distinguant dans les évolutions de consommation ce qui relève des actions mises en œuvre de ce qui relève de causes extérieures (aléas climatiques, évolutions opérationnelles…) fait appel à un savoir-faire algorithmique très particulier.

Vous souhaitez vous former au métier d’Emission Data Analyst ? Saegus recrute des Emission Data Analysts en alternance, en partenariat avec le master Data for Sustainability d’Albert School.

Pour découvrir notre offre d’alternance : https://bit.ly/3lYMpfZ

Les analystes marketing s’appuient sur les données depuis longtemps pour gérer leurs campagnes, étudier les comportements clients ou proposer des services de fidélisation.

Mais plusieurs changements majeurs, sociétaux et technologiques les amènent à repenser leur stratégie et adapter leur organisation. En effet, la crise du COVID a fait prendre conscience aux entreprises de la nécessité de s’adapter très vite à de nouveaux usages (digitalisation des échanges, développement du e-commerce, changement brutal des habitudes de consommation, renforcement de l’influence des média sociaux…) pour capter une nouvelle clientèle et fidéliser l’historique.

Cela a contribué au développement rapide de nouvelles solutions à même de capter les tendances (digital consumer intelligence) ou de toucher la bonne cible au bon moment, sur le bon canal, avec le bon produit (programmatic advertising).

La difficulté grandissante est de capter le bon moment, de plus en plus volatile et fortement dépendant du canal ; encore complexifié par l’émergence perpétuelle de nouvelles technologies (Web 3.0, métavers) auxquelles il faut s’adapter.

L’analyse statistique ne suffit plus. Le succès des opérations marketing repose sur la rapidité d’exécution, voire l’anticipation et la prédiction des comportements d’achats avec un recours de plus en plus massif à l’intelligence artificielle – et pourtant, selon un baromètre mené par le cabinet Accenture en 2022, seules 12% des entreprises ont atteint un niveau de maturité suffisant sur l’IA pour accélérer leur croissance, alors que 60% n’en sont qu’à un stade expérimental. (source : IT for Business)

Quels sont les obstacles ?

De prime abord, la première complexité est de comprendre comment utiliser ces nouvelles technologies dans le riche écosystème du marketeur : identifier les nouveaux usages, leur associer le bon levier – “à quoi peut me servir Chat GPT ?” “Comment intégrer de l’IA prédictive sur les comportements d’achats ?” – et les mettre en œuvre.

Une analyse plus approfondie amène souvent au même constat : avant d’être “IA ready”, êtes-vous “data ready” ?

Renforcer les fondements stratégiques de la data

En effet, utiliser des composants innovants comme l’intelligence artificielle nécessite au préalable de maîtriser le cycle de vie de ses données : de l’acquisition (de plus en plus en temps réel), la mise en qualité (data quality management), l’identification et la cartographie des données utilisables ou nécessaires (data cataloging), à l’exposition et la mise à disposition industrialisée de ces données pour des solutions consommatrices internes ou tierces (analyse de sentiment, gestion de campagnes, real-time advertising…).

Comment gérer plus de 100 activités marketing en temps réel ?

C’est tout simplement impossible. Les approches traditionnelles ne sont plus suffisantes. Les campagnes devant être de plus en plus personnalisées (à l’individu, au canal, produit ou marché…) et le temps propice à la conversion en acte d’achat de plus en plus cours, il est indispensable de réagir en quasi-temps réel, voire de devancer l’acte d’achat par des campagnes innovantes.

Sur ces usages avancés, l’intelligence artificielle peut être utilisée pour automatiser la génération de campagnes ultra-personnalisées ayant un impact significatif sur le taux de conversion.

Nos retours d’expériences et connaissance des leviers technologiques à mettre en œuvre nous amène à évaluer et accompagner la transformation data marketing de nos clients sur quatre domaines clés :

  • Campaign intelligence : pour améliorer votre taux de conversion ;
  • E-boutique intelligence : pour améliorer votre CPA (cost per action) ;
  • Product intelligence : pour améliorer votre CSAT, NPS et réduire le churn ;
  • Consumer intelligence : pour optimiser votre CLV.

Vous souhaitez comprendre votre état de maturité et opter pour la bonne stratégie Data Marketing ? Rencontrez notre expert qui vous aidera à établir une démarche appropriée pour gérer vos données, identifier les cas d’usages prioritaires et réussir l’intégration de solutions d’intelligence artificielle.

Rédigé par Tanasit Mahakittikun, Responsable Data Marketing au sein de notre département Data Driven

Quels que soient leurs tailles et domaines d’activités, quasiment toutes les entreprises ont placé l’utilisation de la donnée au cœur de leur stratégie. Pourtant, très peu d’entre elles ont réussi à faire le lien entre la définition d’une stratégie “Data-Driven” théorique et sa mise en application concrète sur le terrain.

Dans un précédent article (accessible via ce lien), nous avions décrit les freins à l’épanouissement des usages de la donnée dans les organisations et mis en évidence que ces derniers étaient principalement d’ordre culturel. Cet état de fait, aux côtés de nos différents retours d’expérience, ont forgé notre conviction qu’il est nécessaire d’intégrer une démarche inclusive dans la mise en place de projets Data.

Pour ce faire, nous avons développé un framework particulièrement performant pour satisfaire cette inclusivité : le Data Thinking. S’inspirant du Design Thinking – méthodologie présentée dans la section suivante, le Data Thinking est détaillé dans cet article, notamment son principe, ses objectifs, ses avantages, ses méthodologies et ses outils.

Qu’est-ce que le Design Thinking ?

Le Design Thinking est une méthode de gestion de l’innovation développée par Rolf Faste dans les années 1980. Il place l’utilisateur au centre des réflexions – selon une approche “user-centric” –, qui sont menées par des équipes représentant la diversité des disciplines mobilisées par la problématique étudiée.

Suivant une succession d’étapes et d’ateliers, l’objectif est d’aboutir rapidement à un prototype reflétant la priorisation des idées générées collectivement. Les principaux ingrédients du Design Thinking sont : l’empathie, la créativité, la co-création, l’itération, le prototypage, le bon sens et surtout l’intelligence collective.

Qu’est-ce que le Data Thinking ?

Le Data Thinking repose sur de jeunes notions. Le terme apparait pour la première fois en 2013 dans un ouvrage de Mario Faria et Rogrio Panigassi. Son ambition est de conjuguer la valorisation des données et les réflexions sur l’expérience utilisateur portées par le Design Thinking. Cette méthodologie se déploie dans un cadre Data holistique – c’est-à-dire à multi-dimensions et échelles.

Nous l’avons évoqué, les valeurs du Design Thinking sont particulièrement pertinentes pour adresser les freins culturels à l’adoption à échelle de la Data. De fait, le Data Thinking permet de co-construire des trajectoires créatives intégrant de nouvelles technologies et/ou de nouveaux usages s’appuyant sur les données et l’intelligence collective.

Selon une approche globale (métier, organisationnelle et technique), elle met les consommateurs et problématiques business au cœur de la Data pour accélérer la valorisation des données (à l’appui de la gouvernance de la donnée, de la business intelligence, de la data science…).

Les objectifs du Data Thinking

Le Data Thinking peut se décliner en une série d’objectifs couvrant les dimensions qu’il recouvre :

  • Identifier les processus business pouvant bénéficier d’une valorisation des données et renforcer ainsi l’empreinte fonctionnelle des solutions envisagées s’appuyant sur des leviers techniques ;
  • Détecter et qualifier les périmètres de données exploitables (accessibilité, représentativité, fiabilité, complétude…) ;
  • Anticiper et adresser les éventuels freins techniques sur la collecte et le traitement des données, et l’éventuelle phase de modélisation ;
  • Explorer les assets Data pour préciser d’éventuelles intuitions business ;
  • Définir dès le début d’un projet les KPIs qui permettront de valider l’approche et mesurer l’impact associé ;
  • Décrire les décisions et actions qui peuvent être menées consécutivement dans le prolongement de la démarche ;
  • Faciliter et planifier le cycle de vie des projets, depuis la phase initiale d’idéation et de cadrage (s’appuyant sur le Data Thinking) jusqu’à l’exploitation durable de produits.

Comme précédemment évoqué, il faut insister ici sur l’importance d’adopter une approche holistique, au-delà des seuls aspects techniques et fonctionnels. Les enjeux du business, des données, des technologies et des algorithmes y seront discutés, aux côtés des enjeux de stratégie et de leadership, des compétences et des rôles, de la culture et des méthodes de travail, des modèles opérationnels et des processus associés (coordination, communication, interfaces, etc.), des gestions de communautés…

C’est l’écosystème qu’il faut considérer dans son ensemble pour garantir des fondations solides aux projets qui émergeront de cette démarche.

Les avantages du Data Thinking

Voici une liste non-exhaustive des principaux bénéfices notables du Data Thinking :

  • Contribue à la définition d’une vision globale et éventuellement d’une roadmap ;
  • Améliore la satisfaction des utilisateurs de données et de l’utilisateur final ;
  • Réunit les parties prenantes, leurs compétences et les composantes d’un projet Data dès les prémices de projets ;
  • Concrétise rapidement les projets, permettant de tester les résultats et obtenir des feedbacks dans des délais courts ;
  • Sécurise la démarche à moindres risques (investissement sur des temps courts) via une approche  systématique et standardisée pour couvrir un maximum de problématiques et réduire les angles morts ;
  • Couvre tant des enjeux qualitatifs, notamment via le processus d’idéation stimulant l’innovation, que quantitatifs grâce à des chiffrages viabilisant les perspectives ;
  • Met en place une logique d’amélioration continue pour l’exploitation des données d’une entreprise grâce à la capitalisation de ses précédentes tentatives à un niveau transversal ;
  • Crée des données “intelligentes” et “intelligibles” en combinant les enrichissements qu’apportent la machine avec l’entendement humain.

Ensemble réunis, ces éléments contribuent au renforcement de l’adoption de la culture Data au sein des organisations et favorise la réussite des projets de valorisation de données.

La méthodologie et les outils du Data Thinking

Notre méthodologie de Data Thinking s’appuie sur sept étapes qui ont naturellement des points communs avec celles du Design Thinking. Elles prennent la forme d’une succession d’ateliers accueillant les représentants de toutes les parties prenantes, selon l’ordre suivant :

Comprendre

Il s’agit de comprendre le contexte business dans lequel s’inscrit la démarche. Comment ? En collectant les retours des parties prenantes, en réalisant des ateliers d’analyses (espoirs et craintes, carte des intervenants, cartes de l’empathie des personaes, recherche et parcours utilisateur) ou en vulgarisant le rôle et les usages de la Data auprès des participants non-techniciens. L’objectif est d’aligner la compréhension des problématiques métiers envisagées avec de nouvelles perspectives et des leviers Data activables dans l’absolu.

Observer

Les différentes ressources disponibles voire non-disponibles mais nécessaires sont explorées au cours de cette phase. Pour les données par exemple, cela peut prendre la forme d’un atelier de cartographie ou d’une étude des solutions clé-en-main disponibles sur le marché. Les éléments contextuels découlant de la phase « Comprendre » et « Observer » alimentent la Carte Environnement.

Idéer

Cette étape est critique : l’objectif est de « brainstormer » pour produire des idées à l’aide de techniques d’idéations inspirées de l’existant, de l’état de l’art, de l’expertise des « Data practitioners » et de notre accompagnement.

Prioriser

Il s’agit de faciliter le processus de priorisation de la solution en s’appuyant sur des critères de désirabilité, faisabilité et viabilité. Pour cela, notre Matrice de Priorisation permet d’identifier visuellement les opportunités à privilégier selon ces critères.

Définir

Une fois la solution identifiée, il faut définir les briques qui la constitueront. Par exemple, il est possible de réaliser un proto-data model représentant les données exploitées au long des traitements et le lineage correspondant. Il est également nécessaire d’identifier les KPIs qui permettront de mesurer le succès de la démarche et suivre les résultats (procéder si nécessaire à une analyse de coût bénéfice). Tous les composants sont référencés dans le template de Fiche d’Identité Solution.

Prototyper

Grâce à la précision des constituants de la solution, il s’agit de créer un prototype de celle-ci pour décrire explicitement à quoi correspondrait un MVP. La question des interfaces est particulièrement importante dans cette démarche (tableau de bord, data viz…). L’implémentation du prototype se fait dans une démarche lean et peut être complétée d’un story board.

Tester

En s’appuyant sur le prototype, il s’agit de simuler l’exploitation de la solution devant conduire à des prises de décisions et actions s’inscrivant dans des scénarios. Cette étape consiste aussi à projeter l’exploitation des KPIs et le pilotage de la solution. Les tests sont réalisés avec les parties prenantes cibles pour qu’elles puissent s’approprier la solution et formuler des retours. Le livrable type est un portefeuille de scénarios d’usages et une grille de retours des testeurs.

Pour garantir le succès de ce parcours pragmatique et prolifique, nous avons mis en place des outils standardisés permettant de structurer qualitativement et accélérer efficacement son déroulement. Notre méthodologie est adaptable à tout contexte, et selon les particularités de l’écosystème concerné il est possible de réduire comme d’augmenter tout ou partie du programme. Par exemple, les étapes de prototypage et de testing peuvent être omises dans la démarche de Data Thinking pour être plutôt envisagées dans une démarche en aval, au sein d’une méthodologie Lean Data dans le cadre d’un PoC.

Intégrer le Data Thinking dans une démarche globale

Puisqu’elle permet d’identifier de nouvelles opportunités de valorisation de données, au sein d’une démarche inclusive, cette méthodologie doit s’inscrire dans une dynamique macroscopique décrivant le cycle de vie des projets ou produits, ainsi que la gestion globale de ces assets au niveau de l’organisation. L’adoption à l’échelle d’une culture Data et de ses artefacts n’en est que renforcée.

Le Data Thinking permet de formaliser et prioriser des opportunités ; il faut ensuite les convertir en produits. Il est important d’aborder cette phase avec de la rigueur et des éléments structurants, en mettant en place une démarche de Product Thinking par exemple. Cette séquence sera elle-même suivie d’une phase d’industrialisation répondant aux enjeux opérationnels (DevOps, DataOps, MLOps…).

Une vision translationnelle garantit donc le succès des projets Data ; c’est l’une des valeurs constituant le cœur de l’accompagnement que Saegus propose à ses clients. À ce titre, cette démarche s’applique parfaitement au contexte du Data Marketing, ce qui nous a permis de formaliser une offre dédiée à ses enjeux.

Vous souhaitez en savoir plus ?

Rédigé par Clément Moutard, Manager au sein de notre département Data Driven

Saegus a l’honneur d’annoncer en ce début d’année 2023 un nouveau partenariat avec l’un des principaux acteurs du cloud : Google Cloud.

Martin Alteirac, Responsable des offres Intelligence artificielle chez Saegus, nous présente les coulisses de la mise en place de ce partenariat et les nouvelles perspectives qu’il offre à Saegus et ses clients.

Pourquoi conclure un partenariat avec Google Cloud aujourd’hui ?

Ce partenariat avec Google Cloud acte la montée en compétences, entamée il y a plusieurs années déjà, de nos équipes sur les technologies Google Cloud. Nos data engineers, data scientists et data analysts accompagnent au quotidien nos clients sur les technologies Google Cloud. Il était donc naturel pour nous de chercher à concrétiser nos expertises technologiques par un partenariat.

Comment se matérialise ce partenariat ?

Nous allons amplifier la dynamique de certification de nos équipes : notre objectif est évidemment de continuer à faire monter en compétences les plus experts d’entre eux sur les technologies les plus pointues mais aussi d’augmenter la part de nos équipes formées aux produits Google Cloud, pour accroître nos capacités à répondre aux besoins de nos clients et ceux de Google.

Nous adaptons également notre portefeuille d’offres à l’environnement Google Cloud pour permettre aux clients de Google de profiter de nos expertises techniques (modernisation de stacks technologiques data, gouvernance des données ou intelligence artificielle) et de notre expérience en gestion de projets plus stratégiques comme l’optimisation des opérations, la monétisation des données ou le data marketing.

Quelles sont les perspectives à plus long terme ?

Notre objectif à long terme est d’aider nos clients à concilier deux tendances de fond qui peuvent sembler contradictoires au premier abord :

  • L’accélération des usages de l’IA, comme en témoigne l’intérêt grandissant des entreprises pour l’IA générative (ChatGPT…) ou les avancées régulières et significatives dans le domaine de l’informatique quantique ;
  • L’urgence écologique qui nous presse à engager la transformation des entreprises vers un modèle plus durable et nous oblige collectivement à nous poser la question de l’empreinte écologique de ces technologies.

Nous sommes persuadés que le cloud est un outil indispensable pour concilier l’augmentation de la consommation de technologies tout en optimisant l’empreinte écologique des entreprises, notamment celles s’étant engagées dans un plan de mesure et réduction de leurs émissions de gaz à effet de serre.

En tant qu’acteur de référence sur la data, ce partenariat avec Google Cloud acte de notre capacité à accompagner un nombre grandissant d’entreprises à relever leurs défis d’aujourd’hui et de demain.

Vous souhaitez en savoir plus sur notre capacité à accompagner vos projets stratégiques sur Google Cloud ?

Rédigé par Martin Alteirac, Responsable Intelligence artificielle au sein de notre département Data Driven

Des champs d’application bien différenciés

Les mots “corrélation” et “causalité” sont souvent utilisés de manière égale, bien qu’ils aient des significations très différentes.

  • La corrélation indique une relation : deux variables sont corrélées lorsqu’elles affichent une tendance à la hausse ou à la baisse.
    Exemple : la consommation de mozzarella est corrélée au nombre de doctorats en ingénierie civile, mais l’un n’est sûrement pas la cause de l’autre. 
  • La causalité caractérise un lien de cause à effet. La cause est en partie responsable de l’effet et l’effet dépend en partie de la cause.
    Exemple : une nourriture trop sucrée peut être une des causes de surpoids. 

La corrélation étant une interprétation statistique déjà largement décrite, nous nous attacherons ici à partager quelques champs d’application de l’analyse de causalité, et plus particulièrement le mécanisme d’inférence causale

L’inférence causale est un processus visant à tirer une conclusion entre le lien de causalité et les conditions d’occurrence d’un effet. 

La méthode “logique” pour décrire ce processus est simple :  

  • Il s’agit dans un premier temps d’identifier le “champ des possibles”, c’est-à-dire les variables descriptives liées aux causes potentielles ; 
  • Dans un second temps, de comprendre l’influence de ces causes sur la variable d’effet (ou variable target), et plus exactement le lien de causalité à partir des conditions d’occurrence d’un effet ; 
  • Une fois ce lien établit, il est alors possible d’utiliser cette connaissance pour réaliser des analyses prescriptives

Note : rappel des niveaux de maturité  

  1. Aucune analyse : on parle ici des entreprises n’ayant pas de processus analytique en place ; 
  1. Analyse descriptive : nous permet de savoir ce qu’il s’est passé en rassemblant et visualisant les données historiques ; 
  1. Analyse de diagnostic : identifie les modèles et dépendances dans les données disponibles, c’est-à-dire explique pourquoi quelque chose s’est produit ; 
  1. Analyse prédictive : crée des prévisions probables de ce qui se passera dans le futur, en utilisant des techniques de Machine Learning pour exploiter de gros volumes de données ; 
  1. Analyse prescriptive : fournit des options d’optimisation, une aide à la décision et des informations sur la manière d’obtenir le résultat souhaité. 

Initialement les principaux champs d’application de l’inférence causale étaient scientifiques : économie, médecine, biologie, génétique, sciences sociales… Aujourd’hui, son usage se généralise pour toucher des secteurs divers comme l’industrie du jeu, le retail ou l’e-commerce, ou plus généralement les applications liées aux “jumeaux numériques” (Digital Twin) dont l’objet est de créer des simulations numériques de phénomènes complexes.

Les limites d’une démarche expérimentale

L’analyse de causalité est un domaine qui se prête particulièrement bien à l’expérimentation, dans une approche purement scientifique. 

  • Le phénomène étudié est d’abord reproduit dans plusieurs environnements dans des conditions identiques ; 
  • L’analyste/scientifique modifie ensuite dans l’un des environnements une ou plusieurs variables pour comprendre leur influence sur l’effet recherché (la variable target). 

Néanmoins, il existe en pratique de nombreuses situations où ce scénario n’est pas applicable : 

  • Si les expériences sont contraires à l’éthique (exemple : vous ne pouvez pas faire fumer un enfant pour tester si la cigarette peut être une cause de cancer infantile) ; 
  • Si la cause ne dépend pas de vous (exemple : un concurrent lance un produit et vous souhaitez mesurer son effet sur vos ventes) ; 
  • Si la réalisation de l’expérience est trop coûteuse 
  • Si le phénomène à observer est trop complexe. 

Lorsque l’expérience n’est pas envisageable, l’utilisation de la donnée est un recours indispensable – elle permet de simuler des phénomènes complexes, facilement scalables, et de manière bien moins coûteuse (ressources humaines, logistique, temps d’étude…) qu’une expérimentation plus classique. 

Note : les deux approches peuvent être combinées pour maximiser la fiabilité des résultats, et éprouver la robustesse des modèles data-driven. 

Comment implémenter un moteur d’inférence causale ?

Plusieurs méthodes scientifiques permettent de construire les relations de causalité à partir de données historiques. La plus connue est celle de « PC » (Peter & Clark), qui est basée sur un algorithme de contraintes.

L’objectif est de construire initialement un graphe entièrement connecté (modélisant toutes les relations théoriques entre les variables) et d’utiliser des tests d’indépendance conditionnelle pour simplifier le graphe causal jusqu’à ce qu’il soit cohérent avec les données observées.   

Note : Dans cette approche, l’absence de liaison entre les 2 nœuds du graphe présente également une information précieuse – il est important de déterminer que deux variables n’ont pas de lien de causalité. 

La méthode consiste à rationaliser les résultats d’exploration pour répondre à des questions spécifiques (cibler l’effet à observer). Les informations causales extraites des données brutes sont modélisées sous la forme d’un “diagramme causal”, c’est-à-dire un graphe orienté qui affiche les relations causales entre les variables du modèle. Un diagramme causal comprend un ensemble de variables (ou nœuds). Chaque nœud est relié par une flèche à un ou plusieurs autres nœuds sur lesquels il exerce une influence causale ; un niveau de probabilité de cette influence y est associé. 

Le parcours du graphe entre deux nœuds suivant des flèches causales est un “chemin”. 

Pour les phénomènes complexes, nous recommandons fortement d’utiliser des bases de données graphes, qui permettent de faciliter la modélisation, les calculs et les parcours de graphe. 

Les outils ?

Les librairies de CI (Causal Inference) connaissent une évolution rapide avec de plus en plus de librairies disponibles et une meilleure intégration dans les systèmes d’information « data-driven ».  

Ci-dessous, une liste non-exhaustive des outils que nous recommandons : 

  • Dowhy, une librairie de CI récemment publiée par notre partenaire Microsoft 
  • Causal ML 
  • CausalNex 
  • EconML 
  • causalImpact

Base de données graphe fréquemment utilisée : 

  • Neo4j 
  • Cosmos DB avec l’API Gremlin 

Pour aller plus loin

Attention à l’industrialisation ! 

Comme souvent dans les projets d’intelligence artificielle, il y a un monde entre l’expérimentation sur un sous-ensemble et la capacité à l’automatiser et le rendre scalable sur des données réelles, qui plus est lorsque le phénomène est complexe (ex. Digital Twin pour l’industrie 4.0). 

Notre recommandation est d’intégrer à l’équipe un ingénieur MLOps dès les phases amont pour éviter de se retrouver in fine avec une expérimentation prometteuse mais non-scalable.

L’interprétabilité des algorithmes d’IA : un usage en plein essor  

L’application de l’IA à des usages règlementés (manipulation de données personnelles, octroi de crédits, fraudes…) nécessite un certain niveau de transparence dans la manière dont l’algorithme produit un résultat. 

La transparence et la traçabilité des modèles est un nouveau champ d’application pour les moteurs d’inférence causale. 

Nos experts ont créés à cet effet l’offre “Reliable ML“ : n’hésitez pas à nous contacter pour en savoir plus. 

Rédigé par Alexander Mikheev, Lead Tech Engineer au sein de notre département Data Driven