Une nouvelle réglementation européenne est en préparation : l’AI Act. Ce règlement vise à encadrer l’utilisation de l’intelligence artificielle en classant les systèmes d’IA selon leur niveau de risque. L’AI Act impose des règles strictes pour les technologies à risque élevé, nécessitant une gouvernance adaptée pour prévenir de potentielles dérives.
Il est indispensable pour les entreprises de se préparer à cette nouvelle mesure. C'est une opportunité pour déployer une gouvernance IA robuste, favorisant une utilisation responsable de l’IA.
Acculturation des métiers juridiques à l'IA
En 2022, 45 % des entreprises estimaient que les barrières juridiques et de conformité représentaient un frein majeur à l’adoption de l’IA (source : McKinsey, "The state of AI in 2022"). Il est donc nécessaire de former les professionnels du droit sur les spécificités de ces nouvelles technologies et les risques qui y sont associés, comme la gestion des biais algorithmiques et le respect des données personnelles.
Le conseil de l’Europe recommande ainsi la mise en place de méthodologies d’évaluation des risques adaptées aux spécificités de ces technologies, qui devront couvrir les aspects techniques, juridiques et éthiques (source : Conseil de l'Europe, "Guidelines on Artificial Intelligence and Data Protection").
Il faut également souligner l’importance de la formation et sensibilisation continue des équipes juridiques pour leur permettre de comprendre les enjeux techniques qui y sont associés, et fluidifier les échanges avec les équipes de développement (pour en savoir plus, retrouvez notre article sur ce sujet : Comment opérationnaliser l’AI Act ?).
Acculturation des équipes projets et intégration du juridique
La deuxième phase concerne l’acculturation des équipes projets à la gouvernance IA, et l'intégration des aspects juridiques dès leur conception. Les projects qui qui intègrent l’aspect juridique dès le départ ont une meilleure gestion des risques et atteignent plus facilement la conformité (source : Deloitte, "AI Risk Management Survey 2023").
L’intégration des aspects juridiques peut se faire en définissant des guidelines spécifiques pour les projets IA. Cette approche contribue grandement à standardiser les bonnes pratiques et réduire les risques.
Nous recommandons par ailleurs la mise en place d’un processus collaboratif incluant les parties prenantes - sponsor business, product owner, data owner, data scientists, juristes, développeurs... Cela permet de mieux anticiper les risques et s’assurer que la solution IA est conforme aux exigences de la nouvelle règlementation.
Centralisation de l'information et auditabilité
Une plateforme de gestion centralisée de l’information est essentielle pour structurer et maintenir un niveau de contrôle élevé : des outils comme ceux proposés par l’éditeur Dataiku (Govern) permettent de centraliser les données liées aux projets IA, d'automatiser les audits, d'assurer une surveillance continue et d’obtenir une transparence (relative) des traitements.
L'usage : une question de perspective
Il est important de rappeler que c’est l’usage de l’IA qui détermine sa qualification juridique et le niveau de risque qui y est associé. Un logiciel, par exemple, peut être utilisé pour faciliter la communication, ou bien pour pirater des données.
Un constat qui souligne l'importance d'une gouvernance prenant en compte non seulement les aspects techniques mais aussi les impacts éthiques et légaux des applications IA.
Vous souhaitez en savoir plus ?