top of page

Éthique et Deep Learning

L’intelligence artificielle peut contribuer formidablement aux enjeux socio-économiques, environnementaux, politiques, culturels,… de notre ère. Cependant, il est indispensable d’accompagner ce changement de paradigme sans angélisme et avec lucidité, en soulevant la question de l’éthique concernant ces nouvelles technologies. Comme disait Rabelais :

“Science sans Conscience, n’est que ruine de l’âme.”

Les aspects éthiques du “Deep Learning” se situent à deux niveaux : une bonne compréhension des limites de cette technologie pour en rester maître, et une utilisation au service du bien commun – autrement dit ne pas en faire mauvais usage. Ces deux idées sont présentées et discutées ci-dessous.

#1 Les limites du Deep Learning

Les algorithmes de deep learning, bien que très performants dans l’ensemble, sont tout comme les humains sensibles à différents biais. Or ces biais non-intentionnels peuvent être perçus très négativement par les humains, surtout s’ils entretiennent des inégalités, des souffrances, et entraînent la machine à commettre des erreurs aux conséquences possiblement dramatiques.

Un exemple regrettable a beaucoup choqué lorsque l’algorithme de classification d’images de Google Photos a confondu des humains avec des animaux (voir photo ci-dessous, dont la nature outrageante interdit tout silence). De tels biais pourraient être d’autant plus dommageables s’ils s’insinuaient par exemple dans des décisions de justice, d’octroi de prêt, de santé ou de carrière. Identifier ces biais, et plus encore les corriger, n’est pas chose aisée, puisque cela impose de comprendre comment fonctionne l’algorithme. Cela introduit une deuxième limite du deep learning discutée par la suite : l’explicabilité.

Alors que certains algorithmes d’apprentissage machine (Machine Learning) sont facilement interprétables (régression linéaire, arbre de décision), les mécanismes d’encodage et de traitement de l’information employés par le deep learning sont très difficiles à comprendre. À cet égard, ces derniers sont d’ailleurs qualifiés de « boîte noire ».

L’enjeu est crucial car il n’est pas convenable de laisser les machines prendre des décisions importantes sans comprendre les raisons qui justifient le choix, telles que : faut-il débrancher un patient végétatif, faut-il geler tous les avoirs d’un citoyen identifié à tort ou à raison comme suspect, faut-il empêcher tel étudiant d’avoir accès à tel cursus, etc. ? Il est impérieux de mieux comprendre le fonctionnement des modèles du deep learning pour les intégrer aux processus de décisions humaines. Différentes méthodologies ont été développées afin d’expliquer l’algorithme dans son ensemble ainsi que sur chaque prise de décision, et ce même pour des modèles de deep learning.

Une autre limite du deep learning touche aux limites de l’éthique humaine, lorsqu’un choix se présente sans issues favorables. Comment prendre une décision lorsqu’aucune alternative ne paraît bonne ou lorsqu’elles ne sont pas comparables ?

Cette question a été illustrée par le dilemme du tramway, où schématiquement l’opérateur doit choisir à qui il doit accidentellement ôter la vie, aucune alternative d’itinéraire immédiat ne pouvant éviter une collision avec des passants (voir illustration ci-dessus).

Dans le cas du deep learning, et notamment de la conduite autonome de véhicule, l’opérateur est une machine. Cette machine suppose un algorithme de prise de décisions. Or, dans ce cas, il est très délicat d’expliciter une politique de choix, à la fois d’un point de vue technique – il faudrait couvrir exhaustivement toutes les situations et leurs choix associés –, et d’un point de vue éthique – par exemple aussi horrible qu’est cette question sans bonne réponse : « comment choisir entre l’alternative d’écraser une femme enceinte ou un groupe de 5 retraités ? ». Cette double difficulté n’a pas encore été solutionnée.

#2 Du mauvais usage de l’Intelligence Artificielle

Les nouveaux outils de l’IA permettent de grands progrès dans de nombreux secteurs mais apportent également leurs lots de questionnements concernant leur bon usage. Certains penseurs renommés comme Stephen Hawking, voient en l’intelligence artificielle une invention à la fois brillante et menaçante. Selon eux, l’intelligence artificielle pourrait remplacer à terme l’homme du fait de sa puissance en constante amélioration, surpassant déjà l’homme sur de nombreuses tâches (des jeux de stratégie à la conduite automobile en passant par le diagnostic médical).

Sans en venir à d’apocalyptiques scénarios, des utilisations de l’IA peuvent se révéler dégradantes, malveillantes et nocives pour les individus. Par exemple, les GANs ont été utilisés pour substituer aux visages et aux voix d’actrices de films pour adultes des visages et des voix de célébrités. Selon l’une d’entre elle, la bataille contre ces détournements est déjà perdue. Au-delà de l’intégrité des personnes, c’est l’intégrité des faits qui est mise à mal par ces possibles usages. En effet, pouvoir faire dire faussement via cette technologie (DeepFake) n’importe quoi à n’importe qui avec un très grand réalisme pourrait se révéler très dangereux, a fortiori dans une actualité où les relations géopolitiques sont particulièrement tendues. C’est d’autant plus vrai que ces technologies sont accessibles à tous, par exemple via l’application FakeApp.

Pour prévenir ces mauvais usages et combattre les « fake news », il est prioritaire de développer un cadre garantissant la véracité des contenus. La blockchain aurait-elle un rôle à jouer ?

Au niveau étatique, il est observé une multiplication des tentatives d’employer ces nouvelles technologies à des fins militaires (dont l’encapsulation d’IA dans des robots soldats, voir photo ci-dessus) ou à des fins de contrôle des populations (par exemple reconnaissance et suivi des piétons grâce au deep learning appliqué aux caméras de vidéo-surveillance en Chine, voir photo ci-dessous).

Ces démarches soulèvent des inquiétudes voire des levées de boucliers. Les employés de Google ont par deux fois manifesté leur désaccord concernant l’engagement de leur firme dans ce type de projet : en premier lieu le projet Maven entre le Pentagone et Google impliquant du deep learning pour améliorer l’identification des cibles de drones ; en second lieu, le projet DragonFly pour le compte de la Chine afin de développer un moteur de recherche conforme aux positionnements des censeurs. Dans ces deux cas, les protestations internes ont mené à l’annulation de la participation de Google.

Ces mobilisations internes contre des engagements militaro-industriels s’observent identiquement chez les autres géants du numérique, comme Amazon et Microsoft. Le monde académique réagit également avec plus de 3000 chercheurs en IA et en robotique ayant signé une lettre ouverte demandant l’interdiction des armes offensives autonomes.

Cependant, certains pays s’y sont opposés, et le débat reste entier. Concernant la surveillance des individus et ses possibles dérives, des initiatives sont prises par certains états pour garantir la protection des données des citoyens, comme en Europe avec la RGPD.

Ainsi, même si ces réactions de la part des employés ou au niveau de la gouvernance sont des signaux de confiance quant à la conscience collective nécessaire, la vigilance demeure indispensable. La communauté de la data a de grandes responsabilités et chacun de ses membres devrait faire preuve d’une grande prudence sur les limites de leurs outils et l’usage de leurs réalisations. À cet égard, les intéressés ont la possibilité de signer l’équivalent du serment d’Hippocrate pour la Data. De mon côté, c’est chose faite. Et vous ?

Rédigé par Clément Moutard, Consultant Data Driven Business.

Thanks to Eliot Moll.

Notes [1] Source [2] Source [3] Source

0 vue
bottom of page