Vers une intelligence artificielle plus éthique ?

Vers une intelligence artificielle plus éthique ?

Vers une intelligence artificielle plus éthique ? 2000 1500 Sharing

Si la conception de l’IA n’est encore connue que d’une techno-élite constituée essentiellement par ses propres développeurs et ses bailleurs de fonds, son champ d’application tend à s’élargir dans divers domaines. L’intelligence artificielle est en effet utilisée aussi bien dans l’industrie automobile que dans le secteur médical, en passant par l’administration et bien d’autres secteurs d’activités encore. Mais les algorithmes sur lesquels se base l’IA sont-ils vraiment fiables ? Est-ce qu’ils sont capables de prendre les décisions adéquates à chaque situation comme le ferait l’intelligence humaine ? Le problème d’éthique est aujourd’hui au centre de toutes les préoccupations. 

Pourquoi une IA dépourvue d’éthique est un danger pour la société ?

L’intelligence artificielle repose sur l’apprentissage automatique (machine learning) et particulièrement sur l’apprentissage profond (deep learning) depuis son apparition vers 2010. Le deep learning est basé sur des réseaux de neurones artificiels capables de reconnaître des images, des visages et des sons, de faire la synthèse d’un texte, de conduire une voiture et de réaliser d’autres actions similaires de manière autonome. Le progrès apporté par le deep learning peut être impressionnant mais jusqu’à ce jour, on n’est pas encore en mesure de comprendre et de contrôler comment ces neurones artificiels arrivent à leur résultat final.

L’exemple de la voiture autonome démontre bien les risques que représente une IA dépourvue de morale. Quelle décision prendra-t-elle en cas d’incident ? Si la voiture a par exemple un problème de frein, choisira-t-elle de percuter les piétons et de sacrifier les passagers ou l’inverse ?  De même, le scénario imaginé par Stuart Russell dans son court métrage Slaughterbots reflète le doute de nombreux spécialistes de l’IA et la nécessité de la rendre plus éthique.

C’est dans cette même optique que l’Union Européenne insiste dans son dernier livre blanc sur le respect des droits fondamentaux des citoyens dans la conception et l’utilisation de l’intelligence artificielle. En effet, si les scénarios de la voiture autonome et des robots tueurs peuvent encore paraître surréalistes, l’IA est déjà utilisée dans plusieurs entreprises pour faciliter certains processus comme ceux du recrutement et de l’octroi de prêts. Selon le livre blanc de l’UE, il faut que l’IA soit dotée d’un système d’explicabilité, c’est-à-dire qu’il doit être possible d’expliquer pourquoi l’IA a refusé un prêt à une personne ou rejeté une candidature afin d’éviter les discriminations et tout autre débordement.

Les systèmes d’IA à haut risque devraient aussi être « certifiés, testés et contrôlés » toujours d’après l’UE, une recommandation dont l’exécution divise les experts de l’IA. D’ailleurs, avant de penser au moyen de programmer des principes moraux dans les IA, il faut d’abord pouvoir les définir.

Sur quelles bases fonder l’éthique des IA ?

Si les géants du digital veulent que le public adhère à l’utilisation de l’intelligence artificielle, il est impératif que celle-ci soit régie par des règles éthiques comprises et acceptées par tous. Pour tenter de résoudre le dilemme éthique de la voiture autonome par exemple, le projet Moral Machine a mis en place une plateforme en ligne où il est demandé à chaque joueur de choisir la meilleure option en cas d’accident. Plus de 4 millions de personnes y ont participé. Cependant, comme les réponses variaient selon les cultures, les pays et même selon les personnalités, les initiateurs du projet ont conclu que de nouvelles normes sociales sont nécessaires pour cadrer l’usage de la voiture autonome ainsi que les responsabilités engagées en cas d’accident.

Pour apporter une réponse à la question, le rapport sur le code d’éthique des voitures autonomes du gouvernement allemand stipule qu’en cas d’accident grave, il faut « ignorer les différences entre les personnes, privilégier la sécurité des hommes à celle des animaux et choisir la solution où il y aura le moins de blessés ». Il est donc indispensable de déterminer des règles similaires pour tous les projets qui se servent de l’intelligence artificielle et de les y intégrer par la suite.

Comment inculquer des règles morales à l’intelligence artificielle ?

Si certains acteurs pensent qu’obliger les IA à expliquer leur choix réduit considérablement leur performance (de 20% ou plus selon Theodorous Evgueniou, professeur à l’école de management Insead) et ralentit le processus de développement, d’autres ont déjà avancé sur le sujet. Le département des recherches et développement du Ministère de la Défense américain a par exemple déjà initié le XAI (Explainable AI). Il s’agit de modèles d’intelligence artificielle qui peuvent expliquer aux humains leur raisonnement.

Selon François Royer, directeur consulting Data Intelligence de PwC France, il est également possible de remonter la trace du raisonnement et de la déduction de l’IA par la mise en place de formules logiques dans les systèmes neuronaux. Cette approche dite IA symbolique que propose l’équipe du projet eThicAa pourrait donc compléter le deep learning pour créer des IA plus éthiques. Néanmoins, Gregory Bonnet, coordonateur d’eThicAa note que l’IA symbolique ne prétend pas être la meilleure ni la solution unique. Il faut beaucoup de temps de calcul pour mettre en place le raisonnement logique. 

Par ailleurs, les géants du digital tels que Google et Facebook sont bien conscients de l’enjeu que représente l’éthique pour leurs activités. Aussi, ils ont déjà créé des équipes spéciales qui vont assurer l’éthique de leurs IA. Néanmoins, le fait que ce soit les développeurs eux-mêmes qui certifient l’éthique de leurs programmes risque de semer le doute chez le public. Le défi à relever est donc de taille pour les acteurs de l’IA car il ne suffit plus de créer des machines performantes, il faut aussi qu’elles correspondent aux valeurs morales de leurs utilisateurs.