Ce qu’il faut savoir sur l’AI Act

Ce qu’il faut savoir sur l’AI Act

Ce qu’il faut savoir sur l’AI Act 2000 1500 Sharing

Le règlement européen sur les systèmes d’IA ou AI Act a pour objectif d’encadrer et d’optimiser l’utilisation et la commercialisation des systèmes d’IA au sein de l’Union européenne.

Midjourney, Canva, ChatGPT, Dall-E, Browse AI… l’intelligence artificielle fait beaucoup parler d’elle ces derniers mois. Grâce à ses innombrables atouts, de plus en plus d’entreprises s’en servent à des fins différentes. Elles l’utilisent pour communiquer en ligne avec leurs clients, pour prospecter, pour automatiser certains processus ou tâches complexes et répétitives. C’est un véritable levier d’optimisation des performances et de la productivité. Les systèmes d’IA ne sont pourtant pas dépourvus de risques. C’est pourquoi l’Union Européenne met en place l’AI Act, un projet de loi encadrant l’usage de l’IA. Tout ce qu’il faut savoir sur la réglementation européenne concernant cette innovation technologique très en vogue.

AI Act : pour un usage éthique, sûr et conforme aux droits fondamentaux européens de l’IA

L’intelligence artificielle vole au secours de nombreux professionnels spécialisés dans différents domaines. On s’en sert dans la médecine, la science, l’industrie, le tourisme, le numérique, le commerce… Mais son évolution rapide amène l’Union Européenne à établir un règlement pour encadrer son utilisation et sa commercialisation. L’AI Act vise avant tout à rendre conforme l’exploitation de l’intelligence artificielle aux valeurs de l’UE et aux droits fondamentaux des citoyens. L’usage de ces systèmes cause, en plus, des incertitudes juridiques. C’est justement pour garantir la sécurité juridique des utilisateurs que l’UE a décidé de mettre en place ce projet de loi sur l’IA.

L’AI Act permet donc d’assurer le développement d’un marché fiable pour l’IA. Il sert à favoriser l’évolution du secteur dans un environnement pérenne et sûr. Une fois adoptée par le Parlement européen, cette loi viendra renforcer la réglementation déjà existante sur les droits fondamentaux et les normes de sécurité en vigueur sur les systèmes d’IA. La nouvelle réglementation s’applique également à tout type d’intelligence artificielle comme le machine learning, l’IA symbolique traditionnelle et les systèmes hybrides.

Une réglementation fondée sur 4 niveaux de risques

L’AI Act concerne différentes entités, notamment, les fournisseurs et distributeurs des systèmes d’IA au sein du marché de l’Union européenne, qu’ils soient dans l’Union ou dans un pays tiers. Elle s’applique également aux utilisateurs tels les fondations, entreprises, laboratoires de recherche ou associations ayant leur siège social dans l’Union européenne. Ces entités sont liées à des obligations légales qui varient selon le niveau de risque du système d’IA exploité. Le règlement met en place 4 niveaux de risques :

–      L’AI Act stipule plusieurs types de risques inacceptables dont ceux allant à l’encontre des droits fondamentaux et des valeurs de l’UE : la manipulation subliminale qui provoque un préjudice physique ou psychologique, l’exploitation d’enfants ou de personnes handicapées mentales…

–  Au troisième niveau, il existe des applications d’IA à hauts risques qui exigent une pré-évaluation avant leur utilisation. Elles sont, en plus, soumises aux obligations de marquage CE et d’enregistrement dans une base de données européenne. C’est le cas des systèmes d’IA concernant le recrutement et les dispositifs médicaux.

 –   Le second niveau de risque moins dangereux demande des obligations de transparence et d’information spécifique. Même si l’usage de ce type de système d’IA est autorisé, ses fournisseurs, ses distributeurs et ses utilisateurs sont tenus de donner des informations claires et transparentes. Ce niveau inclut l’application des IA dans les chabots et les conversations téléphoniques de type numéro vert. 

– Enfin, les systèmes présentant un niveau de risque minimal ou absent ne requièrent aucune pré-évaluation. Ce niveau de risque regroupe les applications d’IA utilisées dans certains appareils utilisés dans le quotidien

Qu’en est-il du délai d’application et des sanctions relatives à l’AI Act ?

Le projet de loi sur l’IA est encore en cours d’adoption au sein du Parlement européen. Néanmoins, la réglementation met bien en exergue des conditions d’application telles que les délais de mise en conformité et des sanctions liées à l’infraction des obligations mises en place. À titre d’exemple, les interdictions relatives aux risques inacceptables doivent être appliquées au plus tard 6 mois suivant l’entrée en vigueur de l’AI Act. Ce délai est fixé jusqu’à 36 mois pour l’application des systèmes d’IA à haut risque.

Quant aux sanctions, elles vont d’une sanction civile à la sanction administrative ou pécuniaire, selon le degré d’entrave à la réglementation de l’intelligence artificielle ACT. La commercialisation d’un produit sans marquage CE est, par exemple, passible d’une sanction civile et/ou administrative. Il est possible d’encourir une sanction plus sévère comme l’emprisonnement pendant quelques années en fonction du dommage causé et du type de système commercialisé. Mais, la sanction prononcée pourra juste être une amende de quelques centaines d’euros. Pour les autres infractions aux obligations légales concernant l’IA, les sanctions stipulées dans la réglementation RGPD s’appliquent. Il peut s’agir d’amendes de plusieurs millions d’euros ou d’un pourcentage du chiffre d’affaires de l’entreprise concernée.

Depuis que l’intelligence artificielle s’invite dans nos quotidiens professionnels, elle révolutionne la façon de gérer, de produire et de travailler au sein des entreprises. Ses avantages commerciaux et techniques sont importants, tout comme les risques qu’elle présente. Pour permettre au marché de l’IA de se développer dignement dans le total respect des droits fondamentaux et des valeurs de l’UE, la réglementation « AI Act » est en cours d’adoption au sein du Parlement européen. Elle consiste à sécuriser l’application des systèmes d’IA. Elle vise aussi  à renforcer la réglementation existante, avec des obligations claires. Ces dernières varient selon le niveau de risque présenté par chaque application et des sanctions strictes.