Habemus AI Act !

Vendredi 8 décembre 2023, après trois jours de négociations intenses, les Etats membres et le Parlement européen sont parvenus à établir la première régulation « historique » de l'intelligence artificielle.

Publié le 
10/6/2024
Habemus AI Act !
 

L’objectif proclamé est de faire de ce règlement un modèle dans le monde alors que se développent à grande vitesse des services d’IA particulièrement puissants dont les IA génératives capables d’élaborer des textes en langage naturel, ainsi que des images, des vidéos et des chansons telles que ChatGPT.

L’un des enjeux principaux des négociations était de déterminer si une approche fondée exclusivement sur les usages finaux des IA était suffisante.

La France et l’Allemagne, soutenues par l’Italie s’opposaient en effet à l’imposition d’obligations comme la minimisation du taux d’erreurs et des biais discriminatoires ou la vérification de la qualité des données d’entraînement, bien que limitées aux IA de fondation[1] les plus puissantes.

Dans les termes du ministre de l’économie Bruno Le Maire, cela revenait :

« à réguler des prototypes. Un avion, on le régule une fois qu’il vole. Il faut réguler les usages ».

Une régulation trop exigeante risquait selon certains de brider l’innovation tandis que l’impact actuel et potentiel de l’IA nécessitaient un encadrement de cette technologie.

Pour Thierry Breton, l’IA Act :

« trouve le point d'équilibre entre d'un côté la préservation de l'état de droit et des libertés fondamentales propres à nos démocraties, et, de l'autre, le développement de l'innovation ».

Pour se faire une idée de l’équilibre trouvé, il convient désormais de se pencher sur le contenu du compromis trouvé par les colégislateurs européens.

Que contient concrètement l’IA Act ?

L’approche retenue combine une approche par les risques ainsi qu’une réglementation des systèmes d’IA indépendamment de leur usage.

1- L’approche par les risques

L'idée principale est de réglementer l'IA en fonction de sa capacité à nuire à la société, selon une approche « basée sur le risque ». En somme, plus le risque est élevé, plus les règles sont strictes.

Les usages sont classés en quatre catégories, selon le danger qu'ils présentent.

L'accord provisoire interdit, par exemple, la manipulation cognitive du comportement, l'extraction non ciblée d'images faciales d'Internet ou de vidéosurveillance, la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement, la notation sociale, la catégorisation biométrique pour déduire des données sensibles, telles que l'orientation sexuelle ou les croyances religieuses, ainsi que certains cas de police prédictive pour les individus.

Un large éventail de systèmes d'IA à haut risque serait autorisé, mais soumis à un ensemble d'exigences et d'obligations pour accéder au marché de l'UE. Ces exigences ont été clarifiées et ajustées par les colégislateurs de manière à ce qu'elles soient techniquement plus réalisables et moins contraignantes à respecter pour les parties prenantes, par exemple en ce qui concerne la qualité des données ou la documentation technique que les PME doivent établir pour démontrer que leurs systèmes d'IA à haut risque sont conformes aux exigences.

Enfin, les systèmes d'IA ne présentant qu'un risque limité seraient soumis à des obligations de transparence plus légères, par exemple en indiquant que le contenu a été généré par l'IA – voir la publicité ci-après –  afin que les utilisateurs puissent décider en connaissance de cause de son utilisation ultérieure.

"Image générée par l'IA, sublimée par l'homme"

2- La réglementation des systèmes d’IA à usage général et des modèles de fondation

En ce qui concerne les systèmes d’IA à usage général et les modèles de fondation, l’approche finalement adoptée constitue un revers pour les partisans d’une réglementation exclusivement limitée aux usages de l’IA.

En effet, l’IA Act instaure une réglementation à deux niveaux, avec des exigences de transparence pour tous les modèles d'IA à usage général et des exigences strictes pour les modèles puissants ayant une incidence systémique sur l'ensemble du marché unique de l'UE.

Ainsi, des règles spécifiques ont été adoptées pour les modèles de base, grands systèmes capables d'exécuter avec compétence un large éventail de tâches spécifiques, telles que la production de vidéos, de textes, d'images, la conversation en langage naturel, le calcul ou la production de code informatique. L'accord provisoire prévoit que les modèles de base doivent se conformer à des obligations de transparence spécifiques avant d'être mis sur le marché. En outre, un régime plus strict a été introduit pour les modèles de base « à fort impact ». Il s'agit de modèles de fondation formés à partir d'un grand nombre de données et dotés d'une complexité, de capacités et de performances bien supérieures à la moyenne, qui peuvent entraîner des risques systémiques tout au long de la chaîne de valeur.

Et maintenant ?

L’accord qui vient d’être trouvé doit à présent être formellement approuvé par le Parlement et la Commission européenne. Le règlement entrera en vigueur vingt jours après sa publication au Journal officiel, puis en application deux ans plus tard “à l’exception de certaines dispositions particulières : les interdictions s’appliqueront déjà après six mois, tandis que les règles relatives à l’IA à usage général s'appliqueront après douze mois”, précise le communiqué de la Commission. Un nouvel Office européen de l'IA au sein de la Commission européenne aura pour mission d’assurer la coordination sur le plan européen et la mise en œuvre des futures règles. L’IA Act se distingue également des autres réglementations concernant l’IA en ce qu’il permet d’infliger des amendes importantes. Celles-ci peuvent osciller entre 7,5 millions d’euros ou 1,5 % du chiffre d’affaires et 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise en cas de non-respect du règlement.

Quoi qu’il en soit, les critères retenus seront nécessairement affinés lorsque mis en œuvre et confrontés à la réalité du secteur. Pour France Digitale, association qui vise à faire émerger des champions européens du numérique : « les négociations ne sont pas finies, et nous entendons participer aux prochaines réunions de travail pour qualifier la pertinence des critères retenus ».

En effet, du côté des principaux lobbys du secteur de la technologie, la réaction apparait plutôt contrariée tandis que du côté de la Commission l’on se félicite de l’adoption de l’IA Act comme d’une « rampe de lancement des start-ups et de chercheurs de l'UE pour mener la course mondiale à l'IA digne de confiance ».

Alors, l’IA Act, rampe de lancement pour licornes ou entrave bureaucratique au développement technologique ? Pour l’heure la réglementation ne parait pas effrayer les investisseurs outre mesure. Deux jours après l’accord sur l’IA Act, Mistral AI, start-up française qui souhaite rivaliser avec les plus grandes entreprises du domaine, a annoncé une levée de fonds de 385 millions de dollars, la valorisant ainsi à près de deux milliards de dollars.


[1]
Le centre de recherche sur les modèles de base (CRFM) du Stanford Institute for Human-Centered Artificial Intelligence (HAI) a inventé le terme de modèle de fondation pour désigner « tout modèle entraîné sur un gros volume de données (généralement en utilisant l'apprentissage auto-supervisé à grande échelle sur des données non annotées) qui peut être adapté (« fine tuning ») à un large éventail de tâches en aval » (Rishi Bommasani, Drew A. Hudson, Ehsan Adeli et Russ Altman, « On the Opportunities and Risks of Foundation Models », arXiv:2108.07258 [cs]).

Flèche en arrière
Retour vers toutes les actualités

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins. Vous pouvez également nous contacter via notre formulaire de contact.

Prendre RDV pour une démo

Les dernières actualités du droit des affaires

Tout voir

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv.eu ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins.

Accédez à toute l'intelligence du droit des affaires

Inscrivez-vous gratuitement sur Livv et bénéficiez de notre expertise en droit des affaires.‍

Essayer gratuitement Livv
Élément décoratif accompagnant un texte descriptif Livv.

Inscrivez-vous à la newsletter Livv

et recevez chaque semaine des informations exclusives en droit des affaires. En savoir plus