Le 13 mars 2024, le Parlement européen a approuvé le règlement sur l’intelligence artificielle (IA), également connu sous le nom d’« AI Act ». Il s’agira de la première législation au monde encadrant l’IA.
Ce règlement IA définit un système d’IA de manière large comme étant « un système basé sur une machine conçu pour fonctionner à différents niveaux d’autonomie, qui peut s’adapter après son déploiement et qui […] déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ».
Le règlement classe ensuite les systèmes d’IA en différentes catégories en fonction du risque qu’ils représentent. Plus le risque est élevé, plus les règles applicables seront contraignantes.
Certaines pratiques d’IA feront tout simplement l’objet d’une interdiction, comme les systèmes d’IA permettant la notation sociale des individus ou l’IA manipulatrice. D’autres systèmes d’IA seront classés à haut risque. Cette seconde catégorie comprendra notamment les technologies d’IA utilisées dans des domaines cruciaux tels que l’éducation et la formation, l’emploi et les services essentiels comme les soins de santé et les services bancaires. Ces systèmes feront l’objet d’exigences en ce qui concerne notamment la gestion des risques, la qualité et la pertinence des ensembles de données utilisés, la tenue de registres, la transparence et la cybersécurité. Les systèmes d’IA à risque limité seront soumis à des obligations de transparence plus légères. Le risque minimal ne sera quant à lui pas réglementé (comme les filtres anti-spam pour empêcher les e-mails indésirables).
En parallèle, le règlement sur l’intelligence artificielle vise également les « modèles d’IA à usage général », ces systèmes entraînés avec une grande quantité de données et capables d’effectuer un large éventail de tâches, comme ChatGPT. Les fournisseurs de ces modèles devront notamment mettre à disposition une documentation technique, élaborer une politique de respect des droits d’auteur et publier un résumé du contenu utilisé pour l’entraînement de leurs algorithmes.
Le règlement s’appliquera aux fournisseurs, importateurs, distributeurs et déployeurs d’intelligences artificielles (c’est-à-dire notamment les entreprises qui les utilisent) qui sont mises sur le marché de l’UE, mises en service ou utilisées dans l’UE, même s’ils sont établis dans un pays tiers.
En cas d’infraction au règlement, les sanctions pourront aller jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel et jusqu’à l’obligation de retrait d’une IA du marché.
Ce règlement n’a pas encore été formellement adopté. Il doit encore être soumis au vote définitif du Conseil de l’Union européenne avant d’être publié au Journal Officiel. Il entrera en vigueur 20 jours après sa publication et sera pleinement applicable dans les Etats Membres 24 mois après son entrée en vigueur. Toutefois, certaines dispositions s’appliqueront plus tôt, comme les interdictions de pratiques prohibées (6 mois après la date d’entrée en vigueur) et les règles relatives aux modèles d’IA à usage général (12 mois).
Cette adoption approchant, il est conseillé aux entreprises de commencer à se conformer à ces dispositions le plus tôt possible. Bertrand Margraff (b.margraff@adaptlaw.be) se tient à votre disposition pour répondre à vos questions et vous accompagner tout au long de ce processus de mise en conformité.