menu
Actualités
Publié le 2 juillet 2024 par Claire Filliatre

La Commission européenne se dote d’un Bureau de l’IA afin de renforcer le rôle moteur de l’UE en matière d’intelligence artificielle digne de confiance

La Commission européenne a annoncé le 29 mai dernier la création du Bureau de l’Intelligence Artificielle dont l’objet est de « permettre le développement, le déploiement et l’utilisation futurs de l’IA d’une manière qui favorise les avantages sociétaux et économiques et l’innovation, tout en atténuant les risques ».

Ce nouveau Bureau a ainsi pour ambition de jouer un rôle majeur dans la mise en œuvre de la législation européenne sur l’Intelligence artificielle, d’encourager la recherche et l’innovation dans une intelligence artificielle sûre et digne de confiance, et de faire de l’Union Européenne un acteur de premier plan dans les discussions internationales sur le sujet.

Contexte

Dès avril 2021, la Commission européenne (la « Commission ») avait proposé un nouveau cadre réglementaire et un plan d’action coordonné avec les États membres en faveur de l’excellence et de la confiance dans l’intelligence artificielle (« IA »). Le projet de Règlement établissant des règles harmonisées concernant l’intelligence artificielle (désigné sous l’appellation « Législation sur l’IA ») a été approuvé par le Parlement européen au mois de mars 2024.

Parallèlement, en janvier 2024, la Commission a rendu public un train de mesures destinées à aider les start-ups et les PME européennes à développer une IA digne de confiance, respectueuse des valeurs et des règles de l’Union européenne. Ces mesures visent à faciliter et favoriser la coopération en matière d’IA sur l’ensemble du territoire de l’Union européenne afin de renforcer sa compétitivité.

C’est dans ce cadre que la création du Bureau de l’IA a été annoncée le 29 mai dernier.

La Législation sur l’IA, un cadre unique dans le monde

La Législation sur l’IA vise avant tout à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre les risques liés à l’IA, tout en encourageant l’innovation et en faisant de l’Europe un acteur de premier plan dans ce domaine.

Elle établit des obligations pour les systèmes d’IA en fonction de leurs risques potentiels et de leur niveau d’impact. A cette fin, quatre niveaux de risques ont été identifiés : risque minimal, risque limité, risque élevé, et risque inacceptable. Elle introduit également des règles spécifiques pour les modèles d’IA à usage général (« GPAI »).

Les nouvelles règles interdisent ainsi certaines applications fondées sur l’IA qui menacent les droits des citoyens, notamment les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (race, orientation sexuelle, opinions politiques, religieuses, etc.) et l’extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance en vue de créer des bases de données de reconnaissance faciale.

La reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, la notation sociale, la police prédictive (lorsqu’elle est basée uniquement sur le profilage d’une personne ou sur l’évaluation de ses caractéristiques) et tout système d’IA qui manipule le comportement humain pour contourner le libre arbitre, ou qui exploite les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique), sont également interdits.

L’IA générative, comme ChatGPT, n’est pas classée à haut risque, mais doit se conformer aux exigences de transparence et à la législation de l’UE sur le droit d’auteur :

  • indiquer que le contenu a été généré par l’IA,
  • concevoir le modèle pour l’empêcher de générer du contenu illégal,
  • publier des résumés des données protégées par le droit d’auteur utilisées pour la formation.

Les modèles d’IA à usage général à fort impact et susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, doivent faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission.

Les contenus générés ou modifiés à l’aide de l’IA – images, fichiers audio ou vidéo (par exemple, les « deepfakes ») – doivent être clairement étiquetés comme étant générés par l’IA, afin que les utilisateurs sachent qu’il s’agit de ce type de contenu. 

La Législation sur l’IA a été publiée au Journal officiel de l’Union européenne le 12 juillet 2024.

La structure du nouveau Bureau de l’IA

Le Bureau de l’IA sera rattaché à La Direction Générale des Réseaux de Communication, du Contenu et des Technologies (DG Connect) et rassemblera plus de 140 personnes, dont des spécialistes en technologie, des assistants administratifs, des juristes, des spécialistes en politique et des économistes.

Il comprend les cinq Unités suivantes :

  • Unité « Réglementation et Conformité ». Cette Unité est en charge de la coordination de l’approche réglementaire afin de faciliter l’application uniforme de la Législation sur l’IA dans l’ensemble de l’Union européenne, en étroite collaboration avec les États membres. Elle peut participer aux enquêtes et sanctionner les infractions aux règles applicables ;
  • Unité « Sécurité de l’IA ». Cette Unité est en charge de l’identification des risques systémiques liés à des systèmes d’IA à usage général, de la formulation de mesures d’atténuation ainsi que des approches à adopter en matière d’évaluation et d’essai ;
  • Unité « Excellence de l’IA et de la Robotique ». Cette Unité est en charge du soutien et du financement de la recherche et du développement en matière d’IA. Elle coordonne l’initiative GenAI4EU[1], en stimulant le développement de modèles et leur intégration dans des applications innovantes ;
  • Unité « IA au service du bien sociétal ». Cette Unité est en charge de concevoir et de mettre en œuvre les engagements du Bureau de l’IA, notamment dans la mise en avant de systèmes d’IA au service de la société, comme la modélisation météorologique, ou les diagnostics de cancer.
  • Unité « Innovation et Coordination des Politiques en matière d’IA ». Cette Unité est en charge de la supervision de la mise en œuvre de la stratégie de l’UE en matière d’IA. Elle suit les tendances et les investissements, encourage l’adoption de l’IA et la création d’usines d’IA, et favorise un écosystème innovant en soutenant les « bacs à sable » réglementaires[2] et les essais en conditions réelles.

Le Bureau de l’IA travaille sous la direction d’un Conseiller Scientifique Principal et d’un Conseiller pour les Affaires Internationales.

Les Missions du Bureau de l’IA

Soutenir la mise en œuvre de la Législation sur l’IA

Le Bureau de l’IA veillera à la mise en œuvre cohérente de la Législation sur l’IA dans l’ensemble des États membres.

Il coordonnera la création d’un système de gouvernance, notamment via la création d’organes consultatifs au niveau de l’Union européenne et le contrôle de la mise en place des autorités nationales compétentes, et contrôlera, supervisera et appliquera les exigences de la Législation sur l’IA applicables aux modèles et systèmes d’IA à usage général (« GPAI ») au sein de l’Union européenne.

En pratique, il s’agit de développer des outils, des méthodologies et des référentiels afin, notamment, d’évaluer les capacités et la portée des modèles GPAI et d’analyser les risques systémiques imprévus découlant de leur développement et de leur déploiement.

Le Bureau de l’IA pourra enquêter sur les cas d’infraction et de non-conformité et, le cas-échéant, exiger des mesures correctives. Il assurera également la coordination des enquêtes conjointes menées par une ou plusieurs autorités nationales compétentes.

En coopération avec les développeurs d’IA, la communauté scientifique et d’autres parties prenantes, le Bureau de l’IA coordonnera l’élaboration de codes de bonnes pratiques de pointe incluant des objectifs spécifiques et mesurables, y compris des indicateurs clés de performance, et devra contrôler et évaluer la mise en œuvre et l’efficacité de ces codes.

Dans ce cadre, le Bureau de l’IA pourra élaborer des orientations, des lignes directrices, des actes d’exécution et des actes délégués pour soutenir la mise en œuvre effective de la Législation sur l’IA et en assurer le respect.

Renforcer le développement et l’utilisation d’une IA digne de confiance

La Commission européenne veut promouvoir une IA digne de confiance dans l’ensemble du marché intérieur et encourager les écosystèmes innovants d’IA pour renforcer la compétitivité et la croissance économique de l’Union Européenne.

Le Bureau de l’IA devra ainsi, en collaboration avec les acteurs publics et privés concernés et la communauté des startups, faire progresser les actions et les politiques visant à tirer parti des avantages sociétaux et économiques de l’IA.

Il devra notamment apporter un soutien technique, des conseils et des outils pour permettre un accès facile aux bacs à sable d’IA, aux tests en conditions réelles et à d’autres structures de soutien européennes pour l’adoption de l’IA, telles que les pôles européens d’innovation numérique et les usines d’IA[3].

La législation sur l’IA prévoit en effet que les États membres doivent mettre en place au moins un bac à sable réglementaire en matière d’IA, soit de manière indépendante, soit en rejoignant le(s) bac(s) à sable d’autres États membres, dans un délai de deux ans après l’entrée en vigueur du texte.

L’objectif est de favoriser l’innovation, en particulier pour les Petites et Moyennes Entreprises, en facilitant la formation, les essais et la validation de l’IA, avant la mise sur le marché ou la mise en service du système sous la supervision des autorités compétentes.

Cette supervision a pour but d’apporter une clarté juridique et d’améliorer l’expertise règlementaire. Le Bureau de L’IA devra être informé par les autorités nationales compétentes de toute suspension des essais en bac à sable en raison de risques importants. Ces dernières devront soumettre au Bureau de l’IA des rapports annuels accessibles au public, détaillant les progrès, les incidents et les recommandations concernant les bacs à sable.

Par ailleurs, le Bureau de l’IA devra développer et tenir à jour une plateforme d’information unique fournissant des informations faciles à utiliser pour tous les opérateurs dans l’ensemble de l’Union européenne, organiser des campagnes de communication appropriées pour sensibiliser aux obligations imposées par la Législation sur l’IA, et évaluer et promouvoir la convergence des bonnes pratiques en matière de procédures de passation de marchés publics s’agissant des systèmes d’IA.

Favoriser la coopération internationale

Le Bureau de l’IA assurera une approche européenne stratégique, cohérente et efficace en matière d’IA au niveau international.

Il devra ainsi notamment :

  • Promouvoir l’approche de l’UE en matière d’IA digne de confiance, y compris la collaboration avec des institutions similaires dans le monde entier ;
  • Favoriser la coopération et la gouvernance internationales en matière d’IA, dans le but de contribuer à une approche mondiale ;
  • Soutenir l’élaboration et la mise en œuvre d’accords internationaux sur l’IA.

La nécessaire coopération avec les institutions, les experts et les parties prenantes

Afin de garantir une prise de décision éclairée, le Bureau de l’IA collaborera avec les États membres et la communauté d’experts au sens large dans le cadre de forums et de groupes d’experts spécialisés.

Au niveau de l’UE, le Bureau de l’IA travaillera en étroite collaboration avec le Comité européen de l’intelligence artificielle, composé de représentants des États membres.

Le groupe scientifique d’experts indépendants assurera un lien étroit avec la communauté scientifique et une expertise supplémentaire sera réunie au sein d’un forum consultatif, représentant une sélection équilibrée de parties prenantes, y compris l’industrie, les jeunes pousses et les PME, le monde universitaire, les groupes de réflexion et la société civile.

Le Bureau de l’IA pourra également s’associer à des experts individuels et à des organisations, et créer des espaces de coopération avec les fournisseurs de modèles et de systèmes d’IA.


[1] L’initiative GenAI4EU vise à promouvoir l’adoption de l’IA générative dans 14 secteurs stratégiques (dont la santé, les biotechnologies, la mobilité, la robotique, etc.) et le secteur public.

[2] Les bacs à sable règlementaires sont des environnements contrôlés dans lesquels des entreprises sélectionnées peuvent tester leurs produits et services tout en dialoguant avec les régulateurs concernés.

[3] Les usines d’IA sont des écosystèmes dynamiques qui favorisent l’innovation, la collaboration et le développement dans le domaine de l’IA. Ils rassemblent les ingrédients nécessaires — la puissance informatique, les données et le talent — pour créer des modèles d’IA génératifs de pointe.