Les États membres de l'Union européenne et les législateurs du Parlement européen sont parvenus à un accord de principe sur un cadre réglementaire assoupli concernant l'intelligence artificielle. Ce document interdit certaines catégories de systèmes d'IA et fixe des exigences pour les modèles à haut risque, bien que plusieurs dispositions strictes aient été édulcorées par rapport aux propositions initiales.
L'accord maintient l'interdiction de l'IA pour l'identification biométrique de masse en temps réel dans l'espace public, exception faite des cas liés aux menaces terroristes ou à la recherche de criminels. Parallèlement, des obligations de marquage des contenus générés par l'IA ainsi que des impératifs de transparence pour les systèmes à usage général, tels que les grands modèles de langage, ont été introduits.
Les pourparlers ont duré plusieurs mois et se sont achevés par un compromis entre les États membres et le Parlement. La France, l'Allemagne et l'Italie ont plaidé pour des formulations plus flexibles en faveur de leurs champions technologiques nationaux, alors que d'autres pays prônaient des restrictions plus rigoureuses. La version finale du texte transfère une partie de la régulation aux autorités de surveillance nationales.
Ce pacte affecte directement la coopération technologique de l'UE avec les pays tiers. Les entreprises américaines, britanniques et chinoises qui proposent des solutions d'IA sur le marché européen devront se conformer aux nouveaux critères de transparence et d'évaluation des risques. Cette situation crée des obstacles supplémentaires à l'exportation et pourrait accélérer le développement de réglementations analogues dans d'autres juridictions.
Le texte sera finalisé par les services juridiques dans les mois à venir avant d'être soumis au vote définitif du Parlement européen et du Conseil de l'UE. La mise en application complète des règles n'est pas attendue avant 2026, une période de transition étant prévue pour les systèmes déjà opérationnels. Les États membres ont déjà commencé à mettre en place les instances de supervision nationales chargées de veiller au respect de ces normes.
En conclusion, l'UE instaure pour la première fois une régulation exhaustive de l'IA, qui encadre les pratiques les plus dangereuses tout en laissant la place à l'innovation, bien qu'elle délègue une part importante des responsabilités aux autorités nationales et aux sociétés importatrices.



