La loi sur l'IA de l'UE, le premier cadre légal au monde pour l'intelligence artificielle, vise à protéger contre les effets néfastes de l'IA et à établir la confiance dans la technologie. La loi impose des amendes allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial en cas de non-conformité.
Les entreprises américaines, y compris les institutions financières, doivent se conformer à la loi lorsqu'elles lancent ou utilisent de l'IA sur le marché européen, indépendamment de leur présence en Europe. Cela inclut une obligation d'inventaire et d'évaluation des systèmes d'IA.
Les systèmes d'IA jugés de 'risque inacceptable' sont interdits, tandis que les applications à haut risque, telles que celles utilisées pour le recrutement ou l'évaluation de crédit, font l'objet de réglementations strictes. Des règles plus légères s'appliquent aux applications à risque limité, sans restrictions pour les systèmes à risque minimal.
Par exemple, une banque américaine qui développe un outil d'IA pour le marché américain mais prévoit de l'utiliser en Europe doit garantir une gestion des risques robuste et une documentation adéquate, ainsi qu'une supervision humaine lorsqu'elle est nécessaire.
Alors que l'UE avance avec cette législation, les banques américaines sont conseillées de se préparer en établissant des cadres de gouvernance de l'IA et en réalisant des évaluations des risques. La mise en œuvre de la loi se déroulera en plusieurs phases, avec des règles sur l'IA à usage général entrant en vigueur le 2 août 2025 et les réglementations sur les modèles à haut risque commençant le 2 août 2026.