La Ley de IA de la UE establece nuevos estándares para instituciones financieras globales

La Ley de IA de la UE, el primer marco legal del mundo para la inteligencia artificial, tiene como objetivo proteger contra los efectos nocivos de la IA y establecer confianza en la tecnología. La ley impone sanciones de hasta 35 millones de euros o el 7 % de los ingresos globales por incumplimiento.

Las empresas estadounidenses, incluidas las instituciones financieras, deben cumplir con la ley al lanzar o usar IA en el mercado de la UE, independientemente de su presencia en Europa. Esto incluye una obligación de inventariar y evaluar sus sistemas de IA.

Los sistemas de IA considerados de 'riesgo inaceptable' están prohibidos, mientras que las aplicaciones de alto riesgo, como las utilizadas para reclutamiento o evaluación crediticia, enfrentan regulaciones estrictas. Se aplican reglas más ligeras a las aplicaciones de riesgo limitado, sin restricciones para sistemas de riesgo mínimo.

Por ejemplo, un banco estadounidense que desarrolle una herramienta de IA para el mercado estadounidense pero planee usarla en la UE debe garantizar una gestión de riesgos sólida y documentación adecuada, así como supervisión humana cuando sea necesario.

A medida que la UE avanza con esta legislación, se aconseja a los bancos estadounidenses que se preparen estableciendo marcos de gobernanza de IA y realizando evaluaciones de riesgos. La implementación de la ley comenzará en fases, con reglas sobre IA de propósito general que entrarán en vigor el 2 de agosto de 2025 y regulaciones sobre modelos de alto riesgo que comenzarán el 2 de agosto de 2026.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.