La Comisión Europea ha iniciado una consulta pública sobre las nuevas regulaciones para los sistemas de inteligencia artificial (IA) de alto riesgo.
La consulta, abierta hasta el 18 de julio, busca recabar aportaciones de diversas partes interesadas, incluyendo la sociedad civil, las industrias tecnológicas, los desarrolladores de IA, los investigadores y las autoridades.
La Ley de IA de la UE, que tiene como objetivo regular los riesgos de la IA, se finalizó el año pasado, y la mayoría de sus disposiciones entrarán en vigor en agosto. Los sistemas de alto riesgo se enfrentarán a requisitos estrictos, como conjuntos de datos de alta calidad, registro de actividades, documentación detallada, información clara para el usuario, supervisión humana y ciberseguridad robusta.
Ejemplos de sistemas de IA de alto riesgo incluyen aquellos utilizados en procesos de contratación o solicitudes de préstamos. La Comisión debe presentar directrices antes del 2 de febrero de 2026, especificando la aplicación práctica de las obligaciones y ejemplos de sistemas de IA de alto y no alto riesgo.
La nueva legislación permite o prohíbe el uso de la IA en función del riesgo que plantea. Ya ha entrado en vigor, con un despliegue gradual previsto, que podría estar totalmente implementado en 2027.
Desde febrero, los sistemas de identificación biométrica y aquellos que puntúan a las personas en función de su comportamiento están prohibidos. La Comisión también está preparando la cuarta versión de las directrices para los modelos de IA generativa, con el objetivo de una implementación oportuna.