Equipo Internacional Publica Manual de Transparencia de IA

Un equipo internacional ha elaborado un manual sobre inteligencia artificial (IA) diseñado para mejorar la transparencia y la confianza en esta tecnología disruptiva, especialmente en campos como la salud, las finanzas y el ámbito legal.

Coordina la Universidad de Granada (UGR), y este recurso ofrece una forma de verificar y certificar los resultados de modelos complejos, contribuyendo al desarrollo de sistemas de IA que sean efectivos y comprensibles.

El uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNN), ha crecido significativamente debido a su capacidad predictiva. Sin embargo, su naturaleza opaca dificulta la interpretación detallada de su comportamiento, planteando riesgos éticos y de legitimidad.

Para abordar esta problemática, el equipo de la UGR ha presentado un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).

Este recurso busca convertirse en una guía esencial para profesionales de la informática que deseen comprender y explicar los resultados de modelos de Machine Learning. Cada capítulo describe técnicas de IA aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo.

La guía es dirigida por la profesora Natalia Díaz Rodríguez del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR, quien también es integrante del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).

“Es importante ser conscientes de las capacidades y limitaciones de los modelos avanzados de IA y de las técnicas de explicabilidad. A veces, las explicaciones no son satisfactorias o fácilmente validables,” añadió Díaz.

Este trabajo se realizó durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos del Reino Unido, Francia y Austria, entre otros países.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.