Une équipe internationale a élaboré un manuel sur l'intelligence artificielle (IA) visant à améliorer la transparence et la confiance dans cette technologie perturbatrice, en particulier dans des secteurs tels que la santé, la finance et le droit.
Coordonné par l'Université de Grenade (UGR), ce document propose une méthode pour vérifier et certifier les résultats de modèles complexes, contribuant au développement de systèmes d'IA à la fois efficaces et compréhensibles.
Ces dernières années, l'utilisation de systèmes automatiques d'aide à la décision, tels que les Réseaux de Neurones Profonds (DNN), a considérablement augmenté en raison de leurs capacités prédictives. Cependant, leur nature opaque complique l'interprétation détaillée de leur comportement, soulevant des préoccupations éthiques.
Pour aborder ce problème, l'équipe de l'UGR a présenté un guide complet sur les techniques d'intelligence artificielle explicable (XAI).
Ce document vise à être un guide essentiel pour les professionnels de l'informatique souhaitant comprendre et expliquer les résultats des modèles d'apprentissage automatique. Chaque chapitre décrit des techniques d'IA applicables à des situations quotidiennes, avec des exemples et des cahiers de travail.
Le guide est dirigé par la professeure Natalia Díaz Rodríguez du département d'informatique et d'intelligence artificielle de l'UGR, membre de l'Institut interuniversitaire andalou en science des données et intelligence computationnelle (Instituto DaSCI).
“Il est important d'être conscient des capacités et des limites des modèles avancés d'IA ainsi que des techniques d'explicabilité. Parfois, les explications ne sont pas satisfaisantes ou facilement vérifiables,” a déclaré Díaz.
Ce travail a été réalisé pendant le séjour de la professeure Díaz à l'Institut polytechnique de Paris, en collaboration avec des experts du Royaume-Uni, de France et d'Autriche, entre autres pays.