Международная команда публикует руководство по прозрачности ИИ

Международная команда разработала руководство по искусственному интеллекту (ИИ), направленное на повышение прозрачности и доверия к этой разрушительной технологии, особенно в таких областях, как здравоохранение, финансы и право.

Координируемое Университетом Гранады (UGR), этот ресурс предлагает метод проверки и сертификации результатов сложных моделей, способствуя разработке ИИ-систем, которые не только эффективны, но и понятны.

В последние годы использование автоматизированных систем поддержки принятия решений, таких как глубокие нейронные сети (DNN), значительно возросло благодаря их предсказательным возможностям. Однако их непрозрачная природа усложняет детальную интерпретацию их поведения и вызывает этические и легитимные вопросы.

Для решения этой проблемы команда UGR представила обширное руководство по объяснимому искусственному интеллекту (XAI).

Этот ресурс должен стать основным руководством для ИТ-специалистов, стремящихся понять и объяснить результаты моделей машинного обучения. Каждая глава описывает применимые ИИ-техники для повседневных ситуаций, с примерами и рабочими тетрадями.

Руководство возглавляет профессор Наталия Диас Родригес из кафедры компьютерных наук и искусственного интеллекта UGR, которая также является членом Андалузского межуниверситетского института науки о данных и вычислительного интеллекта (Instituto DaSCI).

“Важно осознавать возможности и ограничения как продвинутых моделей ИИ, так и техник объяснимости. Иногда объяснения не являются удовлетворительными или легко проверяемыми,” отметила Диас.

Эта работа была выполнена во время пребывания профессора Диас в Политехническом институте Парижа и представляет собой международное сотрудничество с экспертами из Великобритании, Франции и Австрии, среди прочих стран.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.