Google supprime son engagement en matière d'IA contre les armes et la surveillance

Google a supprimé un engagement clé de ses principes d'IA, supprimant un engagement à ne pas développer d'intelligence artificielle pour les armes ou la surveillance. Le changement, remarqué pour la première fois par Bloomberg, reflète un changement de position du géant de la technologie sur les applications militaires et de sécurité de l'IA.

La version mise à jour de la politique d'IA de Google, publiée mardi, souligne désormais que l'entreprise poursuit l'IA « de manière responsable » et conformément aux « principes largement acceptés du droit international et des droits de l'homme ». Cependant, elle ne précise plus explicitement que Google évitera de développer l'IA pour les armes ou la surveillance de masse.

La politique révisée a été introduite dans un article de blog par Demis Hassabis, le responsable de Google DeepMind, et James Manyika, vice-président senior des laboratoires de recherche. Ils ont présenté la mise à jour comme faisant partie de la conviction de Google que « les démocraties devraient diriger le développement de l'IA » et que l'IA devrait être construite en collaboration avec les gouvernements et les organisations qui défendent des valeurs telles que « la liberté, l'égalité et le respect des droits de l'homme ».

Google a fait face à des protestations internes de la part de ses employés concernant ses contrats avec le département américain de la Défense et l'armée israélienne, en particulier dans les domaines du cloud computing et de l'IA. La société a toujours affirmé que sa technologie n'est pas utilisée pour nuire aux humains, mais des révélations récentes remettent cette affirmation en question.

Le responsable de l'IA du Pentagone a récemment déclaré à TechCrunch que les modèles d'IA de certaines entreprises, y compris celui de Google, contribuent à accélérer la « chaîne de mort » de l'armée américaine, le processus par lequel les cibles sont identifiées et engagées dans des opérations de combat.

La suppression de l'engagement contre les armes et la surveillance suscite déjà des réactions négatives de la part des groupes de défense des droits numériques, des chercheurs en éthique de l'IA et de certains employés de Google.

Google était l'une des rares grandes entreprises d'IA à s'être engagée clairement à ne pas développer l'IA pour la guerre. Certains pensent que revenir sur cet engagement suggère une priorisation du profit et du pouvoir par rapport à la responsabilité éthique.

D'autres soutiennent que la nouvelle politique d'IA de Google est vague, remplaçant les engagements concrets par un langage large et subjectif sur le « droit international et les droits de l'homme », une norme qui est ouverte à l'interprétation et pourrait permettre à l'entreprise de justifier presque toutes les applications de l'IA.

L'assouplissement de la position de Google en matière d'IA pourrait refléter la pression croissante de Washington pour que les principales entreprises technologiques américaines restent compétitives dans la course mondiale à l'IA, en particulier contre la Chine.

Le gouvernement américain s'est de plus en plus concentré sur l'intégration de l'IA dans la stratégie militaire, et des entreprises technologiques comme Google, Microsoft et Amazon ont élargi leur rôle dans la sécurité nationale.

La décision de Google de supprimer discrètement son engagement soulève des questions cruciales sur l'avenir de l'éthique de l'IA.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.