Google elimina su promesa de IA contra las armas y la vigilancia

Google ha eliminado un compromiso clave de sus principios de IA, eliminando una promesa de no desarrollar inteligencia artificial para armas o vigilancia. El cambio, notado por primera vez por Bloomberg, refleja un cambio en la postura del gigante tecnológico sobre las aplicaciones militares y de seguridad de la IA.

La versión actualizada de la política de IA de Google, publicada el martes, ahora enfatiza que la compañía persigue la IA "de manera responsable" y de acuerdo con los "principios ampliamente aceptados del derecho internacional y los derechos humanos". Sin embargo, ya no establece explícitamente que Google evitará desarrollar IA para armas o vigilancia masiva.

La política revisada se introdujo en una publicación de blog de Demis Hassabis, el jefe de Google DeepMind, y James Manyika, vicepresidente senior de laboratorios de investigación. Enmarcaron la actualización como parte de la creencia de Google de que "las democracias deben liderar el desarrollo de la IA" y que la IA debe construirse en colaboración con los gobiernos y las organizaciones que defienden valores como "la libertad, la igualdad y el respeto de los derechos humanos".

Google se ha enfrentado a protestas internas de sus empleados por sus contratos con el Departamento de Defensa de EE. UU. y el ejército israelí, particularmente en las áreas de computación en la nube e IA. La compañía ha mantenido constantemente que su tecnología no se usa para dañar a los humanos, pero revelaciones recientes desafían esa afirmación.

El jefe de IA del Pentágono dijo recientemente a TechCrunch que algunos modelos de IA de las empresas, incluido el de Google, están ayudando a acelerar la "cadena de muerte" del ejército estadounidense, el proceso por el cual se identifican y se atacan los objetivos en las operaciones de combate.

La eliminación de la promesa contra las armas y la vigilancia ya está provocando reacciones negativas de grupos de derechos digitales, investigadores de ética de la IA y algunos empleados de Google.

Google era una de las pocas empresas importantes de IA que se había comprometido claramente a no desarrollar IA para la guerra. Algunos creen que dar marcha atrás en ese compromiso sugiere una priorización de las ganancias y el poder sobre la responsabilidad ética.

Otros argumentan que la nueva política de IA de Google es vaga, reemplazando los compromisos concretos con un lenguaje amplio y subjetivo sobre "el derecho internacional y los derechos humanos", un estándar que está abierto a la interpretación y podría permitir que la empresa justifique casi cualquier aplicación de la IA.

El ablandamiento de la postura de Google sobre la IA puede reflejar la creciente presión de Washington para garantizar que las principales empresas tecnológicas estadounidenses sigan siendo competitivas en la carrera global de la IA, especialmente contra China.

El gobierno de EE. UU. se ha centrado cada vez más en integrar la IA en la estrategia militar, y empresas tecnológicas como Google, Microsoft y Amazon han ampliado sus roles en la seguridad nacional.

La decisión de Google de eliminar silenciosamente su promesa plantea preguntas críticas sobre el futuro de la ética de la IA.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.