Google entfernt AI-Versprechen gegen Waffen und Überwachung

Google hat ein zentrales Versprechen aus seinen AI-Prinzipien entfernt und damit ein Versprechen gestrichen, keine künstliche Intelligenz für Waffen oder Überwachung zu entwickeln. Die Änderung, die erstmals von Bloomberg bemerkt wurde, spiegelt einen Wandel in der Haltung des Technologiekonzerns gegenüber militärischen und sicherheitsrelevanten Anwendungen von AI wider.

Die aktualisierte Version von Googles AI-Politik, die am Dienstag veröffentlicht wurde, betont nun, dass das Unternehmen AI „verantwortungsvoll“ und nach „weitgehend akzeptierten Prinzipien des Völkerrechts und der Menschenrechte“ verfolgt. Es wird jedoch nicht mehr explizit gesagt, dass Google die Entwicklung von AI für Waffen oder Massenüberwachung vermeiden wird.

Die überarbeitete Politik wurde in einem Blogbeitrag von Demis Hassabis, dem Leiter von Google DeepMind, und James Manyika, dem Senior Vice President der Forschungslabore, vorgestellt. Sie stellten das Update als Teil von Googles Überzeugung dar, dass „Demokratien im AI-Entwicklungsprozess führend sein sollten“ und dass AI in Zusammenarbeit mit Regierungen und Organisationen aufgebaut werden sollte, die Werte wie „Freiheit, Gleichheit und Achtung der Menschenrechte“ hochhalten.

Google wurde von seinen Mitarbeitern wegen seiner Verträge mit dem US-Verteidigungsministerium und dem israelischen Militär, insbesondere in den Bereichen Cloud Computing und AI, mit internen Protesten konfrontiert. Das Unternehmen hat immer behauptet, dass seine Technologie nicht dazu verwendet wird, Menschen zu schaden, aber jüngste Enthüllungen stellen diese Behauptung in Frage.

Der AI-Chef des Pentagons sagte kürzlich gegenüber TechCrunch, dass einige AI-Modelle von Unternehmen, darunter auch Googles, dazu beitragen, die „Kill Chain“ des US-Militärs zu beschleunigen – den Prozess, bei dem Ziele in Kampfoperationen identifiziert und angegriffen werden.

Die Entfernung des Versprechens gegen Waffen und Überwachung löst bereits Gegenreaktionen von digitalen Bürgerrechtsgruppen, AI-Ethikforschern und einigen Google-Mitarbeitern aus.

Google war eines der wenigen großen AI-Unternehmen, das sich klar dazu verpflichtet hatte, keine AI für die Kriegsführung zu entwickeln. Einige glauben, dass ein Rückzug von diesem Versprechen eine Priorisierung von Profit und Macht gegenüber ethischer Verantwortung nahelegt.

Andere argumentieren, dass Googles neue AI-Politik vage ist und konkrete Verpflichtungen durch eine breite, subjektive Sprache über „Völkerrecht und Menschenrechte“ ersetzt – einen Standard, der offen für Interpretation ist und es dem Unternehmen ermöglichen könnte, fast jede AI-Anwendung zu rechtfertigen.

Googles weichere AI-Haltung könnte den wachsenden Druck aus Washington widerspiegeln, sicherzustellen, dass führende US-Technologieunternehmen im globalen AI-Wettlauf wettbewerbsfähig bleiben – insbesondere gegenüber China.

Die US-Regierung hat sich zunehmend darauf konzentriert, AI in die Militärstrategie zu integrieren, und Technologieunternehmen wie Google, Microsoft und Amazon haben ihre Rolle in der nationalen Sicherheit ausgeweitet.

Googles Entscheidung, sein Versprechen stillschweigend zu entfernen, wirft kritische Fragen über die Zukunft der AI-Ethik auf.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.