Google verbessert Gemini AI mit Anthropics Claude

Google nutzt Berichten zufolge das KI-Modell von Anthropic, Claude, um seinen Gemini-Chatbot zu verbessern, so TechCrunch.

Im wettbewerbsintensiven Technologiesektor bewerten Unternehmen oft ihre KI-Modelle im Vergleich zu denen von Rivalen. Um die Genauigkeit der Ausgaben von Gemini zu verbessern, hat Google Auftragnehmer beauftragt, die Leistung von Gemini im Vergleich zu Claude anhand verschiedener Kriterien, einschließlich Genauigkeit und Redundanz, zu bewerten.

Auftragnehmer, die an der Verbesserung von Gemini arbeiten, haben bis zu 30 Minuten Zeit, um zu bestimmen, welches KI-Modell überlegene Antworten auf eine einzelne Eingabeaufforderung liefert. Kürzlich begannen Erwähnungen von Claude auf einer internen Google-Plattform zu erscheinen, die verwendet wird, um Gemini mit weniger bekannten KI-Modellen zu vergleichen.

Ein Auftragnehmer berichtete, dass mindestens eine Ausgabe die Aussage enthielt: „Ich bin Claude, erstellt von Anthropic.“

Diskussionen unter den Auftragnehmern deuteten darauf hin, dass Claudes Antworten anscheinend mehr Wert auf Sicherheit legen als die von Gemini. Ein Auftragnehmer bewertete Claudes Sicherheitseinstellungen als die strengsten unter den KI-Modellen.

Claude wurde als sicherer als andere Modelle angesehen, da er nicht auf als unsicher erachtete Eingabeaufforderungen, wie Rollenspiele, reagierte. Im Gegensatz dazu gab es Fälle, in denen Gemini Ausgaben mit Bezug auf „Nacktheit und Bondage“ lieferte.

Die kommerziellen Bedingungen von Anthropic verbieten es den Kunden ausdrücklich, auf Claude zuzugreifen, um konkurrierende Produkte zu erstellen oder rivalisierende KI-Modelle ohne Genehmigung zu trainieren. TechCrunch stellte jedoch fest, dass Google auch ein großer Investor in Anthropic ist.

TechCrunch fragte Google nach der Verwendung von Claude zur Verbesserung von Gemini. Sira McNamara, eine Sprecherin von Google DeepMind, bestätigte, dass der Vergleich der Ausgaben von KI-Modellen im Gange ist, gab jedoch keine Klarheit darüber, ob eine Genehmigung für die Nutzung von Claude eingeholt wurde. McNamara erklärte auch, dass die Behauptungen, ein Modell von Anthropic für das Training von Gemini verwendet zu haben, ungenau sind und bestritt die Nutzung von Claude für das Training von Gemini.

Zum Zeitpunkt der Veröffentlichung hatte TechCrunch noch keine Antwort von Anthropic zu diesen Entwicklungen erhalten.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.