Google Améliore son AI Gemini avec Claude d'Anthropic

Google utilise apparemment le modèle d'IA d'Anthropic, Claude, pour améliorer son chatbot Gemini, selon TechCrunch.

Dans le secteur technologique concurrentiel, les entreprises évaluent souvent leurs modèles d'IA par rapport à ceux de leurs rivaux. Pour améliorer l'exactitude des résultats de Gemini, Google a engagé des sous-traitants pour évaluer la performance de Gemini par rapport à Claude sur divers critères, y compris l'exactitude et la redondance.

Les sous-traitants travaillant sur l'amélioration de Gemini disposent de jusqu'à 30 minutes pour déterminer quel modèle d'IA fournit les meilleures réponses à un seul prompt. Récemment, des mentions de Claude ont commencé à apparaître sur une plateforme interne de Google utilisée pour comparer Gemini avec des modèles d'IA moins connus.

Un sous-traitant a rapporté qu'au moins une sortie incluait la déclaration : « Je suis Claude créé par Anthropic ».

Les discussions entre les sous-traitants ont indiqué que les réponses de Claude semblaient prioriser la sécurité plus que celles de Gemini. Un sous-traitant a évalué les paramètres de sécurité de Claude comme étant les plus stricts parmi les modèles d'IA.

Claude a été jugé plus sûr que d'autres modèles car il n'a pas répondu à des prompts jugés dangereux, tels que des scénarios de jeu de rôle. En revanche, il y a eu des cas où Gemini a fourni des résultats incluant des références à « nudité et bondage ».

Les termes commerciaux d'Anthropic interdisent explicitement aux clients d'accéder à Claude pour construire des produits concurrents ou former des modèles d'IA rivaux sans approbation. Cependant, TechCrunch a noté que Google est également un investisseur majeur dans Anthropic.

TechCrunch a interrogé Google sur l'utilisation de Claude pour améliorer Gemini, à quoi Sira McNamara, porte-parole de Google DeepMind, a confirmé que la comparaison des résultats des modèles d'IA est en cours, mais n'a pas précisé si une approbation pour l'utilisation de Claude avait été obtenue. McNamara a également déclaré que les affirmations selon lesquelles un modèle d'Anthropic a été utilisé pour former Gemini sont inexactes, niant l'utilisation de Claude pour la formation de Gemini.

Au moment de la publication, TechCrunch n'avait pas reçu de réponse d'Anthropic concernant ces développements.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.