Anthropic Claude. [Photo : Shutterstock]
Anthropic confirme le modèle d'IA Claude Mythos après une fuite de documents internes
Édité par : Tetiana Pin
La société Anthropic a officialisé, le 27 mars 2026, le développement et les essais de son modèle d'intelligence artificielle avancé, baptisé Claude Mythos. Cette confirmation fait suite à la divulgation accidentelle de documents internes non publiés qui révélaient l'existence de cette itération supérieure, surpassant les performances de son prédécesseur immédiat, Claude Opus 4.6. L'incident s'est matérialisé par l'exposition d'un cache de données accessible publiquement, une faille qu'Anthropic a rapidement corrigée en restreignant l'accès au référentiel concerné.
La fuite, dont l'origine est attribuée par Anthropic à une « erreur humaine » dans la configuration de son système de gestion de contenu (CMS), comprenait près de 3 000 ébauches d'articles de blog et des documents internes. Ces matériaux décrivaient Claude Mythos comme atteignant des « scores nettement supérieurs » à ceux de Claude Opus 4.6 dans des domaines critiques tels que la programmation logicielle, le raisonnement académique et la cybersécurité. L'entreprise, qui propose actuellement les gammes Opus, Sonnet et Haiku, a reconnu que ce nouveau système représentait un changement significatif et le modèle le plus performant jamais conçu par ses équipes.
L'analyse indépendante de ces données a été menée par des spécialistes en sécurité informatique, dont Alexandre Pauwels, chercheur à l'Université de Cambridge, et Roy Paz, Chercheur Senior en Sécurité IA chez LayerX Security. Les documents internes révélaient également une désignation interne pour ce nouveau palier de performance, le nom de code « Capybara », positionné stratégiquement au-dessus du niveau Opus, suggérant une segmentation interne ou une stratégie de marché distincte. Un axe central des informations divulguées concernait les risques de cybersécurité associés à Claude Mythos, ce modèle étant décrit comme apte à exploiter des failles à une échelle dépassant les capacités défensives actuelles.
Face à la puissance évoquée, Anthropic a statué qu'un déploiement extrêmement prudent était impératif, limitant l'accès initial à un cercle restreint d'organisations spécifiquement dédiées à la défense cybernétique. Cette approche reconnaît la nature à double usage de cette technologie avancée, cherchant à équilibrer l'impératif d'innovation avec une gestion rigoureuse des risques. Le corpus de documents fuité a également exposé les détails d'un sommet privé à huis clos prévu au Royaume-Uni, auquel le PDG d'Anthropic, Dario Amodei, devait assister pour présenter des démonstrations du modèle.
Cette actualité s'inscrit dans un contexte de progression rapide des capacités de l'IA. Il est pertinent de noter que cette révélation survient peu après la mise à disposition par Anthropic des modèles Claude Opus 4.6 et Sonnet 4.6 en février 2026. Par ailleurs, Dario Amodei avait déjà exprimé des mises en garde sérieuses en janvier 2026, notamment dans son essai « The Adolescence of Technology », où il évoquait le danger d'une intelligence super-humaine. Le positionnement de Capybara au-dessus du niveau Opus signale une nouvelle ambition technologique, potentiellement en réponse à la course à l'IA et aux introductions en bourse envisagées par les acteurs majeurs du secteur, y compris Anthropic elle-même.
L'incident, bien que résultant d'une erreur de configuration du CMS, souligne l'importance critique de la gouvernance des données dans une ère où les systèmes d'IA atteignent des niveaux de puissance sans précédent, nécessitant des mécanismes de contrôle robustes pour prévenir tout usage malveillant.
Sources
3DNews - Daily Digital Digest
KuCoin
1M AI News
Digit
Times Now
Fortune


