Anthropic Claude. [Foto: Shutterstock]
Anthropic Conferma Claude Mythos Dopo Fuga di Dati, Evidenziando Rischi Cyber
Modificato da: Tetiana Pin
Il 27 marzo 2026, Anthropic ha ufficialmente riconosciuto l'esistenza e la fase di test del suo modello di intelligenza artificiale di nuova generazione, denominato Claude Mythos. Questa convalida è seguita a una significativa violazione dei dati, originata da una cache di informazioni non protetta e resa pubblicamente accessibile, che aveva precedentemente rivelato il modello e le sue prestazioni superiori rispetto alle iterazioni precedenti, come Claude Opus 4.6. La conferma di Anthropic, azienda con sede a San Francisco, ha sottolineato la natura di progresso qualitativo, definita come un "cambio di passo" piuttosto che un semplice aggiornamento incrementale.
La falla di sicurezza, attribuita da Anthropic a un "errore umano" nella configurazione del sistema di gestione dei contenuti (CMS), ha esposto quasi 3.000 bozze di post del blog non pubblicate e documentazione interna. Il materiale trapelato, che includeva dettagli tecnici e strategici, è stato reso ricercabile pubblicamente prima che la testata Fortune informasse l'azienda, portando Anthropic a limitare immediatamente l'accesso al repository. L'architettura interna dei documenti indicava un nuovo livello di modello, designato internamente come Capybara, posizionato gerarchicamente al di sopra dell'attuale punta di diamante, il tier Opus. Anthropic attualmente struttura la sua offerta sui livelli Opus, Sonnet e Haiku.
L'analisi indipendente dei dati trapelati è stata condotta dal ricercatore di sicurezza informatica Alexandre Pauwels dell'Università di Cambridge e da Roy Paz, Ricercatore Senior di Sicurezza AI presso LayerX Security. I documenti descrivevano Claude Mythos come un sistema che ottiene punteggi "drasticamente superiori" rispetto a Claude Opus 4.6 in aree critiche come la programmazione software e il ragionamento accademico. In modo più significativo per il settore, il modello è stato descritto come "molto più avanti di qualsiasi altro modello di IA nelle capacità cyber". Questo dato si inserisce nel contesto di precedenti segnalazioni in cui Claude Code era stato utilizzato da un gruppo sponsorizzato dallo stato cinese per infiltrarsi in organizzazioni.
Il nucleo della questione sollevata dai materiali trapelati verte sui rischi di sicurezza informatica associati a Claude Mythos, ipotizzando una sua capacità di sfruttare vulnerabilità a una velocità che supera le difese attuali. In risposta a questa potenziale natura dual-use, Anthropic ha stabilito che sarà necessaria una distribuzione estremamente cauta, limitando inizialmente l'accesso a organizzazioni dedicate esclusivamente alla difesa informatica. Questa strategia di implementazione mirata riconosce il duplice potenziale della tecnologia, bilanciando l'innovazione con la mitigazione del rischio.
La documentazione trapelata ha anche fornito dettagli su un imminente incontro a porte chiuse nel Regno Unito, durante il quale l'Amministratore Delegato di Anthropic, Dario Amodei, era programmato per presentare dimostrazioni delle capacità del modello. Questa notizia si inserisce nel contesto di una più ampia corsa all'intelligenza artificiale avanzata, che ha visto Anthropic rilasciare Claude Opus 4.6 e Sonnet 4.6 nel febbraio 2026. Precedentemente, nel gennaio 2026, Dario Amodei aveva espresso cautela riguardo al pericolo imminente dell'intelligenza sovrumana nel suo saggio intitolato "L'Adolescenza della Tecnologia". La coincidenza temporale tra la fuga di dati e le notizie di Bloomberg e The Information di una possibile IPO di Anthropic nell'ottobre 2026 suggerisce un allineamento strategico per massimizzare la valutazione di mercato attraverso la dimostrazione di capacità all'avanguardia.
Fonti
3DNews - Daily Digital Digest
KuCoin
1M AI News
Digit
Times Now
Fortune


