Anthropic Accusa Laboratori Cinesi di Furto Industriale di Modelli AI; Claude Supera ChatGPT negli USA
Modificato da: gaya ❤️ one
Anthropic, l'organizzazione co-fondata da Dario Amodei, ha sporto denuncia formale contro diversi laboratori cinesi, tra cui DeepSeek, Moonshot AI e MiniMax, accusandoli di aver attuato una sistematica "distillazione" su scala industriale del suo modello di intelligenza artificiale Claude. L'azienda sostiene che questa estrazione non autorizzata delle capacità sia stata eseguita utilizzando circa 24.000 account fraudolenti, generando oltre 16 milioni di interazioni per addestrare i modelli della concorrenza. Questa presunta violazione dei termini di servizio si inserisce in un contesto di crescenti tensioni geopolitiche ed etiche nel settore dell'IA, mentre la Cina persegue una strategia di pianificazione statale per ottenere il primato globale entro il 2030.
La tecnica di distillazione, sebbene consolidata per ottimizzare modelli più piccoli, è contestata da Anthropic poiché non autorizzata e potenzialmente mirata a eludere i sistemi di sicurezza e allineamento etico integrati in Claude. L'azienda ha sottolineato che i modelli sviluppati eticamente incorporano protezioni contro usi malevoli, come la creazione di armi biologiche o attacchi informatici, protezioni che potrebbero essere aggirate nei sistemi replicati. Questa escalation di accuse intensifica il confronto tecnologico tra Stati Uniti e Cina, incentrato sul controllo dell'infrastruttura cognitiva globale, dai dati alla potenza di calcolo.
Parallelamente alle controversie sulla proprietà intellettuale, il panorama commerciale statunitense ha visto una flessione per OpenAI, esacerbata da una reazione negativa degli utenti. Il contraccolpo è emerso dopo che l'allora Presidente Donald Trump aveva ordinato alle agenzie federali di interrompere i contratti con Anthropic, in seguito al rifiuto del CEO Dario Amodei di disattivare le salvaguardie che impediscono l'uso di Claude per la sorveglianza di massa domestica o per armi autonome letali. OpenAI, nel frattempo, aveva annunciato un accordo con il Pentagono, successivamente integrato con clausole contro la sorveglianza di massa e le armi autonome, nel tentativo di mitigare il contraccolpo.
La controversia politica e l'apparente difesa dei principi etici da parte di Anthropic hanno innescato un'ondata di sostegno tra gli utenti. Il 1° marzo 2026, Claude ha superato ChatGPT e Google Gemini, assicurandosi la prima posizione come applicazione gratuita più scaricata sull'Apple App Store negli Stati Uniti, stabilendo record per le registrazioni di utenti attivi giornalieri. Un portavoce di Anthropic ha confermato che gli utenti attivi gratuiti sono aumentati di oltre il 60% da gennaio, con le iscrizioni giornaliere triplicate da novembre, mentre gli abbonati paganti sono più che raddoppiati quest'anno. Questo posizionamento di mercato riflette come l'allineamento etico possa influenzare la lealtà dei consumatori nel settore dell'IA.
In netto contrasto con l'ascesa di Claude, OpenAI sta affrontando significative pressioni finanziarie, con proiezioni che indicano perdite operative vicine ai 14 miliardi di dollari per l'anno fiscale 2026. Questi costi elevati, derivanti principalmente dall'infrastruttura di calcolo necessaria per supportare miliardi di richieste giornaliere, stanno costringendo l'azienda a rivedere al ribasso i propri obiettivi di spesa computazionale a lungo termine. Mentre OpenAI si concentra sulla stabilizzazione delle relazioni governative e sulla gestione delle perdite, Anthropic capitalizza su una narrazione di indipendenza tecnologica e responsabilità etica, guadagnando terreno nel mercato consumer.
1 Visualizzazioni
Fonti
La Razón
El Independiente
Diario Bitcoin
Xataka
AP News
AIBase
Leggi altre notizie su questo argomento:
Hai trovato un errore o un'inaccuratezza?Esamineremo il tuo commento il prima possibile.



