Piattaforma X introduce l'etichettatura obbligatoria per l'IA e sanzioni per i contenuti bellici non dichiarati

Modificato da: Tatyana Hurynovich

La piattaforma di social media X, precedentemente nota come Twitter, ha avviato l'implementazione di un sistema di etichettatura automatica obbligatoria per tutti i contenuti generati tramite intelligenza artificiale (IA). Questa iniziativa mira a rafforzare la trasparenza e a contrastare la diffusione della disinformazione, imponendo che ogni contenuto visivo o video sia contrassegnato dalla dicitura «Creato con intelligenza artificiale» immediatamente dopo il caricamento, qualora il sistema ne rilevi l'origine sintetica. L'obiettivo primario è fornire agli utenti strumenti più efficaci per valutare l'attendibilità delle informazioni, in particolare in un clima di forti tensioni geopolitiche, come i recenti eventi in Medio Oriente che hanno alimentato un incremento di contenuti manipolatori.

Parallelamente a questo requisito generale, X ha inasprito le proprie politiche riguardanti i contenuti IA non dichiarati che trattano operazioni militari e conflitti. Secondo quanto dichiarato da Nikita Bier, attuale responsabile del prodotto presso X, gli autori che violeranno queste disposizioni andranno incontro a pesanti ripercussioni economiche. Alla prima infrazione rilevata, il creatore subirà una sospensione di 90 giorni dal Programma di condivisione delle entrate pubblicitarie. In caso di recidiva, la piattaforma prevede la revoca permanente di ogni diritto di monetizzazione. Per le immagini in cui il confine tra realtà e sintesi risulta ambiguo, X si affiderà al sistema di verifica partecipativa noto come Community Notes.

Questo approccio strutturato su più livelli, che combina la marcatura automatica a sanzioni rigorose per i media legati alla guerra, evidenzia la volontà di X di regolamentare in modo più esplicito i media sintetici all'interno del proprio ecosistema. Tali misure sono presentate anche come un tassello fondamentale della strategia volta a stabilizzare i ricavi pubblicitari, cercando di riconquistare la fiducia degli inserzionisti attraverso una maggiore trasparenza della piattaforma. Il contesto di queste innovazioni è strettamente legato alle precedenti sfide normative che hanno coinvolto Grok, il chatbot proprietario basato su intelligenza artificiale di X.

Nel gennaio 2026, le restrizioni nei confronti di Grok erano state ulteriormente inasprite a causa della generazione di deepfake e contenuti inappropriati, scatenando una vasta risonanza internazionale. In risposta a tali incidenti, la Commissione Europea, esercitando i poteri conferiti dal Digital Services Act (DSA), ha imposto a X l'obbligo di conservare tutti i dati interni relativi a Grok fino alla fine del 2026. Questa disposizione funge da misura preventiva per garantire alla Commissione l'accesso alla documentazione necessaria. Nikita Bier, alla guida del dipartimento prodotti, porta con sé l'esperienza maturata come fondatore delle app virali Gas e TBH, successivamente acquisite rispettivamente da Discord e Facebook.

Mentre X introduce ora l'etichettatura obbligatoria e le sanzioni finanziarie tramite la sospensione della monetizzazione, altri colossi del settore come Meta avevano già adottato requisiti simili nel 2024, mentre YouTube richiede da tempo la dichiarazione per i contenuti alterati o sintetici. Le recenti azioni intraprese da X segnano un cambiamento significativo verso la formalizzazione degli standard di trasparenza per i contenuti sintetici. Questa evoluzione risponde sia alla pressione dell'opinione pubblica sia al crescente onere normativo che caratterizza l'attuale era dell'intelligenza artificiale generativa, cercando di bilanciare innovazione tecnologica e responsabilità editoriale.

12 Visualizzazioni

Fonti

  • Teknolojioku

  • HaberGo - Türkiye haberleri

  • Dünya Gazetesi

  • Doğruhaber

  • PEKY

  • TGRT Haber

Hai trovato un errore o un'inaccuratezza?Esamineremo il tuo commento il prima possibile.