Pavel Durov, fondatore di Telegram, è stato fermato il 24 agosto 2024 all'aeroporto di Le Bourget, vicino Parigi, nell'ambito di un'indagine preliminare condotta dalla Polizia Giudiziaria Nazionale francese.
Durov è stato incriminato per dodici capi d'accusa, tra cui complicità nella gestione di una piattaforma online che facilita transazioni illecite, rifiuto di cooperare con le autorità e complicità nella distribuzione di materiale pedopornografico. È stato posto sotto supervisione giudiziaria con l'obbligo di pagare una cauzione di 5 milioni di euro, di presentarsi due volte a settimana alle autorità e con il divieto di lasciare la Francia. La situazione è in evoluzione, con Durov che deve rientrare in Francia ogni 14 giorni senza una data di appello definita.
Le autorità francesi sostengono che Telegram, a causa della sua limitata moderazione e dell'uso di numeri usa e getta e criptovalute, sia diventato un terreno fertile per frodi e altre attività criminali. Le accuse includono la complicità e la negligenza, con la possibilità di una pena detentiva fino a 20 anni. Durov ha negato le accuse, definendo il caso "legalmente e logicamente assurdo" e sostenendo che Telegram rispetta le normative europee.
In risposta a queste preoccupazioni, Telegram ha annunciato un rafforzamento delle proprie pratiche di moderazione. La piattaforma ha implementato strumenti basati sull'intelligenza artificiale per migliorare la sicurezza della ricerca e filtrare prodotti illegali. L'azienda si è inoltre impegnata a condividere informazioni sugli utenti, come indirizzi IP e numeri di telefono, in casi penali gravi. Sono state rimosse migliaia di canali legati a mercati illeciti, sebbene la migrazione delle attività criminali verso nuove piattaforme rappresenti una sfida continua.
L'efficacia di questi nuovi strumenti di moderazione basati sull'IA, come TidyTalkBot o Octavia, è in crescita, con capacità di analisi in tempo reale e apprendimento continuo per identificare contenuti inappropriati. Questo evento solleva interrogativi cruciali sulle responsabilità delle aziende tecnologiche nella moderazione dei contenuti e sulla capacità delle piattaforme di prevenire l'uso improprio dei loro servizi per attività criminali.
La Francia, con la sua legislazione LOPMI, si pone all'avanguardia nel perseguire penalmente i dirigenti di aziende tecnologiche per i crimini commessi attraverso le loro piattaforme. L'approccio francese mira a responsabilizzare gli operatori delle piattaforme anche in assenza di un coinvolgimento diretto nei reati, evidenziando un cambiamento nel panorama normativo globale nei confronti delle grandi aziende tecnologiche.