La Corea del Sud ha aperto un’indagine contro Telegram per la diffusione di deepfake pornografici di ragazze, spesso minorenni
Lunedì in Corea del Sud è stata aperta un’indagine contro l’app di messaggistica Telegram, accusata di «incoraggiare» la diffusione di immagini di nudo false di migliaia di persone, in gran parte ragazze che per il 60 per cento sono minorenni. La polizia coreana ha detto di star indagando da tempo su questo tipo di immagini e che Telegram è stato coinvolto perché è la piattaforma dove spesso le persone le condividono. Il capo dell’Ufficio investigativo della polizia sudcoreana, Woo Jong-soo, ha detto che l’indagine è stata aperta perché «Telegram non ha risposto alle nostre precedenti richieste di informazioni sugli account [degli utenti] in precedenti indagini su crimini» legati alla piattaforma.
Il problema dei deepfake a sfondo sessuale in Corea del Sud è molto diffuso: si tratta di immagini contraffatte con software di intelligenza artificiale create sovrapponendo i volti di persone presi da foto disponibili online (spesso i profili social) ad altre immagini pornografiche. Queste immagini vengono poi spacciate per vere e vengono fatte circolare online. Le app capaci di creare deepfake, che non hanno sempre un contenuto pornografico, sono diventate negli anni sempre più sofisticate, al punto che è ormai difficile capire a prima vista se si tratta di un’immagine falsa.
Da tempo Telegram è criticato per la mancanza di un sistema di moderazione e per il fatto che l’azienda che la gestisce non collabora con le forze dell’ordine nelle indagini e nella rimozione di contenuti potenzialmente dannosi. Nelle ultime settimane queste critiche si sono concretizzate con l’arresto e l’incriminazione in Francia del suo fondatore e amministratore delegato Pavel Durov.
– Leggi anche: Come si riconosce un video fatto con l’intelligenza artificiale