Illegale l'app che spoglia le persone: il Garante privacy la blocca
Il Garante ha ordinato restrizioni immediate sul trattamento dei dati per gli utenti italiani: l’app, molto diffusa, crea deepfake di nudo partendo da foto vestite. Avviata un’indagine per contrastare tutte le app di “nudificazione”.
Stop immediato all’app ClothOff, che utilizzando l’intelligenza artificiale “spoglia” le persone ritratte nelle foto digitali: è stata dichiarata illegale. Il provvedimento arriva oggi, 3 ottobre, dal Garante per la protezione dei dati personali, che ha disposto il blocco con effetto immediato, ordinando la limitazione alla società che gestisce la piattaforma, con sede nelle Isole Vergini Britanniche.
Così l’applicazione, molto diffusa soprattutto tra i giovani, è stata sospesa in Italia.
Il Garante ha sottolineato la gravità della violazione: l’app non solo crea immagini false e offensive, ma lo fa senza il consenso delle persone ritratte, così ledendo la loro dignità e la loro privacy in modo estremamente grave.
Indice
Perché Clothoff è considerata pericolosa
Il servizio di AI generativa utilizzato da ClothOff consente – anche gratuitamente – di creare immagini e video falsi che ritraggono persone nude o in pose sessualmente esplicite.
Il comunicato diramato oggi dal Garante sottolinea che chiunque, compresi i minorenni, può utilizzare l’app per “nudificare” fotografie, persino di altri minori. Tutto questo avviene senza alcun sistema di verifica del consenso e senza segnalare che si tratta di contenuti artificiali.
Questo tipo di tecnologia, definita ‘deepfake‘, rientra tra le manipolazioni digitali più pericolose e dannose. In questo caso, viene usata per generare contenuti pornografici o intimi non consensuali, con un potenziale di abuso altissimo.
Secondo l’Autorità, l’app rappresenta un pericolo concreto per la dignità e i diritti fondamentali degli individui, perché permette di generare foto e video di deep nude a partire da immagini anche di persone inconsapevoli.
L’allarme sociale
Il Garante richiama espressamente i numerosi casi di cronaca italiana, dove immagini manipolate con tecniche simili sono già state usate per bullismo, pornografia non consensuale ed episodi di ricatto. Da qui la decisione di bloccare subito Clothoff e avviare un’indagine più ampia per colpire tutte le app di “nudificazione” che, come detto poc’anzi, minacciano gravemente la dignità e la sicurezza delle persone.
Le possibili conseguenze legali
Il Garante ha ordinato l’immediato blocco dell’app e la rimozione di tutti i dati raccolti illegalmente, avvertendo che l’uso e la diffusione di queste immagini costituiscono un reato.
Oltre al profilo privacy, la generazione e diffusione di immagini intime false può integrare ulteriori reati (come diffamazione, revenge porn, estorsione) e aprire a
Il blocco imposto dal Garante serve, dunque, a prevenire non solo violazioni di dati personali, ma anche condotte criminose con impatti devastanti per chi ne subisce le conseguenze.
Cosa possono fare le vittime
Chi scopre di essere stato vittima di “nudificazione” e di divulgazione di tali immagini fake senza il suo consenso, può:
- denunciare immediatamente l’accaduto alle forze di polizia e, in particolare, alla Polizia postale;
- segnalare il caso al Garante per la protezione dei dati personali;
- chiedere formalmente la rimozione dei contenuti alle piattaforme che li ospitano;
- avviare azioni legali per ottenere il risarcimento dei danni.
Conclusione
La decisione odierna del Garante segna un precedente importante nella lotta contro la diffusione di contenuti generati dall’intelligenza artificiale che violano i diritti individuali. Con un provvedimento ad effetto immediato, l’app ‘ClothOff‘ è stata resa irraggiungibile per gli utenti italiani.
Con lo stop a Clothoff, il Garante diventa uno dei primi organismi europei a intervenire con decisione contro le app che trasformano l’AI in uno strumento di violenza digitale. L’indagine avviata dall’Autorità per scoprire altri casi di “nudificazione” apre ora la strada a un’azione più ampia, indispensabile per tutelare i diritti e la dignità delle persone nell’era dei deepfake.