Come difendersi dai deepfake con la nuova legge?
La legge introduce reati specifici per l’uso illecito dell’AI, come la diffusione di contenuti falsi e plagio. Scopri le nuove tutele e le sanzioni più severe per proteggerti da questi pericoli.
L’intelligenza artificiale ha aperto scenari straordinari, ma ha anche spalancato le porte a nuovi e insidiosi rischi. Immagini che sembrano vere ma non lo sono, video che riproducono le fattezze e la voce di una persona per farle dire cose mai pensate, testi generati automaticamente per plagiare opere altrui. Questi fenomeni, sempre più diffusi, possono danneggiare la reputazione, manipolare l’opinione pubblica e violare i diritti fondamentali. Di fronte a questa avanzata tecnologica, la legge non poteva restare a guardare. Molti si chiedono
Indice
Cosa prevede il nuovo reato di deepfake?
Per contrastare la creazione e diffusione di contenuti falsi, è stato introdotto un nuovo articolo nel Codice penale (art. 612-quater c.p.). Questa norma punisce con la
Tizio, per vendicarsi della sua ex fidanzata Caia, utilizza un’applicazione di intelligenza artificiale per creare un video in cui il volto di Caia è montato sul corpo di un’altra persona in un contesto compromettente. Successivamente, diffonde il video su una chat di gruppo. Tizio commette il nuovo reato di illecita diffusione di contenuti generati con l’AI, perché ha agito senza il consenso di Caia, le ha causato un danno (alla reputazione) e il video è idoneo a ingannare chi lo guarda.
In questi casi, quindi, è possibile:
- procedere con una querela alle autorità (Questura, polizia postale, carabinieri) per l’accertamento del reato e la punizione del colpevole;
- procedere in via civile, con una causa in tribunale, per ottenere il risarcimento del danno.
Quando si procede d’ufficio per i deepfake?
Generalmente, per far partire un procedimento penale per questo tipo di illecito è necessaria la
- il fatto è connesso con un altro delitto per cui si procede già d’ufficio (ad esempio, una diffamazione aggravata);
- la vittima è una persona incapace, per età (un minore) o per infermità (una persona con una disabilità cognitiva);
- il contenuto falso è stato creato per danneggiare una pubblica autorità a causa delle funzioni che esercita.
Viene creato e diffuso un deepfake audio in cui la voce del Ministro della Giustizia annuncia dimissioni immediate per presunti illeciti, al fine di destabilizzare le istituzioni. In questo caso, non è necessario che il Ministro sporga querela: la Procura della Repubblica avvierà le indagini autonomamente perché il fatto è commesso ai danni di una pubblica autorità nell’esercizio delle sue funzioni.
Annuncio pubblicitario
L’uso dell’AI è un’aggravante per altri reati?
L’impiego dell’intelligenza artificiale può rendere un’azione illegale molto più pericolosa e difficile da scoprire. Per questa ragione, la legge ha introdotto una nuova aggravante comune, applicabile a diversi tipi di reati. La pena prevista per un reato è aumentata se l’autore ha utilizzato sistemi di AI che, per le loro caratteristiche o per come sono stati usati, hanno rappresentato un mezzo insidioso. L’aggravante scatta anche quando l’uso dell’AI ha reso più difficile la difesa della vittima (pubblica o privata) o ha peggiorato le conseguenze del reato. Inoltre, è stata prevista un’aggravante specifica per chi attenta ai
Una banda di truffatori utilizza un software di AI per clonare la voce di un amministratore delegato e chiamare un impiegato dell’ufficio contabilità, ordinandogli di effettuare un bonifico urgente su un conto estero. L’impiegato, ingannato dalla voce identica a quella del suo capo, esegue l’operazione. In questo caso, al reato di truffa si applicherà l’aggravante dell’uso di sistemi di AI, perché hanno costituito un mezzo insidioso che ha ostacolato la difesa della vittima.
Annuncio pubblicitario
Quali sono le sanzioni per le imprese che usano l’AI?
Le nuove norme non riguardano solo i privati, ma colpiscono duramente anche le condotte illecite nel mondo dell’economia e della finanza. Se il reato di aggiotaggio societario e bancario (art. 2637 c.c.), che consiste nel diffondere notizie false per alterare il prezzo di titoli, viene commesso tramite intelligenza artificiale, la pena base (da uno a cinque anni) aumenta e va da due a sette anni. Un inasprimento simile è previsto per la manipolazione del mercato (art. 185 D.lgs 58/98). Anche in questo caso, se il reato è commesso con sistemi di AI, la pena detentiva sale da due a sette anni e la multa parte da 25mila euro fino a sei milioni. Su quest’ultimo punto, però, sorge un dubbio interpretativo. Una vecchia legge (L. 262/2005) prevede già il raddoppio delle pene per i reati finanziari. Se questo raddoppio non si applicasse alla nuova aggravante, si creerebbe un paradosso: la manipolazione di mercato con AI, che è più sofisticata, verrebbe punita meno severamente di quella tradizionale.
Una società di investimenti programma un sistema di AI per diffondere automaticamente migliaia di notizie false e commenti negativi su un’azienda concorrente quotata in borsa, facendone crollare il valore delle azioni per poi acquistarle a un prezzo stracciato. I responsabili risponderanno del reato di manipolazione del mercato aggravato dall’uso dell’intelligenza artificiale.
Come viene tutelato il diritto d’autore dall’AI?
L’intelligenza artificiale generativa “impara” analizzando un’enorme quantità di dati, spesso presi da internet, inclusi testi, immagini e musica protetti da copyright. Per evitare uno sfruttamento illecito, la legge ha esteso le tutele previste per il
Una startup sviluppa un’intelligenza artificiale che genera articoli di giornale. Per addestrarla, copia illegalmente l’intero archivio di un noto quotidiano online, protetto da copyright e con riserva espressa di non autorizzare il data mining. I responsabili della startup commettono un illecito perché hanno violato il diritto d’autore attraverso un’estrazione abusiva di dati.
Annuncio pubblicitario
Quali altri reati sull’AI saranno introdotti?
Il legislatore è consapevole che la tecnologia corre veloce e che le norme devono adeguarsi costantemente. Per questo, la legge conferisce al Governo una delega per introdurre, entro 12 mesi, nuove figure di reato. L’obiettivo è punire non solo chi usa l’AI per commettere illeciti, ma anche chi la progetta, la produce o la utilizza a livello professionale senza adottare le necessarie misure di sicurezza. Si tratterà di reati, dolosi o colposi, incentrati sull’omissione: sarà punito chi non adotta o non aggiorna i sistemi di protezione, qualora da questa mancanza derivi un pericolo concreto per la vita delle persone, per la sicurezza pubblica o per la sicurezza dello Stato. Si pensa, ad esempio, a un’AI che controlla una rete elettrica o un sistema di guida autonoma: la mancata adozione di misure di sicurezza adeguate potrebbe avere conseguenze catastrofiche.