Intelligenza artificiale bocciata in tribunale: condanna per chi la usa in malafede

Aggiungi un commento
Annuncio pubblicitario

Il Tribunale di Torino ha respinto un ricorso scritto con l’ausilio dell’IA: testo confuso, citazioni astratte e nessun legame con la causa. Scatta la condanna a pagare 500 euro per lite temeraria.

Annuncio pubblicitario

Un ricorso redatto con l’aiuto dell’intelligenza artificiale è stato clamorosamente “bocciato” in aula. È accaduto al Tribunale di Torino, dove il giudice ha rigettato un’opposizione a un’ingiunzione di pagamento, rilevando che l’atto era stato costruito con «argomenti generici, privi di ordine logico e senza riferimenti concreti alla vicenda giudiziaria».

Dalla sentenza (n. 2120 del 16 settembre 2025) emerge che il testo del ricorso era stato predisposto «col supporto dell’intelligenza artificiale» e conteneva citazioni normative e giurisprudenziali «astratte e inconferenti».

Annuncio pubblicitario

Insomma un ricorso che – secondo il giudice – non solo non affrontava la sostanza della controversia, e pertanto era inutile, ma costituiva addirittura un abuso dello strumento processuale, e dunque si rivelava dannoso.

Le conseguenze di questa pronuncia sono dirompenti e costituiscono un monito per chiunque – soprattutto per gli avvocati – intende fare un uso “disinvolto” dell’AI, senza esercitare i dovuti controlli sui risultati che produce.

La condanna per lite temeraria

Alla parte attrice – già destinataria di precedenti atti esecutivi e degli avvisi di addebito, che sono risultati tutti regolarmente notificati – è stato contestato di aver agito in malafede o quantomeno con colpa grave. Un comportamento vietato dall’art. 96 del Codice di procedura civile, che configura la cosiddetta “lite temeraria”.

Per questo il Tribunale ha inflitto una sanzione pecuniaria di 500 euro

Annuncio pubblicitario
, da versare sia alle controparti che alla Cassa delle ammende, ai sensi dell’art. 96, comma 4, c.p.c..

Un precedente “pericoloso” che avrà conseguenze

Quella del tribunale torinese costituisce una delle prime pronunce in Italia che sanziona esplicitamente l’uso scorretto dell’intelligenza artificiale in ambito giudiziario.

Già a marzo 2025 il Tribunale di Firenze, Sezione Imprese, ha deciso negativamente il caso di un avvocato che, in una memoria difensiva, aveva inserito riferimenti giurisprudenziali (estremi di sentenze, invocate come precedenti favorevoli alla propria tesi) in realtà del tutto inesistenti, e inventati di sana pianta da un’intelligenza artificiale (nello specifico, ChatGPT).

Quella volta il ricorso era stato respinto, ma la parte non era stata condannata per “lite temeraria” in quanto i giudici hanno ritenuto che l’errore, sebbene grave, non fosse stato commesso in mala fede e non avesse avuto un impatto decisivo sulla causa.

Queste due recenti decisioni aprono un fronte delicato e che prevedibilmente avrà nuovi sviluppi: se da un lato l

Annuncio pubblicitario
’IA può velocizzare la redazione di documenti, e costituisce un indubbio supporto all’attività legale (soprattutto per quanto concerne la ricerca giuridica), dall’altro l’assenza di controllo umano e di verifica delle fonti può trasformarsi in un boomerang processuale, costoso sia sul piano sostanziale (domande respinte) sia sotto il profilo economico (condanna al pagamento di somme).

Il nuovo caso torinese, e il recente precedente fiorentino, richiamano quanto già accaduto tempo fa all’estero, dove alcuni avvocati sono stati sanzionati per aver presentato in tribunale memorie contenenti sentenze inesistenti, generate da chatbot con il ben noto fenomeno delle “allucinazioni” elaborate nel tentativo di fornire comunque una risposta all’utente, per accontentarlo, senza ammettere di non essere in grado di trovare la risposta.

D’altronde per un giudice attento e accorto non è difficile rilevare se un qualsiasi atto presentato dalle parti (citazione, ricorso, memoria, comparsa conclusionale, ecc.) è stato

Annuncio pubblicitario
elaborato dall’intelligenza artificiale e senza il necessario intervento umano. Non conviene, quindi, “barare” nelle aule di giustizia: è troppo rischioso e, in ultima analisi, anche controproducente.

Il messaggio che arriva dai giudici è chiaro: l’IA può essere uno strumento utile, ma non sostituisce la responsabilità e la competenza di chi firma l’atto. Altrimenti le severe conseguenze sanzionatorie vanno, inevitabilmente, a carico della parte che lo ha prodotto in giudizio senza operare il dovuto controllo.

Il rischio dell’affidamento cieco all’AI

In sostanza, l’intelligenza artificiale rappresenta uno strumento di ausilio importante e utile, ma che andrebbe sempre usato sotto la guida di un “pilota” umano, esperto in questioni giuridiche.

Per approfondire l’argomento, leggi anche: “Errore per uso intelligenza artificiale in atti legali: quali conseguenze?“.

Sostieni laleggepertutti.it

Non dare per scontata la nostra esistenza. Se puoi accedere gratuitamente a queste informazioni è perché ci sono uomini, non macchine, che lavorano per te ogni giorno. Le recenti crisi hanno tuttavia affossato l’editoria online. Anche noi, con grossi sacrifici, portiamo avanti questo progetto per garantire a tutti un’informazione giuridica indipendente e trasparente. Ti chiediamo un sostegno, una piccola donazione che ci consenta di andare avanti e non chiudere come stanno facendo già numerosi siti. Se ci troverai domani online sarà anche merito tuo. Diventa sostenitore clicca qui