Guerra da algoritmo: l'Ai distrugge l'economia e arma la mano dei leader

Aggiungi un commento
Annuncio pubblicitario
Autore: Angelo Greco

22 novembre 2025

Avvocato, direttore responsabile del giornale "La Legge per Tutti", autore di numerose pubblicazioni (tra cui alcune per il gruppo Feltrinelli, Sole24Ore, Mondadori) si è formato all'università LUISS di Roma. Già collaboratore presso l'Università della Calabria e la Columbia University di New York, è altresì ospite di spazi televisivi e radiofonici per questioni giuridiche. Ha co-condotto uno spazio su Uno Mattina (RaiUno) dal titolo "Tempo e Denaro" tra il 2016 e il 2017. Definito dal Sole24Ore, nel 2020, «il professionista più influente d'Italia» è uno dei primi divulgatori del diritto in Italia, titolare del canale YouTube che porta il suo stesso nome con quasi un milione di followers. Maggiori informazioni su www.avvangelogreco.it

L’Intelligenza artificiale manipola i mercati e la geopolitica, spingendo i governi verso guerre preventive e decisioni basate su allucinazioni digitali.

Annuncio pubblicitario

L’entusiasmo acritico che circonda lo sviluppo sfrenato dell’Intelligenza artificiale (Ai) sta offuscando una realtà ben più cupa delle fluttuazioni di borsa o delle promesse di efficienza aziendale. Dietro la facciata dell’innovazione tecnologica si nasconde un precipizio per l’etica di frontiera e una minaccia diretta alla stabilità globale. Non siamo di fronte a uno scenario da film di fantascienza in cui le macchine prendono coscienza e si ribellano, ma davanti a un pericolo molto più concreto e immediato, evidenziato con rigore nell’analisi di Zachary Burdette e del suo team per il

Annuncio pubblicitario
Bulletin of the Atomic Scientists. Il vero rischio è che l’Ai, infiltrandosi nei gangli vitali della sicurezza internazionale, alteri la percezione della realtà dei decision maker, trasformando errori di calcolo in catastrofi mondiali. In questo scenario, l’economia non è più il motore del benessere, ma diventa il combustibile di una corsa agli armamenti basata non sulla qualità, ma sulla pura scala numerica, mentre il diritto internazionale rischia di essere cancellato dalla logica della guerra preventiva.

Perché l’innovazione tecnologica sta minando le basi della sicurezza globale?

La storia ci insegna che ogni grande salto tecnologico porta con sé un terremoto negli assetti di potere, ma quanto sta accadendo con l’

Annuncio pubblicitario
Intelligenza artificiale non ha precedenti per velocità e pervasività. L’alterazione degli equilibri di potere è il primo, devastante effetto collaterale di questa corsa all’oro digitale.

Possiamo guardare al passato per trovare analogie inquietanti: l’invenzione della stampa, pur rivoluzionaria, alimentò i disordini che sfociarono nella Guerra dei Trent’anni; allo stesso modo, ma con esito opposto, le armi nucleari hanno congelato i conflitti diretti tra grandi potenze. Oggi, un’Ai avanzata promette di produrre sconvolgimenti sociali ed economici di tale portata da convincere i leader politici che obiettivi strategici, fino a ieri considerati irraggiungibili, siano improvvisamente a portata di mano.

Annuncio pubblicitario

Il pericolo risiede nella percezione del cosiddetto vantaggio del first mover. La nazione che per prima riuscirà a integrare l’Ai in modo capillare non otterrà solo una “super arma” — come sciami di droni iper-intelligenti o capacità informatiche di primo attacco — ma potrebbe beneficiare di un boom economico artificiale guidato dall’Ai stessa. Questo surplus di ricchezza non verrebbe utilizzato per il welfare, ma permetterebbe allo Stato di aumentare drasticamente la spesa per la difesa.

Si verrebbe a creare una superiorità militare basata non necessariamente su nuove capacità tattiche, ma sulla pura scala dimensionale delle forze in campo. Questa dinamica economica perversa alimenta una sfida etica immediata e spaventosa: la ricerca del dominio tecnologico, se percepita come una finestra di opportunità temporanea ma decisiva, incentiva il rischio di scatenare una

Annuncio pubblicitario
guerra preventiva.

Quali sono i rischi legali ed etici di un attacco preventivo basato sull’Ai?

Il diritto internazionale si fonda su principi di proporzionalità e necessità che l’avvento dell’Ai rischia di polverizzare completamente. La dottrina della guerra preventiva, già di per sé controversa, assume contorni grotteschi quando l’obiettivo non è una minaccia militare imminente, ma il potenziale sviluppo scientifico di un avversario.

La competizione per la supremazia nell’Intelligenza artificiale pone sul tavolo una questione di liceità giuridica sconcertante: la possibilità di condurre attacchi mirati contro centri di ricerca scientifici e obiettivi civili. La logica che sottende questa mostruosità giuridica è il timore che un rivale possa acquisire un vantaggio tecnologico ritenuto esistenziale. In questo contesto, scienziati, ingegneri e infrastrutture civili diventano bersagli legittimi agli occhi di un algoritmo o di un leader paranoico.

Annuncio pubblicitario

Siamo di fronte alla negazione stessa del diritto di guerra. Se la sola possibilità che un altro Stato sviluppi un’Ai superiore giustifica un bombardamento preventivo, allora ogni regola di convivenza tra le nazioni è saltata. La sicurezza internazionale non si basa più sui trattati o sulla diplomazia, ma sulla velocità di esecuzione di un attacco volto a sabotare l’innovazione altrui.

In che modo l’algoritmo distorce la capacità di giudizio dei leader politici?

Esiste un secondo percorso verso il disastro, più subdolo e meno visibile delle armi, che riguarda la psicologia e la governance strategica: la distorsione del giudizio umano. I leader mondiali che scelgono di affidarsi pesantemente agli strumenti di supporto decisionale basati sull’Ai stanno di fatto appaltando la sovranità a scatole nere di cui non comprendono il funzionamento.

Annuncio pubblicitario

L’Ai non è intrinsecamente belligerante, non odia e non ha ambizioni territoriali, ma è soggetta a quelle che tecnicamente vengono chiamate “allucinazioni”. Questi sistemi possono percepire schemi inesistenti o produrre output totalmente fabbricati, spacciandoli per dati oggettivi. Il problema si aggrava a causa del fenomeno noto come “tendenza all’automazione” (automation bias).

I decisori politici tendono a riporre un’eccessiva fiducia negli output forniti dalla macchina, attribuendo loro un’oggettività e un’accuratezza intrinseca che non concederebbero mai a un consulente umano. Questo rappresenta un fallimento etico e di governance imperdonabile. Un sistema di supporto decisionale potrebbe essere progettato, o involontariamente addestrato, per rafforzare i pregiudizi esistenti di un leader, creando una

Annuncio pubblicitario
“camera dell’eco” algoritmica.

Invece di fornire un’analisi distaccata, l’Ai amplifica l’aggressività e spinge verso l’escalation, confermando le paure paranoiche del decisore. L’urgenza di agire rapidamente, dettata dal timore che l’avversario stia usando a sua volta l’Ai per decidere in millisecondi, esacerba la tendenza a non interrogare criticamente le informazioni, portando a scelte irreversibili basate su dati falsi.

Perché la riduzione dei costi umani della guerra è un pericolo per la pace?

Il paradosso più agghiacciante dell’applicazione militare dell’Ai riguarda il valore della vita umana e il suo ruolo come deterrente politico. Un ulteriore dilemma etico emerge dalla potenziale riduzione dei “costi” della guerra intesi come perdite di soldati.

Annuncio pubblicitario

Se droni e robot autonomi sostituissero massicciamente gli esseri umani nei ruoli di combattimento più pericolosi, le vittime attese tra le proprie file diminuirebbero drasticamente. Sebbene sia improbabile che l’automazione renda il personale umano totalmente obsoleto nel breve termine, il rischio strategico è evidente. Riducendo le perdite umane e il conseguente peso politico che bare e funerali comportano per un governo, l’Ai abbassa pericolosamente la soglia di tolleranza per l’uso della forza.

Rendere la guerra un’impresa economicamente e politicamente meno “costosa” significa rimuovere uno dei più potenti freni inibitori che hanno storicamente limitato i conflitti. Se un leader sa di poter lanciare una campagna militare senza dover giustificare la morte dei propri concittadini all’opinione pubblica, la guerra diventa un’opzione di policy molto più praticabile e frequente. La tecnologia, promettendo di salvare vite sul campo di battaglia (dei propri soldati), finisce per incentivare l’inizio di nuovi massacri.

Annuncio pubblicitario

Quali contromisure sono necessarie per evitare il collasso strategico?

Nonostante l’analisi offra una rassicurazione parziale, ribadendo che le decisioni di iniziare le guerre rimangono fondamentalmente politiche e non meramente tecnologiche, l’influenza dell’Ai non può essere derubricata a fattore tecnico. La gestione di questi rischi richiede un’inversione di rotta nelle politiche di difesa e una nuova consapevolezza etica.

È imperativo costruire difese robuste contro l’erosione del giudizio umano. Misure concrete devono essere implementate immediatamente: è necessario richiedere agli strumenti di supporto Ai di includere sempre una valutazione esplicita dell’

Annuncio pubblicitario
incertezza e delle potenziali reazioni avversarie, impedendo che l’output venga presentato come una verità assoluta. Inoltre, è fondamentale l’impiego di “Red Team” umani, gruppi di esperti col compito specifico di criticare, sfidare e tentare di invalidare gli output dell’Ai.

A livello internazionale, serve un accordo vincolante tra grandi potenze, come Stati Uniti e Cina, per mantenere rigorosamente il controllo umano sulle armi nucleari. Il prezzo da pagare per la sicurezza è la rinuncia consapevole a parte della velocità che l’Ai promette. L’Ai non è un interruttore che accende la guerra, ma un amplificatore che, se non gestito con scetticismo e rigore, trasforma errori strategici in crisi globali. Dobbiamo smettere di guardare in questo specchio difettoso che ci mostra un mondo più aggressivo di quanto non sia in realtà.

Sostieni laleggepertutti.it

Non dare per scontata la nostra esistenza. Se puoi accedere gratuitamente a queste informazioni è perché ci sono uomini, non macchine, che lavorano per te ogni giorno. Le recenti crisi hanno tuttavia affossato l’editoria online. Anche noi, con grossi sacrifici, portiamo avanti questo progetto per garantire a tutti un’informazione giuridica indipendente e trasparente. Ti chiediamo un sostegno, una piccola donazione che ci consenta di andare avanti e non chiudere come stanno facendo già numerosi siti. Se ci troverai domani online sarà anche merito tuo. Diventa sostenitore clicca qui