Il 5 marzo del 2025 il Pentagono ha affidato alla Scale Ai, un’azienda statunitense che si occupa di intelligenze artificiali, lo sviluppo di Thunderforge. È un sistema di ia che deve velocizzare la pianificazione militare, con particolare attenzione alle operazioni militari in Europa e nella regione indo-pacifica.
L’obiettivo del progetto è fornire all’esercito statunitense strumenti basati su modelli linguistici di grandi dimensioni, simulazioni avanzate e simulazioni di guerra interattive per migliorare la capacità di prendere decisioni rapide in contesti operativi. La Defense innovation unit, l’agenzia che supervisiona il progetto, ha descritto Thunderforge come un sistema capace di testare scenari di battaglia, anticipare minacce e decidere la disposizione di risorse strategiche su scala globale.
Non sappiamo quanto valga, economicamente, l’accordo fra Pentagono e Scale Ai. Sappiamo, però, che ci sarà anche la collaborazione della Anduril e della Microsoft. La Anduril è una delle aziende più attive nel settore della difesa: fornirà il suo sistema Lattice, una piattaforma che raccoglie e analizza dati provenienti da droni e altri sensori per ottimizzare le operazioni di combattimento. La Microsoft, invece, contribuirà con i suoi modelli di ia, potenzialmente integrando le capacità di elaborazione degli llm in Thunderforge.
L’ammiraglio Sam Paparo, responsabile del comando unificato delle forze armate degli Stati Uniti nell’oceano Pacifico e nell’oceano Indiano, ha dichiarato già a febbraio 2025 che l’intelligenza artificiale potrebbe svolgere un ruolo chiave nel monitorare le attività della Cina, identificando potenziali minacce come esercitazioni militari usate come copertura per azioni offensive. L’ammiraglio ha inoltre sottolineato che il suo comando sta sviluppando una piattaforma, chiamata Mission partner environment, per condividere informazioni e analisi in tempo reale con gli alleati.
Ma la pianificazione strategica è solo una parte dell’integrazione dell’intelligenza artificiale nelle guerre moderne: si va dai droni autonomi ai sistemi di sorveglianza avanzata, dai software di attacco informatico alle armi capaci di identificare e colpire bersagli senza supervisione umana. Non solo. L’uso dell’ia nelle guerre contemporanee ha già cambiato il modo in cui si combatte. Nel conflitto tra Russia e Ucraina, per esempio, i droni dotati di intelligenza artificiale vengono impiegati da entrambi gli eserciti per individuare e attaccare postazioni nemiche. Israele ha utilizzato algoritmi di ai per selezionare obiettivi nei bombardamenti a Gaza e in Libano.
In un tentativo di fermare la corsa all’armamento automatico, il 2 dicembre 2024, l’assemblea generale delle Nazioni unite ha approvato la risoluzione 79/L.77 sui sistemi d’arma autonomi letali, con 166 voti a favore, tre contrari (Bielorussia, Russia e Corea del Nord) e quindici astensioni (fra cui quelle della Cina e di Israele). Il documento riconosce i rischi posti dall’uso dell’ia in ambito militare e apre il dibattito su una possibile regolamentazione internazionale. Tuttavia, non prevede alcun divieto vincolante e si limita a invitare gli stati membri a partecipare a consultazioni informali durante l’anno 2025. Gli Stati Uniti hanno votato a favore della risoluzione, ma al tempo stesso hanno fatto sapere di non avere intenzione di fermare le proprie ricerche sull’applicazione dell’ia in ambito bellico. Probabilmente la resistenza a una regolamentazione più stringente è legata al timore di perdere il proprio vantaggio competitivo.
Purtroppo l’assenza di un quadro normativo condiviso rischia di favorire una corsa agli armamenti basata sull’ia, con conseguenze potenzialmente destabilizzanti per la sicurezza globale. L’uso di queste tecnologie abbassa la soglia per l’uso della forza: se a combattere sono macchine, la guerra rischia di diventare più frequente, non meno sanguinosa.
Eric Schmidt, ex amministratore delegato della Google, è stato uno dei principali sostenitori della militarizzazione dell’intelligenza artificiale. Negli ultimi anni ha investito milioni di dollari nello sviluppo di tecnologie belliche basate su ia e ha spinto per un coinvolgimento diretto delle aziende tecnologiche nei progetti del dipartimento della difesa. Eppure, nel suo recente documento strategico, scritto con Dan Hendrycks e Alexandr Wang, ha espresso preoccupazione per il rischio di una corsa incontrollata alla superintelligenza.
Schmidt critica il piano di finanziamento governativo su larga scala per lo sviluppo dell’intelligenza artificiale generale proposto dal congresso degli Stati Uniti. Secondo Schmidt, una competizione senza freni potrebbe aumentare le tensioni internazionali e innescare attacchi informatici su larga scala da parte di paesi rivali come la Cina. Il rischio è che un paese in vantaggio nello sviluppo dell’ia possa essere visto come una minaccia esistenziale, spingendo gli avversari ad adottare misure drastiche, comprese azioni militari preventive.
Come alternativa, Schmidt propone la strategia del mutual assured ai malfunction (maim), un meccanismo di deterrenza che prevede: il blocco delle esportazioni di chip avanzati per impedire ad altri paesi di sviluppare superintelligenze militari; il potenziamento delle capacità di cyberattacco per disattivare progetti di ia ostili prima che diventino una minaccia; la creazione di accordi internazionali per limitare lo sviluppo di intelligenze artificiali generali (agi) in ambito militare.
Questa visione non è meno aggressiva della corsa agli armamenti, ma sposta l’attenzione dal vincere la gara al dissuadere gli altri dal parteciparvi. Il modello ricorda la dottrina della mutua distruzione assicurata della guerra fredda: se nessuno può sviluppare l’arma finale senza rischiare il collasso del sistema, allora nessuno la svilupperà.
Viviamo in un momento storico in cui anche molti intellettuali indossano elmetti metaforici – è difficile che poi partano per il fronte imitando Ungaretti o D’Annunzio – e cavalcano retoriche belliche globali, chiedendosi che fine abbiano fatto i guerrieri. Penso sia utile, allora, non solo ricordare cos’è la guerra, ma anche comprendere bene quali armi esistano oggi, quali siano le applicazioni tecnologiche possibili e quali le conseguenze. Armi autonome, analisi predittive, sorveglianza totale e attacchi informatici automatizzati stanno sostituendo progressivamente le dinamiche tradizionali dei conflitti.
Ma le vittime sono sempre umane. Una guerra automatica non è più pulita, non fa meno morti o meno danni. È una guerra, e va evitata in ogni modo possibile.
Questo testo è tratto dalla newsletter Artificiale.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo.
Scrivici a: posta@internazionale.it
Sorgente ↣ : Venti di guerra artificiale – Alberto Puliafito