L’annuncio del Dipartimento della Difesa statunitense di una piattaforma AI “su misura”, GenAI.mil, alimentata da Google Cloud’s Gemini, solleva interrogativi inquietanti. Non si tratta più di semplici algoritmi per ottimizzare le rotte logistiche o analizzare dati satellitari. Stiamo parlando di intelligenza artificiale direttamente coinvolta nel processo decisionale militare, un passo che ci proietta in un futuro distopico che fino a ieri apparteneva alla fantascienza.
L’innovazione tecnologica è innegabilmente un motore di progresso, ma la sua applicazione indiscriminata, soprattutto in ambiti così delicati come la difesa e la guerra, richiede una riflessione etica profonda e urgente. Fin dove possiamo spingerci? Quali sono i limiti che non dovremmo mai superare?
La promessa di una guerra “intelligente”, più precisa e meno sanguinosa, è seducente. Ma la realtà è che l’IA, per quanto sofisticata, è priva di empatia, di giudizio morale, di quella capacità di discernimento che deriva dall’esperienza umana e che, in ultima analisi, dovrebbe guidare ogni decisione che riguarda la vita e la morte. Affidare a un algoritmo la scelta di un bersaglio, la valutazione di un rischio, l’interpretazione di un’azione, significa delegare la responsabilità a un’entità che non può essere ritenuta responsabile.
Il rischio di errori, di bias algoritmici che amplificano pregiudizi esistenti, di decisioni sbagliate con conseguenze catastrofiche è reale e inaccettabile. E se l’IA dovesse “impazzire”? Se un errore di programmazione o un attacco hacker compromettesse il suo funzionamento?
Dobbiamo chiederci se questa corsa all’armamento tecnologico non stia in realtà avvicinandoci a un baratro, a un conflitto in cui la ragione cede il passo alla velocità di calcolo, in cui l’umanità perde il controllo della propria sorte. Urge un dibattito pubblico, una regolamentazione internazionale, un codice etico che guidi lo sviluppo e l’utilizzo dell’IA in ambito militare. Prima che sia troppo tardi.

