L'intelligenza artificiale sta rivoluzionando numerosi settori, e il campo militare non fa eccezione. La crescente capacità delle macchine di prendere decisioni autonome senza bisogno di esseri umani solleva interrogativi cruciali sulla natura della guerra nel prossimo futuro.
Paul Scharre, vicepresidente del Center for a New American Security ed esperto del campo dell'AI applicata alla difesa, evidenzia le potenziali sfide e opportunità di questa evoluzione. Nel contesto di questa discussione, il recente film "The Creator", pur essendo un prodotto di intrattenimento, rappresenta una riflessione culturale sulle stesse tematiche. Ragioniamoci insieme.
Nel film "The Creator", ambientato durante una futura guerra tra umani e intelligenza artificiale, l'ex-agente delle forze speciali Joshua, afflitto dalla scomparsa della moglie, è reclutato per trovare e uccidere il "Creator", l'architetto dell'AI avanzata. Nella realtà questo compito potrebbe essere parecchio più complicato.
Il primo duello (perso dagli umani)? Nei cieli
Sono diversi gli esempi recenti che mettono in luce le potenzialità dell'AI in ambito militare. Di uno (quello dei droni militari già autonomi anche nelle scelte) abbiamo parlato qui. Dell'altro avete certamente sentito parlare. Mi riferisco all'AlphaDogfight Challenge della DARPA, che ha visto un pilota umano confrontarsi con un'AI in un simulatore aereo. Il risultato? L'intelligenza artificiale ha dominato il pilota con un punteggio di 15 a zero, mostrando capacità quasi sovrumane, come colpi di precisione in frazioni di secondo che piloti umani non potrebbero mai mettere a segno.
In un reale combattimento aereo, una AI potrebbe avere già la meglio. Ma cosa significa tutto ciò per il futuro della guerra?
L'AI sul campo di battaglia
L'idea di macchine che prendono decisioni di vita o di morte solleva questioni etiche complesse. Per quanto macchine del genere puntino a una precisione molto maggiore, "quasi" infallibile, qualunque azione fuori binario costituirebbe un crimine di guerra: ma di chi sarebbe la responsabilità diretta? Secondo Scharre, stabilire la responsabilità , e un controllo diretto su una AI potrebbe non essere così semplice.
Nel prossimo futuro, tuttavia, è probabile che l'intelligenza artificiale venga utilizzata dagli umani principalmente per tattiche e analisi. L'AI può elaborare informazioni in modo più efficiente, rendendo le forze armate più efficaci. Ma questo potrebbe anche portare a una crescente dipendenza dall'AI per la presa di decisioni, dato che il vantaggio competitivo in un ambiente militare potrebbe essere troppo allettante per essere ignorato.
Per Scharre, in sintesi, gli umani stanno costruendo sistemi che non comprendono pienamente e che potrebbero non essere in grado di controllare, trovandoci di fronte a minacce senza precedenti.
La corsa agli armamenti AI sembra ormai inevitabile
Gli esperti hanno da tempo sciolto le riserve in merito: assisteremo a una sorta di corsa agli armamenti per l'intelligenza artificiale, simile a quella per le armi nucleari.
Alcuni studiosi cinesi hanno ipotizzato una "singolarità sul campo di battaglia": un punto in cui la velocità delle decisioni guidate dall'AI supera la capacità di comprensione degli umani. In uno scenario del genere, potremmo dover "consegnare le chiavi" ai sistemi autonomi.
Sull'esito di una ipotetica guerra tra gli esseri umani e un'intelligenza artificiale che sfugge al nostro controllo, Scharre non è ottimista. E lo rende chiaro con un paragone provocatorio e lampante: potremmo mai perdere noi una ipotetica guerra contro le scimmie? Traete le vostre conclusioni.
Commenti
Posta un commento
Partecipa alla discussione