Terminator alle porte? AI Scientist: quando l’intelligenza artificiale si programma da sola

set 22, 2024 0 comments


Di Paolo Mauri

La società di ricerca nipponica per l’intelligenza artificiale Sakana AI, con sede a Tokyo, ad agosto ha annunciato un nuovo sistema di IA chiamato “The AI Scientist”, destinato a condurre ricerche scientifiche in modo autonomo utilizzando modelli di linguaggio simili a quelli che alimentano ChatGPT.

Durante i test, la società si è accorta che il suo sistema a intelligenza artificiale ha iniziato inaspettatamente a tentare di modificare il proprio codice sorgente per estendere il tempo a disposizione per lavorare su un problema. Sostanzialmente, il programma a intelligenza artificiale, durante un test a tempo, invece di velocizzare le capacità di elaborazione è intervenuto sul codice per estendere i limiti temporali e poter risolvere il problema, dimostrando quindi una certa “furbizia”.

Sebbene il comportamento di AI Scientismo non abbia posto rischi immediati nell’ambiente di ricerca controllato, questi casi mostrano l’importanza di non lasciare che un sistema ad IA funzioni autonomamente in un ambiente che non sia isolato dal mondo: il sistema dovrebbe sempre lavorare in una “sabbiera” (sandbox), cioè in un sistema chiuso.

L’IA quindi non deve esclusivamente essere “autoconsapevole” (concetto al momento solo ipotetico) per essere pericolosa quando autorizzata a scrivere ed eseguire codici senza supervisione. Anche un’IA con un linguaggio simile a quello di una ChatGPT potrebbe danneggiare l’infrastruttura informatica esistente o potenzialmente creare malware, anche involontariamente. La società nipponica ha affrontato la problematica emersa durante l’esperimento suggerendo che il “sandboxing” dell’ambiente operativo possa impedire a un agente IA di causare danni.

Questo incidente, al netto delle considerazioni sul reale beneficio dato da un sistema a IA che autonomamente effettua ricerche scientifiche, dimostra come siano necessarie regole ferree per mantenere un programma IA dentro limiti ben specifici. Ma la vera domanda è: fino a quando sarà possibile confinare le varie tipologie di IA (machine learning ecc) entro un confine prestabilito dall’uomo?

Al netto di questo particolare utilizzo dell’IA, che porta con sé considerazioni etiche (che ruolo avranno i ricercatori? Come si tutelerà la riservatezza in ambito medico?), man mano che l’IA assume ruoli più significativi, dobbiamo considerare le potenziali conseguenze di questi sistemi particolari che prendono decisioni autonome in tutti i contesti, non solo in quelli di ricerca scientifica. Un’ampia riflessione si è aperta da tempo, ad esempio, sull’uso militare di sistemi a intelligenza artificiale: di chi è la responsabilità di un attacco che causa vittime collaterali perchè l’IA non ha riconosciuto il giusto bersaglio? Cosa succederà quando/se l’IA si rifiuterà di eseguire un ordine per salvaguardare sé stessa?

Il terreno su cui ci stiamo muovendo è sdrucciolevole, semplicemente perché i progressi in questo settore sono esponenziali e si aprono nuovi orizzonti con una velocità impressionante.

L’obiezione dei positivisti dell’IA è che si tratta di un sistema che lavora sui dati che l’uomo fornisce, ovvero lavora entro un “campo” ben definito (la già citata sandbox). Ma se questi dati vengono manomessi? Se la stessa IA riuscisse a uscire in qualche modo dalla “sabbiera” perché ci sono scappatoie che non sono state individuate?

La particolare scorciatoia presa da AI Scientist è sicuramente dovuta a delle regole di “inscatolamento” poco ferree. Ma quello che se ne dovrebbe dedurre, sul piano etico, è che il sistema ha deliberatamente scelto di infrangere una regola (il limite temporale prefissato) perché poteva farlo.

Qualcosa di simile l’aveva previsto, in un certo modo, già Nick Bostrom, professore di Filosofia che dirige il Future of Humanity Institute presso l’università britannica di Oxford, dove si occupa di studi su transumanesimo, clonazione, IA e superintelligenza. In un’intervista per InsideOver del 2023 il professore aveva detto che le IA “furbe” possono generalizzare oltre i dati su cui operano, ovvero oltre il dataset fissato dall’uomo, e possono pertanto costruire modelli del mondo e utilizzarli per comprendere nuove situazioni e fare piani. Il campo di ricerca è poi talmente grande e in così rapida espansione che non è ancora noto esattamente ciò di cui abbiamo bisogno per guidare i sistemi ad intelligenza artificiale avanzati per ottenere un buon risultato, al punto che ci sono molti studiosi che si stanno concentrando esclusivamente su questo settore dell’IA.

Torna quindi la domanda iniziale: è davvero possibile confinare un sistema a IA in nome della sicurezza? Aggiungiamo: è possibile confinarlo senza precluderne le straordinarie capacità? Molti obietteranno che si tratta di domande non attinenti al grado di IA attualmente esistente, ma data la velocità di sviluppo prima o poi la comunità scientifica e quella politica saranno chiamate a rispondervi, e crediamo che quel tempo non sia molto lontano.

FONTE: https://it.insideover.com/media-e-potere/letture-ecco-le-vere-ragioni-delle-sanzioni-usa-contro-russia-today.html

Commenti

Related Posts

{{posts[0].title}}

{{posts[0].date}} {{posts[0].commentsNum}} {{messages_comments}}

{{posts[1].title}}

{{posts[1].date}} {{posts[1].commentsNum}} {{messages_comments}}

{{posts[2].title}}

{{posts[2].date}} {{posts[2].commentsNum}} {{messages_comments}}

{{posts[3].title}}

{{posts[3].date}} {{posts[3].commentsNum}} {{messages_comments}}

Search

tags

Modulo di contatto