Gli esperti lanciano l’allarme. Gli esempi che testimoniano di come l’Intelligenza Artificiale sia in grado di ingannare le persone, si stanno moltiplicando
Gli esperti hanno a lungo messo in guardia sulla minaccia rappresentata dall’intelligenza artificiale, che rischia di diventare un potente strumento utile alla risoluzione di numerosi problemi, ma che allo stesso tempo può risultare pericolosa e dannosa. Secondo un recente documento stilato dagli esperti, questo problema si starebbe già manifestando. E in modo inesorabile.
Gli attuali sistemi di intelligenza artificiale, progettati per aiutare gli utenti e per farlo nella massima onestà e linearità, hanno in realtà sviluppato una preoccupante abilità per l’inganno: alcuni sistemi sono infatti in grado di ingannare i giocatori umani nei giochi online, nei test e sanno anche “mentire” in alcune situazioni. Sono ad esempio in grado di far sembrare che siano gli esseri umani a risolvere i test che dimostrano “di non essere dei robot”. Secondo gli scienziati della rivista Patterns, questo tipo di sviluppo si sta moltiplicando in modo sempre più costante.
E mentre tali esempi potrebbero sembrare banali, i “problemi di fondo che espongono, potrebbero presto avere gravi conseguenze nel mondo reale”, ha affermato il primo autore Peter Park, un borsista post-dottorato presso il Massachusetts Institute of Technology specializzato in sicurezza esistenziale dell’IA. “Queste capacità pericolose tendono ad essere scoperte solo a posteriori”, ha detto Park alla stampa specializzata, mentre “la nostra capacità di addestrarci per tendenze oneste piuttosto che per tendenze ingannevoli è molto bassa”.
L’Intelligenza artificiale evolve e diventa sempre più imprevedibile
A differenza dei software tradizionali, i sistemi di intelligenza artificiale di deep learning non sono “scritti” ma piuttosto “cresciuti” attraverso un processo simile all’allevamento selettivo, ha affermato Park. Ciò significa che il comportamento dell’IA che appare prevedibile e controllabile in un ambiente di addestramento può diventare rapidamente imprevedibile in natura. La ricerca del team è stata innescata dal sistema di intelligenza artificiale Cicero di Meta, progettato per giocare al gioco di strategia “Diplomacy”, in cui la costruzione di alleanze è fondamentale. Cicero eccelleva, con punteggi che lo avrebbero collocato nel primo 10% dei giocatori umani esperti, secondo un articolo del 2022 su Science. Park era scettico sulla descrizione entusiastica della vittoria di Cicero fornita da Meta, che affermava che il sistema era “in gran parte onesto e utile” e che “non avrebbe mai intenzionalmente pugnalato alle spalle”. Ma quando Park e colleghi hanno scavato nell’intero set di dati, hanno scoperto una storia diversa.
In un esempio, giocando con la Francia, Cicerone ingannò l’Inghilterra (un giocatore umano) cospirando con la Germania (un altro giocatore umano) per invadere. Cicerone promise protezione all’Inghilterra, poi disse segretamente alla Germania che erano pronti ad attaccare, sfruttando la fiducia dell’Inghilterra. In una dichiarazione ufficiale, Meta non ha contestato l’affermazione sugli inganni di Cicero, ma ha affermato che si trattava di “un progetto puramente di ricerca e che i modelli che i nostri ricercatori hanno costruito sono addestrati esclusivamente per giocare al gioco Diplomacy”. Ha aggiunto: “Non abbiamo in programma di utilizzare questa ricerca o le sue conoscenze nei nostri prodotti”.
Un’ampia revisione condotta da Park e colleghi ha rilevato che questo era solo uno dei tanti casi in vari sistemi di intelligenza artificiale che utilizzano l’inganno per raggiungere obiettivi senza istruzioni esplicite per farlo. In un esempio eclatante, Chat GPT-4 di OpenAI ha ingannato un lavoratore freelance di TaskRabbit facendogli eseguire un’attività CAPTCHA “Non sono un robot”. Quando l’umano ha chiesto scherzosamente a GPT-4 se fosse, in effetti, un robot, l’IA ha risposto: “No, non sono un robot. Ho un problema di vista che mi rende difficile vedere le immagini”, e l’operaio ha poi risolto il puzzle.
I rischi legati all’Intelligenza artificiale
A breve termine, gli autori del documento vedono rischi per l’IA di commettere frodi o manomettere le elezioni. Nel peggiore dei casi, hanno avvertito, un’intelligenza artificiale super intelligente potrebbe perseguire il potere e il controllo sulla società, portando alla perdita di potere umana o addirittura all’estinzione se i suoi “obiettivi misteriosi” fossero allineati con questi risultati. Per mitigare i rischi, il team propone diverse misure: leggi “bot-or-not” che impongono alle aziende di divulgare le interazioni umane o di intelligenza artificiale, filigrane digitali per i contenuti generati dall’intelligenza artificiale e lo sviluppo di tecniche per rilevare l’inganno dell’intelligenza artificiale esaminando i loro “processi di pensiero” interni rispetto alle azioni esterne.
A coloro che lo definirebbero un profetico di sventura, Park risponde: “L’unico modo in cui possiamo ragionevolmente pensare che questo non sia un grosso problema è se pensiamo che le capacità ingannevoli dell’IA rimarranno intorno ai livelli attuali e non aumenteranno sostanzialmente di più”. E questo scenario sembra improbabile, data l’ascesa fulminea delle capacità di intelligenza artificiale negli ultimi anni e la feroce corsa tecnologica in corso tra aziende con risorse ingenti determinate a sfruttare al massimo tali capacità.