Simulare l’umano. L’intelligenza artificiale che ci mette allo specchio
Una nuova generazione di agenti AI riesce a imitare in modo sorprendente il comportamento di individui reali. Una rivoluzione per la ricerca sociale, ma con dilemmi etici e rischi di manipolazione
C’è un’intelligenza artificiale che prenota voli, fa la spesa, organizza le nostre agende. Ma ce n’è un’altra, molto più sottile, che si affaccia all’orizzonte con un obiettivo ancora più ambizioso: simulare gli esseri umani, prevedendo con sorprendente accuratezza come reagirebbero a uno shock politico, a una riforma fiscale, a una pandemia o a una nuova campagna pubblicitaria.
A raccontare questa nuova frontiera è uno studio del Stanford Institute for Human-Centered AI, che ha presentato uno dei progetti più sofisticati mai realizzati nel campo della simulazione del comportamento umano. Non si tratta solo di agenti intelligenti che risolvono compiti. Si tratta di agenti generativi in grado di rispondere alla domanda “cosa succederebbe se”, anticipando le reazioni psicologiche, emotive e ideologiche di persone vere.
Una simulazione che parte dalle persone, non dai dati
Il cuore del progetto è un’architettura innovativa che unisce la potenza dei Large Language Models (LLM) con un’ampia base empirica: le trascrizioni di interviste qualitative di due ore, condotte con 1.052 partecipanti rappresentativi della popolazione statunitense per età, sesso, origine geografica, livello di istruzione e visione politica.
Ogni intervista ha seguito un protocollo semi-strutturato, ispirato al progetto American Voices, e ha spaziato dai racconti biografici alle opinioni sui temi sociali più attuali. L’intero contenuto dell’intervista viene poi usato come prompt per “istruire” l’agente AI a rispondere imitando quella persona, non in modo generico, ma con lo stile, il carattere e i valori emersi nel dialogo.
I risultati: l’IA ti conosce (quasi) meglio di te stesso
Per verificare quanto questi agenti siano realmente affidabili, i ricercatori hanno messo alla prova le loro risposte rispetto a quelle fornite dagli stessi partecipanti, due settimane dopo, su una serie di test classici delle scienze sociali.
Nel General Social Survey, gli agenti hanno replicato le risposte dei partecipanti reali con un’accuratezza dell’85%, cioè quasi quanto la coerenza degli stessi individui nel ripetere le proprie risposte a distanza di tempo. Nella valutazione della personalità, usando la scala dei Big Five, la corrispondenza ha raggiunto l’80%. E anche in contesti dinamici, come giochi comportamentali (dal dilemma del prigioniero al gioco del dittatore), le simulazioni hanno mantenuto una coerenza significativa (66%).
Ancora più importante è un dato emerso in modo trasversale: gli agenti basati su interviste hanno ridotto sensibilmente i bias predittivi legati a razza e ideologia politica, rispetto ai modelli basati su semplici dati demografici.
Strumento per il futuro o uno specchio deformante?
Se questi agenti manterranno e miglioreranno la loro accuratezza, potrebbero diventare strumenti fondamentali per testare politiche pubbliche, misure sanitarie, campagne sociali, strategie di comunicazione. Un decisore politico potrebbe, ad esempio, simulare l’effetto di una proposta di legge prima ancora di portarla in Parlamento. Un sociologo potrebbe esplorare le dinamiche relazionali di una comunità in modo non invasivo. Un’azienda potrebbe prevedere la ricezione emotiva di un nuovo prodotto o spot pubblicitario.
Tuttavia, insieme alle opportunità, emergono con forza anche rischi da non sottovalutare. Il più evidente è l’eccessiva fiducia che si potrebbe riporre in queste simulazioni, soprattutto quando si usano in contesti per i quali non sono state validate. Vi è poi il tema della privacy: le interviste utilizzate sono profondamente personali, e una fuga di dati potrebbe comportare gravi danni agli intervistati. Non va dimenticato, infine, il rischio che qualcuno possa manipolare le risposte degli agenti per attribuire a terzi dichiarazioni mai fatte, con conseguenze etiche e legali rilevanti.
Una governance dell’IA davvero centrata sull’umano
Per questo il team di ricerca ha scelto di non rendere pubblici i propri agenti, ma di fornire accesso limitato e controllato, solo per finalità accademiche, con sistemi di revisione, audit log e tracciabilità delle interazioni. Ogni utente che ha partecipato alle interviste potrebbe, un giorno, monitorare il proprio “alter ego digitale”, decidendo se continuare a dare il consenso oppure revocarlo.
Secondo gli autori, sarà cruciale che ricercatori, sviluppatori e legislatori collaborino, per stabilire norme chiare sull’uso di questi agenti, per garantire la protezione dei dati individuali e per integrare meccanismi di controllo, trasparenza e verifica nell’intero ciclo di vita dell’agente AI.
In controluce: chi è davvero l’uomo?
Gli agenti generativi di Stanford, oltre a offrire strumenti potenti alla scienza e alla politica, pongono una domanda che va oltre il loro codice. Se un algoritmo può rispondere come noi, pensare come noi, sentire come noi… chi siamo noi? Dove finisce la rappresentazione e inizia la coscienza? Non abbiamo ancora tutte le risposte. Ma forse, per iniziare, potremmo usare questi agenti non per sostituire l’uomo, ma per capirlo meglio.
FONTE: HAI Policy Brief: “Simulating Human Behavior with AI Agents”, Stanford University, maggio 2025. Autori: Joon Sung Park, Carolyn Q. Zou, Aaron Shaw, Benjamin Mako Hill, Carrie J. Cai, Meredith Ringel Morris, Robb Willer, Percy Liang, Michael S. Bernstein. Disponibile su: https://arxiv.org/abs/2411.10109
Grazie per averci letto fin qui!
Il nostro appuntamento settimanale con “Anima Digitale” si prende una pausa per l’estate. A Dio piacendo, ritorneremo con la consueta periodicità a partire dall’1 settembre 2025. L’8 settembre riprendono invece gli appuntamenti con il webinar Il Lessico dell’Intelligenza Artificiale: sarà la volta di don Luca Peyron, per riflettere sulla parola RESPONSABILITÀ: iscriviti qui!
Buon riposo!