Scienza, far cambiare idea ai complottisti? Missione impossibile, ma non per ChatGpt

13
(Imagoeconomica)

Far cambiare opinione a complottisti e amanti delle cospirazioni è una missione impossibile, ma non per l’Intelligenza Artificiale. Il segreto sarebbe in una combinazione di pazienza e della capacità di avere tutte le informazioni necessarie a confutare le tesi complottiste. A dimostrarlo è lo studio pubblicato sulla rivista Science da Cornell University e Massachusetts Institute Technology. Coordinata da Thomas Costello del Mit, la ricerca dimostra come dialogare con un chatbot può far cambiare opinione anche a chi contesta lo sbarco sulla Luna o la pandemia di Covid-19. “E’ opinione diffusa che far cambiare opinione a chi crede una qualche idea del complotto sia praticamente impossibile, anche presentando fatti oggettivi, ma a renderlo difficile è anche l’impossibilità per un umano di aver accesso a grandi quantità di dati, avere la pazienza necessaria, il giusto dialogo e conoscere bene il proprio interlocutore”, ha detto all’Ansa Stefano Cresci, dell’Istituto di Informatica e Telematica del Consiglio Nazionale delle Ricerche che, grazie a un finanziamento del Consiglio Europeo della Ricerca (Erc), ha da poco avviato il programma Deduce, dedicato a questi temi.

Che si parli di Terra piatta, sbarco sulla Luna, brogli nelle elezioni americane o Covid-19, discutere con chi ha tali convinzioni si dimostra spesso un fallimento spesso perché, spiegano i ricercatori americani, le teorie del complotto si presentano in molte forme e i dettagli della teoria e gli argomenti usati per supportarla possono variare da persona a persona. Senza gli argomenti specifici risulta dunque impossibile confutare una tesi che non si conosce in profondità. Per capire se un mix di conoscenze e competenze possa rivelarsi efficace i ricercatori hanno chiesto a oltre 2.000 volontari di spiegare una loro convinzione e preparato una IA, in particolare ChatGpt Turbo, che ha così potuto ‘studiare’ il tema. Poi i volontari hanno dialogato con il chatbot. I dati dimostrano che l’IA è riuscita in 1 caso su 4 a far cambiare opinione all’interlocutore umano, il tutto è stato possibile semplicemente usando pazienza, empatia e l’accesso a tutte le informazioni sul complotto, così da poter controbattere in modo puntuale. “Gli approcci usati finora, basati sull’uso oggettivo dei fatti, piuttosto che sulla persona si sono dimostrati poco efficaci”, ha aggiunto Cresci. “Qui si sfruttano alcuni dati sulle persone coinvolte, ad esempio quali esperienze lo hanno portato a credere a quella teoria”. Si tratta di uno dei primissimi lavori di questo tipo, un approccio che viene seguito anche dal gruppo di ricercatori italiano dell’Iit-Cnr, ma che deve ancora dimostrare quanti a quali risultati possa raggiungere. “In ogni caso è un lavoro che dimostra come l’uso creativo della IA possa dimostrarsi uno strumento importante per contrastare un problema ampio che non riguarda solo teorie del complotto – ha concluso Cresci – ma anche ad esempio comportamenti tossici, aggressivi o la condivisione della disinformazione”.