I chatbot (programmi progettati per simulare conversazioni umane) possono aiutare a ridurre la convinzione nelle teorie cospirative, sfruttando le loro capacità di attingere a grandi quantità di informazioni e adattarle a conversazioni mirate.
Un recente studio condotto dai ricercatori del MIT Sloan e della Cornell University ha dimostrato che le interazioni con chatbot basati su modelli linguistici di grandi dimensioni (LLM) come GPT-4 Turbo possono ridurre del 20% la convinzione delle persone nelle teorie cospirative, anche tra coloro per cui tali credenze sono centrali per la loro identità. Questi modelli di IA sono in grado di personalizzare le controargomentazioni in base alla teoria specifica di cui si discute, fornendo una risposta mirata che può avere un impatto significativo sulle convinzioni.
Lo studio ha coinvolto oltre 2.000 partecipanti, invitati a descrivere una teoria cospirativa a cui credevano e a spiegare le ragioni alla base della loro convinzione. Successivamente, hanno avuto tre conversazioni con il chatbot, durante le quali le risposte dell’IA sono state progettate per essere persuasive. Alla fine dell’esperimento, si è registrata una diminuzione del 20% nella fiducia nelle teorie cospirative. Anche se l’effetto potrebbe essere meno pronunciato al di fuori del contesto di laboratorio, persino una riduzione del 5-10% nel mondo reale sarebbe significativa.
Gli autori dello studio hanno anche adottato misure per prevenire errori nelle risposte dell’IA, utilizzando un verificatore umano per garantire l’accuratezza delle affermazioni fatte. In generale, il chatbot ha mostrato un elevato livello di accuratezza, con solo lo 0,8% delle informazioni ritenute fuorvianti. Questo risultato suggerisce che i chatbot potrebbero diventare uno strumento prezioso per contrastare la disinformazione e aiutare le persone a rivedere le loro convinzioni basate su informazioni false.
In futuro, i chatbot potrebbero essere integrati nei social media o utilizzati direttamente su forum cospirativi per fornire risposte corrette e personalizzate, aprendo nuove possibilità per la lotta contro la disinformazione.
Fonte: Nature
Foto di copertina: Tim Dennel