Il Giudizio: Apparenza contro Processo
I ricercatori hanno sottoposto sei dei principali modelli linguistici, assieme a gruppi di persone (inclusi esperti), allo stesso compito: giudicare la credibilità di centinaia di siti di informazione.
Risultato chiave:
A prima vista, i giudizi degli LLM sembrano allineati con quelli degli esperti umani.
In realtà, i processi sottostanti sono radicalmente diversi:
Gli Umani si basano su ragionamenti critici e sulla lettura del contenuto.
Gli LLM non leggono o argomentano. Essi formulano giudizi basandosi su associazioni lessicali e segnali statistici (come la frequenza di certe parole chiave) che hanno appreso durante l'addestramento. La loro "spiegazione" non è un ragionamento, ma l'estensione statistica di un'istruzione.
Bias Nascosti e Riflessi Ideologici
Un altro esperimento ha rivelato che gli LLM non solo non comprendono il contenuto, ma riflettono e riproducono in modo sistematico i bias presenti nei loro dati di addestramento.
Poiché in certi ambienti (accademici, giornalistici) alcune posizioni politiche sono trattate con toni più critici, i modelli apprendono questi schemi dominanti e li replicano, manifestando bias politici strutturali senza alcuna comprensione del contesto ideologico.
LLM come Agenti Decisionali
Lo studio ha anche esaminato cosa succede quando gli LLM agiscono come "agenti" (raccogliendo informazioni, selezionando fonti e prendendo decisioni). In collaborazione con il Dipartimento di Psicologia, i ricercatori hanno scoperto che:
Gli Umani usano criteri retorici, stilistici ed emotivi.
Gli LLM si affidano unicamente a tracce strutturali o a segnali lessicali associati a concetti come "reputazione" o "ideologia".
La Nuova Sfida: Dall'Infodemia all'Epistemia
I risultati di questa ricerca sperimentale dimostrano che le piattaforme di AI stanno attivamente influenzando ciò che milioni di persone percepiscono come "vero".
Comprendere come i modelli giudicano l'affidabilità non è più solo una questione di lotta alla disinformazione (infodemia), ma una nuova sfida epistemica:
L'intelligenza artificiale sta creando una "illusione di conoscenza" derivante dalla semplice plausibilità linguistica delle risposte degli LLM, portando gli utenti a fidarsi di un giudizio che non è supportato da un ragionamento critico umano.