Caricamento...

Roma365 Logo Roma365

L’illusione del giudizio: la Sapienza analizza i limiti cognitivi dei modelli linguistici

Redazione Avatar

di Redazione

16/10/2025

TITOLO

Un’indagine condotta dal Dipartimento di Informatica della Sapienza, pubblicata sulla rivista PNAS, mette in luce una questione che va oltre l’efficienza tecnica dell’intelligenza artificiale: il modo in cui i Large Language Models (LLM) stanno ridefinendo la percezione stessa del giudizio umano. Il gruppo di ricerca coordinato da Walter Quattrociocchi ha dimostrato come la crescente fiducia nelle valutazioni generate da queste piattaforme rischi di alterare i processi cognitivi e la relazione tra conoscenza e verità.

Quando il linguaggio sostituisce il pensiero critico

Gli esperimenti condotti hanno coinvolto sei tra i principali modelli linguistici in uso e gruppi di valutatori umani, inclusi esperti del settore. Tutti hanno ricevuto lo stesso compito: giudicare la credibilità di centinaia di siti di informazione. I risultati mostrano che, pur producendo valutazioni simili a quelle umane, i modelli arrivano alle conclusioni seguendo percorsi del tutto differenti.
Gli LLM non ragionano sui contenuti, ma reagiscono a segnali lessicali e frequenze associative. Riconoscono parole e strutture ricorrenti che nei dati di addestramento sono correlate a concetti di autorevolezza o veridicità, ma non sviluppano alcuna forma di comprensione o riflessione. Le spiegazioni che producono, apparentemente argomentative, sono in realtà estensioni statistiche del linguaggio, non elaborazioni concettuali.

Bias, agentività e l’illusione di conoscenza

Un secondo esperimento ha rivelato bias politici sistematici nei criteri di giudizio dei modelli: in presenza di determinati temi o ideologie, gli LLM tendono a riprodurre la prevalenza di toni critici tipica dei dati di origine accademica o giornalistica. Questa asimmetria, spiegano i ricercatori, non deriva da un intento politico, ma da una deriva strutturale nei processi di apprendimento.
Quando i modelli agiscono come agenti autonomi, selezionando e combinando informazioni, emergono ulteriori differenze rispetto ai soggetti umani. Gli individui utilizzano elementi retorici ed emotivi per valutare la credibilità, mentre le IA si limitano a riconoscere schemi linguistici associati a reputazione o ideologia.

Lo studio introduce un concetto chiave: la sfida dell’epistemia, ossia l’illusione di conoscenza che nasce dalla plausibilità linguistica dei sistemi di AI. La lingua, quando sostituisce il pensiero, può diventare il più raffinato strumento di inganno, soprattutto per chi affida a una macchina non solo la ricerca di risposte, ma la costruzione del proprio giudizio.

Redazione Avatar

Redazione