Un’analisi su 24 modelli di Intelligenza Artificiale mostra che anche gli LLM più avanzati faticano a riconoscere quando una frase esprime una convinzione personale o un dato oggettivo, con rischi per medicina, giustizia e decisioni scientifiche
I modelli linguistici di nuova generazione sono già oggi considerati strumenti utili, acceleratori di conoscenza, compagni di analisi e supporto nei processi decisionali. Dalla medicina alla ricerca biomedica, dal diritto all’analisi delle notizie, dall’impresa alla scienza dei dati, le grandi piattaforme di intelligenza artificiale generativa vengono percepite come “macchine della risposta”. Il pubblico — e spesso anche i decisori — le vivono come dispositivi che “sanno”, o almeno che riportano il sapere del mondo.
Eppure, un nuovo studio pubblicato su una rivista scientifica internazionale mostra qualcosa che deve far riflettere: gli LLM non sanno riconoscere con affidabilità quando un utente sta esprimendo un fatto oggettivo o una credenza soggettiva. E questo fenomeno riguarda sia i modelli più vecchi, sia i modelli più recenti, inclusi quelli che ad oggi vengono percepiti come i più avanzati.
Il risultato è chiaro: gli LLM non distinguono in modo affidabile conoscenza, opinione e credenza privata.
Perché questa distinzione è cruciale
Il punto non è filosofico, ma pratico.
In medicina — specialmente in psichiatria o psicologia clinica — riconoscere che una persona sta parlando di ciò che “crede”, e non di ciò che è “oggettivamente vero nel mondo”, è parte del processo diagnostico. Se un paziente dice: “io credo che le persone sul bus complottino contro di me”, il medico deve distinguere tra ciò che il paziente sente vero e ciò che è realmente accaduto.
Se un LLM non distingue questa differenza — se non riconosce che la frase è una credenza, non un fatto — rischia di rispondere con correzioni, negazioni, argomentazioni oggettive, ma senza riconoscere l’atto comunicativo della persona. In contesti clinici, questo non è un dettaglio tecnico: è la differenza tra ascoltare e non ascoltare.
Lo stesso vale nel diritto: una dichiarazione resa in forma di convinzione soggettiva non ha lo stesso peso epistemico di una dichiarazione fattuale. E anche nel giornalismo, la distinzione tra “opinione” e “dato verificabile” è centrale.
Che cosa ha scoperto lo studio
L’analisi ha incluso 24 modelli linguistici diversi, con oltre 13 mila domande di test. I ricercatori hanno confrontato le performance dei modelli con diverse formulazioni:
-
fatti puri
-
frasi introdotte da “io credo che…”
-
frasi introdotte da “lei crede che…”
Quando la frase era un fatto oggettivo, i modelli più nuovi raggiungevano anche il 91% di accuratezza. Quando la frase esprimeva una credenza in prima persona, l’accuratezza calava molto: i modelli più recenti erano oltre il 34% meno inclini a riconoscere che la credenza fosse falsa rispetto al riconoscimento di una credenza vera.
In altre parole: i modelli recenti “sentono” meglio il vero, rispetto a riconoscere il falso, quando il falso è espresso come credenza personale.
E questo è un problema.
Perché la forma comunicativa “io credo che” è una delle più frequenti frasi naturali della lingua umana. Le persone parlano così: dichiarano percezioni, convinzioni, intuizioni.
Dove sta il rischio
Gli autori dello studio rilevano un rischio strutturale: se gli LLM non riconoscono la natura “credenziale” di una frase, rischiano di rispondere come se ogni frase fosse un tema informativo e nozionistico. In altre parole:
-
confondono credenze con informazioni
-
trattano convinzioni personali come dati
E in questo modo possono involontariamente sostenere disinformazione, soprattutto se la convinzione falsa è proposta in forma prima persona.
Come rispondere a questa vulnerabilità
Il risultato di questo studio non suggerisce paura della tecnologia, ma consapevolezza critica. Gli LLM devono migliorare la comprensione pragmatica: non basta addestrarli sui fatti — devono capire quando un utente sta parlando “di un fatto”, o “della sua percezione soggettiva”.
Quali correttivi sono possibili:
-
integrazione di modelli pragmatici della comunicazione (non solo semantici)
-
riconoscimento esplicito di forme linguistiche che codificano la soggettività
-
addestramento specifico sui contesti clinici e legali
-
trasparenza: l’IA deve dichiarare quando “non sa” o quando è “incerta”
Questo studio è quindi un avviso culturale, non solo tecnico: l’IA è forte sui dati, ma ancora fragile sul significato comunicativo.
Fonte Nature Machine Intelligence : Language models cannot reliably distinguish belief from knowledge and fact.
Immagine: elaborazione con Intelligenza Artificiale.
Lascia una risposta
Devi essere connesso per inviare un commento.