Scienza, fede, ragione, informazione. Direttore Paolo Centofanti

News 2026

Erik Larson e il mito dell’intelligenza artificiale : perché le macchine non capiscono il mondo

Erik Larson mito intelligenza artificiale mondo

Il mito dell’intelligenza artificiale secondo Erik Larson : perché le macchine non comprendono il mondo e quali sono i limiti strutturali dell’AI tra linguaggio, dati e significato

Erik Larson e i limiti dell’AI tra logica, linguaggio e realtà

Negli ultimi anni l’intelligenza artificiale è stata spesso presentata come una tecnologia destinata a replicare – e persino superare – l’intelligenza umana. Tuttavia, una delle voci più critiche e autorevoli su questo tema è quella di Erik Larson, che nel suo lavoro mette in discussione il cosiddetto “mito dell’AI”.

Secondo Larson, le macchine non comprendono realmente il mondo: elaborano dati, riconoscono schemi, generano risposte plausibili, ma non possiedono una vera comprensione del significato. È proprio questa distanza tra elaborazione e comprensione a rappresentare il limite strutturale dell’intelligenza artificiale contemporanea.

L’illusione della comprensione

Il cuore della critica di Larson riguarda l’equivoco più diffuso: confondere la capacità di produrre linguaggio con la capacità di comprenderlo. I sistemi di AI, anche i più avanzati, funzionano grazie a modelli statistici e probabilistici. Questo significa che:

  • non “sanno” ciò che dicono
  • non possiedono intenzionalità
  • non hanno accesso diretto alla realtà

Quando un sistema genera una risposta coerente, non sta comprendendo il contenuto, ma sta semplicemente selezionando sequenze linguistiche che risultano plausibili sulla base dei dati di addestramento.

Larson sottolinea che questa illusione è particolarmente pericolosa, perché può portare a sovrastimare le capacità delle macchine e a delegare loro decisioni che richiederebbero invece giudizio umano.

Deduzione, induzione e il problema dell’abduzione

Uno dei contributi più rilevanti del pensiero di Larson riguarda la distinzione tra diversi tipi di ragionamento:

  • deduzione: applicazione di regole generali a casi specifici
  • induzione: generalizzazione a partire da dati osservati
  • abduzione: formulazione di ipotesi plausibili per spiegare un fenomeno

Secondo Larson, l’intelligenza artificiale attuale eccelle nella deduzione e nell’induzione, ma è profondamente carente nell’abduzione.

Eppure è proprio l’abduzione a essere centrale nell’intelligenza umana: è il tipo di ragionamento che utilizziamo quando interpretiamo il mondo, formuliamo ipotesi, comprendiamo contesti complessi e ambigui.

Le macchine, invece, non possiedono questa capacità di “andare oltre i dati”. Possono correlare informazioni, ma non coglierne il senso profondo.

Il linguaggio senza mondo

Un altro punto chiave riguarda il rapporto tra linguaggio e realtà. Per gli esseri umani, il linguaggio è sempre radicato nell’esperienza: parole e concetti rimandano a un mondo vissuto, percepito, interpretato.

Per le macchine, invece, il linguaggio è disancorato dal mondo. È un sistema di simboli che rimandano ad altri simboli, senza un riferimento diretto all’esperienza.

Questo porta a una conseguenza fondamentale: l’intelligenza artificiale può simulare il linguaggio, ma non può viverlo. In questa prospettiva, la differenza tra uomo e macchina non è solo quantitativa (più o meno dati), ma qualitativa: riguarda il modo stesso in cui il significato emerge.

AI, conoscenza e limite epistemologico

La riflessione di Larson si inserisce in un dibattito più ampio sull’epistemologia dell’intelligenza artificiale. Che cosa significa conoscere ? È possibile ridurre la conoscenza a calcolo e correlazione ? La sua risposta è prudente: no. La conoscenza umana implica:

  • interpretazione
  • contesto
  • esperienza reale
  • apertura al significato

Elementi che non possono essere pienamente replicati da sistemi basati su dati e algoritmi. Da questo punto di vista, il “mito dell’AI” consiste proprio nell’idea che l’aumento di potenza computazionale e di dati possa colmare questa distanza. Per Larson, si tratta di una promessa irrealistica.

Una lettura critica tra scienza e filosofia

L’approccio di Larson è particolarmente interessante per un contesto come quello di SRM, in cui il dialogo tra scienza, filosofia e riflessione sul significato è centrale. La sua critica non è anti-tecnologica: riconosce i progressi straordinari dell’AI in molti ambiti. Tuttavia, invita a distinguere tra capacità operative e comprensione reale.

Questa distinzione apre anche interrogativi più profondi:

  • che cos’è l’intelligenza ?
  • qual è il ruolo della coscienza ?
  • è possibile una macchina che comprenda davvero ?

Domande che riguardano non solo la scienza, ma anche la filosofia e, indirettamente, il rapporto tra conoscenza e significato.

Il pensiero di Erik Larson rappresenta un contributo fondamentale per una visione più equilibrata dell’intelligenza artificiale. In un’epoca segnata da entusiasmo e aspettative elevate, la sua analisi invita alla cautela e alla lucidità.

Le macchine possono elaborare informazioni in modo straordinario, ma non comprendono il mondo come lo comprendiamo noi. E proprio in questa differenza si gioca una delle questioni più decisive del nostro tempo: il rapporto tra tecnologia, conoscenza e significato.

Lascia una risposta