Scienza, fede, ragione, informazione. Direttore Paolo Centofanti

Libri

Intelligenza Artificiale : come capirne l’intelligibilità

Intelligenza Artificiale intelligibilita

L’opera di Herman Cappelen e Josh Dever propone una base filosofica per rendere comprensibili e interpretabili i contenuti prodotti dalle intelligenze artificiali.

Making AI Intelligible: Philosophical Foundations, di Herman Cappelen e Josh Dever, affronta una questione centrale nella filosofia dell’intelligenza artificiale: può un’IA condividere concetti con l’essere umano?
Gli autori analizzano il problema da una prospettiva filosofica, sviluppando una base teorica per l’intelligibilità dell’IA, cruciale soprattutto nei contesti in cui sistemi automatici prendono decisioni che influenzano in modo significativo la vita delle persone.

1. Il nodo del “contenuto” nell’IA

Uno dei punti chiave del libro è la difficoltà di individuare un contenuto semantico chiaro all’interno delle architetture di reti neurali. Non basta osservare il codice o i parametri di un modello per comprenderne il significato: il senso di ciò che l’IA produce dipende anche da fattori esterni, come il contesto di addestramento, le intenzioni dei progettisti e lo scopo del sistema.

2. Un esempio narrativo

Per illustrare il problema, gli autori propongono la storia di Lucie, che riceve un punteggio di credito da un sistema di valutazione automatizzato. Anche conoscendo ogni dettaglio tecnico del processo, resta difficile capire perché abbia ottenuto quel punteggio e cosa significhi concretamente per lei. Questo esempio mette in luce la necessità di strumenti concettuali che consentano di interpretare in modo chiaro le decisioni dell’IA.

3. Superare l’antropocentrismo

Il libro critica le teorie del significato e della semantica che si basano unicamente su modelli umani, legati a biologia o evoluzione. Gli autori propongono di “de-antropocentrare” queste teorie, cioè di adattarle per spiegare anche il funzionamento e il contenuto concettuale di sistemi non umani come le intelligenze artificiali.

4. Adattamento dei modelli esternalisti

Gli autori esplorano come alcune teorie filosofiche esternaliste, originariamente sviluppate per descrivere il linguaggio e il pensiero umano, possano essere riformulate per applicarsi anche alle IA. Vengono presi in considerazione modelli come la catena causale-storica per i predicati e il concetto di “mental files” per i nomi, con l’obiettivo di rendere più comprensibile il funzionamento concettuale delle macchine.

5. Ricadute pratiche: spiegabilità e responsabilità

La riflessione teorica si collega direttamente a questioni concrete. Le IA oggi prendono decisioni in settori come finanza, sanità e giustizia. Se non si comprende cosa “significano” i loro output o perché vengono generate certe conclusioni, diventa impossibile garantire giustizia, trasparenza e responsabilità.

6. Critiche e prospettive aperte

Alcune analisi hanno rilevato che il libro non approfondisce abbastanza scenari alternativi, come l’ipotesi che le IA possano produrre contenuti completamente alieni o privi di significato interpretabile per gli esseri umani. Rimane aperta la sfida di sviluppare una teoria metasemantica capace di includere questi casi estremi.

Making AI Intelligible fornisce una cornice filosofica utile per affrontare la crescente complessità dell’interazione tra esseri umani e intelligenze artificiali. Concentrandosi su come dare senso ai contenuti generati dalle macchine, gli autori aprono la strada a una comprensione più solida e responsabile di un fenomeno destinato a influenzare sempre di più le nostre vite.

Lascia una risposta