La Stanza Cinese, l’esperimento filosofico per dimostrare che i computer “non pensano” 15 Novembre 2022 – Posted in: Lo Sapevi che – Tags: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Durante i primi anni’80 i sostenitori dell’intelligenza artificiale teorizzata da Alan Turing erano pienamente convinti che in futuro le macchine sarebbero state in grado di pensare. A rispondere per le rime fu John Roger Searle con l’esperimento della Stanza Cinese. Searle era un professore di Berkeley, famoso per i suoi contributi alla filosofia del linguaggio e alla filosofia della mente, e, inevitabilmente, egli si trovò a scontrarsi con l’idea diffusa che la mente umana fosse replicabile all’interno di una macchina.

IA forte e IA debole

Nel 1980 Searle pubblicò il suo lavoroMenti, Cervelli e programmi”, introducendo una differenza sostanziale tra due categorie di Intelligenze Artificiali, o meglio due concezioni della stessa: IA forte e IA debole. I sostenitori della prima categoria consideravano il calcolatore non come uno strumento per lo studio della mente quanto piuttosto un hardware dove poter installare un software che potesse simulare una vera mente; i sostenitori dell’IA debole (come lo stesso Searle), invece, la vedevano come uno strumento potente al servizio dell’umanità, ma limitato, ovvero in grado di ottenere esclusivamente risultati precisi e rigorosi.

Searle non poteva proprio concepire la mente come un software eseguibile su diverse configurazioni e per avvalorare la sua tesi propose il suo celebre esperimento della Stanza Cinese.

JOHN ROGER SEARLE, IDEATORE DELL’ESPERIMENTO DELLA STANZA CINESE.

L’esperimento della Stanza Cinese

Immaginiamo che un individuo venga rinchiuso in una stanza. Questa persona è madrelingua inglese e non capisce la lingua cinese: né in forma scritta, né in quella parlata. Nella stanza questo individuo trova un foglio zeppo di ideogrammi cinesi e un secondo foglio, sempre rigorosamente scritto in cinese, con una serie di domande. L’uomo quindi si trova davanti a due serie di simboli che per lui non hanno alcun significato. Ma nella stanza si trova anche un libro con una serie di regole scritte in inglese che gli spiegano come abbinare i simboli del primo foglio con quelli del secondo foglio.

Supponiamo che il primo foglio sia una storia scritta in cinese e il secondo una serie di domande inerenti alla storia. A quel punto l’uomo comincia a produrre output di risposta, seguendo alla lettera le istruzioni che gli sono state consegnate. In questo esempio le istruzioni rappresentano il software, il programma del computer. Le risposte che l’uomo produce sono formalmente giuste, perché ha eseguito alla lettera le istruzioni che gli sono state consegnate insieme agli ideogrammi. Nonostante questo, non ha compreso nulla di quello che ha ricevuto, di quello che ha risposto e, ovviamente, non conosce ancora il cinese. Se ci fosse un eventuale osservatore esterno all’esperimento, però, mettiamo anche un osservatore madrelingua cinese, potrebbe pensare che l’uomo abbia una buona padronanza della sua lingua.

Secondo Searle, allo stesso modo in cui un uomo esegue meccanicamente l’ordine senza comprendere il cinese, il calcolatore esegue il programma scritto nel linguaggio di programmazione (che è la sua madrelingua), ma essenzialmente manipola simboli di cui non sa il significato. La sua operazione è puramente sintattica.

Turing e Searle: due visioni opposte

Se Turing quindi cercava di evitare il confronto con il pensiero e la difficile, se non impossibile, misurazione scientifica dello stesso, Searle affronta la questione di petto, ponendo l’attenzione proprio sulla parola “capire”. L’uomo nella stanza è in grado di capire una storia che gli viene raccontata in inglese ma, allo stesso tempo, non capisce ciò che sta scrivendo in cinese. Una calcolatrice o un’automobile, così come un computer, non capiscono nulla, semplicemente perché non è quello che compete loro. Il punto fondamentale della tesi di Searle è che alcuni aspetti della mente, specialmente quelli legati alla comprensione di ciò che abbiamo attorno, sono semantici. Hanno a che fare con i significati, non solo con i simboli. E sono appannaggio dell’uomo. Una macchina invece opera sulla base di programmi perlopiù sintattici, il cui scopo passa attraverso la corretta manipolazione di forme di cui non capisce il significato. E che quindi non può comprendere.

IL LIBRO “MINDS, BRAINS AND SCIENCE” (“MENTI, CERVELLI E SCIENZA”) IN CUI SEARLE PROSEGUE LA RIFLESSIONE RELATIVA ALLE CAPACITÀ DELLE INTELLIGENZE ARTIFICIALI INIZIATA CON “MINDS, BRAINS AND PROGRAMS”. HARVARD UNIVERSITY PRESS, 1984.

Ma quindi una macchina può pensare?

Se glielo chiedeste, John Searle vi risponderebbe che sì, una macchina è in grado di pensare. Infatti noi esseri umani non siamo altro che macchine molto complesse, capaci di pensare. Ciò che non è possibile, secondo la sua teoria, è ridurre tutto al giusto software come condizione sufficiente per capire e pensare. Il suo esperimento della Stanza Cinese, a suo dire, dimostra che un calcolatore che esegue un programma sa manipolare simboli e agire in base alla sintassi ma senza comprenderne la semantica. In quel caso, l’unica intenzione, l’unica comprensione, è quella di chi sviluppa il programma. Nella macchina, noi otteniamo una semplice simulazione di intelligenza.

Searle, che negli anni ricevette una serie di opposizioni piuttosto forti al suo esperimento, specialmente perché fin troppo assolutista con un argomento che era nel pieno dell’esplosione pratica e teorica, spiegò che per lui tutto era contenuto nella differenza che passa tra simulazione riproduzione. Nessuno ammetterebbe mai che si possa produrre del latte da una simulazione al computer, ma quando si parla della mente si è disposti a credere a questo miracolo. Un processo che secondo Searle è equiparabile a un fenomeno biologico ha grandi possibilità di dipendere dalla biochimica; tutte le caratteristiche necessarie perché questo processo prenda vita, non possono limitarsi all’esecuzione di un programma

(Fonte bit.ly/3bKVcdi)