Il contenuto di questo articolo è stato esposto nella lezione introduttiva della Summer School 2019 di Vetrya Academy, completamente dedicata all’Intelligenza Artificiale.
Uno dei problemi risolti della filosofia (ebbene sì, ne esistono) è la risposta alla domanda se le macchine possano pensare. Vale a dire, la questione della cosiddetta “intelligenza artificiale forte”, così battezzata dal pensatore che ne ha dimostrato l’inesistenza: John Searle, uno dei padri della teoria degli atti linguistici, responsabile dell’esperimento mentale della “stanza cinese”. Com’è noto, si tratta dell’argomentazione con la quale Searle ha sostenuto l’impossibilità che un calcolatore digitale non si limiti a comportarsi come una mente (come prevedere una prospettiva “debole” sull’AI), ma sia a tutti gli effetti una mente, in tutto e per tutto passibile di sostituire l’uomo (la sintesi nel paper del 1980 qui).
Per Searle, i computer non sono menti perché non hanno un encefalo, l’unico in grado di produrre una coscienza: concetto che occupa un posto centrale nella sua riflessione, e sul quale abbiamo lasciato cadere il discorso qualche tempo fa. La ragione per cui viene decisamente negata ai computer è il suo inscindibile legame con una particolare configurazione neurobiologica, propria dell’uomo e di alcuni (non tutti) gli animali, dotati di cervello. E siccome non sappiamo ancora come il cervello faccia a causare la coscienza, non è possibile al momento fare altro che simularne gli effetti, senza poterli però duplicare. Il massimo che possiamo ottenere da una macchina dotata di intelligenza artificiale quindi è una simulazione, basata sulla manipolazione di simboli – un’operazione formale, vale a dire sintattica – senza mai poter fare in modo che la macchina pensi, ossia passi dalla sintassi alla semantica.
I calcolatori hanno una sintassi, ma non una semantica; la mente non ha solo una sintassi, ma anche una semantica.
Ecco il punto cruciale. Se la risposta al quesito di Turing è negativa, se è vero che un calcolatore digitale artificialmente costruito non può pensare – e con Searle lo è al di là di ogni ragionevole tentativo di argomentare il contrario -, allora il punto non è se le macchine potranno mai diventare intelligenti come l’uomo: ma se l’uomo diventerà intelligente come le macchine, o meno. Mi spiego meglio. La ragione per cui la macchina non pensa, cioè non ha intelligenza e non sa cosa sta facendo, come abbiamo visto è che non può abbandonare il livello formale – non può fare altro che scambiare simboli, senza mai essere cosciente del loro significato.
Ma cos’è esattamente il significato?
Per rispondere si potrebbe ricorrere a Gottlob Frege, uno dei padri della logica formale e interlocutore intellettuale di Searle: nella sua famosa tripartizione, il significato è uno dei tre poli del linguaggio, insieme al senso e al significante. Più che di “significato”, in realtà, sarebbe meglio parlare di “riferimento”: la Bedeutung è infatti l’elemento del reale a cui il segno si riferisce, ma perché l’enunciato che lo include porti una vera informazione è necessario che sia accompagnato dal senso (Sinn), vale a dire dal pensiero espresso al suo riguardo.
Il valore conoscitivo, insomma, è dato dal significato.
E’ il valore della connessione del linguaggio con il mondo, che permette di superare la tautologica affermazione di identità per dare vita alla vera e propria preposizione. Ecco un problema filosofico irrisolto: quello che secondo Hilary Putnam è anzi il maggiore problema filosofico, vale a dire «il modo in cui la mente o il linguaggio si «agganciano» al mondo”. Ma che si scelga o meno la soluzione di Searle (vale a dire il realismo: sì, il linguaggio può accedere effettivamente a un mondo reale), resta il valore dell’intenzionalità, la tensione verso il significato, l’attitudine al senso propria dell’essere umano, e invece estranea alla macchina.
E se l’uomo abdicasse a questa naturale attitudine, cedendo all’automatismo, limitandosi a manipolare simboli in maniera irriflessa, senza rivolgere lo sguardo al riferimento, rinunciando a tracciare il percorso di senso verso di esso? Prima di liquidare questa ipotesi come impossibile o irrilevante, vale la pena di ripensare alla delega crescente alle memorie surrogate di quelli che chiamiamo “dati” – informazioni, rappresentazioni, testimonianze della nostra esistenza -, e chiedersi se questo processo possa condurre i loro significati a diventare puri oggetti formali, perdendo ogni intenzionalità. Non saremmo allora più simili alle macchine, di quanto le macchine possano mai essere rispetto a noi?