Intelligenza artificiale e libero arbitrio
7 min readEsiste una lunga storia di dibattito intellettuale e religioso sulla natura e l’esistenza del libero arbitrio. Con quest’espressione intendiamo dire che abbiamo la capacità di fare scelte ponderate, a volte incoerenti, ma non determinate da altri se da noi stessi.
La prima cosa da osservare è che distinguiamo tra un interno e un esterno: per comprendere il libero arbitrio, dobbiamo immaginare di chiudere in una scatola ciò che è “noi” e di separarlo da tutto ciò che è “non noi”.
Inoltre, nella scatola, dobbiamo essere liberi di considerare le opzioni a nostra disposizione senza influenze indesiderate, in modo tale da poter fare una scelta ragionata, senza che una particolare conclusione ci sia preordinata o indotta con la forza. Una conseguenza importante di questa concezione è che le nostre decisioni, in linea di principio, non devono essere predicibili. Se lo fossero, non saremmo davvero nelle condizioni di compiere scelte libere.
Proviamo ad addentrarci nel concetto della prevedibilità. Ai fini di questa discussione, partirò dall’assunto che il mondo fisico agisce in accordo con determinate leggi di natura, che si sappia o meno di quali leggi si tratta.
Questo non significa che ogni cosa sia predeterminata, anzi, la casualità può rappresentare in effetti una parte fondamentale della natura. È proprio qui che si crea il bivio tra chi ritiene che la casualità non è altro che un mero “caso”, e chi pensa che – ad un certo punto – gli eventi accadano in accordo con un disegno superiore o con un principio che sia posto al di là delle leggi naturali.
Nel 2008, un gruppo di ricercatori (neuroscienziati e psicologi) ha chiesto a dei soggetti di scegliere liberamente se premere un pulsante con la mano destra oppure con la sinistra. Per mezzo di uno scanner cerebrale a risonanza magnetica funzionale, i ricercatori riuscirono a prevedere quello che avrebbero scelto i soggetti prima che la decisione fosse presa consapevolmente.
Gli psicologi sperimentali ritengono dunque di aver dissotterrato nuove inquietanti prove circa il fatto che il nostro cervello prende delle decisioni prima che la nostra mente sia coscientemente consapevole, proprio come regola la pressione sanguigna senza bisogno di un intervento consapevole, mettendo in discussione il concetto stesso di libero arbitrio.
L’esperimento in sé costituisce un ottimo risultato, se pensiamo che possa essere utile per curare malattie gravi oppure per dotare ai monchi di una protesi automatizzata. Ma affermare che non esiste il libero arbitrio sulla base di un modello predittivo è come asserire che Google Maps conosce perfettamente il nostro futuro.
L’esperimento condotto dai psicologi ha dimostrato semplicemente che il modello di previsione da loro costruito è funzionante; ed è funzionante tanto quanto lo è Google Maps, che predice l’orario esatto del tuo arrivo tutte le volte che gli chiedi di portarti ad una determinata destinazione.
Lo stesso si può dire dell’intelligenza artificiale e delle macchine: funzionano e anche bene, ma non sono certo detentori della verità assoluta.
Ora, immaginate di essere rinchiusi in una stanza di quelle in cui si svolgono gli interrogatori di polizia, con uno specchio a senso unico grazie al quale un gruppo di scienziati del futuro particolarmente intelligenti vi può osservare sotto ogni aspetto, incluso lo stato e il comportamento di ogni singolo neurone del vostro cervello.
Vi viene poi chiesto di dire ad alta voce “rosso” oppure “blu” ma, prima di farlo, gli scienziati devono prevedere quale scelta farete. Grazie ai loro test, ai loro modelli di simulazione e a qualsiasi altra cosa vogliano usare, gli scienziati dimostrano di poter prevedere esattamente quanto direte il 100% delle volte, concludendo da ciò che non siete dotati di libero arbitrio: dopo tutto, per quanto duramente vi sforziate, non riuscite a batterli.
Ma voi pregate di fare un’eccezione, e chiedete l’opportunità di dimostrare che, in realtà, non siete noiosi e prevedibili come pensano loro. Come prima cosa, provate a decidere cosa scegliere, per poi cambiare idea esplicitamente. Ma la cosa non funziona perché, ovviamente, gli scienziati prevedono che vi comporterete così.
Vi viene allora un’idea: scoprite che, se state seduti senza fare il minimo rumore, riuscite a sentire gli scienziati che discutono le loro previsioni. La prossima volta che vi chiederanno di scegliere un colore, ascolterete quindi quanto diranno e scoprirete cosa hanno predetto, e a voi non resterà che scegliere l’altro colore.
Affascinati dalla vostra capacità di inventiva, gli scienziati incorporano nei loro modelli il dettaglio che non solo sceglierete, ma anche che avrete accesso alle loro previsioni prima di farlo. Niente di nuovo o di incerto ma, con loro grande sorpresa, il modello così migliorato non funziona. Nonostante i loro sforzi, siete ancora in grado di scegliere il colore diverso, dimostrando che avevano torto.
Come avete fatto, quindi, a sorprenderli? Espandendo la “scatola” tra l’interno e l’esterno dei vostri pensieri; in questo caso, includendoli. In altre parole, se la scatola è grande abbastanza, quello che c’è dentro non potrà mai prevedere cosa farà l’altro, a meno che non si trovi totalmente fuori da essa. Se riuscite a ingrandire la scatola fino a includere la previsione, non esiste previsione che possa essere sempre corretta.
Pensate ad un ladro ricercato dalla polizia. Se il ladro non è a conoscenza del fatto di essere ricercato, è molto probabile che la polizia indovini la sua posizione e proceda alla sua cattura. Nel caso il ladro venisse a conoscenza del fatto di essere ricercato (accesso alle previsioni), non abbiamo la certezza che venga catturato.
Ora, non c’è nulla di questo argomento che non si possa applicare ad una macchina. Possiamo costruire un robot in grado di fare esattamente quello che fate voi; non importa se lo programmiamo per prendere decisioni; non importa quanto prevedibile sia il robot: fintanto che ha accesso ad una previsione esterna delle sue stesse azioni, quella previsione non può essere sempre corretta. Il robot può, semplicemente, aspettare la previsione e poi fare il contrario.
Affrontiamo adesso la questione di come fanno i computer a prendere decisioni. A differenza di quanto accade con le persone, abbiamo un’idea davvero precisa del modo in cui funzionano. Nondimeno, sono in grado di fare scelte senza fare affidamento alla casualità.
Sono capaci di soppesare l’evidenza, applicare conoscenze e competenze, fare scelte in situazioni di incertezza, assumersi rischi, modificare i loro stessi piani sulla base di informazioni aggiuntive, osservare i risultati delle loro azioni, ragionare (nel caso di elaborazione simbolica) o utilizzare quello che potremmo chiamare intuito (ad esempio, quando il machine learning viene utilizzato come base per un’azione da intraprendere in mancanza di una più approfondita comprensione dei nessi causali).
Eppure, un robot sufficientemente capace, dove con “sufficientemente capace” si intende che ha accesso al tentativo di prevedere cosa farà, non può essere sempre prevedibile.
Questo è un esempio di quello che gli informatici definiscono un “problema indecidibile”: non esiste alcun algoritmo efficace in grado di risolvere completamente il problema, cioè in modo che dia sempre una risposta corretta.
Si noti che questo concetto è in totale accordo al più noto principio dell’indeterminazione di Heisenberg. Secondo questo principio, la conoscenza della posizione e della velocità di una particella è limitata in termini di precisione e inversamente correlata (se conosco la posizione non posso conoscere la velocità e viceversa).
Il problema indecidibile più noto è probabilmente quello formulato da Alan Turing, ed è detto “problema della terminazione”: è possibile scrivere un programma A in grado di esaminare qualsiasi altro programma B insieme al suo input e dirvi se B alla fine terminerà o no. In altre parole, è possibile per A dire se B finirà mai e darà mai una risposta.
Turing ha dimostrato che non può esistere tale programma A usando un’argomentazione simile a quella usata qui sopra. Dunque, cosa succede in pratica? Il programma non commette un errore, cioè, non dà una risposta sbagliata. Semplicemente, non si arresta mai.
Nel caso dei futurologi, per quanto intelligente possa essere il loro modello di previsione, in alcuni casi, semplicemente, non arriverà mai a concludere se sarà scelto il rosso o il blu. Questo non vuol dire che non verrà fatta alcuna scelta, ma solo che non sarà sempre possibile prevederla. Gli scienziati potrebbero protestare facendo notare che comunque non sbagliano mai, il che potrebbe essere vero. Ma non aver mai torto non è equivalente a saper prevedere il comportamento in modo affidabile.
Chiunque operi nel campo della ricerca sa benissimo che, volenti o nolenti, qualsiasi risultato è affetto da incertezza. E questo vale in qualsiasi laboratorio del mondo.
Non è perciò detto che (nemmeno) una macchina deterministica, il cui comportamento sia sempre completamente specificato e compreso, possa sempre essere prevedibile. Un programma può effettuare una transizione da un qualsiasi stato determinato al successivo in modo interamente prevedibile ma, sorprendentemente, non possiamo costruire una catena di questi stati e ottenere un quadro completo di ciò che il programma farà alla fine.
Lo stesso vale, ovviamente, per voi: in particolare, non riuscirete mai a prevedere in modo certo (persino) il vostro stesso comportamento.
È facile constatare dunque, attraverso il problema indecidibile, il fatto peculiare che alcuni processi, seppur deterministici sono, nonostante tutto, non soggetti a previsione, anche in linea di principio.
Riassumendo, scientificamente non è chiaro se disponiamo di libero arbitrio (figuriamo i computer!), o cosa significa averlo. Alcuni ricercatori ritengono plausibile che la sensazione di poter scegliere non sia altro che un’illusione: è possibile che il cervello, essendo un oggetto fisico, obbedisca alle stesse regole di tutto il mondo fisico e possa essere perciò soggetto ad ispezione e analisi.
Questa rimane, tuttavia, un’ipotesi interessante ma molto poco verosimile.
LINK UTILI:
Unconscious determinants of free decisions in the human brain
Problema della terminazione
Teorema di Turing
Rubrica: “Il Pensiero Artificiale“
Sono un ricercatore presso Co.Mac – CFT, un importante gruppo italiano che opera nell’ambito degli impianti industriali. Laureato in ingegneria Meccanica con specializzazione in Meccatronica al Polimi. Attualmente studio automazione con particolare focus verso gli algoritmi di intelligenza artificiale e le sue applicazioni nel mondo reale.
Comunicare significa donare parte di noi stessi, ed è questo il motivo per cui la divulgazione scientifica è una delle mie più grandi passioni.