Cosa ha da dire la Chiesa sull’Intelligenza Artificiale (Prima parte)
L’attualità delle riflessioni sull’Intelligenza Artificiale non esula dall’indagare quale visione dell’uomo scaturisca dall’insegnamento della Chiesa Cattolica e quale approccio questa abbia maturato
L’attualità delle riflessioni sull’Intelligenza Artificiale non esula dall’indagare quale visione dell’uomo scaturisca dall’insegnamento della Chiesa Cattolica e quale approccio questa abbia maturato lungo gli ultimi decenni rispetto alla tecnologia e alle sue innovazioni più sofisticate.
A tale riguardo propongo una riflessione sintetica di questo “percorso” in due parti, la prossima nella successiva settimana, secondo questo schema che è tratto dal mio libro Anima digitale. La Chiesa alla prova dell’Intelligenza Artificiale:
PRIMA PARTE
1. Introduzione
2. Le macchine sono in grado di pensare?
3. Che ne sarà dell’uomo?
SECONDA PARTE
4. Quale impatto delle tecnologie sull’individuo
5. Di cosa è preoccupata la Chiesa
6. Quale visione dell’uomo portare avanti
7. Bibliografia
1. Introduzione
Ogni disamina sull’Intelligenza artificiale parte inevitabilmente da un riferimento pioneristico legato al famoso «test» di Alan Turing, il matematico inglese che nel 1950 propose un metodo per valutare l’intelligenza di macchine computazionali messe a confronto con l’intelligenza umana.
Il test prevede che un esaminatore ponga domande attraverso una telescrivente a un uomo e a un computer, situati in due stanze chiuse e distinte, senza sapere se le risposte che riceve vengano dall’uno o dall’altro. Se l’esaminatore non è in grado di identificare sulla base delle risposte ricevute quale sia l’uomo e quale sia il computer, le capacità di interazione linguistica del computer dovranno essere considerate come non distinguibili da quelle umane, e il computer dovrà dunque essere considerato intelligente. (Turing, 1959). L’altro padre dell’intelligenza artificiale è il matematico e informatico Marvin Minsky, a cui è attribuita la prima definizione della disciplina (Horgan, 2016).
Sette decenni fa, dunque, i dibattiti sulle interazioni tra macchine ed essere umano tentavano già di rispondere alla domanda se le prime fossero in grado di «pensare», di avere dunque una «intelligenza» propria, che si sarebbe messa in competizione con quella dell’uomo. E l’interrogativo veniva posto soprattutto rispetto all’intelligenza di tipo linguistico.
2. Le macchine sono in grado di pensare?
Le successive riflessioni e gli studi anche nel settore della sociologia hanno riguardato le previsioni su come sarebbero evoluti i processi interattivi uomo-macchina, fino a desiderare di affidare alla tecnologia evoluta un’ampia gamma di processi diagnostici, valutativi o decisionali che la stessa persona deve svolgere (Achille Ardigò, in Ardigò & Mazzoli, 1986, p. 13).
Non si può dire che una simile previsione non si sia avverata, certamente il percorso con cui si è arrivati a questi risultati ha impiegato diversi decenni. Gli scienziati computazionali dei primi anni 80 del secolo scorso, infatti, erano interessati a scoprire «come lavora il cervello umano, come memorizza e come richiama i ricordi, come collega le sensazioni, come cataloga le immagini» (Ibidem, p. 19), tutto ciò finalizzato alla creazione di potenti apparati tecnologici che potessero creare dei «sosia della mente di un uomo ed esporli a determinate sfide e rischi, in processi di controllo e di decisione» (Ibidem).
Già in quelle riflessioni era evidentemente presente anche tutto il tema della «coscienza» e la domanda molto concreta se un calcolatore o un robot potesse essere veramente cosciente (Hofstadter & Dennel, 1985, pp. 19-20).
Gli sforzi degli scienziati sono andati ovviamente nella direzione di ridurre il divario tra le simulazioni di IA e l’intenzionalità soggettiva e cognitiva di ogni soggetto umano e hanno dovuto prevedere anche successive implicazioni riguardanti ad esempio l’empatia, un elemento fondamentalmente umano e personale, e da sempre tallone d’Achille di ogni evoluzione tecnologica avanzata, che proprio per questo rischia di non diventare mai completa, almeno nel senso in cui si vuole interpretare l’IA.
Roger C. Schank, capo del laboratorio di Intelligenza Artificiale dell’Università di Yale, già nel 1984 affermava senza mezzi termini che il livello di completa empatia della comprensione «sembra essere del tutto fuori tiro del computer per la semplice ragione che il computer non è una persona» (Shanck (1984) citato in Ardigò & Mazzoli, 1986, p. 22). Successivamente anche un altro studioso, John Searle, sostenne che le macchine non possono pensare poiché sono incapaci di recepire i significati e sono prive di intenzionalità (Searle, 1986).
Tutte le ricerche successive hanno cercato di smentire queste considerazioni puntando a quella che è stata poi definita in gergo come IA di tipo «forte»: ci vorrà del tempo ed energie adeguate ma un giorno secondo alcuni sarà possibile riprodurre le attività intelligenti che caratterizzano il comportamento umano in tutte le sue svariate forme (Graziella Tonfoni, in Ardigò & Mazzoli, 1986, p. 66). Per un percorso più completo e dettagliato si veda in particolare Taulli (2019).
3. Quale impatto delle tecnologie sull’individuo
Se guardiamo alle discussioni tra studiosi dell’ultimo ventennio del 1900 sui temi dell’IA ci si rende conto che erano già presenti – alcune in fase embrionale, altre più sviluppate – le tematiche principali dell’impatto delle tecnologie evolute sull’uomo e sulla società in generale. Proprio su quest’ultimo aspetto, Ardigò tematizzava nel 1986 la necessità di riflettere sulle implicazioni di ciò che la sociologia denomina come «controllo sociale», avanzando tre ipotesi su questo legame.
Innanzitutto, l’IA sarebbe (stata) «causa di controllo sociale», il cui aumento sarebbe l’effetto dei progressi tecnologici; ma anche «effetto di accresciute necessità di controllo sociale» generando investimenti pubblici e privati per rispondere a nuove esigenze sia in ambito civile, di mercato o militare; e «correlata (in tutto o in parte) al controllo sociale e viceversa». Per avvalorare queste ipotesi, lo studioso cita alcuni «fatti», tra cui i finanziamenti pubblici negli Stati Uniti da parte del Pentagono o incentivazioni da parte di agenzie NATO, o ancora investimenti per la diffusione di sistemi di IA nell’ambito dei controlli fiscali, senza tralasciare il settore medico-sanitario e quello della rappresentanza democratica (elezioni, propaganda, ecc.). Tutti «supporti indiziari molto consistenti», li definisce l’autore (Achille Ardigò, Ivi, pp. 100-110).
Altri temi delle speculazioni di quegli anni, al di là dell’organizzazione strutturale e di funzionamento dei cosiddetti «sistemi esperti», affrontano già il loro utilizzo nel campo della «salute» (sia socio-sanitario che di ausili medici strumentali e di diagnostica) e anche sul piano della «generatività», intesa come capacità di questi sistemi di ristrutturarsi internamente, propensi a produrre nuove «organizzazioni» di sé stessi (Giovan Francesco Lanzara, Ivi, pp. 175-204).
Grazie per aver letto fin qui. La seconda parte di questo percorso sintetico su “Cosa ha da dire la Chiesa sull’Intelligenza Artificiale sarà disponibile la prossima settimana.