Il Libro Anima digitale AI

Giovanni Tridente

ANIMA DIGITALE

La Chiesa alla prova dell’Intelligenza Artificiale

A Chiara, Miriam, Pablo

e Laura, motore della mia vita

Indice

Indice 5

Abbreviazioni 9

Introduzione 11

Capitolo I – Intelligenza Artificiale: a che punto siamo 15

1.1 Spunti e temi dalla letteratura recente 16

1.1.1 I temi 18

1.1.2 Gli sviluppi speculativi 20

1.1.3 La domanda etica 23

1.1.4 In prospettiva: dal modello linguistico avanzato all’IA Generale 27

a) GPT-3 27

b) AGI 28

1.2 L’interesse degli Stati nazionali 29

1.2.1 Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) 30

a) Principi e raccomandazioni 31

b) OCSE Framework for the Classification of AI Systems 33

1.2.2 Commissione Europea 35

a) Orientamenti etici per un’IA affidabile 35

b) Regolamento sull’Intelligenza artificiale 37

1.2.3 L’esperienza asiatica 40

Capitolo II – Visione dell’uomo e approccio alla tecnologia nel magistero pontificio e nell’editoria cattolica 43

2.1 L’insegnamento dei Pontefici 45

2.1.1 Metodo di raccolta e definizione del campione 46

2.1.2 Giovanni Paolo II 47

a) Una società che cambia e i rischi di una «disoccupazione tecnologica» 48

b) Quale atteggiamento 49

c) Una responsabilità sociale e internazionale 50

d) Procedere con sana ragione 50

e) Libertà di giudizio e scelta 50

f) Un «supplemento d’anima» 51

g) Al servizio dell’uomo 51

h) Morale e dignità 52

2.1.3 Benedetto XVI 53

a) Verso il bene autentico 53

2.1.4 Papa Francesco 53

a) I prodotti della tecnica non sono neutri 54

b) No a macchine senz’anima; salvaguardare il lavoro 54

c) Comprendere le trasformazioni; discernere con coscienza morale 55

d) Verso un’etica universale 56

e) Regolamentarne l’impiego 56

f) Un’etica di libertà, responsabilità e fraternità 57

g) Anzi, un’«algoretica» 57

h) Servono corpi sociali intermedi eticamente sensibili 58

2.2 Il contributo de La Civiltà Cattolica 59

2.2.1 Metodo di raccolta e definizione del campione 60

2.2.2 Gli approfondimenti 61

a) Il contributo delle tradizioni religiose 61

b) Tra opportunità e rischi, verso un «umanesimo digitale» 62

c) Chiesa chiamata a impegnarsi sui temi dell’IA 63

d) Il costo in termini di relazioni e alterità 65

e) La domanda antropologica 66

2.2.3 Le recensioni 66

2.2.4 La monografia «Accènti» 68

a) Il pioniere Roberto Busa 69

b) Implicazioni antropologiche 70

c) Macchine emotive… 70

d) L’uomo unitotalità unificata 71

e) Spazio alla voce della Chiesa 71

2.3 Le rubriche di Avvenire 72

2.3.1 Metodo di raccolta e definizione del campione 73

2.3.2 Versione cartacea 74

a) Il valore spirituale della tecnologia 74

b) Un «antronomo» a monte dei processi 74

c) Salvaguardare l’intangibile dignità dell’uomo 76

d) La trappola della velocità e l’illusione di una super potenza 77

e) Macchine che educano e unicità della persona 78

f) Lo spazio per l’uomo nel «metaverso» 79

2.3.3 Versione online 79

a) Chi è Paolo Benanti 80

b) 10 preoccupazioni 80

2.4 Ricapitolando… 83

Capitolo III – Le iniziative accademiche degli Organismi vaticani 85

3.1 Importanza del campione 86

3.1.1 Metodo di raccolta e definizione del campione 87

3.2 Profili degli Organismi vaticani 88

3.2.1 Pontificia Accademia delle Scienze 88

3.2.2 Pontificia Accademia delle Scienze Sociali 89

3.2.3 Pontificia Accademia per la Vita 91

3.2.4 Pontificio Consiglio della Cultura 92

3.2.5 Dicastero per il Servizio dello Sviluppo Umano Integrale 93

3.3 Le iniziative realizzate 94

3.3.1 Poteri e limiti dell’Intelligenza Artificiale 94

3.3.2 Robotica, Intelligenza Artificiale e Umanità 96

3.3.3 Roboetica. Persone, Macchine e Salute 97

3.3.4 Il bene comune nell’era digitale 98

3.3.5 Il buon algoritmo? Intelligenza artificiale: Etica, Diritto, Salute 99

3.3.6 The Challenge of Artificial Intelligence for Human Society 100

3.4 Le dichiarazioni finali 101

3.4.1 Sui poteri e i limiti dell’IA (2016) 101

3.4.2 Su robotica, IA e umanità (2019) 102

3.4.3 Sul bene comune nell’era digitale (2019) 105

3.4.4 Rome Call for AI Ethics (2020) 106

3.5 Ricapitolando… 109

Conclusione – Chiesa e intelligenza artificiale: dalle opportunità alle sfide 111

Appendice 1 – Interviste 119

A1.1Intervista al Presidente della Pontificia Accademia per la Vita 119

A1.2 Intervista al Direttore e all’assistente alla direzione del Centro DISF 123

A1.3 Intervista alla giornalista Barbara Carfagna 126

Appendice 2 – Raccolta bibliografica complementare sull’IA 129

Bibliografia 133

Sitografia 149

Tabelle 151

Abbreviazioni

Sec. Secolo

a.C. Avanti Cristo

cfr. Confronta, vedi anche

cit. Opera già citata in precedenza

IA Intelligenza Artificiale

AI Artificial Intelligence

WEF World Economic Forum

PAS Pontificia Accademia delle Scienze

PASS Pontificia Accademia delle Scienze Sociali

PAV Pontificia Accademia per la Vita

PCC Pontificio Consiglio della Cultura

DSSUI Dicastero per il Servizio dello Sviluppo Umano Integrale

DSC Dottrina Sociale della Chiesa

DISF Documentazione Interdisciplinare di Scienza e Fede (Centro di Ricerca)

IoT Internet of Things (Internet delle Cose)

UE Unione Europea

OCSE Organizzazione per la Cooperazione e lo Sviluppo Economico

AGI Artificial General Intelligence (Intelligenza Artificiale Generale)

GPT-3 Generative Pre-trained Transformer 3

NATO Organizzazione del Trattato dell’Atlantico del Nord

GDPR Regolamento Generale sulla Protezione dei Dati

Introduzione

Penso che nel prossimo futuro verrà sfruttato l’interesse della Chiesa sull’IA e sull’etica negli ambienti non ecclesiastici, per facilitare un pensiero e una riflessione più ravvicinati. A lungo termine si tratta anche di sviluppare, a nome della Chiesa, un invito formale alle università cattoliche a riflettere eticamente sull’IA e sulla tecnologia in generale. […] abbiamo bisogno di persone sufficientemente fluenti nell’area tecnologica e sufficientemente in sintonia con questa cultura, in modo che possano quindi portare in tali discussioni intuizioni credibili provenienti da posizioni di fede.

A offrire questa previsione è un arcivescovo irlandese, Paul Tighe, che ha una formazione civile in Legge e studi di Teologia morale, in una intervista rilasciata al «Journal of Moral Theology». Per diversi anni si è occupato di comunicazione, fino a ricoprire il ruolo di Segretario Generale del Pontificio Consiglio della Cultura in cui si è occupato di questioni relative alla cultura digitale e all’etica, con particolare riferimento all’impatto della tecnologia nei discorsi sociali e politici. Proprio per le competenze, il ruolo ricoperto e la lungimiranza del religioso, queste considerazioni si sposano bene con l’idea di avviare un’analisi argomentata sulle implicazioni tra Chiesa e mondo secolare, sul futuro dei rapporti tra una delle maggiori agenzie morali del mondo e quanti si dedicano all’innovazione e realizzano scoperte con impatti significativi sull’esistenza umana che vanno sotto il nome di «Intelligenza Artificiale» (IA).

Mentre ci si apprestava a organizzare tematicamente i contenuti di questo libro, si è rimasti poi attratti dall’ultima campagna di comunicazione lanciata da una delle più ascoltate radio private italiane, «RTL 102.5», che ha una media di quasi sei milioni e mezzo di ascoltatori nel giorno medio (Borghi, 2022). Lo spot di punta della campagna, partita all’inizio di aprile del 2022 e intitolata «Il potere di essere umani» (Rtl 102.5, 2022), riporta testualmente:

Noi siamo RTL 102.5, la radiovisione fatta di uomini e donne in carne, ossa, voce e un cuore che ci rende vivi. Non sottovalutare gli esseri umani, perché, vedi, un computer può calcolare la musica da farti ascoltare, le news da farti vedere, ma non riuscirà mai a emozionarsi per una canzone. Stupirsi per una notizia. Condividere uno stato d’animo. Ascoltare cosa hai da dire per poi parlarti e arrivare al cuore. Questo è il potere della nostra radiovisione. Il potere di essere umani.

Una scelta di campo che è sembrata inizialmente in controtendenza rispetto all’interesse suscitato su larga scala dall’IA, dato che si afferma con orgoglio un elemento forte della propria identità, che non risiede affatto nella tecnologia avanzata ma nella capacità dell’uomo «di appassionare, emozionare, raccontare, condividere». (Rtl 102.5, 2022) Un «potere» che «nessun computer e nessuna intelligenza artificiale potrà mai superare» (Ibidem). Ma in questa consapevolezza è contenuta una chiave di lettura importante, che riporta sui giusti binari tutta la discussione sulle tecnologie emergenti, che in fondo non sono dotate di autonomia assoluta propria perché prive di carne, ossa e cuore, nonché della capacità di tessere relazioni. E se anche se ne discute a livello di campagne pubblicitarie, su un mezzo che all’apparenza continua a conservare tutta la sua «magia» per come si alimenta e per come intrattiene il pubblico, ciò significa che la domanda etica di fondo è più che presente nell’opinione pubblica e nella società in generale.

La presa d’atto di questo dibattito ancora necessariamente allo stadio emergente, ha quindi agevolato la convinzione che fosse opportuno interrogarsi sulle opportunità e le sfide che la moderna rivoluzione tecnologica propone alla società. Ed è sembrato pertinente, proprio per il suo radicamento nel mondo e la missione che la caratterizza presso gli uomini, mettere al centro di questa pubblicazione il dibattito interno – e quindi esterno – alla Chiesa Cattolica, con l’idea di trarne degli spunti che possano poi essere di interesse generale.

Il primo capitolo offre una visione d’insieme e anche sintetica dello «stato dell’arte» attuale sull’Intelligenza Artificiale, per cercare di capire fino a dove sia giunto il dibattito e quali questioni siano state portate al tavolo delle discussioni. Non ci si focalizza tanto sul funzionamento tecnico e tecnologico degli artefatti quanto invece sui temi antropologici che queste innovazioni pongono, quindi sull’impatto dal punto di vista etico che hanno sulla società in generale. Si attinge alla letteratura più recente sull’argomento, per trarne gli sviluppi speculativi più aggiornati – senza tralasciare un riferimento agli inizi di questo grande progresso –, e si mostra il percorso di regolamentazione avviato in seno agli Stati nazionali, ricorrendo a due organismi significativi del mondo occidentale: l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) e la Commissione Europea. Sul fronte orientale si fa un accenno all’esperienza della Cina.

Nel secondo capitolo si entra nel vivo delle proposte operate in ambito ecclesiale sui temi dell’IA, con una premessa sul perché per la Chiesa sia importante occuparsi di questi argomenti. Viene analizzato l’insegnamento degli ultimi tre pontefici (Giovanni Paolo II, Benedetto XVI, Francesco) attraverso discorsi, messaggi, lettere, ecc., circoscrivendo il contenuto alle parole chiave «intelligenza artificiale» e «robotica» – che non sono sinonimi ma in abito ecclesiale spesso sono stati accostati. La seconda parte, invece, analizza il contributo editoriale offerto su questi temi da due testate interne alla Chiesa, il mensile «La Civiltà Cattolica» e il quotidiano «Avvenire», attraverso una scansione di articoli di approfondimento, rubriche, interviste, editoriali, ecc.

Il terzo capitolo, infine, approfondisce le iniziative accademiche realizzate negli ultimi anni dagli Organismi vaticani più rilevanti per queste tematiche, ossia la Pontificia Accademia delle Scienze, la Pontificia Accademia delle Scienze Sociali, la Pontificia Accademia per la Vita, l’allora Pontificio Consiglio per la Cultura (oggi Dicastero per l’Educazione) e il Dicastero per il Servizio dello Sviluppo Umano Integrale. Per la loro natura, queste istituzioni sono chiamate a interrogarsi, attraverso Assemblee plenarie, convegni e pubblicazioni, su questioni scientifiche e/o che hanno impatto sull’uomo e sulla società. Evidentemente, l’analisi è stata circoscritta a quelle sole attività in cui si è riflettuto sull’IA o che hanno portato a delle dichiarazioni finali, presentate in dettaglio.

Con le conclusioni si cerca di trarre una sintesi tematica di tutti gli spunti emersi, provando a delineare quelle che sono le opportunità e le sfide che secondo la Chiesa bisogna assumere oggi, per giungere ad una Intelligenza Artificiale che possa veramente incidere sul benessere di ciascun individuo umano.

Ad integrazione dell’analisi compiuta, sono state realizzate tre interviste a esponenti qualificati di settori che interagiscono con l’IA per acquisire ulteriori spunti attraverso domande più ampie e aperte. Oltre al Presidente della Pontificia Accademia per la Vita (Arcivescovo Vincenzo Paglia), in qualità di rappresentante di un organismo vaticano, si è interpellato il mondo accademico (Giuseppe Tanzella-Nitti e Ivan Colagè) e quello giornalistico (Barbara Carfagna). In appendice viene anche offerta una raccolta bibliografica complementare sull’IA in italiano, a partire dall’anno 2000, come proposta dal portale «Ecosistema.AI».

Capitolo I – Intelligenza Artificiale: a che punto siamo

Le parole «intelligenza artificiale» sembrano indicare qualcosa del futuro. Non è così. È il presente delle nostre esistenze. […] davanti all’enorme potenza delle macchine non dobbiamo smettere di essere uomini.

Questi due aspetti sintetizzati da Andrea Ciucci, sacerdote milanese che opera come coordinatore di segreteria presso la Pontificia Accademia per la Vita, organismo della Santa Sede, ben rappresentano la definizione del raggio entro cui si muove, o dovrebbe muoversi, la discussione pubblica sull’IA. Innanzitutto, l’IA non è un qualcosa di là da venire ma «il presente delle nostre esistenze». Una tematica su cui non si può smettere di indagare, tantomeno la si può associare a un futuro lontano e imprecisato. L’altra considerazione, non meno importante, è che pur contando su enormi potenzialità, di fronte alle macchine non si può fare altro che collaudare il fatto di «essere uomini». In quest’ultimo punto traspare una evidente domanda etica che non può essere sottaciuta e che quindi deve caratterizzare tutto il dibattito sull’IA (Ciucci, 2022a).

Chiedersi allora quale sia lo stato dell’arte delle riflessioni sull’IA è un’attività che non può prescindere dall’indagare innanzitutto le discussioni più recenti raccolte in letteratura che, oltre a spiegare la dinamicità delle ultime innovazioni, la loro complessità e l’impatto che hanno – e avranno – sull’esistenza umana, evidenziano questioni concrete che chiamano in causa diverse discipline e una speculazione intellettuale ad ampio raggio.

Trattandosi poi di effetti concreti sull’uomo, sul suo benessere, e sul futuro delle società è inevitabile porsi anche la «questione etica» di fondo: fino a che punto si può osare e fin dove si riesce a monitorare e governare. Sicuramente è positivo constatare che quantomeno a livello delle discipline umanistiche si prova a riflettere sulle conseguenze della rivoluzione tecnologica, anche se probabilmente il cammino da fare è ancora lungo e non sempre si hanno a disposizione tutte le tessere del puzzle speculativo. È un po’ quello che succede con la comunità civile – gli Stati e le organizzazioni interstatali – che, da un lato, si trovano di fronte ad una realtà nuova, che evolve velocemente eppure non ha dispiegato tutte le sue potenzialità; dall’altro, scontano la farraginosità di processi burocratici tipici di organismi nati da esperienze e culture diverse, che non sempre riescono a trovare la sintesi tra la consapevolezza di ciò che serve ed è utile e il modo con cui conseguirlo.

In questo primo capitolo, dunque, si guarderà all’intelligenza artificiale non esattamente da una prospettiva tecnica o tecnologica ma solo per accennarne al «fin qui» evolutivo raggiunto. Si attingerà ad alcune delle più recenti pubblicazioni per delineare quali sono le ultime innovazioni – anche di indole filosofico-speculativa – che incidono inevitabilmente sulla vita dell’uomo dal punto di vista pratico; i temi che queste pubblicazioni avanzano, anche tenendo conto degli effetti delle scoperte tecnologiche sulla società; l’inevitabile domanda etica che sottintende a tutti questi processi e dinamiche.

Nella seconda parte si offre uno sguardo alla discussione sull’IA che sta avvenendo nell’ambito degli Stati nazionali. Per praticità, ma anche per il loro livello di rappresentatività, si guarderà ad alcune scelte compiute in questo settore dall’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) – che riunisce 38 stati membri di varie parti del mondo – e i passi avviati in seno alla Commissione Europea, l’organo esecutivo dell’UE. Un breve accenno sarà fatto anche alle esperienze provenienti dall’Asia.

  • Spunti e temi dalla letteratura recente

Ogni disamina sull’Intelligenza artificiale parte inevitabilmente da un riferimento pioneristico legato al famoso«test» di Alan Turing, il matematico inglese che nel 1950 propose un metodo per valutare l’intelligenza di macchine computazionali messe a confronto con l’intelligenza umana. Il test prevede che un esaminatore ponga domande attraverso una telescrivente a un uomo e a un computer, situati in due stanze chiuse e distinte, senza sapere se le risposte che riceve vengano dall’uno o dall’altro. Se l’esaminatore non è in grado di identificare sulla base delle risposte ricevute quale sia l’uomo e quale sia il computer, le capacità di interazione linguistica del computer dovranno essere considerate come non distinguibili da quelle umane, e il computer dovrà dunque essere considerato intelligente. (Turing, 1959). L’altro padre dell’intelligenza artificiale è il matematico e informatico Marvin Minsky, a cui è attribuita la prima definizione della disciplina (Horgan, 2016).

Sette decenni fa, dunque, i dibattiti sulle interazioni tra macchine ed essere umano tentavano già di rispondere alla domanda se le prime fossero in grado di «pensare», di avere dunque una «intelligenza» propria, che si sarebbe messa in competizione con quella dell’uomo. E l’interrogativo veniva posto soprattutto rispetto all’intelligenza di tipo linguistico.

Da qui, le successive riflessioni e gli studi anche nel settore della sociologia hanno riguardato le previsioni su come sarebbero evoluti i processi interattivi uomo-macchina, fino a desiderare di affidare alla tecnologia evoluta un’ampia gamma di processi diagnostici, valutativi o decisionali che la stessa persona deve svolgere (Achille Ardigò, in Ardigò & Mazzoli, 1986, p. 13). Non si può dire che una simile previsione non si sia avverata, certamente il percorso con cui si è arrivati a questi risultati ha impiegato diversi decenni. Gli scienziati computazionali dei primi anni 80 del secolo scorso, infatti, erano interessati a scoprire «come lavora il cervello umano, come memorizza e come richiama i ricordi, come collega le sensazioni, come cataloga le immagini» (Ibidem, p. 19), tutto ciò finalizzato alla creazione di potenti apparati tecnologici che potessero creare dei «sosia della mente di un uomo ed esporli a determinate sfide e rischi, in processi di controllo e di decisione» (Ibidem). 

Già in quelle riflessioni era evidentemente presente anche tutto il tema della «coscienza» e la domanda molto concreta se un calcolatore o un robot potesse essere veramente cosciente (Hofstadter & Dennel, 1985, pp. 19-20). Gli sforzi degli scienziati sono andati ovviamente nella direzione di ridurre il divario tra le simulazioni di IA e l’intenzionalità soggettiva e cognitiva di ogni soggetto umano e hanno dovuto prevedere anche successive implicazioni riguardanti ad esempio l’empatia, un elemento fondamentalmente umano e personale, e da sempre tallone d’Achille di ogni evoluzione tecnologica avanzata, che proprio per questo rischia di non diventare mai completa, almeno nel senso in cui si vuole interpretare l’IA. 

Roger C. Schank, capo del laboratorio di Intelligenza Artificiale dell’Università di Yale, già nel 1984 affermava senza mezzi termini che il livello di completa empatia della comprensione «sembra essere del tutto fuori tiro del computer per la semplice ragione che il computer non è una persona». Successivamente anche un altro studioso, John Searle, sostenne che le macchine non possono pensare poiché sono incapaci di recepire i significati e sono prive di intenzionalità (Searle, 1986). 

Tutte le ricerche successive hanno cercato di smentire queste considerazioni puntando a quella che è stata poi definita in gergo come IA di tipo «forte»: ci vorrà del tempo ed energie adeguate ma un giorno secondo alcuni sarà possibile riprodurre le attività intelligenti che caratterizzano il comportamento umano in tutte le sue svariate forme (Graziella Tonfoni, in Ardigò & Mazzoli, 1986, p. 66). Vediamo, per sommi capi, come questo processo si sia evoluto effettivamente nei decenni successivi fino ad oggi.

  • I temi 

Se guardiamo alle discussioni tra studiosi dell’ultimo ventennio del 1900 sui temi dell’IA ci si rende conto che erano già presenti – alcune in fase embrionale, altre più sviluppate – le tematiche principali dell’impatto delle tecnologie evolute sull’uomo e sulla società in generale. Proprio su quest’ultimo aspetto, Ardigò tematizzava nel 1986 la necessità di riflettere sulle implicazioni di ciò che la sociologia denomina come «controllo sociale», avanzando tre ipotesi su questo legame. Innanzitutto, l’IA sarebbe (stata) «causa di controllo sociale», il cui aumento sarebbe l’effetto dei progressi tecnologici; ma anche «effetto di accresciute necessità di controllo sociale» generando investimenti pubblici e privati per rispondere a nuove esigenze sia in ambito civile, di mercato o militare; e «correlata (in tutto o in parte) al controllo sociale e viceversa». Per avvalorare queste ipotesi, lo studioso cita alcuni «fatti», tra cui i finanziamenti pubblici negli Stati Uniti da parte del Pentagono o incentivazioni da parte di agenzie NATO, o ancora investimenti per la diffusione di sistemi di IA nell’ambito dei controlli fiscali, senza tralasciare il settore medico-sanitario e quello della rappresentanza democratica (elezioni, propaganda, ecc.). Tutti «supporti indiziari molto consistenti», li definisce l’autore (Achille Ardigò, Ivi, pp. 100-110). 

Altri temi delle speculazioni di quegli anni, al di là dell’organizzazione strutturale e di funzionamento dei cosiddetti «sistemi esperti», affrontano già il loro utilizzo nel campo della «salute» (sia socio-sanitario che di ausili medici strumentali e di diagnostica) e anche sul piano della «generatività», intesa come capacità di questi sistemi di ristrutturarsi internamente, propensi a produrre nuove «organizzazioni» di sé stessi (Giovan Francesco Lanzara, Ivi, pp. 175-204).

La rivista «Aggiornamenti sociali» nel 1988 pubblica un saggio di Marco De Marco nel quale vengono indicate quattro possibili realizzazioni della disciplina sull’IA che allora erano ancora delle mere ipotesi. Un primo filone riguarda(va) la «comprensione del linguaggio umano», con macchine in grado di dare ordini a un computer e riceverne «risposta». C’è poi l’ambito della «risoluzione di problemi complessi» attraverso i cosiddetti «sistemi esperti», considerato l’aspetto più pratico e interessante dell’IA. Quindi il settore della «manipolazione di oggetti (robotica)», su cui i risultati sono stati da subito molto promettenti e di successo. Infine, quello che allora si chiamava il «riconoscimento di forme (visione)» (De Marco, 1988), oggi noto anche come riconoscimento facciale. 

Sempre in quel testo si accenna alle «reti neurali» e ai primi sistemi di apprendimento che simulano il comportamento del cervello umano, e si conclude che tutti questi avanzamenti nel campo delle applicazioni dell’IA erano ancora fermi al livello di laboratorio «perché non raggiungono quel grado di affidabilità, continuità di prestazioni e semplicità d’uso che è necessario per poter divenire operative» (Ibidem, p. 722). L’autore, inoltre, prova a smorzare le preoccupazioni di chi era portato a vivere queste scoperte con «sgomento», citando con realismo le medesime reazioni che hanno accompagnato tutte le grandi scoperte lungo la storia: «l’importante è l’uso che di queste scoperte viene fatto, scoperte che di per sé è difficile classificare in buone e cattive». Senza sottovalutare, tuttavia, che alcune «sono più suscettibili di altre, qualora fossero usate in modo criminale o irresponsabile, di arrecare gravi danni all’umanità» (Ibidem, p. 724).

Trent’anni dopo, la domanda non è più se queste applicazioni tecnologiche così in evoluzione saranno veramente in grado di passare all’ambito operativo concreto, ma se le persone non abbiano piuttosto ormai ceduto ad esse il monopolio delle proprie esistenze, creando agli uomini non pochi problemi o sfide. È sempre «Aggiornamenti sociali» a porsi tale questione nell’editoriale del numero di dicembre del 2019. Di fronte alla pervasività di tutti gli strumenti tecnologici che abitano il nostro presente e che ci assistono in tante operazioni quotidiane (dal comunicare con i familiari al raggiungere una destinazione, dall’esprimere un’opinione a presentare la dichiarazione dei redditi) gli interrogativi di fondo che si palesano riguardano il «che ne sarà dell’uomo»: sarà (è) più libero o più schiavo? Più umanizzato o più alienato? Più socializzato o più solo? Comprenderà di più o sarà ancora più smarrito? (“Il futuro è arrivato”, 2019).

Senz’altro, sono stati accesi i riflettori su nuove e più sofisticate tematiche, oltre a quelle evidenziate poc’anzi, tra cui la pervasività degli assistenti vocali di ultima generazione (vedi Alexa, Google Assistant & co.), definiti dei veri e propri «maggiordomi», i veicoli a guida autonoma, la «digital agriculture», le più sofisticate «armi letali» anch’esse autonome, le conseguenze sul mondo del lavoro (dove in ogni caso gli allarmi sulla «fine del lavoro» vanno ridimensionati, perché più che l’impiego viene a mancare la specializzazione per certi tipi di attività) (Quintarelli, 2020). 

Di fronte agli sviluppi nel campo dell’efficienza e dell’innovazione, si fa dunque pressante la domanda legata alla responsabilità – che poi del resto è sempre personale, individuale e mai tecnica o artificiale – e alla necessità di «governare» questi strumenti. Ed è questa la nuova frontiera della discussione sull’IA, al di là del funzionamento e della composizione strutturale dei molteplici artefatti.

  • Gli sviluppi speculativi

In una delle recenti pubblicazioni dedicate all’IA c’è una «innovazione» che sembra semplicemente terminologica; eppure, essa va a delineare un punto di non ritorno: Massimo Chiriatti, tecnologo e dirigente informatico, nel suo «Incoscienza artificiale» – il gioco di parole non è causale – assegna all’intelligenza artificiale il nome di «Iasima», concedendole dunque una certa personificazione:

Fino a ieri Iasima rappresentava solo un’estensione fisica del nostro corpo e di alcune limitate funzioni cognitive, ma oggi sta assumendo, per via delle deleghe sempre maggiori che le accordiamo, una sua autonomia. Quando un oggetto fa esperienza del mondo in autonomia e interagisce tramite il linguaggio, il divario che lo separa da un soggetto sta per colmarsi. 

Non abbiamo più dunque apparati che grazie all’intervento umano eseguono dei compiti specifici, fossero anche i più difficili e complessi possibili, ma realtà che possono assumere iniziativa in «prima persona», a volte decidendo anche al posto dello stesso individuo. Qui si apre evidentemente un problema che è innanzitutto filosofico, dato che un qualcosa – riflette Chiriatti nel suo testo – sta diventando qualcuno, e cioè soggetto. A lungo termine questa situazione potrebbe sfuggirci di mano, soprattutto se l’uomo, che ha già il limite dei soli cinque sensi per comprendere la realtà, dovesse abdicare a un computer la presa di decisioni in base alle previsioni trasmesse. L’uomo, insomma, da un punto di vista cognitivo, andrebbe a perdere il primato come forma di vita terrestre superiore (Chiriatti, 2021, p. 107).

Tuttavia, individuo e tecnologie stanno progredendo insieme, quasi simbioticamente, in reciproca connessione, dentro un processo co-evolutivo, sottolineano Luca De Biase e Telmo Pievano nel loro «Come saremo» (De Biase & Pievani, 2016). Su questa linea, Chiriatti parla di processo di «complementarietà», per cui mentre l’essere umano, che è soggetto, utilizza un oggetto per potenziare la sua creatività, ora sta accadendo che l’oggetto, che sarebbe la tecnologia, sta usando la creatività umana (testo, oralità, elementi visivi) per potenziare le sue previsioni (Chiriatti, 2021).

Ciò non significa fortunatamente che l’uomo stia cedendo alla tecnologia tutte le sue prerogative, perché a suo favore esiste il fatto di possedere una «coscienza», con tutte le sue sfumature, che è poi l’ultimo elemento che mancherà (sempre?) a un manufatto tecnologico per essere davvero intelligente. Ad esempio, sarà difficile che una macchina, pur capace di decidere autonomamente quali attività eseguire, ne sappia anche spiegare – abbia consapevolezza, dunque – le modalità con cui ha scelto di farlo, oltre ad essere sempre manchevole del dato biologico. Qui l’uomo si gioca la sua competitività, ed è bene che mantenga un ruolo centrale in questo sistema interazionale, auspicano gli studiosi (Ibidem).

Sul fatto che l’IA non sia poi così intelligente si era espresso anche il filosofo Luciano Floridi, che non a caso ha firmato la prefazione al libro di Chiriatti. Intervistato dall’Agenzia Italia, l’accademico di Oxford ha subito spiegato che l’accostamento tra «intelligenza» e «artificiale», tra biologia e ingegneria trae in inganno: più che il frutto di un matrimonio, si tratta di un «divorzio», essendo elementi divergenti, da una parte il «processo» e dall’altra l’intelligenza appunto. Il problema, anche qui, si pone quando le persone svendono la loro autonomia in ragione di procedure più efficienti. La soluzione, secondo lo studioso, sta nel ripensare all’«eccezionalismo» dell’essere umano, che poi è il fondamento dell’antropologia filosofica (Floridi, 2021). Ritorna doverosa la domanda su che cosa sia per l’uomo la coscienza e se anche le macchine possano un giorno dotarsene: 

La coscienza non è solo memoria di chi siamo o siamo stati, ma anche consapevolezza di noi stessi mentre siamo ciò che siamo, di quello che ci sta accadendo, e di come lo stiamo vivendo, qui e ora. E la nostra coscienza, con la C maiuscola, è la nostra vita mentale, riguarda anche il futuro, le speranze, le paure, i progetti. Molto il possibile e a volte il reale, il “sentirsi” dentro di noi e tra di noi. Perciò la risposta non è: l’AI non potrà mai diventare cosciente; ma invece: l’AI sarà cosciente come noi se avrà una vita mentale come noi. E questo, per quanto ne sappiamo, è veramente solo fantascienza.

Resta il dato, insomma, che tutte le stentoree previsioni del passato che, a partire da Marvin Minsky, ipotizzavano in pochi anni la diffusione di macchine dotate quantomeno della stessa intelligenza generale dell’uomo, capaci poi di addestrare sé stesse raggiungendo un livello di genialità tale che le avrebbe rese potenti e inarrivabili, sono andate deluse o quantomeno si sono attenuate. I pronostici oggi dilatano molto più in là, all’incirca al 2060, i primi accenni di vera competizione sul lato intellettivo, e comunque qualche scienziato continua a ritenerla una cosa impossibile (Signorelli, 2021; Carobene, 2020). È pur vero che poi sono arrivate le reti neurali e l’apprendimento strutturato come il «deep learning» e che l’IA – come si accennava prima – è diventata un qualcosa di normale ed endemico. Ma non per questo siamo di fronte ad artefatti pienamente e completamente autonomi, indipendenti ed efficienti, seppur enormemente migliorati in accuratezza e performance. Per dirla con Signorelli, siamo ancora ai «giochi di prestigio algoritmici» (Ibidem).

Dove ci porterà la rivoluzione digitale se lo domanda anche Piero Angela nella Prefazione al libro curato da Stefano Quintarelli «Intelligenza Artificiale», ricordando come da sempre la tecnologia abbia avuto il doppio ruolo di essere creativa e distruttiva al tempo stesso: «è stata un acceleratore della crescita che spesso ha lasciato dietro di sé anche perdite e disadattamenti». La differenza con i moderni sviluppi nell’ambito dell’IA è dovuta ad ulteriore maggiore velocità e alla necessità di un adeguamento ancora più rapido, con evolute capacità di apprendimento e adattamento. Ma anche qui resta la convinzione di fondo: «i computer sono macchine straordinarie, ma da soli non possono funzionare»; così l’IA «tanto venerata» da sola non può fare miracoli: «è pur sempre l’espressione di programmi immaginati e costruiti da una mente umana» (Quintarelli, 2020).

  • La domanda etica

Ciò che appare chiaro da quanto visto nelle righe precedenti è che, a partire dagli anni Cinquanta del secolo scorso, la rivoluzione digitale ha cominciato a mutare non solo l’organizzazione della società ma la concezione stessa del «chi siamo» umano. Se è vero, come è vero, che non siamo delle monadi isolate, ma viviamo interconnessi in un ambiente globale ricco di strumenti che agevolano le nostre relazioni e il nostro rapportarci con ciò che ci circonda – la cosiddetta «infosfera» –, qui sorge la «domanda etica» che porta chiederci come possiamo porci, in quanto esseri sociali dotati di intelligenza e coscienza, di fronte a queste scoperte che inevitabilmente ci condizionano. Quali «strategie» dobbiamo adottare per non cedere alle lusinghe della tecnica avanzata a scapito dalle nostre libertà e indipendenza di pensiero. In ultima istanza, siamo di fronte a riflessioni filosofiche, antropologicamente filosofiche, che vanno assolutamente impostate e approfondite. E sono interrogativi che la società ha iniziato a porsi nel suo insieme, soprattutto guardando ai rischi, alle conseguenze e agli eventuali usi malevoli delle tecnologie avanzate.

Un gruppo di ricercatori dell’ETH di Zurigo, ad esempio, nel 2019 ha pubblicato uno studio su «Nature Machine Intelligence» che restituisce una mappatura dell’insieme di principi e linee guida sulla cosiddetta «IA etica», promosse da organizzazioni sia del settore pubblico che privato, che all’occorrenza hanno creato Commissioni e comitati di esperti, emanando apposite dichiarazioni e raccomandazioni. Ciò che resta chiaro è che non si tratta di norme legali ma piuttosto di iniziative dal valore persuasivo. 

Dall’indagine, che ha individuato e analizzato 84 documenti, emerge una convergenza globale attorno a cinque principi etici generali – trasparenza, giustizia ed equità, non-maleficenza, responsabilità, privacy –, anche se non sempre traspare uniformità a livello di interpretazione, grado di importanza o modalità di raggiungimento dell’obiettivo, a dimostrazione della necessità di uno sforzo congiunto per arrivare ad applicazioni condivise (Jobin, Ienca, & Vayena, 2019).

Il tema della «trasparenza» è collegato alla necessità di aumentare la «spiegabilità», l’«interpretabilità», gli atti di comunicazione e divulgazione dei dati legati ai sistemi di IA, le finalità di utilizzo, in modo da consentire la partecipazione democratica, ridurre al minimo i danni e diffondere «fiducia». La responsabilità di questi atti ricadrebbe particolarmente su chi sviluppa i sistemi e su chi fa investimenti nel settore.

I principi di «giustizia ed equità» vengono declinati soprattutto in termini di correttezza, prevenzione, monitoraggio o mitigazione dei pregiudizi indesiderati e delle discriminazioni. Si accenna anche al rispetto delle diversità, l’inclusione, l’uguaglianza, il diritto ad appellarsi o impugnare una decisione e quello alla riparazione. Importanza viene riservata all’accesso equo ai dati e preoccupazioni sono espresse per l’impatto dell’IA sul mondo del lavoro.

Riguardo alla «non maleficenza» dei sistemi emergono richiami alla sicurezza e al fatto che l’IA non dovrebbe mai causare danni intenzionali o prevedibili. Si accenna anche all’uso improprio nell’industria bellica e impatti negativi sul tessuto sociale a lungo termine (danni psicologici, emotivi, economici, infrastrutturali, ecc.). Quindi vengono proposte strategie di prevenzione dei danni, che includono la cooperazione tra i vari attori coinvolti e pratiche di sorveglianza, monitoraggio e valutazione.

Il quarto principio maggiormente ribadito è quello della «responsabilità», che in alcuni casi appare abbastanza vago. È richiesto ad esempio di agire con «integrità» e garantire che sia sempre possibile individuare i responsabili dell’IA: sviluppatori, designer, istituzioni o industria in generale. Esistono divergenze sull’opportunità o meno di considerare l’IA come responsabile in maniera simile agli individui o se stabilire che l’unico davvero responsabile è sempre un individuo.

Infine, 47 documenti su 84 ribadiscono l’importanza di salvaguardare la «privacy» in ambito IA, intesa come un valore da difendere e un diritto da tutelare. Evidentemente il nesso riguarda la protezione e la sicurezza dei dati personali. Traspaiono tre tipi di soluzioni per raggiungere questo obiettivo: tecnicamente, minimizzando i dati e controllando gli accessi; con maggiore ricerca e sensibilizzazione; con approccio normativo, suggerendo certificati o la creazione di leggi specifiche. (Ibidem).

Dal punto di vista della speculazione filosofica, al di là degli aspetti «strutturali» legati all’utilizzo dell’IA, le domande che emergono riguardano ad esempio la necessità generale di trattare le persone sempre come fini e mai come mezzi. Se si guarda al potere predittivo di queste tecnologie, esso dovrà potenziare l’autonomia dell’uomo, non sostituirla o manipolarla. Un contenuto di bene andrà offerto anche sul piano dell’impatto ambientale, delle crisi finanziarie, della criminalità, del terrorismo, delle varie disuguaglianze, in modo che l’IA sia veramente un vantaggio (benessere) per l’uomo e per il pianeta (Floridi, 2022b, pp. 116-118).

Sul piano della tutela dell’individuo, considerata irrinunciabile soprattutto in ambito occidentale, c’è anche chi ha avanzato una proposta di regolamentazione nel caso in cui l’IA possa provocare degli «impatti rilevanti» sulla persona. Questa proposta viene mutuata dall’industria farmaceutica e fa riferimento all’impianto normativo che sorregge la circolazione di medicinali, i quali se utilizzati in maniera inappropriata possono avere conseguenze nefaste per l’uomo, ma nessuno si sognerebbe di fare a meno dei loro effetti curativi. 

L’esempio contenuto nel volume curato da Quintarelli spiega, infatti, che così come qualunque società farmaceutica deve dichiarare fini, usi, effetti collaterali, richiedere autorizzazioni, eseguire test, monitorare utilizzi, notificare problemi o addirittura ritirare dal mercato prodotti insalubri, lo stesso dovrebbe avvenire per l’industria dell’Intelligenza Artificiale. Sarebbe utile, insomma, 

un’infrastruttura normativa in grado di valutare la responsabilità delle aziende non in relazione al singolo incidente ma all’effetto complessivo, imponendo l’obbligo di fare i test appropriati, dichiarando ciò che viene ottimizzato, seguendo appropriati iter autorizzativi, legando la responsabilità alla conformità di questi protocolli istituendo organismi di vigilanza e controllo.

Una simile prospettiva consentirebbe di bilanciare garanzie individuali e benefici collettivi rispetto a innovazioni con maggiore impatto sulla vita delle persone. Al tempo stesso, sgraverebbe i produttori da responsabilità che potrebbero inibire lo sviluppo di «intelligenze» ancora più utili per la società. E porterebbe a domandarsi esclusivamente se ciò che viene prodotto e offerto in questo ambito, con tutte le sue articolazioni e sfumature, sia veramente di beneficio per l’umanità oppure no.

Molti altri studi si sono interrogati negli anni sull’incidenza etico-morale delle scelte legate agli sviluppi delle tecnologie avanzate e sarà interessante vedere cosa ha da dire a questo proposito la Chiesa cattolica, da sempre attenta all’uomo e a tutte le questioni che lo riguardano. Sarà lo scopo dei capitoli 2 e 3. Prima di procedere, manca un ultimo tassello: un accenno sintetico a cosa ci aspetta per il futuro dell’IA.

1.1.4 In prospettiva: dal modello linguistico avanzato all’IA Generale

Abbiamo visto che l’idea di concepire macchine simili in tutto e per tutto all’uomo è presente tra gli scienziati almeno dall’inizio delle speculazioni sull’IA ma resta non del tutto realizzata. Ci sono le ragioni su cui abbiamo riflettuto, che rimandano alle tre capacità tipiche dell’uomo, tra l’altro parzialmente sovrapponibili: la generalizzazione, l’astrazione e il buon senso (Chiriatti, 2021) e c’è il campo delle capacità, basate su un dato prettamente quantitativo nel caso dell’IA e fortemente qualitativo nel caso degli umani.

Due evoluzioni ulteriori stanno cercando di mettere assieme questi tasselli, per fare in modo che gli algoritmi riescano a gestire anche gli scenari maggiormente imprevedibili della vita ordinaria, compresa la possibilità di svolgere più compiti contemporaneamente. Si tratta di campi in cui si fa ancora più urgente la necessità di regolamentazione, tanto che gli Stati nazionali hanno iniziato a prendere iniziative in tal senso, come si vedrà nel capitolo successivo.

  • GPT-3

Il primo ambito è quello denominato GPT-3, che sta per Generative Pre-trained Transformer 3 ed è un modello linguistico fortemente avanzato, sviluppato da OpenAI – la non profit fondata nel 2015 a San Francisco (USA) che concepisce una visione «collaborativa» delle ricerche sull’IA affinché sia «amichevole» per l’uomo –, in grado di generare un testo scritto indistinguibile rispetto a quello prodotto da un essere umano. Si basa su un modello statistico che calcola la distribuzione di probabilità su una sequenza di parole, generando poi lo scritto, e si fonda sulla programmazione NLP (Natural Language Processing), che rimanda alla «stanza cinese» di Searle.

GPT-3 è stato alimentato con un enorme set di dati, circa 57 miliardi di parole e 175 miliardi di parametri, testi da Internet, libri e altre fonti, per circa 450 gigabytes. In paragone con l’uomo, siamo di fronte a una mole infinita di informazioni, dato che lungo la vita un individuo medio potrebbe arrivare a leggere, scrivere, parlare e ascoltare all’incirca un solo miliardo di parole. GPT-3 viene messo a disposizione attraverso un’API, che lo rende anche facile da utilizzare.

Riflettendo sui rischi di una simile innovazione, c’è sicuramente il fatto che si tratta di una «simulazione», nel senso che la tecnologia di IA non è «consapevole» del prodotto che realizza, quindi non scriverà mai «volontariamente» qualcosa di inappropriato, offensivo, dannoso o addirittura odioso, anche se potrebbe senz’altro farlo in maniera inconsapevole. Così come potrebbe succedere che ricorrendo a questo artefatto qualcuno persegua scopi sbagliati, come la generazione di contenuti falsi o comunque ingannevoli. Questi sono evidentemente anche i suoi limiti, dato che l’apprendimento non è legato a ciò che accade nel mondo, ma a come le persone utilizzano parole in relazione ad altre (Marcus & Davis, 2020). In questo senso, Signorelli è ancora più drastico: «Non siamo di fronte a un’evoluzione, ma a progressi incrementali in grado, nei casi più sofisticati e che richiedono enormi risorse, di imitare in maniera credibile l’intelligenza umana, ma solo a condizioni ben precise e in ambiti assai ristretti» (Signorelli, 2021).

  • AGI

L’approdo definitivo sarebbe invece la cosiddetta AGI, Intelligenza Artificiale «Generale», che si porrebbe in alternativa all’IA «debole» e all’IA «forte», quest’ultima in linea di principio identica all’intelligenza umana. Entrambe le prospettive, IA forte e AGI, contrastano evidentemente con le affermazioni di Dreyfus, citate in precedenza, per il quale i computer, non avendo corpo né cultura, non potranno mai acquisire intelligenza (Dreyfus, 1988), argomentazioni oggi ridimensionate ma non definitivamente smentite. L’AGI, fondamentalmente, vuole provare a farlo, ma non è detto che ci riuscirà (Fjelland, 2020).

Anche in questo caso ci sta lavorando la OpenaAI, assieme alla londinese DeepMind: il loro obiettivo è quello di giungere a una macchina che sappia finalmente ragionare come un umano, quindi svolgere contemporaneamente funzioni complesse, avendo molteplici abilità, compreso il riconoscimento del rapporto tra causa ed effetto. Una sorta di «coltellino svizzero digitale», come lo definisce Signorelli (2021). Le tecniche adottate in questo contesto riguardano il già citato «deep learning», che impiega reti neurali profonde che simulano alcune funzioni e caratteristiche del cervello umano, e anche sofisticati sistemi di «machine learning» o di «reinforcement learning», che «premia» l’algoritmo quando fornisce la risposta corretta a un problema che gli viene sottoposto, stimolandolo così a sviluppare ulteriori abilità (Signorelli, 2021; Taulli, 2019).

Detta in questi termini sembra una cosa semplice ma la complessità di questa struttura umana è ancora difficile da tradurre nella sua completezza in algoritmi, tanto che se sollecitati in maniera più profonda questi sistemi restituiscono errori. Tanti sono dunque consapevoli che si tratta di un orizzonte di lungo percorso, forse di molti altri decenni (La Trofa, 2022; Bergstein, 2020). Tuttavia, anche in tale caso, e forse ancor più chiaramente, si comprende benissimo l’importanza dell’impatto etico di questa evoluzione verrebbe da dire «definitiva», e la necessità di regolamentarne assolutamente lo sviluppo.

  • L’interesse degli Stati nazionali

Il tema della regolamentazione di tutto ciò che attiene al vissuto sociale dell’essere umano è del resto un qualcosa che, da una parte, espone alla percezione di venire limitati nella propria libertà; dall’altra, potrebbe comunque causare dei freni all’innovazione e allo sviluppo se intesa – ad opera dei cosiddetti organi garanti – in maniera assolutamente coercitiva. Eppure, di fronte a scoperte che hanno forti incidenze e inevitabili conseguenze sull’uomo, sulla sua autonomia, libertà o specifiche «prerogative», risultando al tempo stesso ancora indeterminate per quanto attiene al loro completo sviluppo e alle loro definitive applicazioni, si rende necessario definire dei paletti entro cui queste innovazioni possano muoversi. 

Tutto ciò non può venire dal singolo individuo o dal mondo scientifico che specula sulle scoperte o ancora dalla singola azienda che ne produce gli artefatti. Gli unici in grado di commissionare, organizzare e definire regole di «buona innovazione» sono gli Stati od organizzazioni tra Stati, che hanno la possibilità di valutare ad ampio raggio gli effetti, che poi si traducono in fattore economico, di questi nuovi sistemi. Nel caso dell’IA sta accadendo lo stesso, e ciò almeno a partire dal 2019, quando si è fatta più diffusa la domanda di prevenire abusi o conseguenze nefaste da parte di macchine che hanno cominciato ad acquisire una certa «autonomia», oltre al più generale impatto economico che stanno causando al mondo del lavoro.

  • Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE)

L’OCSE è un organismo attualmente composto da 38 stati membri con sistema di governo democratico e basati su un’economia di mercato – dall’America del Nord all’America Latina, dall’Europa all’Asia –, ai quali assicura un ruolo di assemblea consultiva e si offre come piattaforma di confronto per risolvere problemi comuni, identificare pratiche commerciali e coordinare politiche locali e tra nazioni. È il naturale sviluppo della precedente OECE (Organizzazione per la Cooperazione Economica Europea), nata nel periodo immediatamente successivo alla Seconda Guerra Mondiale per coordinare gli aiuti dello statunitense Piano Marshall su iniziativa di 17 Paesi fondatori, tra cui l’Italia. Dal 1960 ha sede a Parigi e intrattiene rapporti con numerosi altri Stati non membri, oltre a soggetti istituzionali e organizzazioni internazionali. L’attuale Segretario generale è Mathias Cormann, entrato in carica nel 2021.

Per quanto concerne i temi dell’IA, nel 2019 l’OCSE ha adottato un pacchetto di raccomandazioni frutto di una consultazione globale di esperti; tre anni dopo, nel 2022 ha messo invece a disposizione degli Stati membri un «Framework» per valutare le opportunità e le sfide politiche dei sistemi di intelligenza artificiale. Vediamoli nello specifico.

  • Principi e raccomandazioni

Il primo strumento adottato dal Consiglio dell’OCSE, che è anche il primo standard sull’IA a livello intergovernativo, porta la data del 22 maggio 2019 ed è denominato «Recommendation of the Council on Artificial Intelligence». Il documento è frutto delle proposte del Comitato per la Politica dell’Economia Digitale (CDEP), un gruppo di oltre 50 esperti provenienti da imprese, sindacati, università, governi, organismi internazionali, comunità tecnologica e società civile. 

Questi principi OCSE sono stati inizialmente sottoscritti da 42 Paesi; oltre ai 36 membri che facevano allora parte dell’organizzazione, si erano aggiunte anche sei nazioni esterne. Introducendo le linee guida, l’allora Segretario Generale OCSE, Angel Gurria, rilevò come:

L’intelligenza artificiale sta rivoluzionando il modo in cui viviamo e lavoriamo, offrendo straordinari benefici alle nostre società ed economie. Tuttavia, solleva anche problemi
e alimenta ansia e preoccupazioni etiche. Questo fa ricadere sui Governi la responsabilità di fare sì che i sistemi di IA rispettino i nostri valori e le nostre leggi, in modo che le persone possano essere sicure che la loro sicurezza e la loro privacy saranno sempre fondamentali

Ad una lettura generale, il testo offre una serie di buoni propositi e auspici con lo scopo di utilizzare l’IA in maniera virtuosa e di beneficio per tutti. Non a caso si parla di rispetto dei diritti umani e dei valori democratici, di trasparenza, sicurezza, sostenibilità e dell’obiettivo di un più generale benessere diffuso. Le raccomandazioni, dunque, intendono da una parte assicurare il rispetto di standard internazionali e dall’altra aiutare governi, industria tecnologica e singoli individui nella progettazione e gestione di sistemi di IA che mettano al primo posto l’individuo umano e responsabilizzino progettisti e operatori al loro corretto funzionamento. Questi sistemi, perciò, devono essere «robusti, sicuri, equi e affidabili» (OECD, 2019b), si legge testualmente nel documento. 

Entrando in dettagli, ecco i 5 «principi» in una sintesi e traduzione nostra:

  • L’IA deve innanzitutto favorire inclusività, sviluppo sostenibile e benessere poiché deve portare vantaggio alle persone e al pianeta;
  • Il modo di progettare i sistemi di IA deve essere rispettoso dello stato di diritto, dei diritti umani, dei valori democratici e della diversità; vanno salvaguardate garanzie di giustizia ed equità e tutele per consentire l’intervento umano dove necessario;
  • Tutti devono poter accedere alla comprensione dei risultati basati sull’IA, per cui occorre garantire trasparenza e divulgazione responsabile circa l’uso di questi sistemi;
  • Il funzionamento dei sistemi di IA deve essere sicuro e sottoposto a continui controlli lungo tutto il loro ciclo di vita; ugualmente bisogna vigilare e gestire i potenziali rischi.
  • La responsabilità del corretto funzionamento dei sistemi di IA resta in capo alle organizzazioni e agli individui che li sviluppano, così come il rispetto di questi stessi principi e linee guida.

L’OCSE, accanto alla formulazione di questi principi, si è premunita di rivolgere agli Stati nazionali altrettante specifiche raccomandazioni, che si possono sintetizzare nelle seguenti:

  • Agevolare gli investimenti pubblici e privati nella ricerca e nello sviluppo per garantire un’innovazione affidabile nel campo dell’IA;
  • Favorire ecosistemi di IA accessibili con infrastrutture e tecnologie digitali in grado di garantire la massima condivisione di dati e conoscenze;
  • Facilitare la nascita di un ambiente politico che possa aprire la strada alla diffusione di tecnologie affidabili;
  • Fornire ai singoli individui opportune competenze per beneficiare dei vantaggi che derivano dall’uso dell’IA e accompagnare i lavoratori in una transizione equa delle conoscenze;
  • Stimolare la cooperazione internazionale e tra settori per la condivisione di informazioni e lo sviluppo di norme che aiutino nella gestione responsabile dell’IA.

Evidentemente, si tratta di materia non giuridicamente vincolante anche se i promotori ritengono – come avvenuto anche in altri campi, ad esempio quello della privacy – che da questi punti di riferimento globale si possa poi attingere per determinare singole legislazioni nazionali.

b) OCSE Framework for the Classification of AI Systems

Un successivo documento messo a disposizione degli Stati dall’organismo che ha sede a Parigi è l’«OCSE Framework for the Classification of AI Systems», rilasciato il 22 febbraio 2022 (OECD, 2022). Lo scopo è quello di aiutare a valutare le opportunità e le sfide politiche nel settore dell’IA, analizzando come cambia il modo in cui le persone si rapportano con le nuove tecnologie nel corso della loro vita: apprendimento, lavoro, interazioni interpersonali, tempo libero, ecc.

Il Framework si pone in continuità con le precedenti linee guida del 2019 ed entra nel merito di «rischi specifici tipici» collegati all’IA, come possono essere alcuni pregiudizi («bias»), la «spiegabilità» (XAI – Explainable AI) e la sua «robustezza» (Ibidem). Nelle intenzioni dei promotori vuole anche promuovere una comprensione comune dei meccanismi dell’IA, in modo da aiutare i governi ad adottare politiche coerenti. Per queste ragioni, nel testo vengono descritti i sistemi e le loro caratteristiche di base, i settori di riferimento, la valutazione e la gestione dei rischi connessi con tali sviluppi e anche la loro mitigazione.

Anche in questo caso la classificazione è suddivisa in cinque dimensioni, ciascuna con specifiche proprietà e attributi, o sotto-dimensioni, da cui vengono tratte policy associate a un particolare sistema di IA. Questa classificazione è funzionale a presentare in maniera adeguata gli aspetti caratteristici di un sistema IA, chiarirne il funzionamento, collocarne le responsabilità e mostrare le effettive incidenze su persone o ambienti in cui lo stesso sistema si trova ad operare.

La prima dimensione si intitola «People & Planet» ed è orientata a considerare il potenziale dei sistemi IA nel loro essere «centrati sull’uomo» e «degni di fiducia», a beneficio dunque delle persone e del pianeta. Qui si considera anche l’impatto – positivo o negativo – sui diritti umani, sull’ambiente, sul mondo del lavoro, sul benessere e la società in generale (OECD, 2022, pp. 25-29).

La seconda dimensione riguarda l’«Economic Context» e si riferisce solitamente alla parte «applicata» dell’IA, quando cioè è già in funzione nei diversi settori, dalla sanità alla finanza, valutandone i meccanismi, il modello di business, la sua natura critica e l’impatto. Gli attori di questo ambito sono coloro che pianificano, progettano e monitorano i vari sistemi (Ibidem, pp. 30-34).

«Data & Input» è la successiva dimensione e come dice lo stesso titolo descrive lo scheletro dei modelli di IA, la provenienza dei contenuti, il metodo di raccolta, la struttura, il formato e la proprietà di questa infrastruttura. Le caratteristiche dei dati e degli input possono riguardare sia quelli utilizzati per addestrare un sistema di intelligenza artificiale in laboratorio («in the lab») che quella applicata («in the field») (Ibidem, pp. 35.41).

La successiva dimensione riguarda l’«AI Model» e descrive in tutto o in parte l’ambiente esterno di un sistema di IA: processi, oggetti, interazioni, idee, persone… Le caratteristiche principali mostrano come un modello è costruito, come viene utilizzato e quali sono i suoi obiettivi. Anche in questo caso gli attori principali sono coloro che sviluppano, costruiscono, utilizzano, verificano e convalidano i differenti modelli (Ibidem, pp. 42-49).

Infine, il Framework evidenzia la dimensione «Task & Output» riguardante i compiti che il sistema esegue: riconoscimento, previsione, personalizzazione, ottimizzazione guidata degli obiettivi, insieme alle azioni risultanti che incidono sul contesto generale. Come caratteristiche di questa dimensione c’e anche l’autonomia dell’azione (veicoli, IdC) e i metodi di valutazione (Ibidem, pp. 50-54).

A corredo di queste dimensioni, il Framework pone il «ciclo di vita» di un sistema di IA, entro cui le stesse dimensioni si collocano e su cui incidono i differenti attori principali, con le loro responsabilità e gestione del rischio: pianificazione e progettazione; raccolta ed elaborazione dei dati; costruzione e utilizzo del modello; verifica e convalida; funzionamento e monitoraggio (Ibidem, p. 23).

1.2.2 Commissione Europea

La Commissione Europea è la struttura che in seno all’Unione Europea si occupa di proporre nuove leggi da adottare presentandole al Parlamento e al Consiglio. Per queste ragioni, è l’organismo che tutela gli interessi dell’UE e dei suoi cittadini su questioni che i singoli Stati non possono gestire in maniera efficace. Per la sua specificità si occupa di rendere esecutive le decisioni prese in seno agli organismi dell’Unione, garantendo che vengano applicate in tutti i Paesi membri. La guida politica è affidata a 27 commissari in rappresentanza di ciascuno Stato membro, sotto la direzione del Presidente, che attualmente è Ursula von der Leyen.

Sui temi dell’IA, la Commissione Europea ha istituito un primo gruppo indipendente di esperti di alto livello nel giugno 2018, che alcuni mesi dopo ha consegnato alla stessa Commissione i cosiddetti «Orientamenti etici per un’IA affidabile». Nell’aprile 2021 è stata invece depositata una prima proposta di «Regolamento sull’Intelligenza artificiale» su cui sono stati presentati recentemente diversi emendamenti. Eccone una raccolta.

a) Orientamenti etici per un’IA affidabile

La prima call per un gruppo indipendente di esperti di alto livello che potesse aiutare la Commissione Europea ad attuare una strategia sull’IA risale al marzo del 2018. Tra i compiti previsti, consigliare modalità per affrontare le sfide e le opportunità a medio e lungo termine legate all’intelligenza artificiale, individuare meccanismi di coinvolgimento e sensibilizzazione, condividere informazioni, proporre infine orientamenti sull’etica dell’IA su questioni come la sicurezza, la trasparenza, l’equità, il futuro del lavoro, la democrazia, ecc. (Commissione Europea, 2018). Il gruppo si è poi costituito tre mesi dopo, nel giugno 2018, mentre il testo definitivo degli Orientamenti è stato reso pubblico l’8 aprile 2019 (Ufficio delle pubblicazioni dell’Unione Europea, 2019).

Come si legge nella sintesi, l’obiettivo del documento è di «promuovere un’IA affidabile» basata su 3 componenti: «legalità» (ottemperanza di tutte le leggi), «eticità» (adesione a principi e valori etici) e «robustezza» (sistemi ben fatti che limitino eventuali danni non intenzionali). Il quadro di riferimento presentato dagli esperti non si limita dunque alla semplice elencazione di principi etici ma prova a offrire indicazioni su come tali principi possano applicarsi nei vari sistemi sociotecnici. Suddiviso in tre capitoli, il testo è di circa 50 pagine (161 punti) e si conclude con una serie di esempi di «opportunità vantaggiose che dovrebbero essere perseguite e di serie preoccupazioni che i sistemi di IA suscitano e che dovrebbero essere attentamente considerate» (Ibidem, p. 3) e con un utile glossario.

Tra le indicazioni di massima che vengono affrontate nel I capitolo, figura la necessità di rispettare a) l’autonomia umana, b) prevenire i danni, c) garantire equità ed esplicabilità, riconoscendo e risolvendo le possibili tensioni tra questi principi; inoltre, bisogna prestare attenzione a quelle situazioni che coinvolgono le d) persone vulnerabili (bambini, disabili, esclusi…) e riconoscere e tenere presente gli eventuali rischi con effetti negativi su democrazia, stato di diritto, giustizia distributiva, mitigandoli in maniera proporzionata alla loro portata (Ibidem, pp. 10-15).

Il secondo capitolo, il più corposo e dettagliato, elenca «sette requisiti» che i sistemi di IA dovrebbero soddisfare, che scaturiscono dalle indicazioni precedenti e ad esse sono collegati. Innanzitutto, 1) l’intervento e la sorveglianza umani, 2) la robustezza tecnica e la sicurezza, 3) la riservatezza e la governance dei dati, 4) la trasparenza, 5) la non discriminazione, 6) il benessere sociale e ambientale, e 7) l’accountability (Ibidem, pp. 15-28). 

L’ultimo capitolo fornisce una lista di controllo concreta per valutare l’affidabilità dell’IA costruita sui requisiti enunciati nel capitolo precedente in modo da renderli operativi. Evidentemente, si tratta di uno strumento che non sarà mai esaustivo – sottolineano gli stessi esperti – poiché siamo di fronte a un processo che è in continua evoluzione così come i requisiti, le soluzioni e le valutazioni dei risultati che lo riguardano (Ibidem, pp. 28-43).

La conclusione degli Orientamenti (punto 141) riassume in poche righe l’ambizione che sta dietro a tutto il progetto realizzato:

L’Europa gode di un vantaggio esclusivo, che deriva dal suo impegno a porre il cittadino al centro delle proprie attività. Tale impegno è iscritto nel DNA stesso dell’Unione europea attraverso i trattati su cui si fonda. Il presente documento rientra in una visione che promuove un’IA affidabile la quale, a nostro avviso, dovrebbe costituire il presupposto su cui l’Europa può sviluppare la propria leadership nei sistemi di IA innovativi e all’avanguardia. Questa visione ambiziosa contribuirà a garantire la prosperità dei cittadini europei, sia a livello individuale che collettivo. Il nostro obiettivo è quello di creare una cultura dell’“IA affidabile per l’Europa”, che permetta a tutti di sfruttarne i vantaggi in un modo che garantisca il rispetto dei nostri valori fondamentali: i diritti fondamentali, la democrazia e lo Stato di diritto.

b) Regolamento sull’Intelligenza artificiale

Questa cultura di una IA affidabile per l’Europa si giova oggi di un ulteriore tassello che è la proposta di un corposo e dettagliato «Regolamento sull’Intelligenza artificiale», il quale porta la data del 21 aprile 2021. Il documento è introdotto da una Relazione e si compone di 85 articoli per un totale di 67 pagine, compresi gli allegati.

L’IA dovrebbe rappresentare uno strumento per le persone e un fattore positivo per la società, con il fine ultimo di migliorare il benessere degli esseri umani. Le regole per l’IA disponibili sul mercato dell’Unione o che comunque interessano le persone nell’Unione dovrebbero pertanto essere incentrate sulle persone, affinché queste ultime possano confidare nel fatto che la tecnologia sia usata in modo sicuro e conforme alla legge, anche in termini di rispetto dei diritti fondamentali.

Tra i motivi che hanno portato alla Proposta c’è, come si legge nell’incipit della relazione che l’accompagna, il desiderio di avere a disposizione strumenti che siano di beneficio per i singoli individui e per la società, tutelandone i diritti fondamentali. Ciò è possibile se l’utilizzo delle tecnologie avviene in maniera sicura, conforme alla legge e incentrato sulle persone. L’iter di realizzazione è stato evidentemente più articolato dei precedenti orientamenti, anche se si pone inevitabilmente sulla scia di quel testo ma porta a regime tutta una serie iniziative e risoluzioni adottate in maniera distinta sia in seno al Parlamento europeo che al Consiglio d’Europa (Commissione Europea, 2021, pp. 1-2).

Il quadro normativo che viene avanzato dalla Commissione Europea con il Regolamento intende facilitare il raggiungimento di quattro specifici obiettivi: 1) utilizzo di sistemi sicuri e rispettosi della normativa sui diritti fondamentali e sui valori dell’Unione; 2) facilitazione degli investimenti e dell’innovazione nel campo dell’IA grazie alla certezza del diritto; 3) chiarezza su gestione e applicazione effettiva delle leggi esistenti in materia di diritti e sicurezza applicabili ai sistemi IA; 4) agevolare la nascita di un mercato unico per applicazioni di IA sicure, affidabili e lecite.

Le regole intendono dunque armonizzare questi aspetti e prevedono che vengano applicate nei singoli Stati membri, attraverso strutture eventualmente già esistenti, ma in cooperazione con un Comitato europeo per l’IA. La loro adozione concederebbe all’UE anche un ruolo significativo nella definizione di norme standard e globali a cui altre nazioni possano accedere (Ibidem, pp. 2-3).

Entrando nello specifico della Proposta che, seppur «equilibrato» e «proporzionato», intende comunque promuovere lo sviluppo delle tecnologie avanzate stimolando la fiducia dei cittadini, si nota da subito una impostazione maggiormente incentrata sulla classificazione di pratiche generali e impieghi specifici dell’IA in determinati settori – ad esclusione ad esempio di quello per scopi esclusivamente militari o riguardo alle autorità pubbliche di paesi extra UE –, valutandone il grado di rischio (Titolo III), a cui vengono poi associate differenti misure di attenuazione se non espliciti divieti (meglio esposti in Titolo II).

Fondamentalmente, sono vietate sul mercato pratiche di IA che 1) utilizzino «tecniche subliminali» che distorcono in maniera sostanziale il comportamento di una persona, causando ad essa o ad altri danni fisici o psicologici; 2) sfruttino «le vulnerabilità» legate all’età o a una disabilità per distorcere materialmente comportamenti personali che possano causare anche qui danni fisici o psicologici; 3) usino sistemi di «social scoring» in ausilio alle autorità pubbliche per valutare e classificare l’affidabilità delle persone in un determinato periodo di tempo; 4) adottino sistemi di «identificazione biometrica remota» (vedi riconoscimento facciale) in spazi accessibili al pubblico, salvo alcune eccezioni di contrasto e tutela del bene comune. (Ibidem, pp. 22-23).

Sul tema della classificazione dei rischi e di sistemi considerati «ad alto rischio» su cui occorre legiferare, il Regolamento riporta una serie di tecnologie che creano rischi elevati per la salute, la sicurezza o i diritti fondamentali delle persone (dispositivi medici, apparecchiature radio, selezione del personale, valutazione della solvibilità delle persone, polizia predittiva, ecc. – vedi Allegato III del Regolamento, pp. 61-62). Le regole previste in questo ambito riguardano: l’obbligo di dotarsi di un sistema di «gestione dei rischi»; l’adozione di criteri qualitativi, documentando adeguatamente lo sviluppo e il funzionamento di un determinato sistema; trasparenza verso gli utenti; possibilità di sottoporre i sistemi a «sorveglianza umana»; garanzia di attendibilità, accuratezza e sicurezza degli stessi sistemi. (Ibidem, pp. 23-28).

Altri aspetti affrontati dalla Proposta riguardano sistemi non considerati di per sé ad alto rischio (esempio: «digital signage», «deep fake») sui quali comunque prevede obblighi informativi verso chi interagisce con questi sistemi.

L’iter legislativo che dovrebbe condurre all’approvazione della cosiddetta «Legge sull’Intelligenza Artificiale» dell’Unione Europea, anche se con qualche ritardo sulla tabella di marcia, ha già superato un primo step con la presentazione, ad un anno esatto dall’adozione della Proposta, di un pacchetto di emendamenti che una volta discussi dovrebbero portare a licenziare il testo definitivo entro il 2022. 

Sotto la lente di ingrandimento, perché possano passare da strumenti considerati «ad alto rischio» a pratiche assolutamente vietate, c’è ad esempio l’utilizzo degli algoritmi di «polizia predittiva» (considerati in contrasto con il valore della presunzione d’innocenza), o anche i sistemi di «riconoscimento biometrico» (accusati di essere alla base di una sorveglianza di massa della popolazione), e ancora quelli che monitorano l’«emotività» in caso di colloqui lavorativi per assunzioni o licenziamenti (Signorelli, 2022). Va anche trovato un accordo su quali responsabilità attribuire agli sviluppatori dei sistemi di IA o ai fornitori. 

Non è da sottovalutare, infine, l’armonizzazione di queste norme sull’IA con l’altro grande Regolamento dell’UE riguardante la protezione dei dati personali (GDPR), dato che gli algoritmi in questione ne macinano una enorme quantità (Carbone, 2022; vedi anche Sambucci, 2022).

  • L’esperienza asiatica

Dopo aver analizzato la situazione degli Stati appartenenti al mondo occidentale, conviene dare uno sguardo anche a ciò che accade nel Continente asiatico. Come riferimento prendiamo il caso della Cina, che negli ultimi tempi ha emanato una serie di leggi per disciplinare l’articolato mondo della tecnologia e delle imprese coinvolte. Fondamentalmente, lo scopo del legislatore cinese è quello di regolare gli effetti degli algoritmi sulla vita e sull’esperienza web degli utenti, e al tempo stesso imporre maggiore trasparenza agli operatori del settore, chiamati a un uso leale di questi sistemi in un mercato concorrenziale. Evidentemente, al di sopra di tutto c’è la difesa degli interessi nazionali (Pieranni, 2022). 

Si tratta di un percorso avviato nel 2017, con una prima norma sulla cybersecurity («Cybersecurity Law» – CSL), seguita poi da quella sulla sicurezza dei dati («Data Security Law» – DSL) e quella che tutela la privacy («Personal Information Protection Law» – PIPL), entrambe del 2021 (Corti, 2021). L’ultima nata in casa del gigante asiatico è l’«Algorithm Regulation», che è quella che interessa più da vicino i temi di questa pubblicazione, emanata l’1 marzo 2022 dalla Cyberspace Administration of China.

Come emerso da alcune rassegne informative, la nuova normativa cinese è articolata in sei punti. Il primo riguarda la 1) salvaguardia della sicurezza nazionale, che deve essere preservata in tutti quegli utilizzi di algoritmi per attività di profilazione e raccomandazione di contenuti. Segue il 2) divieto di utilizzare sistemi che possano eludere il controllo governativo o minaccino la concorrenza. Nei servizi in cui si raccomandano contenuti o prodotti 3) non è permesso concedere informazioni non autorizzate e non vanno diffuse «fake news» agli utenti. È quindi necessario che 4) ogni utilizzo degli algoritmi di raccomandazione venga accompagnato da una «trasparenza informativa» verso gli utenti, edotti su principi, scopi e meccanismi con cui questi sistemi operano. Il quinto aspetto è legato alla 5) possibilità concessa agli utenti di controllare gli algoritmi attraverso la selezione o deselezione, anche totale, di quei «tag» che il fornitore utilizza per attività di profilazione. Infine, viene regolamentata una sorta di 6) tutela degli utenti anziani, proteggerli da eventuali frodi, e minori, affinché accedano sempre a contenuti di beneficio per la salute fisica e mentale (Berti, 2022; Pieranni, 2022; Zenti, 2022; Italia, 2022).

Nella Regulation vengono ulteriormente prescritti una serie di requisiti legati ad aspetti tecnici e gestionali degli algoritmi affinché siano adeguatamente etici e proteggano i dati e le informazioni degli utenti. In questa linea c’è la richiesta del legislatore alle aziende di adottare misure antifrode e meccanismi di risposta emergenziale nel caso di eventuali incidenti sul piano della sicurezza. Per questa ragione sono anche prescritti meccanismi obbligatori di revisione del codice di base degli algoritmi per monitorarne sia il funzionamento che eventuali abusi. Ogni eventuale contenuto illegale va immediatamente bloccato, ne va impedita la diffusione e va comunicato l’incidente alla Cyberspace Administration of China. È interessante notare che la linea di fondo di tutte queste prescrizioni riguarda la promozione di «algorithms for good», rivolti cioè al bene comune, oltre al già citato interesse nazionale della Repubblica Popolare (Berti, 2022).

Tra i principali destinatari di questa disciplina di legge ci sono evidentemente i grandi colossi tecnologici del Paese, dai produttori di TikTok alla compagnia che possiede WeChat, il sistema di messaggistica più diffuso nel continente asiatico; la normativa riguarda anche le compagnie straniere. Oltre a proporre una normativa al passo con le legislazioni occidentali, i provvedimenti avanzati dal governo del Partito Comunista Cinese mirano evidentemente a limitare eccessi di capitalismo liberale da parte delle aziende tecnologiche del territorio, evitando anche che possano creare spazi di libertà che resterebbero probabilmente nascosti all’amministrazione dello Stato (Zenti, 2022).

Capitolo II – Visione dell’uomo e approccio alla tecnologia nel magistero PONTIFICIO
e nell’editoria cattolica

[…] Se guardo il tuo cielo, opera delle tue dita,
la luna e le stelle che tu hai fissate,
che cosa è l’uomo perché te ne ricordi
e il figlio dell’uomo perché te ne curi?
Eppure l’hai fatto poco meno degli angeli,
di gloria e di onore lo hai coronato:
gli hai dato potere sulle opere delle tue mani,
tutto hai posto sotto i suoi piedi […]

Cosa è l’uomo? Ecco una delle domande che rimandano alla notte dei tempi. La tradizione biblica ne accenna una risposta alquanto dettagliata in riferimento anche al Creatore dell’uomo, risposta che è possibile rintracciare nel Salmo 8, tratto dalla più ampia raccolta di 150 preghiere che nella Bibbia ebraica e cristiana vanno sotto il nome di «Libro dei Salmi». In questo testo, in particolare, mentre si accenna alla magnificenza del Creato, l’autore si domanda cosa possa mai essere l’uomo, creatura indubbiamente molto più contenuta dell’estensione del cielo e ancor meno appariscente rispetto alla luna e alle stelle. Eppure, riflette l’orante, questo «figlio dell’uomo» è stato fatto «poco meno degli angeli», coronato «di gloria e di onore» e – cosa ancora più eccezionale – dotato di un esclusivo «potere sulle opere» di tutta la creazione, che viene interamente posta «sotto i suoi piedi».

Insomma, una creatura così fragile ed esigua viene dotata di una dignità suprema. Il punto è che questa concessa signoria potrebbe essere interpretata in maniera errata ed egoistica, trasformando l’uomo in un «folle tiranno» più che in un «governatore saggio e intelligente», come ha commentato in una delle sue catechesi Papa Giovanni Paolo II – Karol Wojtyla.

Qui si inserisce tutta la riflessione che la Chiesa e il Magistero ecclesiastico hanno fatto lungo i secoli a proposito della custudia dell’armonia e della bellezza di tutta la creazione che Dio ha affidato all’uomo, affinché «ne usi ma non ne abusi, ne faccia emergere i segreti e sviluppare le potenzialità».

In questa cornice è possibile intravvedere anche tutta la «responsabilità» che deriva all’uomo nel cammino di comprensione e sviluppo delle tecnologie in generale e dell’Intelligenza Artificiale in particolare – tema della nostra pubblicazione –, considerate senza dubbio anch’esse frutto di un ingegno primigenio che è stato instillato nell’impronta specifica di ogni essere terreno. 

I filosofi, più che domandarsi «cosa è l’uomo?» si sono chiesti piuttosto «chi è l’uomo». La risposta a questo interrogativo pone senz’altro le premesse per una giusta comprensione e utilizzo di tutte le potenzialità che gli sono state affidate, preoccupazione che sta a cuore all’insegnamento della Chiesa, come si diceva poc’anzi. In questa prospettiva si inserisce la concezione «personalista» dell’essere umano, che ha cominciato a diffondersi con l’avvento del cristianesimo e a cui ha dedicato molti studi il filosofo Karol Wojtyla, prima ancora di diventare Papa. Evidentemente, lungo il suo Magistero ne ha potuto accentuare ancora di più l’insegnamento.

Per Wojtyla, la persona è «qualcosa di più della natura individualizzata». La sua pienezza, infatti, ha a che fare piuttosto con «unicità e irripetibilità». In questo senso, l’uomo è inteso come «soggetto dell’esistenza e dell’azione» (Wojtyla, 1982). Ciò ne identifica anche la piena dignità, configurando l’individuo come «degno di tutto ciò che gli è dovuto per natura» (Ferrari, 2022), uno status che non si perde poiché si è preziosi «in sé» e non soltanto per gli altri. Resta la possibilità, come sottolinea Aparecida Ferrari, di poter perdere, mediante un esercizio cattivo della libertà, la dignità morale, che comunque non cancella quella sostanziale.

Fatte queste premesse, è ora possibile addentrarsi nel percorso di analisi della visione dell’uomo che scaturisce dall’insegnamento della Chiesa e dell’approccio che questa ha maturato lungo gli ultimi decenni rispetto alla tecnologia e alle sue innovazioni più sofisticate. In questo capitolo, dunque, verranno analizzati innanzitutto i pronunciamenti degli ultimi Pontefici in tale ambito, focalizzando la ricerca dei riferimenti testuali alle parole «robotica» e «intelligenza artificiale».

Per il loro legame sia con il mondo ecclesiastico che con quello dell’editoria e della comunicazione, si cercherà di individuare una traiettoria comune, sempre sui contenuti tema di questa pubblicazione, che emerge dalla lettura di specifiche pubblicazioni e rubriche apparse negli ultimi anni su due testate specializzate: la più antica rivista quindicinale italiana «La Civiltà Cattolica» e il quotidiano della Conferenza Episcopale Italiana «Avvenire».

È demandata al capitolo successivo la raccolta documentale dell’insieme delle iniziative realizzate nei tempi recenti da alcuni Organismi della Santa Sede dedicate espressamente al tema dell’IA. Nella stessa sezione si avrà modo di approfondire i contenuti emersi da questi incontri, e dare conto delle decisioni emerse, anche come pensiero strutturato della Chiesa rispetto alla tematica generale in osservazione.

Sul piano metodologico si seguirà il seguente schema: per ogni ambito (Magistero dei Papi; produzione editoriale di testate informative collegate alla Chiesa; e rassegna di iniziative accademiche portate avanti da alcuni Dicasteri pontifici, nel successivo capitolo) verrà innanzitutto spiegata l’importanza e la scelta del contesto nell’insieme del progetto di ricerca, presentato il metodo di raccolta del materiale, il campione con i dati quantitativi e la tipologia di testi sottoposti ad analisi (discorsi, messaggi, lettere, documenti, editoriali, articoli di approfondimeto, interviste, rubriche, lezioni, conferenze, ecc.). Successivamente, si svilupperà una riflessione argomentata – seguendo un ordine cronologico, per mostrare anche l’evoluzione del pensiero della Chiesa su questi argomenti – e si sintetizzeranno i temi per «grandi questioni», in modo da trarre una visione strutturata degli spunti complessivi che ne emergono. Un paragrafo conclusivo sintetizzerà gli elementi più significativi di questa fase della ricerca. È importante precisare che la fase di raccolta del materiale si è conclusa il 2 aprile 2022; non sono pertanto incluse le eventuali pubblicazioni successive.

  • L’insegnamento dei Pontefici

C’è un documento del Concilio Ecumenico Vaticano II – il 21º e più recente raduno di Vescovi ed esponenti della gerarchia cattolica nella storia della Chiesa, che si è svolto dal 1962 al 1965 – il quale spiega in maniera molto nitida il compito della Chiesa rispetto al suo interesse per l’uomo e per le sue azioni. Così afferma la Dichiarazione «Gravissimum educationis»nel Proemio: «la santa madre Chiesa, nell’adempimento del mandato ricevuto dal suo divin Fondatore, che è quello di annunziare il mistero della salvezza a tutti gli uomini e di edificare tutto in Cristo, ha il dovere di occuparsi dell’intera vita dell’uomo, anche di quella terrena» (Paolo VI, 1965b).

Da questa attenzione non è certo esclusa tutta la dinamica dei progressi tecnologici, e poiché la Chiesa oltre che «madre» è anche «maestra» – stando ad una felice intuizione e affermazione proprio del Papa che ha convocato il Concilio Vaticano II, Giovanni XXIII, oggi santo –, interessa analizzare in che termini è stato proposto lungo i decenni questo insegnamento, almeno in riferimento alle questioni che attengono all’argomento di studio.

2.1.1 Metodo di raccolta e definizione del campione

Per estrarre il campione di questo primo ambito relativo al Magistero dei Papi ci si è avvalsi del portale istituzionale della Santa Sede, raggiungibile all’indirizzo www.vatican.va, dove sono raccolti tutti gli insegnamenti dei Romani Pontefici fino ad oggi. Evidentemente, qui interessava circoscrivere il materiale alla tematica dell’Intelligenza Artificiale. Per tale ragione, la raccolta è stata indirizzata – attraverso il motore di ricerca interno al sito vaticano – a due tipi di parole chiave: «intelligenza artificiale» come frase esatta, e «robotica». Qualcuno potrebbe obiettare che non si tratta affatto di concetti sinonimici, ed effettivamente è così, ma non per l’esame che la Chiesa porta avanti da diversi anni su questi argomenti, dove spesso ci si riferisce pressappoco alla medesima cosa: tecnologie avanzate che hanno come «interlocutore» prioritario e diretto la persona umana.

Dalla ricerca sono emersi, dunque, 19 testi relativi al primo lemma e 12 relativi al secondo. In cinque casi si registra una sovrapposizione di risultati, per cui il totale dei testi da considerare è di 26 unità. Si tratta di discorsi, messaggi, lettere che i pontefici hanno rivolto lungo gli anni a vari pubblici. 8 testi sono attribuiti a Papa Giovanni Paolo II (pontificato: 1978-2005), 1 testo a Papa Benedetto XVI (pontificato: 2005-2013) e 17 a Papa Francesco (pontificato: 2013 ad oggi). Il testo più datato risale al 31 gennaio 1987 mentre quello più recente al 23 marzo 2021. Queste cifre e queste date dimostrano innanzitutto che non esiste una raccolta abbondante di testi magisteriali finalizzati in maniera specifica a «normare» l’insegnamento della Chiesa su questi temi, ma anche che si tratta di argomenti e questioni su cui si è iniziato a riflettere soltanto negli ultimi tre decenni. A maggior ragione, il fatto che la gran parte del campione sia composto da testi riferibili all’attuale pontificato di Papa Francesco dimostra che sono questioni del tutto recenti anche per la Chiesa.

Tabella 1 – Campione relativo all’ambito «Magistero dei pontefici»


GiovanniPaoloII
n. discorsi
BenedettoXVI
n. discorsi
PapaFrancesco
n. discorsi

Lemma 1: «intelligenza artificiale»411419
Lemma 2: «robotica»43 (+5 ripetuti)7 (12)
Totale811726



2.1.2 Giovanni Paolo II

Gli 8 testi relativi a Giovanni Paolo II oggetto del nostro campione sono in pratica tutti discorsi, rivolti a Vescovi, a partecipanti a iniziative promosse dalla Santa Sede, ma anche a particolari gruppi di fedeli in occasione di visite sia in Italia (Piacenza) che all’estero (Detroit, Stati Uniti).

Il primo testo che la pagina web della Santa Sede restituisce alla voce «robotica» è un discorso che Giovanni Paolo II ha rivolto il 31 gennaio 1987 ai Vescovi del Piemonte ricevuti in visita «ad limina». Più che riassumere il senso del discorso – o dei discorsi – qui interessa individuare in che termini viene «inquadrata» la discussione sui temi oggetto di studio, ed è l’approccio che si seguirà anche nelle analisi seguenti. 

Tornando al testo del pontefice polacco, c’è un primo dato che va acquisito ed è indicativo di come a cavallo degli anni ’90 si fosse in piena situazione di transizione in ambito tecnologico, fenomeno che non sfuggiva affatto ai vescovi piemontesi – provenienti, tra l’altro, da una delle zone allora più industrializzate d’Italia – che segnalavano in quella circostanza al Papa l’esigenza di intercettare nuove forme per annunciare il Vangelo in maniera «più sensibile alla mentalità critica dei nostri tempi» (Giovanni Paolo II, 1987a).

  • Una società che cambia e i rischi di una «disoccupazione tecnologica»

La prima consapevolezza, dunque, è quella di una società che cambia, non più agricola e non più solo industriale, ma che diventa «tecnologicamente più avanzata», una svolta – riflette Wojtyla –«che non sappiamo dove porterà e quando si concluderà» (Giovanni Paolo II, 1987a):

La tecnica si è inserita in modo spettacolare tra la natura, per manipolarla e asservirla, e la società, per svilupparla e soddisfarla. La tecnica incide ormai potentemente sull’economia e l’economia, diventata una scienza anch’essa, rivendica l’autonomia dalla politica e dall’etica. La certezza di base diventa la massima efficienza della produzione con minimo sforzo. Mediante i ritrovati della tecnica, telematica, informatica, robotica, il ruolo della persona sembra diventare in gran parte superfluo, secondario: nello stesso tempo però si valuta più l’intelligenza che la forza fisica.

La preoccupazione della Chiesa sin già da queste riflessioni è che la tecnica possa in qualche modo rendere superfluo l’uomo, «secondario» rispetto ai suoi ritrovati telematici, informatici, robotici, che potrebbero renderlo di fatto disoccupato. Anzi, la «disoccupazione tecnologica» sarebbe il destino di quanti verrebbero «soppiantati dalle macchine» e si troverebbero all’improvviso senza lavoro. Problemi e difficoltà da non sottovalutare «sia nel campo strettamente economico sia soprattutto nel campo pastorale», riflette ancora Giovanni Paolo II nel suo discorso.

  • Quale atteggiamento

Quale atteggiamento assumere di fronte a una simile consapevolezza e a questa situazione a quanto pare irreversibile? Il Papa lo dice senza molti giri di parole: «bisogna capire la nostra epoca, accettarla, orientarla» (Giovanni Paolo II, 1987a). Dunque una visione del tutto positiva e costruttiva, come già aveva sottolineato sei anni prima nella Lettera Enciclica «Laborem Exercens», scritta a 90 anni dalla famosa «Rerum Novarum»di Leone XIII: «la tecnica è indubbiamente un’alleata dell’uomo. Essa gli facilita il lavoro, lo perfeziona, lo accelera e lo moltiplica» (Giovanni Paolo II, 1981). Quindi il Pontefice indica una bussola di condotta di fronte alla svolta in corso: «educare, prima di tutto, ad accettare di vivere in questa società complessa e difficile, per diventarne l’anima con vigile allenamento all’ascetica, e con prontezza di spirito di sacrificio». Occorre, inoltre: 

Formare persone coraggiosamente aperte alle novità tecnologiche e sociali, sensibili alla voce della propria coscienza cristiana, disposte alla condivisione e all’impegno sociale, e quindi necessariamente umili e prudenti, convinte della necessità della grazia e dell’aiuto divino. Per quanto è possibile, tenuto conto del contesto particolare, è necessario anche stimolare i responsabili della vita sociale e politica, in modo che tutti si sentano unicamente a servizio dell’uomo, della famiglia, della società.

Da queste prime pennellate emergono allora due questioni fondamentali. Da una parte, la consapevolezza che qualcosa sta cambiando e che non si può restare indifferenti; dall’altra, la certezza che questi cambiamenti, se accompagnati con attivo protagonismo da parte dell’uomo, possono migliorare e far crescere la società intera. Insomma, non si parla affatto di possibili «minacce» o quantomeno di qualcosa da relegare in secondo piano poiché materia per esperti.