ll forte processo innovativo delle tecnologie informatiche e digitali sta modificando con ritmi fino ad oggi sconosciuti alcuni principi e valori fondanti della società. Quali sono, a suo parere, gli aspetti di maggiore criticità?

Preferisco fare riferimento al concetto di “sviluppo della tecnologia” piuttosto che a quello di “innovazione tecnologica”. Su questo tema, che è ben più significativo di una questione terminologica, a mio parere si colloca una delle principali questioni del tempo presente e dei progetti che desideriamo attuare per il futuro, a breve e lungo termine. “Sviluppo” significa coinvolgere l’umanità già nella sua essenza. Se pensiamo in questi termini, l’innovazione si trasforma in una pluralità di scelte, azioni, comportamenti e applicazioni che devono comprendere necessariamente l’etica. Quindi l’umanesimo. Lo sviluppo non deve servire solo a fare evolvere le macchine o i sistemi digitali, renderli sempre più efficienti e prestanti. La questione è anche, infatti, il senso e l’utilità delle migliorate performance. E, parallelamente,
dello scambio dei dati, della loro gestione. Se questo processo determina, oltre all’efficienza dei processi industriali e finanziari, problematiche come discriminazione, alienazione, ansie… e tante altre gravi criticità di ordine globale e personale, non si tratta certo di un’evoluzione positiva. O quanto meno richiede un approccio che dovrebbe andare ben oltre un’accettazione scontata e poco analitica, a volte entusiastica, del’innovazione tecnologica.
Da qui ne derivano quelli che ritengo i cinque principi che dovrebbero altresì guidare lo sviluppo, e sottolineo sviluppo: essere “Globale”, cioè comprendere l’intera umanità; essere “Integrale”, favorire ogni aspetto delle relazioni umane e non solo il mondo del lavoro o la specifica filiera produttiva di beni e servizi; essere “Plurale”, vale a dire non procede creando profitto e ricchezza per pochi, ma determinare reali benefici a tutti; essere “Fecondo”, portare benessere non solo all’Umanità, ma all’ecosistema e all’ambiente; essere “Gentile”, cioè riconoscere che l’umanità non è una macchina o un computer, ma vive di emozioni, paure, contraddizioni, aspettative, gratificazioni, fede, solidarietà… che richiedono rispetto, tempi diversi da quelli di elaborazione degli algoritmi, disponibilità alla dialettica e alla critica. È chiaro che a partire da questi principi e su questi principi si collocano e derivano le molteplici riflessioni che si possono fare su temi come l’intelligenza artificiale, l’automazione e robotizzazione, la crescita esponenziale delle comunicazioni digitali e dei relativi mezzi tecnologici di fruizione e più in generale di tutto ciò che oggi viene per semplicità o semplificazione definito 4.0.

Questa sua riflessione, ripresa e approfondita nei molti studi e interventi che la pongono fra i pensatori più attivi e autorevoli all’interno della Chiesa Cattolica, ci sollecita ad affiancare sempre la tecnologia all’etica, ponendo al centro l’umanità per essere al servizio di un autentico sviluppo. Ma, a suo giudizio, servono nuovi criteri, categorie e linguaggi? Occorre sviluppare anche un’etica degli algoritmi?

Proprio su questi temi si basa la forte attenzione da parte del Pontificato di Papa Francesco in particolare sulle questioni del rapporto fra persone e tecnologie. Oltre a promuovere la consapevolezza sullo scenario e sulle problematiche attuali, sulle tante opportunità ma anche sui numerosi rischi, il compito della Chiesa è anche quello di indicare percorsi propositivi. Un esempio concreto di questo impegno si è avuto con il recente convegno “Il ‘buon’ algoritmo? Intelligenza Artificiale: Etica, Diritto, Salute”, promosso dalla Pontificia Accademia per la Vita in Vaticano. Tre giorni di approfondimento al quale hanno partecipato accademici, scienziati e ingegneri di multinazionali della tecnologia. I lavori sono culminati il 28 febbraio con la firma, culturali ed etiche di cui abbiamo ricordato poco fa l’importanza, ma anche la complessità dal punto di vista sociale e morale. Quando parliamo di rapporto fra etica e intelligenza artificiale andiamo al cuore di una questione determinante: creare e condividere regole comuni che fanno sì che la complessità della società possa essere compatibile con l’automatizzazione più avanzata, dove l’umanità sembra destinata ad essere sempre più condizionata da macchine e sistemi.

Dico sistemi e non solo robot, perché i device, ad esempio, e tutto il mondo ICT, le telecomunicazioni, ne rappresentano una componente fondamentale. Pensiamo già oggi cosa comporta per un singola persona che il proprio smartphone vada in tilt. Angoscia da isolamento e incapacità di cogliere la “realtà”, quasi che la realtà stessa non sia la vita del proprio presente, ma la mediazione che giunge attraverso la tecnologia. Oppure cosa comporta per un’azienda avere un black-out dei propri sistemi informatici. Che a loro volta controllano e gestiscono sempre più il gesto del “fare”, la fisicità dei comportamenti, le linee produttive delle macchine, il dialogo con il mercato e così via, in una catena estremamente articolata, dove responsabilità del singolo diventa nulla se non viene coadiuvato dal sistema stesso (io posso essere un bravissimo dipendente, ma senza la tecnologia che mi aiuta ogg non posso nulla, mi sento “perduto”…).

Questi stati “angosciosi” potrebbero essere resi ancora più stringenti e continuativi affidando totalmente le decisioni alle macchine. La crescita impetuosa del 4.0 in tutte le sue componenti industriali e sociali, rende ancora più pressante riflettere e trovare soluzioni di ordine etico al dominio delle macchine. Un dominio che, ribadiamolo ancora, è prima di tutto psicologico e di percezione che il singolo e i gruppi sociali hanno della propria realtà.

I lavori del convegno di Roma ci hanno indicato come prima di tutto bisognerebbe superare l’illusione di affidarsi totalmente o in misura predominante agli algoritmi e alle decisioni prese in autonomia dalle macchine. Con la prospettiva che la tecnologia risolva tutti problemi o, peggio ancora, sia “la verità”. Sia “il gusto”. Sulla base della norma tecnologia=oggettività. E’ fondamentale invece che dietro la macchina ci sia sempre l’uomo, con le sue capacità critiche e le sue contraddizioni. Con la sua creatività e consapevolezza che un errore non mette in crisi l’intero “sistema”. Il pericolo maggiore sembra essere la schiavitù del dato, vale a dire riportare ogni decisione, dal produrre un singolo pezzo della manifattura fino alle scelte sul personale da assumere, alle indicazioni provenienti da banche dati. Questa questione comprende direttamente anche elementi teologici di grande importanza e significato. Ricordo infatti che la teologia, come ho avuto modo di ricordare proprio intervenendo ai lavori del convegno, si basa prima di tutto sulla comprensione che l’uomo ha di se stesso. Ciò significa capire l’uomo come un qualcosa che eccede la propria oggettività (il meccanismo in in-put / out-put tipico delle macchine) ed eccede i dati. L’uomo si capisce come creatura ed è l’unica entità che percepisce anche la realtà come un creato di cui non è padrone assoluto; la fede si fonda sul Vangelo che è legge d’amore incarnata nei nostri cuori, affidata al nostro agire.

L’appello lanciato del convegno di Roma, coinvolgendo industrie, società civile e istituzioni politiche, mira a sostenere un approccio etico e umanistico al dominio dell’Intelligenza artificiale che, lo ribadisco, senza un controllo “umanistico” può essere l’avanguardia del concetto dominante di tecnocrazia. Come Chiesa Cattolica ci consideriamo in prima fila a promuovere l’idea di questa “chiamata” a tutelare la dignità della persona umana. Anche la scelta di non redigere un testo unilaterale al termine del Convegno, né un testo direttamente normativo, è legata al desiderio profondo di promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non la loro graduale sostituzione.

Le sfide etiche che Lei ha ricordato appaiono anche fondamentali sfide educative. Soprattutto perché le giovani generazioni sembrano essere ormai quasi dipendenti dalla tecnologia, dal rapporto fra emozioni e il loro smartphone…

Mi permetta: non solo nel caso dei giovani! Anzi posso dire con una certa soddisfazione che gli anticorpi contro la tecnocrazia mi sembrano prevalenti proprio nelle giovani generazioni. Anche in questo caso è inutile e controproducente accusare i giovani di essere tecno dipendenti, quando è la società stessa che li spinge ad esserlo! Fin dalla più tenera età.
Genitori e nonni dovrebbero farsi parecchie domande in proposito… Ma la famiglia è solo una delle componenti di regolazione. L’altra non può che essere la scuola. Questo impegno di requilibrio etico deve tradursi in uno sforzo degli educatori, nell’istruzione, sviluppando programmi di studio specifici che approfondiscano le diverse discipline umanistiche in rapporto con quelle tecnologiche. Inoltre la protezione dei diritti umani nell’era digitale deve essere posta al centro del dibattito pubblico. Non è possibile lasciare l’intera questione in mano al mercato. Sarà inoltre essenziale considerare un metodo per rendere comprensibili non solo i criteri decisionali riguardante la tecnologia, ma anche il loro scopo e i loro obiettivi. Vale a dire aumentare la trasparenza, la tracciabilità e la responsabilità, rendendo più valido il processo decisionale assistito dal computer.

Nel blog che ho attivato all’interno del mio sito Internet (io non rifuggo la tecnologia! Tutt’altro!) ho sottolineato come Ludwig Wittgenstein, nel Tractatus Logico-Philosophicus, scriveva: «I confini del mio linguaggio sono i confini del mio mondo». Parafrasando il filosofo del secolo scorso allora, possiamo dire che per non rimanere esclusi dal mondo delle macchine, perché non si realizzi un mondo algoritmico privo di significati umani, dobbiamo espandere il nostro linguaggio etico perché contamini e determini il funzionamento di questi sistemi detti “intelligenti”.

L’innovazione mai come oggi ha bisogno di una ricca comprensione antropologica per trasformarsi in autentica sorgente di sviluppo umano.