L’esperienza umana nell’epoca dell’intelligenza artificiale

Intervista al prof. Adriano Pessina (a cura di Massimo Gelmini)

 

Sempre più frequentemente citata (sebbene non di rado a sproposito) nel linguaggio quotidiano e diffusamente introdotta nelle specifiche tecniche e nelle comunicazioni commerciali dei dispositivi di impiego comune, l’intelligenza artificiale sta progressivamente cambiando le “macchine”, l’uso che ne facciamo e i modi con cui ci relazioniamo in un mondo tecnologico. Investiti da una sorta di euforia collettiva, in parte provocata dal clamore per il rilascio di software capaci di simulare conversazioni umane e generare contenuti digitali, avvertiamo l’impressione di trovarci dentro una trasformazione di portata epocale — come è successo in passato e in modo diverso con l’introduzione della televisione o l’avvento di Internet — della quale tuttavia fatichiamo a cogliere finalità, potenzialità e limiti, in una parola il “senso”. Nel libro L’essere altrove. L’esperienza umana nell’epoca dell’intelligenza artificiale Adriano Pessina, ordinario di Filosofia morale all’Università Cattolica di Milano, si sofferma a indagare il significato e la direzione di questa trasformazione che le tecnologie informatiche imprimono alle esperienze umane, riscontrando nei diversi modi con cui interagiamo con esse una categoria comune, quella dell’essere “altrove”, del trasferimento in un nuovo ambiente esistenziale nel quale più o meno consapevolmente veniamo collocati da fruitori dell’esperienza “tecnologica”.

 

 

Professore, seguiamo da sempre con interesse il Suo lavoro su Dialoghi Carmelitani dove l’abbiamo interpellata sovente sulle questioni della Bioetica. Cosa l’ha spinta a scrivere un libro come L’essere altrove? A quale urgenza risponde la scelta di dedicare la Sua riflessione a temi legati alle nuove tecnologie?

Con questo libro ho cercato di analizzare la condizione umana che si profila nel nuovo spazio di comunicazioni e di relazioni che è stato definito “infosfera”. Lo scopo che mi sono prefisso è quello di fornire delle piste di riflessione che permettano di capire non soltanto che cosa possiamo fare con le nuove tecnologie, ma, soprattutto, che cosa esse fanno di noi, della nostra esperienza. Una prospettiva che si pone in continuità con le ricerche nel campo della bioetica. L’urgenza, che ci appartiene come persone, è quella di comprendere sempre meglio la nostra esperienza, che è il luogo esistenziale in cui noi costruiamo la nostra identità e formuliamo le domande di senso che riguardano le nostre azioni, le nostre relazioni, i nostri progetti. Il digitale, in questo senso, è diventato una sorta di nuovo ambiente esistenziale, che merita, pertanto, di essere compreso.

L’addio a Prometeo, liquidato nelle prime pagine del saggio, pone subito in risalto una prospettiva interpretativa nuova rispetto all’immaginario mitologico del tema della tecnica. Cosa rende inadeguato il paradigma dell’Homo Faber per spiegare l’avvento della rivoluzione digitale e gli effetti che l’altrove tecnologico ha sulle nostre vite? 

Dire addio alla mitologia che accompagna il discorso sulla tecnica significa prendere sul serio, al di là di utopie e distopie, un fatto: la tecnica fa parte della nostra vita quotidiana, la condiziona, nel bene e nel male. Le “macchine” ci sono diventate familiari, le portiamo con noi, ne dipendiamo per il lavoro, lo svago, le relazioni, gli affetti. L’intelligenza artificiale (IA), inoltre, si presenta come una sorta di sintesi tra le caratteristiche dell’Homo Faber e quelle dell’Homo Sapiens, proprio perché ha una pretesa sia pratica sia “veritativa”. Le diverse forme di IA forniscono, per esempio, indicazioni sulla salute, sugli investimenti economici, sugli stili di vita, condizionano gli esiti della ricerca scientifica e persino delle guerre. Inoltre, noi stessi siamo costruttori, non sempre però consapevoli, delle smisurate potenzialità della tecnologia attraverso l’uso che ne facciamo, tramite i social e le varie app di cui ci dotiamo e i dati che forniamo. L’immagine della sfida prometeica non rende ragione della situazione storica.

Lei cita il Magritte di “questa non è una pipa”. In che senso il dipinto è un riferimento importante per parlare dell’esperienza digitale?

Perché è una vera e propria provocazione intellettuale. Magritte dipinge un quadro dal titolo significativo, Il tradimento delle immagini, che rappresenta una pipa con una didascalia: “questa non è una pipa”. Prendo spunto da questo quadro — ogni capitolo del mio libro si apre con qualche riferimento, per così dire, pre-tecnologico — per sviluppare alcune osservazioni in merito al potere che rivestono le immagini nell’epoca del digitale. Magritte voleva riaprire la riflessione sulla differenza tra l’immagine e la realtà: questione esponenziale dell’online. Noi viviamo di immagini, ma non sempre ci chiediamo “che cosa è ciò che vediamo”. Non è necessario riferirsi alle false notizie, ai fotomontaggi, per capire che le immagini che compaiono sul nostro display ci mostrano una realtà che è altrove, che è assente anche se ci è presente, che è passata anche se ne fruiamo qui ed ora. I filmati che ritraggono l’alluvione, la guerra, la celebrazione di una messa, non “sono” né l’alluvione, né la guerra, né la messa. Le immagini del dolore non sono il dolore, anche se possono procurarlo a chi le guarda. Sebbene la visibilità di ciò che non è presente non sia sempre una pura rappresentazione, non è una fiction, non ci mette a contatto con la realtà, che resta altrove.

Ciò che vediamo è, per così dire, la sintesi tecnologica di un’esperienza che altri hanno vissuto o “visto”. Gli algoritmi, inoltre, decidono che cosa, come e quando, “vedere” ciò che qualcuno mette in rete, su Instagram, Facebook o TikTok. Tutte queste “immagini” però incidono sulla nostra esperienza, cambiano i nostri stati emotivi, ci inducono a fare valutazioni. Ci troviamo, inoltre, in una nuova situazione paradossale: nel mito della Caverna, Platone descrive il cammino della conoscenza come un percorso di progressiva emancipazione dal mondo delle immagini. Oggi potremmo dire che siamo invitati a fare il percorso inverso, perché è solo guardando lo schermo del nostro smartphone che possiamo avere nuove informazioni e ampliare l’orizzonte delle nostre conoscenze, uscendo dalla ristrettezza del nostro mondo quotidiano. Indubbiamente questo regno delle immagini può ampliare gli orizzonti del conoscere, a condizione che si rammenti sempre che ogni “schermo” è, come ci ricorda il verbo schermare, da cui deriva, ciò che rivela, ma anche ciò che, nello stesso tempo, nasconde. La verità anela all’intero, e non dobbiamo dimenticarcelo.

Quanto è cambiata la percezione che abbiamo della macchina, dell’artefatto tecnologico, se siamo giunti a ritenerla così affidabile, addomesticata, familiare, tanto da attribuirle il nome di “intelligenza”?

Macchine che calcolano, che parlano, che ubbidiscono, decidono, scrivono, “creano” immagini, suoni e testi: come si fa a non credere che siano intelligenti? Come si fa a non fidarsi? Vengono presentate come più affidabili degli stessi esseri umani. Il potere del linguaggio antropomorfo ci fa dimenticare che siamo noi ad attribuire significati ai diversi segni, visivi e sonori, che i vari software producono. Le macchine non imparano, non decidono, non scrivono, non creano: l’intelligenza è, anche in questo caso, altrove. È nelle capacità dei programmatori e degli investitori economici. Ma non va trascurato o sottovalutato un aspetto: il linguaggio antropomorfo che domina le tecnologie informatiche deriva dal fatto che da molti anni si sta cercando di “spiegare” le attività cognitive dell’essere umano pensandolo come una “macchina” biologica. Oggi si arriva a definire l’uomo una “macchina informazionale”, quasi ad annullare la differenza tra noi e i nostri artefatti. Cosicché la macchina si trasforma da strumento in “modello” per la comprensione dell’umano. Un processo circolare che sembra farci perdere il senso proprio dell’umano, ridotto alle sue funzioni.

Che problemi pone l’impiego di una macchina funzionale altamente sofisticata, pur evidentemente priva di semantica e quindi di intelligenza, ma in grado di superare in termini prestazionali la capacità di “apprendimento” ed elaborative di un uomo?

Non possiamo ignorare che oggi sono principalmente due i macro-operatori economici che stanno promuovendo, a diversi livelli, lo sviluppo delle varie forme di IA. Ciò significa che sono loro, grazie ai loro programmatori, che stanno “ridisegnando” le nostre abitudini, il nostro lavoro, i nostri investimenti, le nostre esigenze e i nostri desideri. Da qui deriva un problema “politico” di governo di tale potere, che non è solo economico. C’è, a questo proposito, un’ampia letteratura che mette in evidenza problemi giuridici, economici e sociali connessi con lo sviluppo delle nuove tecnologie. Come pure si pone un problema generale, che riguarda la perdita di autonomia di pensiero e di azione  indotta da una progressiva “delega” alle tecnologie di moltissime funzioni, di cui non si ha più il pieno governo. Anche in questo caso occorre ricordare che ogni delega all’IA è, in ultima analisi, una delega a coloro che l’hanno programmata. 

Come salvaguardare l’umano nella sua specificità, se l’altrove nel quale siamo immersi ci confonde nella sua ambivalenza tra presenza/assenza, ci proietta dentro una temporalità illusoria e ci espone alla fascinazione e al timore del potere emulativo e simulativo dell’intelligenza artificiale?

L’umano ha sempre a che fare con la questione del significato, anzi dei significati che attribuiamo alle azioni, alle relazioni, alla nostra vita: questione che non è disgiunta dalla domanda sulla verità. Ci sono esperienze reali, positive e negative, che vanno dalla gioia della natalità alla disperazione della morte, dal piacere al dolore, che chiedono di essere comprese e non soltanto spiegate. Le tecnologie ci abituano a trovare spiegazioni, a individuare nessi, cause, effetti, ma lasciano inevase le domande di significato. L’IA fornisce risposte esatte, ma esatto non equivale a vero. Ogni volta che l’altrove si affaccia nella nostra vita possiamo spiegare perché avviene, ma dobbiamo iniziare a comprendere quale sia il suo vero significato. 

Regolare l’uso dell’intelligenza artificiale, promuovendo un’etica degli algoritmi per orientare lo sforzo di innovazione verso obiettivi a misura d’uomo e finalizzati al suo benessere, è un criterio realistico e perseguibile? Siamo in grado di porre dei limiti a quello che desideriamo e agli strumenti per ottenerlo?

Fatte salve tutte le buone intenzioni, i buoni propositi, in sé apprezzabili, dei nuovi moralizzatori, bisogna avere il coraggio di dire che, in realtà, tutti questi discorsi sono già parte integrante della propaganda che promuove la cosiddetta rivoluzione digitale. Siamo tutti d’accordo con la retorica del benessere, dell’uso buono, delle finalità umane, ecc. ecc., ma che cosa significano queste parole? Per ora l’approccio dominante riguarda la tutela della privacy, che però è realizzata secondo un modello formale, governato da una serie di algoritmi. L’etica della tecnologia riguarda in realtà i programmatori, i venditori, i distributori e, non dimentichiamolo, i fruitori, che hanno un potere sottovalutato. L’etica è questione di significati, non si riduce al calcolo costi e benefici. Prima di porre limiti dilatiamo gli interrogativi: quale modello di uomo stiamo sviluppando, quali spazi di libertà sostanziale stiamo promuovendo, che tipo di società auspichiamo, con quali contenuti? Un mondo addomesticato, pacificato, addestrato, anestetizzato sulla questione della verità, può anche funzionare, ma che senso avrebbe? Che cosa significa benessere? Che cosa significa veramente apprendere, conoscere, valutare, educare, prendersi cura, esistere? Se non giudichiamo le nostre opere tecnologiche a partire da queste domande non promuoviamo nessuna etica sostanziale e non riusciamo a porre una gerarchia tra le diverse funzioni di cui disporremo sempre di più attraverso le tecnologie. 

Perché la smaterializzazione dell’altrove tecnologico è un argomento rilevante per un cristiano?

Nel capitolo conclusivo del mio libro ho suggerito una riflessione che, in un certo senso, riguarda la stessa autocomprensione dell’uomo occidentale, a partire da quel crinale che separa la storia tra prima e dopo l’Incarnazione, segnando, anche, il rifiuto di quello spiritualismo platonico che considera il corpo prigione di un’anima che anela ad essere altrove. Di fatto, l’annuncio cristiano del Verbum caro factum est pone la Presenza di Dio nell’esperienza dell’umano, che trova nel qui ed ora della storia il senso stesso dell’esistenza, in una prospettiva in cui l’essere umano non è più solo creatura ma “figlio” del Dio che può chiamare Padre. Una rivalutazione della condizione corporea dell’uomo, del tempo “opportuno”, del “luogo” della comunità, della storia. La potenza dell’altrove tecnologico compie, per così dire, un cammino opposto. Assistiamo, infatti, a una progressiva disincarnazione delle relazioni, a una smaterializzazione della storia e delle storie umane chiamate a svolgersi dentro un tempo reversibile e un non luogo — il Metaverso —  plasticamente generato da software, in cui ognuno potrà svolgere le proprie funzioni attraverso un avatar. Identità fluide e reversibili, che cercano nell’altrove tecnologico ciò che non trovano nella storia. Una nuova forma di immanentismo, capace di creare una caverna confortevole, ma illusoria. Sono spunti: cercare nella rete ciò che non troviamo nella realtà e modulare la realtà in funzione delle nuove tecnologie rischia di farci perdere il senso della nostra concreta esperienza umana e della stessa potenza liberatrice della fede cristiana.

 

© Dialoghi Carmelitani, ANNO 24, NUMERO 3, Ottobre 2023

 

adriano pessinaAdriano Pessina (Monza, 1953) è ordinario di Filosofia morale all’Università Cattolica del Sacro Cuore di Milano, dove insegna Bioetica e Filosofia dell’esperienza tecnologica, dirige il CrifipAB — Centro di ricerca sulla filosofia della persona Adriano Bausola — ed è membro del Direttivo di Humane Technology Lab e del Centro di Ateneo di Bioetica e Scienze della Vita. Dal 2005 membro ordinario della Pontificia Accademia per la Vita, nominato da Sua Santità Benedetto XVI, nel 2013 viene nominato da papa Francesco nel Consiglio direttivo. È membro della direzione della “Rivista di Filosofia Neo-Scolastica” e della rivista “Medicina e Morale. Rivista Internazionale di Bioetica”. Tra i suoi più recenti studi, dedicati alle trasformazioni dell’esperienza introdotte dalle nuove tecnologie, ricordiamo il volume L’io insoddisfatto. Tra Prometeo e Dio (Vita e Pensiero, 2016). L’essere altrove (2023) è pubblicato nella collana “I nodi del tempo” di Mimesis Edizioni.