Intelligenza artificiale ed etica. Federico Cabitza: I robot possono aiutarci a costruire una società più umana e pacifica

mano robot

Luciano Floridi e Federico Cabitza conducono il lettore nel futuro prossimo venturo, che è già uno straordinario presente, la “nuova frontiera” che stringe in un rapporto complesso l’uomo e la macchina. Parliamo di “Intelligenza artificiale” (Bompiani 2021, “Martini Lecture”, pp. 120, euro 12,00), nel quale gli autori spiegano “L’uso delle nuove macchine”, come recita il sottotitolo del libro. 

Il volume raccoglie le riflessioni di Floridi e Cabitza presentate nell’ottobre del 2021 nel corso della terza edizione della Martini Lecture sulla visione dell’umanità e del futuro alla luce dell’evoluzione dell’Intelligenza artificiale. L’iniziativa è stata promossa dal Centro “C. M. Martini” in collaborazione con l’Università di Milano-Bicocca, la Fondazione Carlo Maria Martini e la casa editrice Bompiani, con il patrocinio della Diocesi di Milano.

Per comprendere le implicazioni dell’Intelligenza artificiale (AI) nel mondo e nel nostro Paese ma anche i suoi problemi etici, dialoghiamo con Federico Cabitza professore associato di Interazione Uomo-Macchina all’Università di Milano-Bicocca, dove è responsabile del laboratorio di “Modelli di incertezza per decisioni e interazioni” e direttore del nodo locale del laboratorio nazionale CINI “Informatica e Società”. 

  • Prof Cabitza, cos’è l’Intelligenza artificiale e come viene usata? 

«La definizione dell’Intelligenza artificiale ha impegnato e appassionato esperti e ricercatori per decenni, fin dagli anni 50 del secolo scorso, ma in questi mesi più che mai, perché è in via di redazione un regolamento europeo, dove la definizione esatta e precisa di quali tecnologie digitali possano effettivamente dirsi Intelligenza Artificiale, è un passo fondamentale per capire se le norme che tale regolamento contiene si applicano a quei sistemi oppure no. Purtroppo non esiste una definizione univoca e vi sono diverse scuole con prospettive che differiscono per qualche elemento importante. I primi studiosi che hanno proposto questo termine hanno parlato di una capacità delle macchine informatiche di replicare il modo in cui gli essere umani ragionano, pensano, esprimono un comportamento intelligente. Invece io apprezzo di più chi ha espresso un approccio più pragmatico, e chi definisce l’Intelligenza artificiale una capacità espressa dalle macchine che esibiscono comportamenti ed eseguono compiti che, se esibiti da un essere umano riterremmo comunemente che gli abbiano richiesto un certo tipo di competenze e intelligenza. In realtà non è tanto la macchina a essere intelligente, quanto il compito che è in grado di compiere in maniera più o meno automatica e autonoma. Questa è una differenza sostanziale. Poi ci sono tanti modi di vedere la cosa, c’è l’Intelligenza artificiale generale, che riguarda la simulazione completa delle nostre capacità intellettuali più evolute, c’è l’Intelligenza artificiale ristretta, che è quella di cui mi occupo io, che è la capacità da parte di certe macchine di eseguire compiti complessi in diversi ambiti, come la medicina, la gestione delle risorse umane e il diritto. Poi c’è la Super intelligenza, che per alcuni nel giro di qualche anno o decennio esibirà prestazioni migliori di ogni essere umano in ogni campo e che per questo motivo si dice costituirà un punto di singolarità, cioè un evento di cambiamento radicale, nella storia dell’umanità. Nel libro ho fatto un parallelo tra questo pensiero e tanti altri pensieri di carattere apocalittico, che sono accomunati dalla fede che in un certo momento della storia un cambiamento epocale avverrà per via di qualcosa di esterno all’umanità stessa e che da quel momento la condizionerà per sempre».

  • È vero che il 2022 sarà l’anno delle norme sull’Intelligenza artificiale? 

«Sarà sicuramente un anno in cui il dibattito su come regolamentare l’Intelligenza artificiale sarà non solo acceso ma spero, più consapevole e maturo, e quindi decisivo. Ma parlare di norme sull’Intelligenza artificiale mi sembra sia prematuro. Il regolamento di cui ho parlato prima è difficile che sia promulgato prima del 2024». 

  • Assodato che è impossibile pensare di poter affidare all’intelligenza artificiale anche le decisioni di tipo etico, campo di azione esclusivo dell’uomo, nel testo parla di una “strategia della preoccupazione”. Desidera chiarire il suo pensiero? 

«Quando si parla di etica applicata alle macchine o al dominio di applicazione delle macchine, ci sono diversi approcci. Per esempio l’approccio legato sui valori, questo è molto difficile da inserire nella logiche algoritmiche di una macchina, nonostante alcuni commentatori lo ritengano possibile e anzi auspicabile. Io invece, penso che sia velleitario e se anche fosse possibile, lo si dovrebbe evitare. È velleitario pensare che programmare le macchine affinché si comportino in maniera etica sia possibile, perché, affinché questo sia possibile le macchine dovrebbero essere in grado di interpretare tutte le situazioni in cui si trovino a operare, tra cui le più diverse e le più difficili da prevedere. Inoltre, penso che si debba evitare questo approccio, perché per funzionare sarebbe necessario che tutto della nostra esistenza sia digitalizzato, cioè trasformato in dati che le macchine possono elaborare: pensieri, emozioni, attitudini, preferenze, tutto. Questo non penso che sia uno scenario raccomandabile. Un altro approccio è quello conseguenzialista, cioè che prescinde dai valori morali, che sono di difficile valutazione e che possono dipendere da mille questioni culturali, e che si concentra sugli effetti di certi comportamenti delle macchine (o di chi le usa) e di certe scelte progettuali. Sugli effetti si può essere ottimisti, cioè pensare che la macchina funzionerà sempre bene e darà soltanto effetti positivi; oppure pessimisti, e pensare che una certa macchina farà senz’altro qualche danno, e prima o poi avrà un malfunzionamento grave. Tra queste due posizioni, ce n’è una intermedia che mi sento di avvallare: quella che fa valutare attentamente qual è la probabilità che le cose possano andare male e nel caso in cui vadano male, ne valuta l’impatto, ad esempio nei termini di quanta gente può essere influenzata o colpita, e quanto seriamente. Questo approccio, basato sul rischio, è quello attualmente adottato dalla bozza del regolamento come è stata proposta dalla Commissione Europea al Consiglio Europeo e al Parlamento e che ora è in fase di ulteriore elaborazione. Questo concetto del rischio non è perfetto, perché è difficile quantificare la probabilità e l’impatto di un possibile malfunzionamento, o addirittura, di classi di difetti che è difficile prevedere, però è in grado di fornire una bussola per capire che quando il rischio è superiore a una certa soglia, è meglio far prevalere la preoccupazione, cioè un approccio precauzionale e conservativo, quello che in buona sostanza può far dire: “Forse è meglio che questa cosa non la faccio”. Al momento, il regolamento europeo prevede quattro livelli di rischio, sulla base dei quali proibisce l’uso delle intelligenze artificiali in certi contesti, perché i rischi sono ritenuti insopportabili o incompatibili con i diritti fondamentali dell’uomo e in altri prevede invece l’obbligo dei fornitori di queste soluzioni di ottenere certificazioni di conformità a standard e norme precise per i loro prodotti». 

  • Il cardinale Martini affrontò gli interrogativi, che il nostro tempo pone, già nel 2015 invitando scienziati e tecnici a capire come si può evitare che la scienza e la tecnica, aprendo per sé “orizzonti sempre più vasti e sfuggendo a un attento e operoso umanesimo possano coinvolgere in negativo il futuro dell’uomo”. Il tema del futuro è centrale nella Sua riflessione? 

«Sì, il Cardinale Martini ha riflettuto spesso sul tema del futuro e attraverso i suoi scritti e la lezione del suo magistero ci ha invitato a riflettere su come l’innovazione tecnologica possa dare forma a un reale progresso per il genere umano e l’individuo. Noi siamo una specie proiettata sul futuro da migliaia di anni, da quando registriamo il presente per motivi storiografici e facciamo tesoro del passato attraverso la scrittura. Abbiamo questa idea della Storia come qualcosa che evolve continuamente e che progredisce verso un ideale di continuo miglioramento che caratterizza la nostra civiltà e non è così universale come invece potremmo pensare. L’Intelligenza artificiale riguarda qualcosa prossima a venire e che in qualche modo non si raggiunge mai. Negli anni Cinquanta del Novecento sembrava che se avessimo costruito una macchina in grado di batterci a giochi complessi come gli scacchi, in quel caso avremmo potuto dire di aver sviluppato una Intelligenza artificiale, una intelligenza come la nostra ma espressa da macchine e computer. Di lì a pochi anni, quando un tale software è stato effettivamente costruito, si è trovato altresì naturale sostare più in là il confine di che cosa ritenessimo veramente intelligente, e nei decenni successivi l’abbiamo continuamente fatto. Adesso abbiamo sistemi che sono più bravi degli esseri umani in moltissimi ambiti, anche in contesti delicati come la medicina. Si tratta di macchine complesse che applicano regole complesse, ma che non esprimono intelligenza, nel senso più umano del termine. Il futuro sembra il luogo naturale dove collocare l’avvento di questo strumento, che dovrebbe aiutarci a risolvere qualunque problema, dal cambiamento climatico alla sovrappopolazione. Sarebbe il sogno di Leibniz che si realizza, il filosofo che vedeva nella logica, e nell’uso del puro intelletto, il modo per risolvere qualunque controversia, semplicemente attraverso il calcolo. Non credo che il sogno di Leibniz si realizzerà mai, ma non è necessariamente una brutta notizia: gli essere umani devono trovare in loro stessi le risorse per fronteggiare la complessità del tempo in cui vivono con maturità e responsabilità, senza aspettare che qualcosa arrivi dall’esterno a toglierli dalle difficoltà». 

  • Lei che è tra i maggiori esperti Italiani di Intelligenza artificiale, ci può chiarire se l’intelligenza artificiale potrà concorrere alla costruzione di una nuova umanità o a un ecosistema nel quale l’uomo sarà sempre più posto ai margini? 

«Alla fine sono un ingegnere sostanzialmente ottimista (altrimenti cambierei mestiere), anche se ritengo che sia importante essere sempre molto cauti e prudenti, e valutare bene i pro e i contro, quando si ha a che fare con tecnologie così potenti e, soprattutto, convincenti, cioè che possono influenzare i nostri giudizi e le nostre decisioni in campi delicati. Se mi sono affacciato a questa professione venticinque anni fa, è perché ritengo che l’essere umano abbia in sé le risorse per costruirsi un ambiente che lo possa mettere nelle condizioni migliori per vivere e prosperare, sia come individuo che come comunità. Però ritengo che sottovalutare la complessità dell’ambiente in cui viviamo o quello che ci costruiamo intorno sia molto pericoloso. L’Intelligenza artificiale fa parte di questo ambiente artificiale che ci stiamo costruendo da molto tempo, per essere più sicuri nei confronti dei pericoli e delle imprevedibilità del mondo esterno e della natura e per rispondere alla nostra esigenza di controllare ciò che ci circonda e ridurre l’incertezza nelle nostre esistenze. Credo che da molti secoli, o più precisamente dalla rivoluzione agricola del neolitico, ci stiamo lentamente e progressivamente “addomesticando”, cioè stiamo cercando di diventare sempre meno aggressivi, e capaci di convivere sempre più pacificamente in insediamenti e società sempre più grandi e complesse, come modo per non sterminarci a vicenda ed estinguerci come specie. L’Intelligenza artificiale può essere di aiuto, purché sia sempre vista come uno strumento e mai come una soluzione a cui delegare la nostra salvezza. Ritengo che pensare all’Intelligenza artificiale come qualcosa di indipendente da noi, che in qualche modo ci può risolvere i problemi della contemporaneità e che ci può migliorare, sia pericoloso. Perché dal momento in cui pensiamo che questo sia possibile, accettiamo l’idea di delegare a qualcuno la soluzione dei nostri problemi, e ci abituiamo alla deresponsabilizzazione, coltivando il pensiero che non dipenda tutto da noi, ma anche da queste forze esterne. Così facendo, corriamo il rischio di essere manipolabili da quelle élite che mantengono il potere e in qualche modo lo esercitano anche per mezzo di questi strumenti algoritmici. L’algocrazia non è una dittatura degli algoritmi, poiché questi  ultimi non esistono come entità autonome e indipendenti: è piuttosto una questione di governo e controllo per mezzo degli algoritmi, come ho avuto modo di spiegare in maggiore dettaglio nel libro che ho scritto con il prof. Floridi».