Quis custodiet custodes?
Chi controllerà i controllori? scriveva Giovenale nelle Satire. In altre parole chi è che sorveglia gli stessi sorveglianti in modo che si comportino in forma corretta?
È in questa mancanza di certezze, attendibilità che partono dal vertice, dal suo essere incontrollabile, la sensazione di pericolo al quale ci sentiamo esposti sia che si parli di questioni politiche che di progressi scientifici. Queste mie riflessioni partono dall’aver seguito giorni or sono un incontro sull’intelligenza artificiale, programmato dalla prof.ssa Rosa Lo Sasso. Il pericolo non è l’intelligenza artificiale in quanto tale, il pericolo siamo noi. Noi la programmiamo, la manovriamo, la indirizziamo. E se, parlando di politica, la forma democratica, imperfetta che sia, contiene comunque una varietà di voci a controllo, la scienza che in se stessa non è né buona né cattiva, divenendo appannaggio di un potere verticistico, si sottrae al confronto e al controllo; e invece con esso bisogna confrontarsi a ragion veduta per contrastarne gli effetti. Se l’intelligenza umana si esprime innanzitutto nella capacità di sviluppare sistemi per raggiungere degli obiettivi, quali sono i sistemi che immettiamo in una macchina che a quanto pare incomincia a dare segnali di capacità autonoma di elaborazione di una coscienza? A quale tipo di coscienza la stiamo indirizzando? Quali dati sono stati inseriti? Come eticamente viene orientata? La capacità dei droni di riuscire a scansar pericoli attraverso una sorta di ragionamento è una gran bella notizia, macchinari robot impiegati per risolvere problematiche a livello tecnico ben vengano, ma l’intelligenza artificiale va ben oltre. Chi ha in mano le leve del potere, politico, scientifico, di qualsiasi genere, ha un così forte senso dell’etica, del limite, della giustizia, da superare la tentazione di non abusarne? Troppe volte la Storia ci ha posto di fronte, anche quando un individuo, un gruppo, è partito con le migliori intenzioni di progresso etico, imparzialità sociale, al degenerare delle premesse primarie, a forme di soprusi, illeciti, devianze. Il discorso è sempre lo stesso, lo sapevano bene gli antichi romani come i popoli più antichi di loro. Chi sorveglierà i sorveglianti? La storia ci insegna che troppo spesso la situazione sfugge di mano. Il progresso scientifico ci mette di fronte a complessi interrogativi. Parlo da outsider, ma certo qui siamo stati tutti inghiottiti da una rete che controlla, acquisisce dati di ogni singolo per trasformarlo in opzioni di mercato, e poi indirizzare scelte, e un po’ alla volta immetterci in una forma di uniformità mentale. Anche la semplicità dei vocaboli è studiata a questo scopo, o la superficialità comunicativa. E, volendo restare a parametri solo tecnici, sgomenta ascoltare uno dei massimi esponenti di questo mondo, non ne rammento il nome, ma il video con le sue parole ascoltato dai presenti all’incontro di cui sopra ci invita a non preoccuparci di ricordare l’aritmetica, le regole matematiche, tanto basta premere un tasto e il risultato ci viene offerto, e così non serve affannarci a ricordare episodi storici, date e connessioni, se c’è la possibilità di premere un tasto e avere la risposta. Dunque si invita l’essere umano ad abdicare alle sue funzioni primarie: il pensiero, la memoria, i nessi, e dunque le tesi e le ipotesi, il senso critico. La elaborazione personale e unica che scaturisce da ogni essere pensante. Divenire un raccoglitore acritico di dati, non un fornitore di essi. Un bambino accudito e indirizzato, sempre più incapace di autonomia di pensiero. E poi, se i dati immessi fossero falsi? Non saremmo più in grado di controllare. Ci manca la conoscenza a riguardo. Ci manca la memoria che attraverso il passato sa elaborare e prevedere il futuro. I sacerdoti Druidi di cui parla Giulio Cesare nel De bello Gallico avevano regole mandate tutte a memoria, secondo il concetto (e come possiamo dar loro torto) che memoria minuitur nisi exrceas (la memoria diminuisce se non la eserciti). La memoria è la nostra forza, la nostra storia, la capacità di giudizio, di crescita mentale. Quel signore diceva poi che le nuove tecniche assicurano il lavoro per tutti. Ben venga il lavoro. Ma quale? Lavoro di braccia o di cervello? Di esecuzione o scelta? E, se di esecuzione, la esecuzione quali fini ha, solo produttivi? E comunque di quali metodi si avvale? E in tutto questo in quale scala di valori è inserita l’etica? E quali sono gli obiettivi finali di questa panacea coordinata da quei pochi in grado di gestire il sofisticato sistema virtuale, provocando con il miraggio di un benessere materiale, di una comodità di vita, una sorta di asservimento, di acquiescenza che poi alla fine produce una diffusa amoralità e induce inevitabilmente alla “banalità del male”? È a questo che ci conduce l’algoritmo, è questo l’obiettivo finale del metaverso, questa totale virtualizzazione, questa immissione in un universo parallelo simulato? Da tempo, i termini “metaverso”, “algoritmi” e “blockchain” ritornano nelle occasioni e nei contesti più diversi. Il metaverso in particolare è stato negli ultimi anni oggetto di enormi somme investite dalle maggiori aziende del settore digitale per mettere a punto la tecnologia che lo renda possibile. E che ruolo avrà l’essere umano all’interno dell’algoritmo? Intanto egli è il responsabile dell’effetto decisionale dell’algoritmico. E però come si fa a delegare al fruitore la responsabilità e la capacità di un impiego corretto dei sistemi digitali? Come si fa ad affidarsi alla sensibilità morale di chi fa ricerca e progetta algoritmi? Sta avvenendo che alcune applicazioni di questo tipo di apprendimento incominciano a insidiare le frontiere della responsabilità umana, per esempio le automobili a guida autonoma, le applicazioni di social scoring, quelle di previsione della recidiva dei reati, programmi in grado di gestire sistemi di arma e interi apparati militari. Sorge quindi la domanda: possiamo davvero lasciare prendere decisioni dalle quali può dipendere la vita di una persona o di intere popolazioni a una intelligenza artificiale? E, di chi sarà la responsabilità? La preoccupazione cresce. Cresce nel mondo del pensiero, in quella parte di scienziati attenta alla deontologia; ai governi viene fatta la richiesta, da qualificati tecnici e scienziati, dai sindacati, da personaggi della società civile e dalle stesse aziende tecnologiche, di intervenire per garantire un controllo e la presenza dei valori umani nello sviluppo dell’intelligenza artificiale. Nel 2021 l’allora presidente del Parlamento europeo, David Sassoli ha dato forte impulso al progetto di Regolamento dell’Unione europea sull’intelligenza artificiale. David Sassoli, troppo presto scomparso, parlava di necessità di regole capaci di coniugare progresso tecnologico e tutela dei lavoratori e delle persone. Cresce la preoccupazione anche nel mondo religioso. Il 10 gennaio 2023 i rappresentanti delle tre religioni abramitiche, cristiana, ebraica, musulmana, hanno firmato un documento che promuove una «algoretica», uno sviluppo etico dell’intelligenza artificiale. L’idea base del documento è dare impulso a un senso di responsabilità promossa da organizzazioni internazionali, governi, istituzioni e settore privato, per fare in modo, con la creazione di una coscienza comune, di tutelare la centralità dell’essere umano. Le proposte basilari sono: quella etica, che richiama il quadro di valori fondamentali sottolineati dalla Dichiarazione universale dei diritti umani; quella dell’importanza dell’educazione dei giovani, perché essi saranno segnati fortemente dalla disponibilità delle nuove risorse tecnologiche; inoltre a loro va assicurata la possibilità di accedervi senza disuguaglianze; infine quella del diritto, con l’esigenza di tradurre in pianificazioni effettive i princìpi enunciati e renderli incisivi con un approccio etico costante che segua tutto il percorso dei cicli produttivi tecnologici. Netta la posizione di Papa Francesco con la sua indicazione della necessità che lo sviluppo tecnologico sia al servizio della giustizia e della pace in tutto il mondo; egli ha portato come esempio le istanze dei richiedenti asilo; “non è accettabile” dice “che la decisione sulla vita e il destino di un essere umano venga affidata un algoritmo”. Altre grandi religioni mondiali sono prossime a firmare un regolamento affine. La politologaVirginia Eubanks, studiosa di tecnologia e giustizia sociale, ha dato voce a queste inquietudini: “L’intelligenza artificiale ha la capacità di modellare le decisioni degli individui senza che questi nemmeno lo sappiano, dando a quanti hanno il controllo degli algoritmi un’abusiva posizione di potere”. La sfida etica che ne deriva sembra quasi disperante. Come possono sembrare inutili queste mie riflessioni, men che un granello di sabbia o una goccia nel mare. Ma in qualità di essere pensante non rinuncio al diritto a riflettere e al dovere a indurre alla riflessione. Creare consapevolezza può portare alla vigilanza, all’esigenza di informarsi, prendere posizione e provvedimenti. Le idee circolano, crescono. La conoscenza rimane un’ancora di salvezza per resistere, per fare della nostra autonomia mentale una valvola di sicurezza, di resilienza. Di questo stato di cose fumoso approfittano anche i complottisti che a loro volta creano gruppi acritici, un gregge acquiescente. Cerchiamo di usare la ragione, sempre.
*Gabriella Izzi Benedetti, scrittrice