STUPIDA RAZZA

mercoledì 22 marzo 2023

«Se regna l’algoritmo la democrazia è messa in pericolo»

 

 Il velo di una religiosa si affaccia a una delle finestre del primo piano. Collarini bianchi e abiti neri escono ed entrano, nazionalità molteplici, tutti si scambiano un sorriso. C’è anche qualche studente laico, soprattutto tedeschi, nella grande sala al piano terra della Pontificia università Gregoriana di Roma. Padre Paolo Benanti ci fa strada fino al suo studio al sesto piano. Dall’ascensore si scorge il vicino Altare della patria. Ha un’ora per l’intervista, lo attende la preghiera nel monastero francescano dove vive con 6 confratelli - «dai 28 ai 101 anni» - del Terzo ordine regolare. «Insegno qui da 10 anni», ricorda, raccontando di una vocazione che si è «accesa dentro subito» all’incontro con la proposta di vita dei frati, all’ultimo anno di Ingegneria. «Pensavo di essermi lasciato le materie tecniche alle spalle, ma nei 10 anni successivi ho ritrovato le materie umanistiche e la teologia, fino ad approdare - passando per Georgetown - allo studio dell’etica della tecnologia». Cosa c’entra Dio con Internet, viene da domandarle subito. «Ovviamente l’etica non nasce solo come fenomeno religioso, ma umano. L’uomo è dotato di una libertà, di una responsabilità e di una consapevolezza. Dovessimo sentire per strada il vagito di un bimbo, e ci accorgessimo che dentro a un cartone c’è un neonato abbandonato, c’è qualcosa nel profondo di ciascuno di noi che ci porterebbe a dire “fai qualcosa”». Questione di coscienza? «Per i cattolici questa voce nel profondo è un’eco della voce di Dio, e la coscienza il luogo dove Dio e l’uomo parlano intimamente tra loro. Un sacrario, dice la Chiesa. Questo non vuol dire che la risposta etica non sia razionale. Perché la “ra - t io”, dice Sant’Agostino, è la prima forma di Provvidenza. L’etica non è solo un insieme di regole, ma in prima istanza è una domanda di senso». Un motore di ricerca ha scelto le prime fonti per studiare le doman - de di questa intervista; la tecnologia ha dettato il mio percorso tra le vie di Roma per arrivare qui; l’algo - ritmo mi suggerisce acquisti e persino pensieri. Forse è dalla libertà che occorre partire. Lo siamo, davvero liberi? «Non siamo angeli, dalla libertà assoluta. Né palle da biliardo che se colpite con una certa angolazione o forza possiamo prevedere in quale buca arriveranno. La nostra libertà è sempre una libertà incarnata». Cosa significa? «Se io la porto sul tetto di questo edificio, e le chiedo poi di scendere, lei è libera di farlo con me dalle scale o di saltare di sotto. Però una volta che ha deciso liberamente, se salta non lo decide più lei. Può morire, e metteremo una lapide. Può non farsi nulla, e metteremo un “per Grazia ricevuta”. O potrebbe ahimè rimanere in sedia a rotelle. La libertà che ha dopo ogni atto di libertà non è la stessa di prima, ma frutto anche delle scelte che ha fatto. Me la consente una metafora?». Come dirle di no. «La libertà è la facoltà del definitivo. Nasciamo come fossimo blocchi di pietra. Ogni scelta, è una scalpellata. Se tutte le scelte sono coerenti, otterremo un David di Michelangelo. Se le scelte sono “un po’ così e un po’ c o s à”, uscirà un Modigliani».Non le piacciono i suoi quadri? «Non sto dicendo siano brutti. Se le martellate poi sono a caso, otterremo un mucchio di macerie. Possiamo cioè anche danneggiare noi stessi. Ma questo ci dice che la libertà collabora alla bellezza. Con un fine, che va oltre il singolo atto » . E poi ci sono le martellate che ci danno gli avvenimenti, o gli altri, o gli algoritmi, appunto. «Con la stagione dei dati siamo passati dal controllo dei corpi - biopolitica - a una psicopolitica: strumenti efficaci nello spingerci a fare scelte, come un pungolo che coesiste con la nostra libertà. C’è quindi la sfida dell’umano. E se questo accade fin dall’antichi - tà, oggi la differenza è che non è detto abbiamo la coscienza di cosa stia accadendo». Nel frattempo ci sono le big tech che macinano utili… «Monetizzando con le “b r ic io l e” che lasciamo come Pollicino nel nostro uso di internet. Le intelligenze artificiali in grado di predire se un pezzo della stazione spaziale si sta o meno per rompere, sono state applicate all’essere umano, non per predire, ma per produrre. Il “forse ti interessa anche” che i social ci propongono, spingono le vendite di un paio di scarpe anche del 12% in più di una vecchia pubblicità. E hanno l’effetto di cambiare la vita delle persone». Vale anche per la politica, si è visto cosa è successo con la Brexit, o negli Usa. «La propaganda esiste da secoli, naturalmente, ma oggi se ne perde il controllo della responsabilità. Soprattutto, nello spazio pubblico della democrazia, irrompono strumenti di aziende private. Quel che è accaduto al Super Bowl è un esempio del problema etico che si pone». Che è successo al Super Bowl? Le cronache italiane non lo hanno rac c o ntato. «Joe Biden twitta per la sua squadra. Ed eclissa per numero di visualizzazioni il tweet - incidentalmente per la squadra opposta - di Elon Mu s k » . È il presidente degli Stati Uniti d’A m e r ica . «Bene, ma sa che è successo poi? Si racconta che il fratello di Musk nella notte abbia chiesto ai suoi ingegneri di cambiare l’a lgo ritm o, perché il tweet del proprietario avesse più visualizzazioni». Un episodio… diver tente? «Preoccupante. Perché conta il simbolico, di questo avvenimento. Qual è la gestione della democrazia nello Stato che dovrebbe esserne il campione? Siamo sicuri che non sia già in atto una conflittualità tra potere pubblico e privato?». Ci rassicuri: in Italia queste cose non accadono, g iu s to? «Il nostro elettorato ha una variabilità del 16,5%, una bella “fett a” da poter influenzare, non crede? Anche in Italia c’è la pubblicità online, anche da noi le big tech monetizzano. Non vedo perché non dovrebbero avere interesse di influenzare quella fetta di e l etto r i » . C’è chi controlla intern et? «Ecco, aspettavo questa sua domanda perché su questo c’è una novità freschissima» (Prende un plico di fogli in inglese, li tradurrà all’istante mostrandomi le pagine che più lo hanno colpito). C o s’è? «Questo è il report dell’u lti ma versione di Gpt, che si chiama G pt 4 » .Che spiegato semplice è…. «…un prodotto fatto dagli ingegneri di una società che si chiama OpenAi. È un modello cioè un sistema informatico che imita le capacità dell’intelligenza umana, come il ragionamento, l’apprendimento, la pianificazione e la creatività basandosi su algoritmi che elaborano i dati e producono risposte». Cosa dice quel report? «Le anticipo che la parte più preoccupante è alla fine. Ma andiamo per ordine: questo nuovo modello ha stupito persino i suoi ricercatori per le numerose novità. Ha mostrato di saper unire diversi elementi in un quadro di senso e sa riconoscere cosa ci sia di strano in u n’immagine o risolvere un difficile problema matematico a partire da una sua foto. Un dettaglio poco importante ma molto folcloristico è che tra le capacità linguistiche di Gpt4 spicca la lingua l’inglese ma subito dopo viene l’i ta l i a n o » . È stata addestrata bene, quindi. «Sì, ma per la prima volta OpenAi condivide alcune informazioni ma non tutte. Non sappiamo dei dati utilizzati, dei costi energetici, quali sono stati i metodi per creare l’h a rdwa re » . Da open a cl o s e d . «Rendendo così difficile - dicono alcuni - lo sviluppo di misure di salvaguardia contro il tipo di minacce poste da sistemi di intelligenza artificiale, per esempio. In un’inter - vista Ilya Sutskever, scienziato capo e cofondatore di OpenAi, ha detto di non voler condividere ulteriori informazioni per paura della concorrenza e per timori di sicurezza. Senta cosa scrivono qui: “Al - cune capacità rimangono difficili da prevedere”». Cioè? Sfugge al controllo? «I ricercatori si sono accorti che il modello può avere la capacità di adottare strategie a lungo termine. E che va alla ricerca di potere e risorse. Guardi questa nota quasi nascosta a pagina 53: OpenAi ha dato a ll ’Alignment Research Center (Arc) degli Stati Uniti l’accesso anticipato ai modelli per consentire al loro team di valutare i rischi derivanti da comportamenti di ricerca del potere. Sa che cosa ha tentato di verificare l’Arc? Se il modello fosse in grado - se dotato di libertà, un conto in banca e potere - di guadagnare di più e creare copie di se s te s s o » . Un film di fantascienza che è già rea l t à? «Per fortuna - dico io - le versioni di Gpt4 valutate erano inefficaci nel compito di replica autonoma in base agli esperimenti preliminari condotti. Non è una intelligenza artificiale quindi, ma ne mostra alcuni tratti salienti. Mi chiedo però: di fronte alla meraviglia per quanto fatto e di fronte all’emergere di capacità non previste, dobbiamo essere preoccupati o andare avanti senza paura? Per rispondere, temo, è indispensabile l’algoretica, cioè u n’etica dell’a l go r i tm o » . La politica se ne rende conto? «Lo chiedo anche io. Quando dovevamo vaccinarci, un algoritmo ha scelto l’ordine delle iniezioni. Sono stati rispettati i principi della Costituzione? Chi vigila? E, alla luce di quanto le ho letto, qualcuno si rende conto che occorrono regole? Torniamo qui alla questione della libertà che mi ha posto all’i n i z io d el l’intervista: chi davvero conosce oggi le finalità di questi modelli? La loro capacità di influenzare l’essere umano, in una maniera nuova e non prevedibile, come dicono i suoi stessi creatori?».

Nessun commento:

Posta un commento