Call for AI Ethics: come rendere “buona” l’intelligenza artificiale

Che ne sarà dei dati che contribuiamo a fabbricare?

La notizia è passata quasi inosservata, eppure era di massima grandezza. Il 28 febbraio 2020 a Roma veniva firmato un documento dal titolo “Call for AI Ethics” (Appello per un’Etica dell’Intelligenza Artificiale). I contraenti (iniziali) erano: la Pontificia Accademia per la Vita della Santa Sede, Microsoft, Ibm, Fao e Ministero dell’Innovazione.

Di cosa si tratta? Il documento intende promuovere un approccio etico all’Intelligenza Artificiale (comunemente conosciuta come AI) e alle sue applicazioni. L’idea di base è promuovere un senso di responsabilità condivisa fra organizzazioni internazionali, governi, istituzioni e settore privato in uno sforzo per creare un futuro in cui le innovazioni digitali e il progresso tecnologico possano garantire una posizione centrale alla umanità (mankind). Una Intelligenza Artificiale al servizio di ogni persona e dell’umanità (humanity), che rispetti la dignità di ogni essere umano in modo che ogni individuo possa trarre beneficio dall’avanzamento tecnologico, per evitare che esso abbia come suo unico obiettivo il profitto o la sostituzione della forza-lavoro.

Di questo (e altro) ha parlato recentemente p. Carlo Casalone s.j., di Civiltà Cattolica, in ristretti circoli interessati a capire, ma anche in eventi pubblici, oltre che con scritti sulla rivista dei gesuiti (La Civiltà Cattolica 2020 II 30-43 | 4075 (4/18 aprile 2020) e Nature 2-pages 242–244 – 11 Maggio 2020). Laureato in medicina prima di entrare nella Compagnia di Gesù, teologo morale, dal 2017 p. Casalone lavora alla Pontificia Accademia per la Vita, la quale ha visto ampliare il proprio ambito di competenza con la crescita dei dispositivi digitali che stanno modificando la società e anche la nostra stessa esistenza.

Ricordava in uno degli incontri il padre gesuita (e qui utilizziamo una libera rielaborazione degli appunti presi in quell’occasione) che le nuove tecnologie stanno sviluppando una potente sinergia convergente, tanto che ormai è comune l’uso dell’acronimo NIBC dalle iniziali per nanotecnologie/informazione (digitale)/biotecnologie/scienze cognitive. Di fatto si interviene sulla materia vivente e da qui sorgono domande sulla genetica, la medicina, la bioetica, la filosofia, il diritto, la teologia.

Il mondo digitale ha portato straordinarie novità (basti pensare alle diagnosi mediche, più accurate e più rapide), ma l’interazione con la realtà passa anche attraverso pratiche di vita spesso  trascurate: usiamo il telefonino per parlare con qualcuno, ma in effetti mettiamo in modo una serie di elementi di cui non siamo pienamente consapevoli; abbiamo più devices che dialogano fra loro (pc, smartphone, tablet…); quando siamo al supermercato le macchine leggono i codici a sbarre… noi non capiamo cosa si dicono, ma loro parlano…

In che modo controlliamo tutto ciò? C’è davvero qualcuno che controlla e raccoglie i dati? A noi il meccanismo sfugge…

Questa “presenza” cambia la realtà e orienta abitudini mentali e relazionali. Sta cambiando anche il rapporto fra materia organica e inorganica, si modificano le dimensioni di spazio e tempo, cambiano la geografia e la storia: noi parliamo e ci contattiamo a distanza, la velocità delle operazioni cresce a dismisura, la memoria – che per gli umani è cognitiva e semantica – ricorda contenuti e rielabora continuamente ciò che ricorda e dimentica, si confronta con la memoria dei dischi rigidi che non dimenticano, finché non li si cancella sono contenitori che accumulano, raccolgono tracce digitali che noi stessi lasciamo, su internet, al supermercato, nei prelievi bancari, in autostrada… E rielaborano in maniera meccanica, secondo le “istruzioni” che ricevono. Tutto questo non ha a che fare, non è “confrontabile” con la memoria così come la conosciamo noi. Con riguardo alle macchine, si pone oltretutto il tema del “diritto all’oblio”.

Se poi ci spostiamo a livello macroeconomico, come “consumatori” scopriamo di essere subordinati agli interessi di pochi soggetti privati che mettono in opera questi meccanismi. Certo, Zuckerberg a proposito dello scandalo Cambridge Analytica nel 2018 ha ammesso “non ci eravamo accorti, ora provvederemo…”: cioè, prima fanno e poi riflettono… E così c’è stato il risultato del referendum sulla Brexit: a Facebook erano consapevoli di quanto stava accadendo? Forse no, forse c’era solo condiscendenza. E poi c’è stata l’elezione di Trump. Cioè, intanto succedevano cose…

Ne “Il Capitalismo della Sorveglianza” (di Shoshana Zuboff, ed. Luiss, 2019) si descrive come vengono utilizzate le tracce che noi lasciamo. Si studia per esempio il modo in cui diciamo le cose: qualcuno scrive messaggi scarni, altri si dilungano in dettagli, ciascuno ha il proprio stile e modo di esprimersi che lo “racconta”, lo “descrive” e allora un algoritmo ci profila e questi dati possono diventare rilevanti in altre situazioni, per esempio quando chiediamo un prestito o decidiamo un acquisto. Si tratta di profili sofisticati. Google ha detto di aver scoperto per caso tutto questo: cercavano qualcosa di nuovo e sono arrivati alle “pubblicità mirate”, e ora quei dati si vendono sul mercato…

Come governare tutto questo?

La domanda è non solo lecita ma necessaria perché intanto ci sono applicazioni che sono già disponibili, come i robot dotati di Intelligenza Artificiale in medicina o per l’assistenza. Ma arrivano anche quelli che possono tenere lezioni, veri e propri “doppioni” digitali di oratori o professori, anche deceduti, che sono in grado di “mettere insieme” una lezione consultando le opere memorizzate…

Quale è il livello di accettazione che siamo disponibili a mettere in campo?

Un giorno Microsoft, che è all’avanguardia nella capacità predittiva in campo medico diagnostico e che durante il Covid aveva sviluppato un software di riconoscimento facciale (che peraltro aveva potenzialità anche in settori “di controllo” per la polizia), si è posta il problema di cosa fare dei dati che via via venivano raccolti. Ha pensato di rivolgersi alla Santa Sede, cioè a una istituzione che ha un paio di miliardi di persone di riferimento, ponendo il tema della “governance globale”. L’Accademia per la Vita ha accettato di essere coinvolta, chiedendo però la presenza di almeno un altro partner, che non fosse troppo legato al “mercato dei dati”, e così è arrivata anche la IBM, che utilizzava la AI per profilare situazioni nei campi della sanità, dell’agricoltura, della tecnologia. Poi sono arrivati la FAO e alcune università.

A cavallo del nuovo millennio due elementi di novità hanno dato la spinta per arrivare alla formulazione del documento Rome Call for AI Ethics, che naturalmente vale per chi la firma e la attua: erano cresciute a dismisura la quantità di dati a disposizione e la velocità di elaborazione. Arrivavano i primi computer quantistici, in gradi di elaborare masse di dati impensabili fino a qualche tempo fa.

La scommessa è se sia possibile preservare le particolarità positive del fenomeno, avere una AI for good, trovare il livello giusto per tutelare gli aspetti fondamentali della dignità umana e le sue declinazioni operative nei campi dell’etica, dell’educazione permanente, del diritto. E’ intervenuta anche la ONG “Ingegneri senza frontiere” che ha posto la domanda: che ne sarà del prodotto che contribuiamo a fabbricare? Insomma, un approccio “by design” all’algoritmo già nella fase della raccolta dati e poi della progettazione e realizzazione, perché la responsabilità non finisca solo sulle spalle dell’”utilizzatore finale” che rischia di essere “schiacciato” dalle applicazioni.

Infine, è molto importante ricordare che al Call for AI Ethics abbiano aderito anche il Gran Rabbino di Gerusalemme e l’Imam della Moschea di Al-Ahzar del Cairo, a dimostrazione della urgenza, della rilevanza e della vastità del problema che abbiamo di fronte.

In foto Carlo Casalone

Total
0
Condivisioni
Prec.
Senza fissa dimora, Spinelli: “Fare più rete per andare oltre l’emergenza”

Senza fissa dimora, Spinelli: “Fare più rete per andare oltre l’emergenza”

Firenze – Senza fissa dimora, clochard, sempre dello stesso problema si

Succ.
Ex Gkn, Qf perde il ricorso contro il primo decreto ingiuntivo

Ex Gkn, Qf perde il ricorso contro il primo decreto ingiuntivo

Firenze -Mentre si allarga la gara di solidarietà che sta portando a

You May Also Like
Total
0
Condividi