Una cultura dell’AI: ciclo di lezioni pop per capire come funziona

Le leggi non bastano. Conoscere per utilizzare i vantaggi e prevenire i rischi

“Abbiamo programmato un ciclo di lezioni pop sulla AI, ossia lezioni online popolari, gratuite, accessibili a tutta la cittadinanza di qualsiasi luogo o città. Siamo dei folli? Per quanto ne so, è il primo esperimento in Italia, ma va fatto e dobbiamo farlo con parole semplici, chiare, accessibili a tutti per cercare di spiegare non cosa è, ma cosa sta dietro a un fenomeno che ogni giorno avanza. In modo da farlo comprendere  correttamente a persone che vengono continuamente  bombardate da una quantità di informazioni superficiali e ne restano confuse e spaventate”. Così Piero Poccianti, ex presidente dell’Associazione nazionale sull’Intelligenza Artificiale nata  per diffondere la conoscenza dell’AI e analizzarne gli aspetti sociali e membro italiano dell’Eurai (European Association for Artificial Intelligence), l’associazione europea che riunisce le associazioni di Intelligenza Artificiale dei vari paesi Europei. Lo dice a proposito dell’iniziativa lanciata dall’associazione fiorentina Murate Idea Park e intitolata “Capire l’intelligenza artificiale”: cinque lezioni online tenute da esperti per un’ora ciascuna, gratuite e aperte a tutti e in tutta Italia dal 2 aprile al 7 maggio.

Precisa Poccianti: “Come per prendere la patente e guidare la macchina si devono frequentare dei corsi pur non dovendo per forza diventare tutti dei meccanici, ma per conoscere perlomeno come funziona la cosa e con quali regole guidare, così deve accadere con la AI che non è una tecnologia come molti semplificano, ma una disciplina scientifica nel campo dell’informatica che ha l’obiettivo di far fare alle macchine azioni intelligenti. Cito sempre una definizione estremamente illuminante, tratto da un volume sull’AI edito da Mit Press nell’86, Turtle Geometry , un titolo che si rifà alla tartarughina del linguaggio di programmazione Logo di cui fu inventore Seymour Papert, matematico, informatico e pedagogista che, essendo stato allievo di Piaget, sapeva di tecnologia ma anche di filosofia e psicologia e che al Mit ha fondato un laboratorio di AI con Marvin Minky. Nella prefazione, Turtle Geometry dice che oggi abbiamo a disposizione  strumenti molto potenti che ci permettono di fare simulazioni e che promettono di rompere le barriere alla creazione della conoscenza, così come la stampa a suo tempo ruppe le barriere alla sua diffusione della conoscenza”

Dunque, se la rivoluzione della  stampa sembrò allora un terremoto ma  poi diventò una normalità accessibile a tutti, così può accadere ora per l’AI?

“Il fatto però è che allora, per utilizzare i vantaggi della  stampa, abbiamo dovuto insegnare a tutti a leggere e scrivere. Allo stesso  modo oggi dobbiamo far capire come funzionano certi strumenti, quali limiti hanno e quali possibilità. Altrimenti una scoperta così dirompente diventa solo un’operazione di  marketing per trasformare le persone in consumatori.” 

Lei vuole suggerire che il pericolo massimo è l’ignoranza?

“Il problema non è di intelligenza artificiale quanto di deficienza naturale. Le tecnologie non si fermano, lo strumento per trarne i grandi benefici che possono dare e scansarne i temuti rischi è la cultura. Per questo, con le nostre lezioni, cercheremo di far capire cosa c’è dietro insieme ai limiti e le possibilità di questi strumenti. Questo è il concetto fondamentale per cui crediamo sia dirimente tenere dei corsi alle persone, non per farli diventare ingegneri, ma per far  capire loro cosa sono certi strumenti, cosa oggi si può fare e  cosa non si può fare con le macchine”.

Per esempio?

“Decidere se oggi noi le usiamo per lavorare di più o piuttosto di meno, facendo fare loro anche una parte del lavoro cognitivo così come ci sembra ovvio che facciano certi lavori manuali. Se siamo abituati a vedere che le buche le fanno le ruspe potremmo anche abituarci, senza trovarsi spaesati, a macchine che scrivono, fanno riassunti, traducono, fanno musica, ottengono anche brevetti. Con il vantaggio che la gente potrebbe lavorare meno e meglio.”.

Tutto bene, dunque.

“Non è così semplice. Se la proprietà del sistema resta in mano di pochi ecco che sorge, per chi non lo può gestire, il problema della disoccupazione. Ma non è colpa delle macchine. Come accadde ai tempi dell’invenzione del telaio quando le persone se la rifecero con i telai, accorgendosi successivamente che il problema era piuttosto della responsabilità dei padroni dei medesimi che invece di redistribuire il vantaggio tra la gente, se lo tenevano per sé e redistribuivano solo disoccupazione. Così qualcuno oggi parla di ‘nuovo feudalesimo’ alludendo alle grandi imprese che dominano l’AI, approfittando, solo loro, dei vantaggi che offre. Come un tempo, si fa l’esempio, i feudatari possedevano i campi ma li facevano lavorare ai servi della gleba, allo stesso modo, adesso, noi lavoriamo a vantaggio dei nuovi strumenti informatici che si abbeverano alle informazioni che diamo loro, come, per fare un solo esempio,  i social network in cui forniamo una massa di informazioni che poi vengono usate per addestrare le macchine,  portando un enorme vantaggio economico ad alcune aziende che in questo momento hanno più risorse finanziarie degli Stati”.

Tutto ciò ha anche qualcosa a che vedere con la tragedia delle guerre in corso e la minaccia di una guerra globale?

“Apparentemente le guerre si combattono per dei diritti. In realtà la situazione peggiorerà se diminuiranno risorse come l’acqua e quanto più aumenterà in certe zone la temperatura. Ma soprattutto i conflitti dipendono dal fatto che c’è qualcuno che guadagna vendendo le armi. Ed eccoci all’Intelligenza artificiale.  Sulle armi autonome fatte tramite l’ AI esiste in questo momento una convenzione firmata da moltissimi paesi per metterle al bando. Ma alcuni dicono: io non voglio utilizzarle, ma le vendo se altri le vogliono. Anche i droni, che pur non essendo totalmente autonomi, hanno una parte di strumenti semi autonomi dentro. Ecco, anche i ricercatori devono chiedersi: che uso posso fare di queste mie invenzioni? E optare solo per gli usi benefici”.

Allo stesso modo in cui recentemente tutti, anche i distratti, hanno visto al cinema Oppenheimer che si pone, angosciato, questa domanda dopo l’euforia della grande invenzione della bomba atomica?

“Sull’AI, l’Europa ha appena fatto un regolamento per contrastarne i rischi più grandi, a cominciare dalla possibilità di usarla per il controllo sociale da lontano, dal riconoscimento delle persone a distanza dentro una folla in movimento alla possibilità, per le assicurazioni prima di concederle, di poter conoscere lo stato di salute di una persona, o, delle aziende, di giudicare in modo automatico un dipendente per licenziarlo o premiarlo. Tanto per fare alcuni esempi. Il regolamento è una buona cosa ma le leggi non bastano, si troverà sempre il sistema per aggirarle”.

E allora?

“Allora c’è bisogno di cultura. E così, torniamo al perché ci diamo da fare per cercare di  istruire la gente. Il premio Nobel per l’economia, l’economista e filosofo indiano, Amartya Sen, ha detto, giustamente, che senza cultura la democrazia non funziona. ‘Bisogna mettere al governo solo gli storici’, ha osato”.

Dunque la cultura è fondamentale in campo AI? 

“Solo così se ne potranno utilizzare i grandi vantaggi. Stanno venendo fuori, per esempio, strumenti con grandi possibilità di ottimizzazione le reti energetiche e di sostegno nell’utilizzo di energia verde, che esistono già ma che la Ai può rendere molto più efficienti e diffuse, individuando quando, dove e come si può meglio approfittare di sole e venti e come far combaciare le necessità di consumo con la fonte verde in quel momento disponibile. Tramite la AI ci si può organizzare in modo da utilizzare al massimo e meglio le risorse che abbiamo. Una novità enorme  può essere il sistema per predire come si svolgerà a livello tridimensionale una delle tante proteine a nostra disposizione. Il che significa, per esempio, scoprire, se creiamo un nuovo composto medicinale mettendo insieme tante molecole, come funzionerà a seconda di come si configureranno le molecole a livello di spazi e capire gli effetti diversi di ogni configurazione. Potrebbero, a seconda della loro posizione qua o là  nello spazio che hanno a disposizione, anche essere veleni”

E come ci difendiamo?

“Per tutta la questione della AI, come ho detto all’inizio, non è un  problema di intelligenza artificiale quanto di deficienza naturale. Le possibilità sono enormi ma bisogna usare cautela, lo sviluppo non necessariamente porta al benessere. Il timone sta in mano agli uomini. La macchina non è dotata di volontà propria, noi gli dettiamo il problema, quali sono gli obiettivi, i vincoli, le risorse, il contesto e la macchina trova la soluzione. “Qualsiasi tecnologia sufficientemente sofisticata è indistinguibile dalla magia”, dice l’autore di fantascienza, Arthur Clarke. Ma spesso le fiabe vanno a finire male. L’esempio migliore lo dà Ovidio: Re Mida chiede a Bacco che tutto ciò che tocca si trasformi in oro, ma in realtà vuole belle donne, vino, mangiare bene, potere, grandi palazzi e pensa di potersi comprare tutto con l’oro. Non è andata così. Ha scambiato il mezzo per il fine. Ha espresso il desiderio sbagliato. Dobbiamo avere attenzione a ciò che chiediamo alle macchine. Via via che costruiamo strumenti sempre più efficienti le probabilità di farsi del male crescono, ma non si fermano le tecnologie, dobbiamo solo far crescere una umanità più etica, con maggiore cultura. Dobbiamo ripartire dalla scuola. Faccio un esempio pratico e immediato: i professori sono subissati di compiti fatti fare dall’Ai, è  molto difficile proibirlo ai ragazzi ma si può proibire loro di dire l’ho fatto io e chieder loro, invece, di dichiarare:  lo ha fatto  chatgpt e queste sono le mie osservazioni in rosso e blu. Così, lo studente diventa insegnante.

Abbiamo capito perché volete fare lezione. Ma cosa direte?

“Spiegheremo con parole semplici cosa c’è dentro il cassetto degli attrezzi dell’Intelligenza Artificiale e come si debba ogni volta usare quello giusto per fare le cose giuste, come per esempio il  martello va usato per battere i chiodi ma non è lo strumento adatto per farsi la pedicure. Nel cassetto, dal 1943 a oggi, via via si è creato uno strumento e ogni volta si è gridato al miracolo invece di analizzarne pregi e difetti. Ci sono due classi di strumenti, quelli che usano i simboli emulando bene il ragionamento e oggi abbiamo macchine che ragionano meglio di noi. Dall’altra parte, ci sono strumenti subsimbolici che emulano come funziona il cervello, ad esempio le reti neurali che sono strumenti che emulano il funzionamento dei neuroni nel cervello e sono molto adatti a eseguire compiti di percezione. Noi abbiamo fatto sì che  le macchine traducano le parole in numeri che in qualche modo rappresentano un concetto come i vettori. Ma se prendo il vettore della parola re, sottraggo il vettore della parola uomo e sommo quello che rappresenta la parola donna ottengo il vettore della parola regina. Il problema è che siccome questi vettori sono stati acquisiti da esempi e testi fatti da noi e dati alla macchina, se faccio lo stesso in un altro contesto il risultato e preoccupante: in corrispondenza alla parola dottore, sottraendo la parola uomo e sommando donna viene fuori la parola infermiera. E’ la cartina di tornasole di come noi consideriamo ancora come dottori solo gli uomini e che non consideriamo come tale la  dottoressa . I concetti della macchina partono dai testi che io le faccio digerire e se ne vengono fuori di sbagliati la responsabilità è umana. Le informazioni le diamo noi alle macchine e siamo noi che dobbiamo decidere cosa far fare a queste macchine: o loro giocano e noi lavoriamo o come, credo si debba fare, loro svolgono il lavoro più burocratico e noi quello più creativo. Se non accade la colpa è nostra”

Cosa c’è dietro l’AI,  ce lo racconteranno e cercheranno di illustrarla a 360 gradi utilizzando un linguaggio non tecnico una serie di esperti tramite le lezioni online programmate da Murate Idea Park. Ogni lezione sempre alle 17. Si inizia il 2 aprile con Piero Poccianti:  “Cos’è l’Intelligenza Artificiale: limiti e successi. Il 9 aprile toccherà all’esperto di linguaggio Bernardo Magnini (Fondazione Bruno Kessler): Modelli generativi del linguaggio: capacità superumane o pappagalli statistici?” Il 16 aprile interverrà Vieri Canepele (avvocato esperto di brevetti e diritto d’autore): “AI Act e scenari di regolamentazione e responsabilità per l’uso dell’Intelligenza Artificiale” . Il 23 aprile Emanuela Girardi (fondatrice e presidente di Pop AI e dell’ Associazione europea dell’intelligenza artificiale, dati e robotica.): “La visione europea dell’AI: affidabile, antropocentrica e sostenibile”. Il 7 maggio conclude la Startup innovativa ReQurv con “Applicazioni pratiche”.

Ci si iscrive gratuitamente da tutta Italia cliccando https://murateideapark.it/formazione/corsi/238-capire-lintelligenza-artificiale.

Total
0
Condivisioni
Prec.
“Costruzione dell’Universo” da Marcel Duchamp ad oggi

“Costruzione dell’Universo” da Marcel Duchamp ad oggi

A Foligno una mostra sulla produzione editoriale artistica internazionale

Succ.
Una targa a Pontassieve per ricordare Massimo Cantini

Una targa a Pontassieve per ricordare Massimo Cantini

Il “cartello” sarà collocato proprio davanti al suo atelier,un punto di

You May Also Like
Total
0
Condividi