Il Senato ha approvato in via definitiva la legge italiana sull’Intelligenza Artificiale. Non senza contrasti, visto l’esito del voto: 77 sì, 55 no e 2 astenuti. Si tratta del primo quadro normativo nazionale in Europa che disciplina sviluppo, adozione e governance dei sistemi di IA nel rispetto dei principi costituzionali e dei diritti fondamentali e in coerenza con l’AI Act europeo. Anche se già alcuni osservatori ritengono che questa legge sia più un atto simbolico che un reale strumento di argine alla possibile e probabile deregulation.
In sostanza, fu vera gloria, come vuole dare ad intendere nei commenti ufficiali il Governo, che sottolinea il primato nella definizione della legge? Pare di rivivere i giorni successivi all’approvazione dell’AI Act in sede di Unione Europea: prima istituzione sovranazionale, indubbiamente, a cercare di connettere il tema dei diritti a quello della rapidissima espansione dell’intelligenza artificiale. Dopo poco più di un anno ci troviamo con l’Europa soggiacente ai diktat di Trump e delle big tech, soprattutto proprio in merito all’IA. C’è da chiedersi cosa sposti la legge italiana rispetto alla dinamica universale in cui il dato saliente è la definizione di un nuovo ordine mondiale in base agli esiti della sfida tra Stati Uniti e Cina, paesi dominanti dell’innovazione tecnologica.
Uno dei padri dell’intelligenza artificiale, Joshua Bengio, era a Roma proprio nei giorni in cui il Senato varava la legge sull’IA per incontrare il Papa e illustrargli i rischi dell’intelligenza artificiale. In un’intervista di Riccardo Luna a Bengio, pubblicata dal Corriere della Sera, si comprende bene come gli approcci individuali di singoli Stati siano effimeri rispetto alla portata della sfida: “L’intelligenza artificiale – dice Bengio – potrebbe minacciare le fondamenta stesse della solidarietà umana. Ci sono molti rischi a breve termine, per esempio per la democrazia: se risolviamo il problema di progettare un’IA che faccia davvero ciò che le chiediamo di fare, questo darà molto potere a chiunque la controlli, e può essere molto destabilizzante. In un certo senso, è l’opposto di ciò che è la democrazia. Chiunque sviluppi IA deve farlo responsabilmente – sottolinea Bengio – Avremo bisogno di un’istituzione globale che abbia il potere di intervenire in modo che se un Paese non segue quelle regole venga fermato perché la vita di tutti è in gioco”.
In ogni caso, il Dipartimento per la trasformazione digitale del Governo italiano, sottolinea che “la legge si fonda su princìpi di uso antropocentrico, trasparente e sicuro dell’IA, con particolare attenzione a innovazione, cybersicurezza, accessibilità e tutela della riservatezza. Interviene in modo organico su più settori che possono beneficiare di questa nuova tecnologia – sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – prevedendo garanzie di tracciabilità, responsabilità umana e centralità della decisione finale di una persona fisica”.
Quanto alla governance, la norma designa Agenzia per la Cybersicurezza Nazionale (ACN) e Agenzia per l’Italia Digitale (AgID) quali Autorità nazionali competenti: ACN vigila – con poteri ispettivi – sull’adeguatezza e la sicurezza dei sistemi, AgID gestisce le notifiche e promuove casi d’uso sicuri per cittadini e imprese, in un quadro di coordinamento interistituzionale stabile. Il provvedimento istituisce inoltre un meccanismo di programmazione strategica: la Strategia nazionale per l’IA sarà predisposta e aggiornata con cadenza biennale dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio, con il supporto di ACN e AgID e il coinvolgimento delle principali autorità settoriali. A rafforzarne la trasparenza è previsto un monitoraggio annuale al Parlamento. Tanti soggetti in campo, che fanno venire il dubbio di una sovrapposizione di ruoli e compiti: il contrario di quell’agilità di gestione indispensabile per stare al passo con i passi in avanti continui della ricerca algoritmica.
Sul piano delle risorse, per accelerare competitività e adozione, la legge attiva un programma di investimenti da 1 miliardo di euro a favore di startup e PMI nei campi dell’IA, della cybersicurezza e delle tecnologie emergenti, sostenendo trasferimento tecnologico e filiere strategiche. Commenta Alessio Butti, sottosegretario di Stato alla presidenza del Consiglio con delega all’Innovazione: “L’Italia è il primo Paese UE con un quadro nazionale pienamente allineato all’AI Act. È una scelta che riporta l’innovazione nel perimetro dell’interesse generale, orientando l’IA a crescita, diritti e la piena tutela dei cittadini. Alle imprese diciamo con chiarezza: investite in Italia. Troverete una governance affidabile, regole trasparenti e un ecosistema pronto a sostenere progetti concreti in tutti i settori chiave del Paese. Con l’approvazione odierna, l’Italia si dota di un quadro stabile e pro-innovazione, capace di accelerare l’adozione dell’IA a beneficio di cittadini, imprese e pubbliche amministrazioni”.
La legge cerca di salvaguardare i diritti d’autore e il copyright. Commenta Alessandra Costante, segretaria generale della Fnsi: “Certamente uno degli aspetti più interessanti della legge italiana sull’intelligenza artificiale è costituito dagli argini posti a tutela del diritto d’autore e dei giornalisti che producono contenuti originali e di qualità. Per la Fnsi, l’IA non può sostituire i giornalisti in carne ed ossa. Ora – aggiunge – servono regole, anche all’interno del mondo dell’informazione, non solo per un uso etico dell’intelligenza artificiale, ma anche per aiutare i giornalisti a far valere i propri diritti nei confronti di piattaforme che hanno la potenza di Stati sovrani».
Soddisfatto il sottosegretario all’Editoria, Alberto Barachini: «La straordinaria rivoluzione dell’intelligenza artificiale ha bisogno di argini per far correre il cambiamento in sicurezza e grazie al lavoro del governo adesso sono in vigore misure adeguate per proteggere i cittadini dai rischi connessi», rileva, ponendo l’accento sul reato di deepfake, «più che mai necessario» anche «a fronte degli ultimi gravi fatti di cronaca», e sul «rafforzamento della tutela del copyright a protezione del mondo editoriale, giornalistico e creativo, una tutela prevista anche dalle norme europee». Barachini ringrazia quindi il presidente della Commissione Ai per l’Informazione, padre Paolo Benanti e tutti i commissari, «per il proficuo contributo al testo normativo e per l’analisi, che continuano a portare avanti con l’evolversi della tecnologia», esprime «massimo apprezzamento al presidente del Consiglio per aver voluto segnare la via italiana all’intelligenza artificiale» e rimarca: «Avere la massima attenzione sul processo in corso, consente di ridurre i pericoli e valorizzare le opportunità attraverso i possibili vantaggi dell’intelligenza artificiale in ogni ambito a favore di persone e imprese».
I primi dubbi si fanno comunque già strada, anche oltre alle questioni epocali e globali poste da Joushua Bengio. Scrive su Altalex, Giorgio Resta, Professore ordinario di diritto comparato presso l’Università di Roma Tre: “Fra i principali profili di frizione tra la logica sottesa all’AI Act e la legge italiana, v’è l’individuazione dell’AGID e dell’ACN, enti governativi di diritto pubblico, quali autorità nazionali per l’intelligenza artificiale (art. 20). Essendo l’AI Act un provvedimento preordinato anche alla tutela dei diritti fondamentali, sarebbe parso più coerente e opportuno optare per una o più autorità amministrative indipendenti, cosa che avrebbe assicurato un più elevato livello di tutela per i diritti dei singoli ed evitato prevedibili sovrapposizioni di competenze, in particolare con il Garante per la protezione dei dati personali. Ancora – commenta ancora Resta – non può sottacersi come, anche per via della tempistica affatto particolare della sua approvazione, la legge italiana assuma a tratti più il carattere di “provvedimento simbolico”, che non di meditata innovazione sostanziale dell’assetto normativo interno”.