Il 14 giugno 2023 il Parlamento europeo ha approvato la sua posizione negoziale sull’Artificial Intelligence Act, ossia il progetto di normativa sull’intelligenza artificiale presentato dalla Commissione europea nell’aprile 2021 al fine di promuovere un approccio responsabile verso i sistemi AI.
La proposta della Commissione individua quattro diversi livelli di rischio per tali devices (altissimo, alto, limitato, minimo), ai quali si ricollegano differenti approcci regolatori (c.d. risk-based approach). Saranno, ad esempio, banditi i sistemi appartenenti alla prima categoria, passibili di un uso intrusivo e discriminatorio, con pericoli inaccettabili per i diritti fondamentali dei cittadini e per l’interesse pubblico. Verranno, invece, appositamente normati – tramite la governance dei dati, la valutazione della gestione del rischio, la documentazione tecnica e i criteri per la trasparenza – i devices AI “ad alto rischio”, utilizzati in infrastrutture critiche (es. reti elettriche, ospedali), per assumere decisioni riguardanti la vita dei cittadini (es. occupazione o valutazione del credito) o con impatto significativo sull’ambiente.
Il testo approvato dal Parlamento introduce, rispetto al progetto della Commissione, degli obblighi di trasparenza per i providers, diversificati in ragione della tecnologia utilizzata. Relativamente ai sistemi di “AI generativa”, che, attraverso le reti neurali, consentono di elaborare contenuti del tutto nuovi, i produttori dovranno rendere sempre esplicito l’uso dell’intelligenza artificiale, sì da poter distinguere, ad esempio, i deep-fake dalle immagini reali. Quanto, invece, ai “modelli base dell’AI”, che svolgono vari compiti grazie all’elaborazione di grandi quantità di dati, i providers dovranno valutare e mitigare i rischi correlati, registrando i modelli nella Banca dati dell’UE prima dell’immissione sul mercato.
Tuttavia, la futura approvazione dell’AI Act, pur di fondamentale importanza per il settore, non va esente da profili di criticità, già da più parti evidenziati, anche quanto all’impatto della normativa sulle Piccole e Medie Imprese.
In particolare, oltre al problema delle tempistiche – forse eccessivamente dilatate, con il rischio, quindi, che la disciplina in fine emanata sia nel frattempo superata dalla ben più rapida evoluzione tecnologica, si segnala soprattutto il pregiudizio al corretto funzionamento del settore, con conseguente ostacolo ai processi di innovazione, che potrebbe scaturire da un sovraccarico di adempimenti (obblighi documentali, controlli e verifiche) frutto dell’approccio etico adottato.
E, invero, alla maggiore regolamentazione imposta dal nuovo quadro normativo seguirà un aumento dei costi di conformità, certamente di particolare impatto per le PMI che sviluppano, utilizzano, importano e rivendono soluzioni di AI: a tal proposito, uno studio pubblicato dalla società di consulenza Intellera stima a € 300.000 il costo di lancio di mercato di un sistema AI per una PMI – importo che potrebbe effettivamente precludere l’accesso al settore a numerose società innovative.
Dovranno, pertanto, prendersi in considerazione – magari anche con il diretto coinvolgimento di componenti rappresentative nei tavoli di lavoro e in sede normativa – strategie che consentano di ridurre al minimo tali costi, per esempio escludendo le stesse PMI dagli obblighi più gravosi, come i controlli di qualità (quality management system), o, quanto meno, controbilanciando tale spesa con un apposito sostegno economico-finanziario
Foto di EKATERINA BOLOVTSOVA
Riccardo Borsari
Professore di diritto penale presso il Dipartimento di Diritto Pubblico, Internazionale e Comunitario dell’Università degli Studi di Padova. Autore di numerose pubblicazioni, collabora stabilmente con Il Sole 24Ore e altre testate nazionali e locali