SIENA – L’8 dicembre 2023 il “trilogo”, cioè il vertice tra i rappresentanti delle tre istituzioni dell’Unione Europea – Parlamento, Consiglio, Commissione – ha varato il testo della prima legge mondiale sull’Intelligenza Artificiale. È stato quello il momento decisivo per l’AI Act, approvato in via definitiva dal Parlamento Europeo il 13 marzo, con 523 voti favorevoli, 46 contrari e 49 astensioni. A mo’ di curiosità si può dire che rispetto alla prima approvazione dell’assise continentale, il 14 giugno 2023, l’Ai Act ha guadagnato qualche consenso, visto che allora i sì furono 499 con 28 no e 93 astensioni. Del significato di questo ulteriore passaggio in sede Ue abbiamo parlato con il giornalista Daniele Magrini, autore del libro “L’anno dell’Intelligenza Artificiale” (Primamedia editore), recentemente uscito.
Che valenza ha questo voto del Parlamento Europeo sull’AI Act?
Non è certo una sorpresa. Sostanzialmente si tratta di una ratifica: l’accordo politico e istituzionale, lo snodo nei delicati rapporti tra le tre istituzioni europeo, fu raggiunto l’8 dicembre scorso. E quel testo è arrivato blindato al voto definitivo del Parlamento Europeo. Ma non si pensi che la trafila burocratica sia finita: adesso il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura, a giugno. Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi). Poi, prima di parlare di effettiva applicazione, è previsto un cuscinetto di transizione per consentire agli operatori digitali di armonizzare i prodotti dei propri laboratori alle regole europee. Tra il 2026 e il 2027 sarà la fase in cui l’Ai Act avrà una effettiva applicazione.
Quindi, siamo in presenza di una legge poco incisiva che funziona da specchietto delle allodole? Molta comunicazione e poca sostanza?
No, sarebbe ingiusto liquidare l’Ai Act così. Il quadro normativo cerca di tutelare i diritti dei cittadini dell’Ue. Ma intanto l’innovazione digitale corre come una gazzella della savana, molto più del leone, che nella metafora possiamo identificare come il legislatore europeo. Crediamo davvero che tutte le applicazioni possibili grazie all’Intelligenza Artificiale per tre anni attendano in una sorta di limbo normativo le regole dell’Ue? Diciamo che l’Ai Act andava fatto, perché fissa punti importanti soprattutto etici. Per il resto, si vedrà quale sarà la reale incidenza nei processi che vedranno l’Intelligenza Artificiale protagonista in ogni settore. La realtà è che l’Ue ha fissato le regole di un sistema europeo dell’Ai che ancora non c’è.
Ci riassume i punti più importanti della legge europea sull’Intelligenza Artificiale?
Intanto siamo di fronte ad un “Risk Act”, cioè una legge che si occupa in particolare dei rischi che possono giungere da uso dell’AI ispirato dalla deregulation. L’AI Act classifica quattro livelli di rischio nell’uso dell’Intelligenza Artificiale: inaccettabile e quindi vietato, elevato, limitato e minimo. Nel primo livello rientrano i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza). Sono vietati, salvo l’uso da parte delle forze dell’ordine; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche. Per i sistemi a rischi elevato, come le applicazioni in sanità, nelle procedure bancarie o elettorali, vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti. Per il resto, sono introdotte alcune misure di garanzia generali ed il no deciso a sistemi di credito sociale. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati – i cosiddetti “deepfake” – dovranno essere chiaramente etichettati come tali. Per esempio, la Principessa Kate avrebbe dovuto dichiarare prima di diffonderla, che la famosa foto con i figli era ritoccata. Se il Regno Unito fosse stato in Europa e l’AI Act già operativo, la principessa sarebbe stata sanzionabile.
E il resto del mondo, quali normative ha varato?
Negli Stati Uniti il Presidente Biden ha firmato il 30 ottobre 2023 l’Ordine esecutivo sullo sviluppo e l’utilizzo sicuro, protetto e affidabile dell’intelligenza artificiale. Al primo punto recita così: “Un uso responsabile dell’IA può contribuire a risolvere sfide urgenti, rendendo il nostro mondo più prospero, produttivo, innovativo e sicuro. Allo stesso tempo, un uso irresponsabile potrebbe esacerbare i danni sociali come frodi, discriminazioni, pregiudizi e disinformazione, spostare e privare di potere i lavoratori, soffocare la concorrenza e mettere a rischio la sicurezza nazionale. Per sfruttare l’IA a fin di bene e realizzare la sua miriade di benefici è necessario mitigare i suoi rischi sostanziali”. Più pragmatica la Cina, che tutela per primo il suo regime, con questa norma: “I contenuti generati utilizzando l’intelligenza artificiale generativa dovranno riflettere i valori fondamentali del socialismo e non devono includere contenuti che sovvertono il potere statale, rovesciano il sistema socialista”.