L’Italia non deve seguire Francia e Germania su AI Act, ma spingere invece per regole chiare

5 gennaio 2024

Nei prossimi giorni inizieranno i tavoli tecnici per affinare il testo del regolamento europeo sull’intelligenza artificiale (AI Act) che fa seguito all'accordo politico raggiunto con un lungo e intenso negoziato tra Parlamento, Consiglio degli Stati membri e Commissione, lo scorso dicembre.

La regolamentazione europea, la prima di questo genere al mondo, punta a definire i contorni giuridici per le piattaforme di intelligenza artificiale generativa, come ad esempio OpenAI, e fissare i limiti secondo una scala di rischio che può anche giungere a vietare alcune attività che prevedono l’utilizzo dell’intelligenza artificiale.

Tra i punti più controversi oggetto del negoziato di dicembre v'è quello riguardante i modelli di fondazione e GPAI. Sono state infatti aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per finalità generali) e di quelle in cui la tecnologia di IA per finalità generali è successivamente integrata in un altro sistema ad alto rischio. L'accordo provvisorio tratta anche i casi specifici dei sistemi di IA per finalità generali.

Sono state inoltre concordate regole specifiche per i modelli di base, i grandi sistemi in grado di svolgere con competenza un'ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici. L'accordo provvisorio prevede che i modelli di base debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più rigoroso per i modelli di base "ad alto impatto". Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.

In tale contesto entrano in gioco anche le questioni riguardanti la proprietà intellettuale ed in particolare la tutela dei contenuti protetti da copyright, ai sensi della Direttiva sul diritto d’autore del 2019.

In particolare, provider di sistemi come ChatGPT dovranno fornire alle aziende clienti tutta la documentazione necessaria per essere compliant. Tutti questi modelli avranno obblighi di trasparenza relativi al consumo energetico e all’uso di database e informazioni coperte da copyright.

Qui sono stati inseriti alcuni emendamenti e rimandi proprio alla Direttiva europea sul copyright del 2019. In particolare, si dice che i fornitori di General Purpose AI devono:

  • mettere in atto una politica di rispetto del diritto d'autore dell'Unione, in particolare per individuare e rispettare, anche attraverso tecnologie all'avanguardia, se del caso, le riserve di diritti espresse ai sensi dell'articolo 4, paragrafo 3, della direttiva (UE) 2019/790;
  • redigere e rendere disponibile al pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l'addestramento del modello di IA per scopi generali, secondo un modello fornito dall'AI Office.

Anche alla luce della recente iniziativa giudiziaria del NYT contro OpenAI e Microsoft per violazione dei diritti d’autore, promossa davanti a una Corte giudiziaria negli USA, la questione della trasparenza dei modelli di fondazione e le relative regole stringenti sui contenuti utilizzati per l’addestramento dei sistemi, deve rimanere un cardine della proposta di regolamento europeo. L’intelligenza artificiale generativa costituisce un’enorme opportunità di sviluppo per molti settori creativi, come la musica, il cinema, l’editoria, ma in quadro di regole trasparenti e che si applicano a tutta la filiera.

Recenti posizioni critiche di Germania e Francia, per le quali sarebbe opportuno evitare norme regolamentari ma limitarsi a definire dei codici di autoregolamentazione, non sono accettabili. Peraltro, i due Paesi sembrano avere un forte interesse a limitare l’impatto della regolamentazione europea nella speranza di sostenere alcuni campioni nazionali nel settore ma con l’effetto perverso di dare mano libera alle piattaforme americane leader nel settore che spingono per l’assenza di regole. Un’iniziativa sulla quale hanno cercato più volte di coinvolgere il governo italiano nella speranza di creare una minoranza di blocco nel Coreper e bloccare il testo dell’AI Act. In Francia diversi senatori hanno contestato la posizione del governo segnalando anche un conflitto d'interesse tra il consigliere del Presidente Macron e la principale start-up d’oltralpe.

Il nostro Governo farebbe invece molto bene a difendere una regolamentazione stringente proprio per evitare un far west guidato da poche multinazionali che hanno tutto l’interesse ad evitare ogni controllo avendo già realizzato il massimo risultato con lo “scraping” incondizionato di dati personali, contenuti protetti e tanto altro che oggi mettono a disposizione per creare nuovi contenuti che altro non sono che opere riprodotte di lavori coperti da diritto d’autore, come dimostrato dagli esempi presentati nel ricorso giudiziario del New York Times contro ChatGPT.

La posizione italiana sarebbe peraltro di notevole importanza anche alla luce del ruolo che questo governo sta assumendo come Presidente del G7, dove Giorgia Meloni ha già accennato che l’AI sarà al centro dei temi caldi. In particolare, il sottosegretario di Stato alla presidenza del Consiglio con delega all’Innovazione tecnologica, Alessio Butti, dovrebbe confermare come linea del Governo quanto già dichiarato in sede EU, ovvero che “Italia insiste affinché tutti i modelli e sistemi di intelligenza artificiale rientrino in un quadro di regole certe e semplici corredate di sanzioni per ogni modello e sistema di AI, inclusi quelli fondativi come sottolineato dalla presidente del Consiglio Giorgia Meloni, al fine di evitare zone franche o grigie e assicurare che regolazione e innovazione possano procedere insieme”.

Si sente affermare spesso che la regolamentazione dell’AI sarebbe un’iniziativa contro lo sviluppo delle tecnologie e che un piano di tale portata metterebbe in difficoltà l’Europa di fronte ad altre legislazioni nel mondo. Nulla di più falso dato che già in passato le regole europee, vedasi nel caso del GDPR, hanno stabilito principi avanzati con obblighi poi adottati da tutte le imprese globali attive sul mercato europeo. Come ha giustamente sottolineato il co-relatore della proposta del Parlamento, Brando Benifei, l’AI Act ha l’obiettivo di “trovare il giusto equilibrio tra la promozione dell’innovazione e della competitività delle imprese europee che sviluppano o utilizzano sistemi di intelligenza artificiale, e un’adeguata protezione dei diritti e delle libertà fondamentali dei cittadini. Senza le adeguate tutele, non si creerà infatti la necessaria fiducia da parte dei cittadini e consumatori, e quindi il mercato europeo dell’IA rischia di restare limitato”.