La Commissione Europea ha pubblicato le linee guida per chiarire gli obblighi previsti dall’AI Act per i fornitori di modelli di intelligenza artificiale di uso generale (general-purpose AI model). L’obiettivo è aiutare gli attori dell’ecosistema AI a comprendere se e come si applicano le nuove disposizioni, promuovendo innovazione e trasparenza.
La Commissione ha compiuto un passo significativo verso l’attuazione del Regolamento (UE) 2024/1689, noto come “AI Act”, approvando il contenuto delle Linee Guida sul campo di applicazione degli obblighi per i modelli di AI di scopo generale. Queste linee guida, che entreranno in vigore il 2 agosto 2025, mirano a fornire chiarezza giuridica e approfondimenti sull’interpretazione della Commissione riguardo alle disposizioni relative ai sistemi di AI di scopo generale.
L’AI Act, entrato in vigore il 1° agosto 2024, ha l’obiettivo di promuovere l’innovazione e l’adozione dell’intelligenza artificiale nell’Unione, garantendo al contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, inclusa la democrazia e lo stato di diritto.
Il Capitolo V dell’AI Act stabilisce gli obblighi per i fornitori di sistemi di AI di scopo generale, distinguendoli in due categorie: modelli di AI di scopo generale con e senza rischio sistemico.
Definizioni tecniche e criteri applicativi
Le linee guida introducono definizioni tecniche chiare per stabilire quando un modello AI può essere considerato “di uso generale”. Questo aiuta gli sviluppatori a determinare se devono rispettare gli obblighi dell’AI Act, evitando incertezze interpretative e facilitando la conformità normativa.
Un approccio pragmatico e proporzionato
La Commissione adotta un approccio pragmatico: solo chi apporta modifiche significative a un modello AI sarà soggetto agli obblighi previsti. Chi invece introduce modifiche minori non sarà tenuto a rispettare gli stessi requisiti. Questa distinzione rende più snella e accessibile l’applicazione della norma.
Esenzioni per il software open-source
Un altro elemento centrale è l’esenzione da alcuni obblighi per i fornitori di modelli AI open-source, a condizione che siano rispettate specifiche condizioni. L’intento è quello di incoraggiare la trasparenza e l’innovazione collaborativa senza compromettere la sicurezza e l’affidabilità dei sistemi.
Un complemento al Codice di Condotta
Le linee guida integrano il Codice di Condotta per l’AI di Uso Generale, uno strumento volontario e pratico che spiega come soddisfare gli obblighi previsti dalla normativa. La guida interpretativa della Commissione aiuta così a tradurre il quadro giuridico in azioni concrete per i fornitori.
Obiettivi e chiarimenti delle linee guida per i modelli di AI per scopo generale
Le nuove linee guida sono una componente fondamentale del pacchetto di misure che preparano l’applicazione delle regole per i fornitori di modelli di AI di scopo generale. Esse affrontano quattro temi chiave:
- La definizione di “modelli di AI di scopo generale”.
- L’identificazione dei “fornitori che immettono sul mercato modelli di AI di scopo generale”.
- Le esenzioni da alcuni obblighi per i fornitori di modelli di AI di scopo generale rilasciati come open-source.
- Le aspettative della Commissione in merito all’applicazione degli obblighi.
Definizione di modello di AI di scopo generale
Un “modello di AI di scopo generale” è definito come un modello di AI che “mostra una significativa generalità ed è capace di eseguire in modo competente una vasta gamma di compiti distinti… e che può essere integrato in una varietà di sistemi o applicazioni a valle”. Poiché non è fattibile fornire un elenco preciso di capacità, la Commissione ha stabilito un criterio indicativo basato sulle risorse computazionali utilizzate per l’addestramento (“training compute”), misurate in FLOP (operazioni a virgola mobile).
Un modello è considerato un modello di AI di scopo generale se:
- Il suo training compute è superiore a 10^23 FLOP.
- È in grado di generare linguaggio (sotto forma di testo o audio), testo-immagine o testo-video.
Questo criterio riflette l’ammontare approssimativo di computazione tipicamente utilizzato per addestrare modelli con circa un miliardo di parametri su grandi quantità di dati. Esempi di modelli che rientrano nell’ambito di applicazione includono un modello addestrato su un’ampia gamma di dati di linguaggio naturale con 10^24 FLOP e capace di generare testo, mostrando una significativa generalità.
Esempi di modelli che non rientrano nell’ambito di applicazione, nonostante un elevato training compute, sono quelli che svolgono solo compiti molto specifici, come la trascrizione vocale, la generazione di musica o l’upscaling di immagini.
Modelli di AI di scopo generale con rischio sistemico
Una classe speciale di modelli è quella dei “modelli di AI di scopo generale con rischio sistemico”, che presentano rischi specifici per le loro capacità ad alto impatto, potendo avere un impatto significativo sul mercato dell’Unione. Un modello è presunto avere capacità ad alto impatto (e quindi rischio sistemico) se la quantità cumulativa di computazione utilizzata per il suo addestramento supera i 10^25 FLOP. I fornitori di tali modelli sono soggetti a obblighi aggiuntivi, tra cui la conduzione di valutazioni del modello, la segnalazione di incidenti gravi e la garanzia di un adeguato livello di protezione della cibersicurezza.
I fornitori devono notificare la Commissione senza indugio, e comunque entro due settimane, quando il modello soddisfa o si prevede che soddisfi la soglia di rischio sistemico. Questo include la fase di pianificazione prima dell’addestramento.
Fornitori e immissione sul mercato
Il “fornitore” di un modello di AI di scopo generale è “una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa… un modello di AI di scopo generale o che lo fa sviluppare e lo immette sul mercato… a proprio nome o marchio”. L’immissione sul mercato si intende come la prima messa a disposizione di un modello sul mercato dell’Unione. Ciò può avvenire tramite librerie software, API, download diretti, copie fisiche, servizi di cloud computing o l’integrazione in chatbot e applicazioni mobili.
Un aspetto importante riguarda i modificatori a valle. Un modificatore a valle diventa fornitore del modello di AI di scopo generale modificato solo se la modifica comporta un cambiamento significativo nella generalità, nelle capacità o nel rischio sistemico del modello. Un criterio indicativo è che il training compute utilizzato per la modifica sia superiore a un terzo del training compute del modello originale.
Esenzioni per i modelli open-source
Per promuovere l’innovazione, l’AI Act prevede esenzioni da alcuni obblighi per i fornitori di modelli di AI rilasciati sotto licenza libera e open-source. Tali esenzioni si applicano a:
- obbligo di redigere e tenere aggiornata la documentazione tecnica del modello (Articolo 53(1), punti (a) e (b), AI Act).
- obbligo di nominare un rappresentante autorizzato per i fornitori extra-UE (Articolo 54 AI Act).
Queste esenzioni si applicano a condizione che il modello non sia un modello di AI di scopo generale con rischio sistemico. Le condizioni includono che la licenza consenta l’accesso, l’uso, la modifica e la distribuzione del modello, e che i suoi parametri (inclusi i pesi), le informazioni sull’architettura e sull’uso del modello siano resi pubblicamente disponibili.
La mancanza di monetizzazione è un’altra condizione cruciale: scenari come il dual licensing (uso accademico gratuito, uso commerciale a pagamento) o servizi di supporto indispensabili a pagamento disqualificano dall’esenzione. Tuttavia, servizi accessori opzionali a pagamento non impediscono l’esenzione.
È fondamentale notare che le esenzioni non si applicano all’obbligo di implementare una politica conforme alla legislazione sul diritto d’autore dell’Unione (Articolo 53(1), punto (c)) e di rendere pubblicamente disponibile un riepilogo del contenuto utilizzato per l’addestramento (Articolo 53(1), punto (d)).
Attuazione e vigilanza
Gli obblighi per i fornitori di modelli di AI di scopo generale si applicano a partire dal 2 agosto 2025. La Commissione, attraverso l’Ufficio Europeo per l’Intelligenza Artificiale (“AI Office”), è incaricata di supervisionare e far rispettare questi obblighi. L’AI Office adotterà un approccio collaborativo e proporzionato, incoraggiando la cooperazione informale con i fornitori.
Per i modelli immessi sul mercato prima del 2 agosto 2025, i fornitori avranno tempo fino al 2 agosto 2027 per conformarsi agli obblighi. Le azioni di applicazione, incluse le multe, potranno essere imposte a partire dal 2 agosto 2026. L’adesione a un codice di condotta valutato come adeguato dall’AI Office e dal Consiglio (AI Board) servirà come mezzo per dimostrare la conformità agli obblighi.
Queste linee guida, sebbene non vincolanti legalmente, stabiliscono l’interpretazione della Commissione sull’applicazione dell’AI Act, su cui si baseranno le future azioni di enforcement. Saranno riviste e aggiornate in base all’esperienza pratica e agli sviluppi tecnologici e di mercato.
In un panorama tecnologico in rapida evoluzione, queste linee guida fungono da bussola, offrendo chiarezza e direzione agli attori dell’AI mentre navigano il complesso paesaggio normativo, garantendo che l’innovazione proceda di pari passo con la responsabilità e la sicurezza.
Le scadenze da ricordare
- Dal 2 agosto 2025, entrano in vigore gli obblighi per i modelli di AI di uso generale immessi sul mercato dopo tale data. I fornitori dovranno collaborare con il personale tecnico dell’AI Office.
- I fornitori di modelli avanzati, che presentano rischi sistemici, dovranno notificare i propri modelli all’AI Office.
- Dal 2 agosto 2026, la Commissione acquisirà poteri esecutivi per vigilare sul rispetto degli obblighi, anche attraverso sanzioni.
- Entro il 2 agosto 2027, anche i fornitori di modelli messi sul mercato prima del 2 agosto 2025 dovranno essere conformi.
Linee guida per i modelli AI per scopo generale: un processo partecipativo e una guida per il futuro
Le linee guida sono frutto di un ampio processo di consultazione pubblica con attori del settore, ricercatori e altre parti interessate. Anche se non sono vincolanti dal punto di vista legale, riflettono l’interpretazione ufficiale della Commissione e orienteranno le attività di controllo e supporto.
Contatti e assistenza per i fornitori
I fornitori di modelli di uso generale con rischi sistemici devono contattare l’AI Office all’indirizzo: EU-AIOFFICE-GPAI-SR-PROVIDERS@ec.europa.eu
L’ufficio offre supporto pratico per la procedura di notifica e per garantire la conformità alla normativa europea.
Le linee guida rappresentano un passo fondamentale per accompagnare l’evoluzione dell’IA in Europa, promuovendo uno sviluppo tecnologico etico, sicuro e responsabile.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link