Più trasparenza sugli algoritmi, rispetto del diritto d’autore, supervisione umana generale e regole per garantire la cybersicurezza. Entra in vigore la stretta per le aziende sull’Intelligenza artificiale prevista dall’AI Act europeo. Le norme, scattate ufficialmente ieri, valgono per i grandi produttori di algoritmi (da Google e Meta a OpenAI), ma anche per banche, startup e chiunque crei o modifichi in modo algoritmi sostanziali open source per il proprio business.
Se non si rispettano le previsioni scattano molteplici (non prima del 2026) fino a 35 milioni o il 7% del fatturato. Le altre aziende dovranno verificare di usare sistemi IA di imprese produttrici che rispettano le norme Ue per evitare complicità (tecnicamente la “non conformità” alla direttiva comunitaria).
I fornitori di modelli di intelligenza artificiale dovranno rispettare il copyright delle informazioni che prelevano, speficicandone la provenienza, ma anche chiarire come funzionano gli algoritmi, seguendo apposite linee guida.
I CASI
Per i sistemi categorizzati come più pericolosi (“ad alto rischio”) vanno inviate notifiche all’apposito Ufficio IA dell’Unione europea e rispettate norme più stringenti sul controllo umano. Le informazioni sensibili non possono essere divulgate, salvo nei casi previsti dalla legge o con consenso dell’interessato. Chiunque poi usi chatbot o generatori di contenuti, dovrà dichiararlo apertamente ai clienti.
Da ieri, 2 agosto, gli obblighi sono scattati per i nuovi modelli di intelligenza artificiale che verranno immessi sul mercato. Si dovrà aspettare due anni (dal 2 agosto 2027) per vedere eventuali multe sui sistemi già esistenti, a partire da ChatGpt. Dal 2 agosto 2026, invece, la Commissione europea acquisirà i poteri per vigilare sul rispetto degli obblighi attraverso le sanzioni, coordinando con l’Ufficio Ue per l’IA le varie autorità nazionali che stanno sorgendo nei 27 Stati membri per i controlli sugli algoritmi (per l’Italia, secondo l’apposito ddl che deve essere approvato definitivamente dal Senato, saranno l’Agenzia per l’Italia digitale e l’Agenzia per la cybersicurezza nazionale). Le multe più alte si applicano per la violazione dei divieti (ad esempio usando l’IA in modo manipolativo o per la sorveglianza indiscriminata). Per le violazioni dei requisiti sui sistemi ad alto rischio la sanzione arriva fino a 15 milioni o il 3% del fatturato. Per la fornitura di informazioni false o incomplete si arriva invece fino a 7,5 milioni o l’1% del fatturato. Pmi e startup beneficiano sempre della multa minore tra quelle previste.
© RIPRODUZIONE RISERVATA
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link