News

L'AI sotto la lente dell'Europa: cosa dice la nuova legge

Pubblicato il
2023-06-20 00:00:00

Un quadro normativo innovativo per promuovere lo sviluppo e l'utilizzo etico dell'AI a beneficio di cittadini e imprese

Il 21 aprile 2021, la Commissione Europea ha presentato l'AI Act, una proposta di regolamento per l'intelligenza artificiale (IA) che mira a stabilire un quadro giuridico completo per il suo sviluppo, l'immissione sul mercato e l'utilizzo nell'Unione Europea. L'obiettivo è promuovere l'innovazione nel settore dell'IA, garantendo al contempo sicurezza, affidabilità e tutela dei diritti fondamentali dei cittadini europei. Recentemente, l'Unione Europea ha approvato questa importante legge per regolamentare il settore in rapida crescita e proteggere la sicurezza e i diritti fondamentali dei cittadini. La legge stabilisce diverse categorie di rischio per i sistemi di intelligenza artificiale e impone requisiti specifici in base al livello di rischio.

 

Obiettivi Principali

  1. Sicurezza e Affidabilità: L'AI Act mira a garantire che le applicazioni AI siano sicure e non causino danni fisici o psicologici agli utenti, prevenendo bias algoritmici e discriminazioni.
  2. Trasparenza e Responsabilità: Le aziende e gli sviluppatori dovranno fornire informazioni chiare e trasparenti sull'uso delle tecnologie AI, assicurando che gli utenti comprendano come e perché vengono prese determinate decisioni automatizzate.
  3. Innovazione e Competitività: L'AI Act intende promuovere l'innovazione nel settore AI, creando un ambiente regolamentare stabile che favorisca gli investimenti e lo sviluppo tecnologico, mantenendo l'Europa competitiva a livello globale.

 

I punti chiave della Legge sull'AI:

  • Divieto di sistemi AI ad alto rischio: Sono vietati i sistemi che rappresentano una minaccia inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone, come il punteggio sociale da parte dei governi e giocattoli pericolosi con assistenza vocale.
  • Requisiti rigorosi per i sistemi AI ad alto rischio: Sistemi utilizzati nei settori dei trasporti, istruzione, gestione del credito e applicazione della legge devono soddisfare requisiti rigorosi prima di essere immessi sul mercato, includendo valutazioni del rischio e misure di mitigazione.
  • Obblighi di trasparenza per sistemi AI a rischio limitato: Sistemi come chatbot e filtri antispam devono essere trasparenti sull'uso dell'IA, informando gli utenti e consentendo loro di scegliere se continuare l'interazione.
  • Sviluppo di modelli AI affidabili: Norme specifiche per grandi modelli di IA mirano a garantire lo sviluppo e l'uso responsabile di questi modelli, gestendo adeguatamente i rischi.
  • Governance e applicazione: Un nuovo Ufficio europeo sull'intelligenza artificiale supervisionerà l'attuazione della legge, collaborando con gli Stati membri per garantire l'applicazione coerente in tutta l'UE.

 

Classificazione dei Sistemi AI

L'AI Act introduce una classificazione dei sistemi AI basata sul livello di rischio:

  1. Rischio Inaccettabile: Sistemi AI che rappresentano una chiara minaccia per la sicurezza, i diritti fondamentali o i valori europei, come i sistemi di punteggio sociale, sono vietati.
  2. Alto Rischio: Applicazioni AI utilizzate in settori critici come salute, istruzione e giustizia sono soggette a rigorosi controlli e devono soddisfare specifici requisiti di sicurezza e trasparenza.
  3. Rischio Limitato: Sistemi AI che richiedono obblighi di trasparenza, come i chatbot, devono informare gli utenti che stanno interagendo con un'intelligenza artificiale.
  4. Rischio Minimo: La maggior parte delle applicazioni AI, che rappresentano un basso rischio, non sono soggette a requisiti aggiuntivi specifici.

 

Requisiti basati sul rischio

I fornitori di sistemi di intelligenza artificiale dovranno rispettare requisiti specifici in base alla categoria di rischio del loro sistema. I requisiti per i sistemi ad alto rischio sono i più rigorosi e includono:

  • Valutazione di conformità: I fornitori dovranno far valutare il proprio sistema da un organismo indipendente prima di poterlo immettere sul mercato.
  • Obblighi di trasparenza: I fornitori dovranno fornire informazioni chiare e comprensibili sul proprio sistema, tra cui il suo scopo, le sue capacità e i suoi limiti.
  • Misure di sicurezza: I fornitori dovranno implementare misure di sicurezza adeguate per proteggere il proprio sistema da attacchi informatici e altri rischi.
  • Sistemi di gestione del rischio: I fornitori dovranno implementare sistemi di gestione del rischio per identificare, valutare e mitigare i rischi associati al proprio sistema.

 

Impatti sull'Industria

L'AI Act avrà un impatto significativo sull'industria tecnologica europea e globale. Le aziende dovranno adattare i loro processi di sviluppo e implementazione per conformarsi ai nuovi standard, potenzialmente aumentando i costi di conformità ma anche migliorando la fiducia degli utenti nelle tecnologie AI.

 

Un approccio "a prova di futuro"

La legge sull'intelligenza artificiale è stata progettata per essere "a prova di futuro", il che significa che è in grado di adattarsi ai progressi tecnologici. La Commissione europea avrà il potere di aggiornare la legge se necessario, per garantire che continui a proteggere la sicurezza e i diritti fondamentali dei cittadini.

 

L'impatto della Legge sull'AI

L'AI Act è un passo avanti significativo per lo sviluppo responsabile dell'intelligenza artificiale. La legge aiuterà a garantire che i sistemi di intelligenza artificiale siano utilizzati in modo sicuro, etico e rispettoso dei diritti fondamentali dei cittadini. Inoltre, la legge contribuirà a posizionare l'Europa come leader globale nello sviluppo di tecnologie di intelligenza artificiale affidabili.

L'entrata in vigore della Legge sull'AI è prevista per il 2026, con alcune eccezioni per i sistemi ad alto rischio. La Commissione europea ha già avviato l'AI Pact, un'iniziativa volontaria per aiutare le imprese a conformarsi ai requisiti della legge.

 

Conclusione

L'approvazione della legge sull'intelligenza artificiale rappresenta un passo importante per l'Unione Europea. La legge contribuirà a garantire che l'intelligenza artificiale sia sviluppata e utilizzata in modo sicuro e responsabile, a beneficio di tutti.

Condividi
Clienti

Clienti

I clienti con cui lavora quotidianamente GMDE sono più di 100 e... sono tutti soddisfatti

Vai all'elenco completo

Contattaci per:

  • Richiedere maggiori informazioni
  • Programmare una demo
  • Presentarci un nuovo progetto

Autorizzo al trattamento dei dati personali

loading