Cerca
Close this search box.
  • Home
  • News
  • Intelligenza artificiale (IA): Il Parlamento europeo approva la prima legge al mondo che ne regola l’uso
19 Marzo 2024

Intelligenza artificiale (IA): Il Parlamento europeo approva la prima legge al mondo che ne regola l’uso

Consulenza ed assistenza per i consumatori in Europa

Intelligenza artificiale (IA): Il Parlamento europeo approva la prima legge al mondo che ne regola l’uso

Il 13 marzo, il Parlamento europeo ha approvato la legge sull’intelligenza artificiale (Artificial intelligence Act) con l’obiettivo di tutelare i diritti fondamentali e la sicurezza dei cittadini europei, promuovendo l’innovazione e garantendo all’EU un ruolo guida nel settore. Si tratta di passo storico che rende l’UE la prima istituzione a dotarsi di regole sull’uso dell’IA!

I passi dell’UE verso l’approvazione della legge sull’intelligenza artificiale:

È la prima volta che un’istituzione approva un regolamento che disciplina con chiarezza l’IA, stabilendo regole armonizzate per l’immissione sul mercato, la messa in servizio, l’uso dei sistemi di intelligenza artificiale. La legge appena approvata vieta alcune pratiche di IA e stabilisce precisi obblighi per gli operatori di sistemi di intelligenza artificiale, in base ai possibili rischi e al livello d’impatto per gli utenti.  Un traguardo fondamentale considerato che l’IA è parte integrante delle nostre vite già da tempo, influenzandone molteplici aspetti. Basti pensare alle applicazioni di riconoscimento facciale su smartphone e social media, alle applicazioni di e-commerce che utilizzano algoritmi di IA per personalizzare le esperienze di shopping online o ai sistemi di automazione domestica. L’uso dell’IA, infatti, può fornire vantaggi competitivi fondamentali sia ai cittadini che alle imprese, e portare a risultati positivi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, gestione delle infrastrutture, mitigazione dei cambiamenti climatici e adattamento ad essi. Tuttavia, nel contempo, può comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dalla legislazione dell’UE.  In considerazione dell’impatto significativo che l’IA può avere sulla società e della necessità di promuovere un approccio che pone l’essere umano al centro dello sviluppo e dell’utilizzo dell’IA, era necessario stabilire regole comuni per i sistemi di IA ad alto rischio che possono generare inaccettabili discriminazioni e pregiudizi. Pertanto, nell’aprile del 2021, la Commissione Europea ha presentato la proposta di regolamento sull’IA. Il 9 dicembre 2023, poi, è stato raggiunto un accordo provvisorio tra Consiglio e Parlamento europeo in merito a tale proposta, tenendo anche conto delle raccomandazioni avanzate dai cittadini che hanno partecipato alla Conferenza sul futuro dell’Europa (COFE), ossia una serie di discussioni guidate dai cittadini sulle priorità e sfide fondamentali che l’UE deve affrontare.

La legge sull’intelligenza artificiale in punti:

  • Livelli di pericolosità: il testo della legge prevede che i sistemi di IA vengano classificati in quattro gradi di rischio: rischio inaccettabile, elevato, limitato e  minimo. A ogni sistema IA viene associato una lista di obblighi sulla base dei possibili rischi per gli utenti o per l’ambito nel quale tale sistema viene utilizzato.
  • Sistemi IA a rischio inaccettabile: sono quelli che rappresentano una minaccia per la sicurezza e i diritti delle persone e saranno vietati. Ci si riferisce, ad esempio, a quelli utilizzati per scopi di manipolazione cognitivo-comportamentale dell’utente, tipo alcuni giocattoli che utilizzano assistenti vocali per incoraggiare comportamenti pericolosi nei minori, ai sistemi a “punteggio sociale”, ossia che assegnano un punteggio a ciascun individuo in base al suo comportamento, influenzando in questo modo l’accesso ai servizi come il credito bancario o ad altre opportunità. Rientrano, inoltre, anche quelli di categorizzazione biometrica basati su caratteristiche sensibili o quelli che prevedono l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, ovvero delle tecnologie che utilizzano l’analisi delle espressioni facciali e altri dati biometrici per determinare lo stato emotivo di un individuo. Ad esempio, nelle scuole, questi sistemi potrebbero essere utilizzati per monitorare l’attenzione degli studenti durante le lezioni, per valutare il loro coinvolgimento o per rilevare eventuali segni di disagio emotivo. Inoltre, le forze dell’ordine non potranno utilizzare strumenti di identificazione biometrica in tempo reale senza un’autorizzazione giudiziaria o amministrativa, tranne nei casi di estrema necessità, come la ricerca di un individuo disperso o la prevenzione di attacchi terroristici.
  • Sistemi IA ad alto rischio: saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE. I sistemi IA ad alto rischio potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia. Si fa riferimento a quei sistemi che vengono utilizzati dalle scuole che, ad esempio, possono determinare l’accesso all’istruzione della vita di qualcuno o quelli che vengono impiegati dagli ospedali tipo le applicazioni di IA in chirurgia robotizzata. Rientrano anche quelli usati dalle infrastrutture critiche, come i trasporti che potrebbero mettere a rischio la vita e la salute dei cittadini o quelli adoperati nella gestione delle migrazioni, ad esempio l’esame automatizzato delle domande di visto, o nella giustizia e nei processi democratici, come le soluzioni di IA per la ricerca di sentenze giudiziarie. Per tali sistemi, dunque, è obbligatorio valutare e ridurre i rischi, mantenere registri d’uso e adeguate misure di sorveglianza umana per ridurre al minimo il rischio.
  • Sistemi IA per finalità generali e a rischio minimo: un esempio è la popolare CHATGPT – il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane. A tali sistemi, la nuova legge impone maggiori obblighi di trasparenza, compreso il rispetto delle norme UE sul diritto d’autore e la pubblicazione delle fonti utilizzate per generare i contenuti. Ad esempio, quando si utilizzano sistemi di IA come i chatbot, gli esseri umani dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina in modo da poter prendere una decisione informata. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. I modelli a rischio minimo, invece, includono, ad esempio, applicazioni come videogiochi abilitati per l’IA o filtri antispam.
  • I “deepfake”: immagina di vedere un video in cui il volto di una celebrità famosa viene sostituito con quello di un’altra persona in modo incredibilmente realistico. Questo è un esempio di deepfake, ovvero video in cui i dati biometrici di una persona vengono sovrapposti a quelli di un’altra. La nuova legge stabilisce che quest’ultimi dovranno essere chiaramente identificati come tali. Di conseguenza, non sarà più consentito creare contenuti alterati senza fornire un’esplicita informazione sulla loro manipolazione a chi li visualizza.
  • Autorità di controllo e reclami: ogni Paese dell’UE sarà tenuto ad istituire agenzie nazionali di supervisione e ad offrire alle piccole e medie imprese spazi di sperimentazione dedicati, in cui possano testare lo sviluppo di sistemi basati sull’AI prima di metterli sul mercato. La nuova legge prevede la possibilità per i cittadini-consumatori di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

La nuova legge entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile due anni dopo.

Hai trovato utili queste informazioni?
Aiutaci a condividerle

Facebook
X
LinkedIn
Email
My Agile Privacy
Per offrirti la migliore esperienza di navigazione e per scopi statistici, ECC-Net Italia utilizza tecnologie come i cookie. Cliccando su "Accetta" acconsenti all'utilizzo di tutti i cookie.
In alternativa, puoi cliccare su "Personalizza" per scegliere quali cookie accettare. Puoi modificare o revocare il tuo consenso in qualsiasi momento cliccando in fondo pagina su "Gestisci il consenso".