{"id":8501,"date":"2024-03-19T12:40:55","date_gmt":"2024-03-19T11:40:55","guid":{"rendered":"https:\/\/ecc-netitalia.it\/?p=8501"},"modified":"2024-03-19T12:40:57","modified_gmt":"2024-03-19T11:40:57","slug":"intelligenza-artificiale-ia-il-parlamento-europeo-approva-la-prima-legge-al-mondo-che-ne-regola-luso","status":"publish","type":"post","link":"https:\/\/ecc-netitalia.it\/it\/news\/intelligenza-artificiale-ia-il-parlamento-europeo-approva-la-prima-legge-al-mondo-che-ne-regola-luso\/","title":{"rendered":"Intelligenza artificiale (IA): Il Parlamento europeo approva la prima legge al mondo che ne regola l\u2019uso"},"content":{"rendered":"\n<p>Il 13 marzo, il Parlamento europeo ha approvato la <strong>legge sull\u2019intelligenza artificiale (Artificial intelligence Act) <\/strong>con l\u2019obiettivo di tutelare i diritti fondamentali e la sicurezza dei cittadini europei, promuovendo l&#8217;innovazione e garantendo all&#8217;EU un ruolo guida nel settore. Si tratta di passo storico che rende l\u2019UE la prima istituzione a dotarsi di regole sull&#8217;uso dell&#8217;IA!<\/p>\n\n\n\n<p><strong>I passi dell\u2019UE verso l\u2019approvazione della legge sull\u2019intelligenza artificiale:<\/strong><\/p>\n\n\n\n<p>\u00c8 la prima volta che un\u2019istituzione approva un regolamento che disciplina con chiarezza l\u2019IA, stabilendo regole armonizzate per l\u2019immissione sul mercato, la messa in servizio, l\u2019uso dei sistemi di intelligenza artificiale. La legge appena approvata vieta alcune pratiche di IA e stabilisce precisi obblighi per gli operatori di sistemi di intelligenza artificiale, in base ai possibili rischi e al livello d\u2019impatto per gli utenti. \u00a0Un traguardo fondamentale considerato che l\u2019IA \u00e8 parte integrante delle nostre vite gi\u00e0 da tempo, influenzandone molteplici aspetti. Basti pensare alle applicazioni di riconoscimento facciale su smartphone e social media, alle applicazioni di e-commerce che utilizzano algoritmi di IA per personalizzare le esperienze di shopping online o ai sistemi di automazione domestica. L&#8217;uso dell&#8217;IA, infatti, pu\u00f2 fornire <strong>vantaggi <\/strong>competitivi fondamentali sia ai cittadini che alle imprese, e portare a risultati positivi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, gestione delle infrastrutture, mitigazione dei cambiamenti climatici e adattamento ad essi. Tuttavia, nel contempo, pu\u00f2 comportare <strong>rischi<\/strong> e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dalla <a href=\"https:\/\/ecc-netitalia.it\/it\/pubblicazioni\/pubblicazioni-e-commerce\/intelligenza-artificiale\/\" data-type=\"link\" data-id=\"https:\/\/ecc-netitalia.it\/it\/pubblicazioni\/pubblicazioni-e-commerce\/intelligenza-artificiale\/\">legislazione dell&#8217;UE<\/a>. \u00a0In considerazione dell&#8217;impatto significativo che l&#8217;IA pu\u00f2 avere sulla societ\u00e0 e della necessit\u00e0 di promuovere un approccio che pone l&#8217;essere umano al centro dello sviluppo e dell&#8217;utilizzo dell&#8217;IA, era necessario stabilire regole comuni per i sistemi di IA ad alto rischio che possono generare inaccettabili discriminazioni e pregiudizi. Pertanto, nell\u2019aprile del 2021, la Commissione Europea ha presentato la proposta di regolamento sull\u2019IA. Il 9 dicembre 2023, poi, \u00e8 stato raggiunto un accordo provvisorio tra Consiglio e Parlamento europeo in merito a tale proposta, tenendo anche conto delle raccomandazioni avanzate dai cittadini che hanno partecipato alla Conferenza sul futuro dell\u2019Europa (COFE), ossia una serie di discussioni guidate dai cittadini sulle priorit\u00e0 e sfide fondamentali che l\u2019UE deve affrontare.<\/p>\n\n\n\n<p><strong>La legge sull\u2019intelligenza artificiale in punti:<\/strong> <strong><\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Livelli di pericolosit\u00e0:<\/strong> il testo della legge prevede che i sistemi di IA vengano classificati in quattro gradi di rischio: rischio inaccettabile, elevato, limitato e &nbsp;minimo. A ogni sistema IA viene associato una lista di obblighi sulla base dei possibili rischi per gli utenti o per l&#8217;ambito nel quale tale sistema viene utilizzato.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sistemi IA a rischio inaccettabile:<\/strong> sono quelli che rappresentano una minaccia per la sicurezza e i diritti delle persone e saranno vietati. Ci si riferisce, ad esempio, a quelli utilizzati per scopi di manipolazione cognitivo-comportamentale dell\u2019utente, tipo alcuni giocattoli che utilizzano assistenti vocali per incoraggiare comportamenti pericolosi nei minori, ai sistemi a \u201cpunteggio sociale\u201d, ossia che assegnano un punteggio a ciascun individuo in base al suo comportamento, influenzando in questo modo l\u2019accesso ai servizi come il credito bancario o ad altre opportunit\u00e0. Rientrano, inoltre, anche quelli di categorizzazione biometrica basati su caratteristiche sensibili o quelli che prevedono l&#8217;estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, ovvero delle tecnologie che utilizzano l&#8217;analisi delle espressioni facciali e altri dati biometrici per determinare lo stato emotivo di un individuo. Ad esempio, nelle scuole, questi sistemi potrebbero essere utilizzati per monitorare l&#8217;attenzione degli studenti durante le lezioni, per valutare il loro coinvolgimento o per rilevare eventuali segni di disagio emotivo. Inoltre, le forze dell&#8217;ordine non potranno utilizzare strumenti di identificazione biometrica in tempo reale senza un&#8217;autorizzazione giudiziaria o amministrativa, tranne nei casi di estrema necessit\u00e0, come la ricerca di un individuo disperso o la prevenzione di attacchi terroristici.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sistemi IA ad alto rischio:<\/strong> saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell&#8217;UE. I sistemi IA ad alto rischio potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all&#8217;ambiente, alla democrazia. Si fa riferimento a quei sistemi che vengono utilizzati dalle scuole che, ad esempio, possono determinare l&#8217;accesso all\u2019istruzione della vita di qualcuno o quelli che vengono impiegati dagli ospedali tipo le applicazioni di IA in chirurgia robotizzata. Rientrano anche quelli usati dalle infrastrutture critiche, come i trasporti che potrebbero mettere a rischio la vita e la salute dei cittadini o quelli adoperati nella gestione delle migrazioni, ad esempio l\u2019esame automatizzato delle domande di visto, o nella giustizia e nei processi democratici, come le soluzioni di IA per la ricerca di sentenze giudiziarie. Per tali sistemi, dunque, \u00e8 obbligatorio valutare e ridurre i rischi, mantenere registri d&#8217;uso e adeguate misure di sorveglianza umana per ridurre al minimo il rischio.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sistemi IA per finalit\u00e0 generali e a rischio minimo:<\/strong> un esempio \u00e8 la popolare CHATGPT \u2013 il pi\u00f9 noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane. A tali sistemi, la nuova legge impone maggiori obblighi di trasparenza, compreso il rispetto delle norme UE sul diritto d&#8217;autore e la pubblicazione delle fonti utilizzate per generare i contenuti. Ad esempio, quando si utilizzano sistemi di IA come i chatbot, gli esseri umani dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina in modo da poter prendere una decisione informata. I modelli pi\u00f9 potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. I modelli a rischio minimo, invece, includono, ad esempio, applicazioni come videogiochi abilitati per l&#8217;IA o filtri antispam.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>I &#8220;deepfake&#8221;:<\/strong> immagina di vedere un video in cui il volto di una celebrit\u00e0 famosa viene sostituito con quello di un&#8217;altra persona in modo incredibilmente realistico. Questo \u00e8 un esempio di deepfake, ovvero video in cui i dati biometrici di una persona vengono sovrapposti a quelli di un&#8217;altra. La nuova legge stabilisce che quest\u2019ultimi dovranno essere chiaramente identificati come tali. Di conseguenza, non sar\u00e0 pi\u00f9 consentito creare contenuti alterati senza fornire un&#8217;esplicita informazione sulla loro manipolazione a chi li visualizza.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Autorit\u00e0 di controllo e reclami:<\/strong> ogni Paese dell&#8217;UE sar\u00e0 tenuto ad istituire agenzie nazionali di supervisione e ad offrire alle piccole e medie imprese spazi di sperimentazione dedicati, in cui possano testare lo sviluppo di sistemi basati sull&#8217;AI prima di metterli sul mercato. La nuova legge prevede la possibilit\u00e0 per i cittadini-consumatori di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.<\/li>\n<\/ul>\n\n\n\n<p>La nuova legge entrer\u00e0 in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale e sar\u00e0 pienamente applicabile due anni dopo.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il 13 marzo, il Parlamento europeo ha approvato la legge sull\u2019intelligenza artificiale (Artificial intelligence Act) con l\u2019obiettivo di tutelare i diritti fondamentali e la sicurezza dei cittadini europei, promuovendo l&#8217;innovazione e garantendo all&#8217;EU un ruolo guida nel settore. Si tratta di passo storico che rende l\u2019UE la prima istituzione a dotarsi di regole sull&#8217;uso dell&#8217;IA! [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":8502,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[17],"tags":[317,316],"class_list":["post-8501","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-ia","tag-intelligenza-artificiale"],"_links":{"self":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8501","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/comments?post=8501"}],"version-history":[{"count":1,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8501\/revisions"}],"predecessor-version":[{"id":8504,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/posts\/8501\/revisions\/8504"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/media\/8502"}],"wp:attachment":[{"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/media?parent=8501"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/categories?post=8501"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ecc-netitalia.it\/it\/wp-json\/wp\/v2\/tags?post=8501"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}