Legge sull'intelligenza artificiale

Da Teknopedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Legge sull'intelligenza artificiale
Titolo estesoRegolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828
StatoUnione europea (bandiera) Unione europea
Tipo leggeRegolamento
LegislaturaIX
ProponenteCommissione europea
Testo
Testo definitivo:

eur-lex.europa.eu, https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689.

La legge sull'intelligenza artificiale[1][2] (legge sull'IA)[3] è un regolamento dell'Unione europea in materia di Intelligenza artificiale che mira ad introdurre un quadro normativo e giuridico comune.[4] L'ambito di applicazione abbraccia tutti i settori, ad eccezione di quello militare, e tutti i tipi di intelligenza artificiale.

Proposto dalla Commissione europea il 21 aprile 2021[5], ha ricevuto il voto positivo del Parlamento europeo il 13 marzo 2024[6] e l'approvazione da parte del Consiglio dell'Unione europea il 21 maggio 2024.[7]. Grazie a ciò l'Unione europea è diventata la prima istituzione al mondo a regolamentare lo sviluppo e l'utilizzo dell'intelligenza artificiale. Esiste però quello che viene definito come "Grace Period", ovvero un periodo di circa 2 anni in cui viene dato tempo alle aziende di costruire i complessi processi di valutazione e legali, e adattarsi alle nuove regole.

Essendo un atto di regolamentazione dei prodotti, non conferisce diritti agli individui, ma regola i fornitori di sistemi di intelligenza artificiale e le entità che ne fanno uso a titolo professionale.

Obiettivi del regolamento

[modifica | modifica wikitesto]

La proposta di legge dell'Unione Europea sull'intelligenza artificiale mira a classificare e regolamentare le applicazioni dell'intelligenza artificiale in base al rischio di causare danni ai cittadini. Questa classificazione rientra principalmente in tre categorie: pratiche vietate, sistemi ad alto rischio e altri sistemi.[8]

Le pratiche vietate sono quelle che impiegano l'intelligenza artificiale per provocare manipolazioni subliminali o sfruttare le vulnerabilità delle persone che possono provocare danni fisici o psicologici, per fare un uso indiscriminato dell'identificazione biometrica remota in tempo reale negli spazi pubblici ad opera delle forze dell'ordine o per utilizzare "punteggi sociali" derivati dall'intelligenza artificiale da parte delle autorità per colpire ingiustamente individui o gruppi.[9] Il regolamento vieterebbe completamente questi ultimi, mentre per i primi tre viene proposto un regime di autorizzazione.[10]

I sistemi ad alto rischio, secondo il regolamento proposto, sono quelli che pongono minacce significative alla salute, alla sicurezza o ai diritti fondamentali delle persone. Richiedono una valutazione di conformità obbligatoria, intrapresa come autovalutazione da parte del fornitore, prima di essere immessi sul mercato. Applicazioni particolarmente critiche, come quelle per i dispositivi medici, richiedono che l'autovalutazione del fornitore ai sensi del regolamento sull'intelligenza artificiale venga presa in considerazione dall'organismo notificato che conduce la valutazione ai sensi delle normative dell'Unione Europea esistenti, come il regolamento sui dispositivi medici.[11]

I sistemi di intelligenza artificiale al di fuori delle categorie di cui sopra non sono soggetti ad alcuna regolamentazione, e agli Stati membri è in gran parte impedito di regolamentarli ulteriormente attraverso la massima armonizzazione. Le leggi nazionali esistenti relative alla progettazione o all'uso di tali sistemi non vengono applicate. È tuttavia previsto, anche se non a priori, un codice di condotta volontario per tali sistemi.[8]

La legge propone inoltre l'introduzione di un Comitato Europeo per l'Intelligenza Artificiale per promuovere la cooperazione internazionale e garantire il rispetto del regolamento.[12]

Rilevanza internazionale

[modifica | modifica wikitesto]
L'associazione EKO interviene a favore dell'inserimento dell'intelligenza artificiale generativa all'interno del regolamento.[13]

Come il regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea, la legge sull'IA potrebbe stabilire uno standard globale.[14] Sta già avendo un impatto extraeuropeo: nel settembre 2021, il Congresso nazionale del Brasile ha approvato un disegno di legge che crea un quadro giuridico per l'intelligenza artificiale.[15] Il Consiglio europeo ha adottato il suo orientamento generale sulla legge sull'IA il 6 dicembre 2022.[16] La Germania sostiene la posizione del Consiglio ma vede ancora la necessità di ulteriori miglioramenti, come formulato in una dichiarazione di accompagnamento dello Stato membro.[17] Tra le misure che probabilmente verranno proposte sarà qulla per cui gli sviluppatori di intelligenza artificiale per prodotti legati all'informazione, come ChatGPT di OpenAI, dichiarino se materiale protetto da copyright è stato utilizzato per addestrare la loro tecnologia.[18]

Il regolamento controlla l'entrata dell'intelligenza artificiale nel mercato europeo comune. In questo senso utilizza il Nuovo Quadro Legislativo, che può essere fatto risalire al Nuovo Approccio che risale al 1985. Il funzionamento è il seguente: il legislatore dell'Unione europea crea la legge sull'intelligenza artificiale, questa legge contiene le disposizioni più importanti che tutti i sistemi di intelligenza artificiale che desiderano accedere al mercato interno dell'UE dovranno rispettare. Questi requisiti sono chiamati “requisiti essenziali”. Nell'ambito del nuovo quadro legislativo, questi requisiti essenziali vengono trasmessi agli organismi europei di standardizzazione che elaborano norme tecniche che specificano ulteriormente i requisiti essenziali.[19]

La legge impone agli Stati membri di istituire propri organismi di notifica. Per verificare se i sistemi di intelligenza artificiale sono effettivamente conformi alle norme stabilite nella legge sull'AI, viene effettuata una valutazione della conformità.[20] Questa valutazione della conformità viene effettuata mediante autovalutazione, il che significa che il fornitore del sistema di intelligenza artificiale verifica personalmente la conformità, oppure tramite una valutazione della conformità da parte di terzi, il che significa che l'organismo notificante effettuerà la valutazione.[21] Gli organismi notificanti mantengono la possibilità di effettuare audit per verificare se la valutazione della conformità viene effettuata correttamente.[22]

Secondo l'attuale proposta è evidente che molti sistemi di intelligenza artificiale ad alto rischio non richiedano la valutazione della conformità da parte di terzi, cosa criticata da alcuni soggetti.[22][23][24][25] Queste critiche si basano sul fatto che i sistemi di intelligenza artificiale ad alto rischio dovrebbero essere valutati da una terza parte indipendente per garantirne pienamente la sicurezza del sistema.

I quattro livelli

[modifica | modifica wikitesto]

La legge sull'IA[26] definisce quattro livelli di rischio per classificare le applicazioni di intelligenza artificiale[27], che saranno quindi soggette a diversi livelli di controllo. I quattro livelli di categorizzazione sono i seguenti:

  • Rischio inaccettabile
  • Rischio alto
  • Rischio limitato
  • Rischio minimo

Cerchiamo però di capire che cosa si intende.

Il rischio inaccettabile vieta severamente tutte le applicazioni di intelligenza artificiale che utilizzano tecniche subliminali o sistemi di punteggio utilizzati da autorità pubbliche. Altre applicazioni che rientrano in questo livello sono quelle con carattere discriminatorio e intrusivo negli spazi pubblici, come ad esempio tutti i sistemi biometrici per il riconoscimento di una persona.

Il rischio alto comprende applicazioni legate ai trasporti, istruzione, impiego e altri ancora. Prima di poter vendere una AI categorizzata tra quelle ad alto rischio, le aziende devono condurre uno studio per una "valutazione di conformità" e inoltre devono soddisfare una lista di requisiti per poter certificare in modo certo la sicurezza delle applicazioni. Per agevolare questo controllo e poter assicurare maggiori garanzie, la Commissione europea dovrà creare e mantenere un database con accesso pubblico di tutte le applicazioni di AI ad alto rischio garantendo trasparenza al pubblico di tutte le parti del codice.

Per poter far rientrare la proprio applicazione AI all'interno del rischio limitato, esse devono soddisfare specifici obblighi di trasparenza. Una persona che interagisce con una AI, come ad esempio un chatbot, deve essere informata in modo chiaro che sta comunicando con un'intelligenza artificiale e non con un essere umano, in modo da essere perfettamente a conoscenza che tutte le informazioni che gli verranno fornite sono frutto di un algoritmo.

Le applicazioni a rischio minimo sono attualmente quelle maggiormente utilizzate dal pubblico. Molto spesso sono applicazioni meno complesse come ad esempio un semplice filtro antispam.

Un ultimo punto fondamentale che viene stabilito dall'AI act dice che la principale responsabilità della violazione di questo atto sarà attribuita ai fornitori dei sistemi di AI, ma non esclude anche responsabilità minori a: distributori, importatori, utenti e terze parti. Questo dimostra che in un sistema così complesso trovare un unico responsabile diventa sempre più difficile e bisogna andare a cercare responsabilità in un ecosistema sempre più dinamico.

Struttura Istituzionale e Ruoli

[modifica | modifica wikitesto]

L'Atto sull'Intelligenza Artificiale prevede la creazione di diverse nuove istituzioni per garantire una efficace implementazione e applicazione della normativa. Tra queste, l'Ufficio per l'IA, un'autorità centrale collegata alla Commissione Europea, avrà il compito di coordinare l'attuazione dell'Atto in tutti gli Stati membri e di monitorare la conformità dei fornitori di IA di uso generale. Il Consiglio Europeo per l'Intelligenza Artificiale, composto da un rappresentante per ogni Stato membro, assisterà e consiglierà la Commissione e gli Stati membri per facilitare un'applicazione coerente ed efficace dell'Atto.

Un altro organismo chiave è il Forum Consultivo, che fornirà competenze tecniche e consigli al Consiglio e alla Commissione, rappresentando una selezione bilanciata di stakeholder, inclusi industria, start-up, PMI, società civile e mondo accademico. Infine, il Panel Scientifico di Esperti Indipendenti offrirà consulenze tecniche e input all'Ufficio per l'IA e alle autorità nazionali, garantendo che le regole e le implementazioni dell'Atto siano allineate con le ultime scoperte scientifiche.

Queste istituzioni opereranno sia a livello centrale che decentralizzato, coinvolgendo attori pubblici e privati per un'efficace gestione dell'intelligenza artificiale. Inoltre, gli Stati membri dovranno designare autorità competenti nazionali responsabili della sorveglianza del mercato e della verifica della conformità dei sistemi di IA alle normative, compresa la nomina di terze parti per eseguire valutazioni di conformità esterne.

  1. ^ Titolo esteso "Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828".
  2. ^ Il Parlamento europeo approva la legge sull'intelligenza artificiale, su Parlamento europeo, 13 marzo 2024. URL consultato il 24 maggio 2024.
  3. ^ Legge sull'IA | Plasmare il futuro digitale dell'Europa, su digital-strategy.ec.europa.eu, 23 aprile 2024. URL consultato il 24 maggio 2024.
  4. ^ (EN) digital-strategy.ec.europa.eu, https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence. URL consultato il 9 gennaio 2023.
  5. ^ eur-lex.europa.eu, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206. URL consultato il 7 settembre 2021.
  6. ^ Shiona McCallum, Liv McMahon & Tom Singleton, MEPs approve world's first comprehensive AI law, BBC news, 13 marzo 2024.
  7. ^ (EN) Comunicato stampa approvazione AI Act, su consilium.europa.eu. URL consultato il 24 maggio 2024.
  8. ^ a b Michael Veale, Demystifying the Draft EU Artificial Intelligence Act, in Computer Law Review International, vol. 22, n. 4, 2021, DOI:10.31235/osf.io/38p5f.
  9. ^ mhc.ie, https://www.mhc.ie/hubs/legislation/the-eu-artificial-intelligence-act. URL consultato il 29 novembre 2023.
  10. ^ (EN) Center for Data Innovation, https://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/. URL consultato il 14 novembre 2021.
  11. ^ mhc.ie, https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-high-risk-ai-systems. URL consultato il 29 novembre 2023.
  12. ^ (EN) Brookings, https://www.brookings.edu/blog/techtank/2021/05/04/machines-learn-that-brussels-writes-the-rules-the-eus-new-ai-regulation/. URL consultato il 7 settembre 2021.
  13. ^ (EN) MEPs: back a strong AI Act!, su Ekō. URL consultato il 3 dicembre 2023.
  14. ^ (EN) The Artificial Intelligence Act, https://artificialintelligenceact.eu/. URL consultato il 17 febbraio 2022.
  15. ^ (PT) Portal da Câmara dos Deputados, https://www.camara.leg.br/noticias/811702-camara-aprova-projeto-que-regulamenta-uso-da-inteligencia-artificial/. URL consultato il 17 febbraio 2022.
  16. ^ (EN) consilium.europa.eu, https://www.consilium.europa.eu/en/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/. URL consultato il 9 gennaio 2023.
  17. ^ data.consilium.europa.eu, https://data.consilium.europa.eu/doc/document/ST-14954-2022-ADD-1/en/pdf. URL consultato il 9 gennaio 2023.
  18. ^ https://www.ft.com/content/addb5a77-9ad0-4fea-8ffb-8e2ae250a95a.
  19. ^ Alessio Tartaro, Regulating by standards: current progress and main challenges in the standardisation of Artificial Intelligence in support of the AI Act., in European Journal of Privacy Law and Technologies, vol. 1, n. 1, 2023.
  20. ^ (EN) eur-lex.europa.eu, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021SC0084. URL consultato il 17 aprile 2023.
  21. ^ (EN) Michael Veale e Frederik Zuiderveen Borgesius, Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach, in Computer Law Review International, vol. 22, n. 4, 1º agosto 2021, pp. 97–112, DOI:10.9785/cri-2021-220402, ISSN 2194-4164 (WC · ACNP), arXiv:2107.03721. URL consultato il 17 aprile 2023 (archiviato dall'url originale il 26 marzo 2023).
  22. ^ a b (EN) Federica Casarosa, Cybersecurity certification of Artificial Intelligence: a missed opportunity to coordinate between the Artificial Intelligence Act and the Cybersecurity Act, in International Cybersecurity Law Review, vol. 3, n. 1, 1º giugno 2022, pp. 115–130, DOI:10.1365/s43439-021-00043-6, ISSN 2662-9739 (WC · ACNP).
  23. ^ (EN) Nathalie A. Smuha, Emma Ahmed-Rengers e Adam Harkens, How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission's Proposal for an Artificial Intelligence Act, 5 agosto 2021, DOI:10.2139/ssrn.3899991.
  24. ^ (EN) Marco Almada e Nicolas Petit, The EU AI Act: Between Product Safety and Fundamental Rights, 20 dicembre 2022.
  25. ^ (EN) Martin Ebers, Veronica R. S. Hoch e Frank Rosenkranz, The European Commission's Proposal for an Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society (RAILS), in J, vol. 4, n. 4, dicembre 2021, pp. 589–603, DOI:10.3390/j4040043, ISSN 2571-8800 (WC · ACNP).
  26. ^ Il Parlamento europeo approva la legge sull'AI https://www.europarl.europa.eu/news/it/press-room/20240308IPR19015/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale
  27. ^ intesa: Europa e AI Act https://www.intesa.it/eu-ai-act-cose-e-cosa-prevede/#:~:text=Sono%20strettamente%20vietate%20le%20applicazioni,ordine%20in%20spazi%20pubblicamente%20accessibili.

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]
Controllo di autoritàVIAF (EN2610162481008037680004
  Portale Diritto: accedi alle voci di Teknopedia che trattano di diritto