Please enable JavaScript.
Coggle requires JavaScript to display documents.
lez 9 - Coggle Diagram
lez 9
Regolamento Europeo sull'Intelligenza Artificiale (IA)
l Regolamento Europeo sull'Intelligenza Artificiale rappresenta un tentativo innovativo di
bilanciare due esigenze fondamentali:
Promuovere l’innovazione tecnologica e lo sviluppo di sistemi di IA nel mercato unico
europeo
Salvaguardare i diritti fondamentali e la sicurezza degli individui, minimizzando i rischi
associati all’uso di queste tecnologie.
si sviluppa su principi di proporzionalità e gestione del rischio, proponendo una classificazione dei sistemi di IA basata sulla loro pericolosità e introducendo requisiti specifici per ciascuna categoria
Obiettivi Principali del Regolamento
Definire criteri di conformità per garantire che i sistemi di IA rispettino i valori europei,
come la protezione dei diritti umani e la trasparenza.
Assicurare un mercato uniforme all’interno dell’UE, riducendo le incertezze normative e
favorendo gli investimenti.
Creare un sistema di governance efficace per monitorare e regolare i rischi associati ai
sistemi di IA.
Il regolamento si applica a:
Tutti i sistemi di IA commercializzati o utilizzati nell'Unione Europea,
indipendentemente dalla loro origine geografica.
Soggetti pubblici e privati, inclusi i produttori, i distributori, i fornitori e gli utenti.
Classificazione dei Sistemi di IA
Il regolamento distingue tra tre categorie di rischio
Rischio inaccettabile:
Sistemi vietati che includono
Tecniche subliminali per manipolare il comportamento degli individui senza il loro consenso
Sistemi di punteggio sociale utilizzati dalle autorità pubbliche.
Sorveglianza biometrica remota in tempo reale in spazi pubblici, salvo eccezioni legate alla sicurezza pubblica.
Rischio elevato:
◦ Include sistemi utilizzati in contesti critici come:
Settori sanitari e giudiziari.
Reclutamento e accesso all’istruzione.
Questi sistemi sono soggetti a obblighi stringenti, come la valutazione del rischio e
la documentazione tecnica dettagliata.
Rischio basso o minimo:
Richiedono semplicemente obblighi di trasparenza per garantire che gli utenti siano
informati sull’uso della IA.
Requisiti per i Sistemi ad Alto Rischio
devono rispettare i seguenti obblighi:
Gestione del Rischio
I produttori devono:
Identificare e valutare i rischi potenziali associati all’uso del sistema.
◦ Implementare misure per mitigare tali rischi.
◦ Monitorare costantemente le prestazioni del sistema dopo l'immissione sul mercato.
Qualità dei Dati
I dati utilizzati devono essere:
Accurati, completi e privi di distorsioni.
Adeguati agli obiettivi specifici del sistema.
◦ Verificati per garantire che rappresentino correttamente la realtà.
Documentazione Tecnica
Ogni sistema deve essere accompagnato da una documentazione dettagliata che
Dimostri la conformità del sistema ai requisiti normativi.
◦ Fornisca alle autorità competenti tutte le informazioni necessarie per il controllo.
Trasparenza
Gli utenti devono essere informati in modo chiaro e comprensibile:
Del funzionamento del sistema.
◦ Dei dati utilizzati e dei risultati prodotti.
Supervisione Umana
Deve essere garantita una sorveglianza efficace per prevenire decisioni dannose.
Gli operatori devono avere il controllo finale sulle decisioni del sistema di IA.
Sorveglianza e Conformità
Controllo Preventivo
Prima dell’immissione sul mercato, i sistemi devono essere sottoposti a una valutazione di
conformità da parte di organismi indipendenti.
Gli Stati membri possono derogare a questo obbligo solo in situazioni eccezionali, come
emergenze sanitarie o di sicurezza.
Monitoraggio Continuo
I fornitori sono tenuti a:
Segnalare eventuali incidenti o malfunzionamenti.
◦ Aggiornare costantemente la documentazione tecnica.
◦ Garantire la conformità per l’intero ciclo di vita del sistema.
Sanzioni
Le autorità competenti possono imporre sanzioni proporzionate alla gravità della violazione,
500.000 euro per violazioni gravi da parte di istituzioni pubbliche.
◦ Percentuali del fatturato annuo per le aziende.