Il nuovo Regolamento Europeo sull’intelligenza artificiale

Il nuovo Regolamento Europeo sull’intelligenza artificiale

E’ passata tanta acqua sotto i ponti e olio negli ingranaggi dalla nascita della parola “Robot”, derivato dal ceco robota (lavoro pesante) e ancor prima dall’antico slavo ecclesiastico rabota (servitù).

E’ cambiato completamente lo scenario, l’innovazione tecnologica ha fatto passi da gigante nella costante rincorsa all’uomo e l’evoluzione dei cosiddetti robot è stata inarrestabile, tant’è che l’opinione pubblica è divisa nel giudicare i robot dei validi aiutanti o una terribile minaccia.

La tesi di entrambe le fazioni assume potere con l’introduzione dell’Intelligenza Artificiale: in questa evoluzione anche la parola “robot” risulta anacronistica e come spesso accade, i confini si assottigliano e i dubbi aumentano.

Negli usi, costumi e abitudini di una società in continuo fermento è fondamentale che la giurisprudenza mantenga il passo dell’innovazione tecnologica.

Il nuovo regolamento europeo per l’Intelligenza Artificiale

Ad aprile 2021 la Commissione Europea ha proposto un Regolamento sull’intelligenza artificiale per garantire la sicurezza e i diritti fondamentali di persone e imprese.

Un colpo al cerchio e uno alla botte: la Commissione ponendo limiti, promette allo stesso tempo di rafforzare l’adozione dell’intelligenza artificiale attraverso ingenti investimenti.

L’obiettivo di questo aggiornamento è accrescere la fiducia degli utenti in questa rivoluzionaria innovazione.

Per ottenere questo risultato occorre che l’intelligenza artificiale sia antropocentrica, sicura, sostenibile, inclusiva e affidabile.

L’approccio sul rischio è la base del nuovo regolamento

Nella creazione del nuovo regolamento la commissione ha deciso di partire da un approccio basato sul rischio, identificando 4 tipologie di rischio:

  1. Rischio inaccettabile

Il rischio più alto è definito “inaccettabile”: in questo scenario l’intelligenza artificiale rappresenta una chiara minaccia per la sicurezza.

Nel rischio inaccettabile l’intelligenza artificiale manipola il comportamento umano per aggirare il libero arbitrio degli utenti.

Il regolamento in questa situazione di rischio vieta i mezzi di sussistenza e i diritti delle persone.

  1. Rischio alto

Viene giudicato rischio alto lo scenario in cui l’intelligenza artificiale viene utilizzata in:

  • Infrastrutture e situazioni critiche in cui potrebbe essere a rischio la vita o la salute dei cittadini;
  • Istruzione e formazione professionale in cui può determinare l’accesso o il percorso di una persona;
  • Servizi pubblici e privati essenziali;
  • Tutti gli scenari che possono interferire con i diritti fondamentali delle persone;
  • Ambito giuridico, nella sfera della giustizia e nei processi democratici;
  • Tutti i sistemi di identificazione biometrica remota.
  1. Rischio limitato

Viene giudicato di rischio limitato lo scenario in cui la trasparenza dei sistemi di intelligenza artificiale potrebbe venire meno.

Rappresentano un esempio emblematico i chatbot: gli utenti devono sempre essere consapevoli che l’interlocutore in realtà è una macchina e decidere di conseguenza se continuare l’interazione o meno.

  1. Rischio minimo

La gran parte dei sistemi di intelligenza artificiale rientra nella categoria ritenuta di rischio minimo in cui il regolamento non interviene.

In questo scenario la proposta legislativa non impone limiti all’utilizzo di applicazioni basati sull’IA.
Solamente in caso di violazione il rischio viene analizzato e valutato in maniera dettagliata.

Come si valuta la violazione

La violazione deve tenere conto del tipo, della natura e del volume dei dati, della facilità di identificazione delle persone fisiche, della gravità delle conseguenze, delle caratteristiche particolari dell’interessato e/o del titolare del trattamento oltre al numero di persone fisiche interessate.

Possiamo distinguere due tipologie di valutazione di valutazione:

  • Valutazione di violazione ipotetica: esaminando in termini generali le possibilità che si verifichi una violazione ai danni dell’interessato.
  • Valutazione di violazione effettiva: analizzando il rischio derivante dall’impatto della violazione sulle persone fisiche.
Iscriviti alla Newsletter di UTOPIA.

Iscriviti alla Newsletter per ricevere il Privacy Digest che include un riepilogo bisettimanale degli ultimi articoli del Blog e le ultime novità di UTOPIA.

Iscrizione avvenuta con successo!
Ops! Qualcosa è andato storto. Ricarica la pagina e riprova...
 SCOPRI TUTTE LE NEWS SUL GDPR

Rimani aggiornato sul mondo GDPR e ricevi l'infografica sull'accountability documentale

Scopri quali sono gli adempimenti documentali obbligatori e consigliati a fronte dell’entrata in vigore del nuovo regolamento europeo sulla protezione dei dati personali.

Crea il tuo account personale in meno di un minuto e scopri tutte le potenzialità di UTOPIA. Tutto incluso e senza alcuna limitazione, gratuitamente, per 14 giorni.

infographic
Iscrizione effettuata con successo!
Abbiamo inviato una email all'indirizzo che hai scelto con il link per scaricare l'infografica sull'accountability documentale. Assicurati che non sia andata a finire nello SPAM.
Ops! Si è verificato un errore. Ricarica la pagina e riprova...