Intelligenza artificiale e GDPR: i 5 problemi principali

Intelligenza artificiale e GDPR: i 5 problemi principali

Difficile capire se il rischio che stiamo correndo con l’Intelligenza artificiale sia simile a quello imposto in antichità agli ingegneri romani, che in quanto garanti di buon lavoro, il giorno dell’inaugurazione stavano sotto i ponti progettati.

Sicuramente non può mettere di buon umore la recente pubblicazione di Nature Machine Intelligence che ha rivelato come l’AI possa sviluppare in appena sei ore 40.000 molecole potenzialmente letali per gli esseri umani.

AI e privacy: un rapporto delicato per 5 motivi

L’intelligenza artificiale è la simulazione dei processi di intelligenza umana da parte delle macchine, in particolare dei sistemi informatici.

L’AI permette alle macchine di apprendere dall’esperienza acquisita, di adattarsi alle nuove informazioni che ricevono e di compiere operazioni simili a quelle che l’essere umano svolge.

Per questo motivo il protagonista involontario di questa tecnologia è la privacy: affidando ai dispositivi tecnologici i nostri dati personali, questi possono utilizzarli nella maniera che ritengono più utile.

Sono 5 i principali temi irrisolti che complicano il rapporto tra GDPR e intelligenza artificiale:

La chiarezza dei ruoli nella privacy

In un trattamento i soggetti coinvolti sono 3: il proprietario, chi riceve il consenso e le terze parti interessate ai dati.

L’intelligenza artificiale in questo caso è il quarto incomodo non previsto dal regolamento, l’unico soggetto in cui diritti e doveri non sono esplicitati.

Il GDPR prevede che il titolare o responsabili garantisca il rispetto del regolamento. Nel caso di uso di AI chi ricopre questo ruolo?

Un quesito che ha diviso l’opinione pubblica: chi vorrebbe rendere l’AI una persona giuridica e quindi responsabile e chi invece sostiene che il responsabile diventi automaticamente l’interessato in quanto proprietario dei dati.

Le finalità del trattamento dei dati

Nell’evoluzione, nella crescita e nell’adattamento dell’Intelligenza artificiale, le finalità del trattamento definite in maniera limitata e predeterminata potrebbero venire meno.

Modificando il proprio comportamento in base al contesto l’AI potrebbe trattare i dati raccolti per scopi differenti da quelli stabiliti a priori, venendo meno a un principio fondamentale del GDPR che impone la comunicazione ai soggetti coinvolti

Il controllo del processo automatizzato

Il soggetto interessato non può subire decisioni basate unicamente sul trattamento automatizzato: lo sostiene l’articolo 22 del GDPR.

Eppure lo studio The impact of the General Data Protection Regulation (GDPR) on artificial intelligence la maggior parte delle decisioni prese dai sistemi di intelligenza artificiale sono basate solamente sul trattamento automatizzato.

Il controllo così come l’intervento diventano molto complicati per l’assenza di informazioni da parte dei soggetti coinvolti, garantendo eccessivo potere, imprevedibilità e pericolosità nel trattamento dei dati sensibili.

La comunicazione tra i soggetti

Anche in questo caso uno dei principali vantaggi dell’intelligenza artificiale (la deduzione) diventa un limite se rapportato al GDPR.

L’articolo 13 del Nuovo Regolamento prevede la comunicazione del titolare al soggetto interessato che decide quali dati personali condividere e in che modo.

L’AI è in grado di dedurre molte più informazioni di quelle volontariamente e direttamente condivise dai soggetti coinvolti, non sempre utili al trattamento.

La necessarietà del dato raccolto

Il gancio perfetto per un altro possibile ostacolo che porta il numero 6 dell’articolo GDPR e recita: “oltre alle finalità definite nell’informativa, il trattamento dei dati può avvenire nel caso in cui sia strettamente necessario”.

Difficile (e irreale) delegare tale valutazione al giudizio dei dispositivi dotati di intelligenza artificiale.

Secondo le persone GDPR e AI possono convivere?

I consumatori temono gli usi che possono essere fatti delle loro informazioni grazie all'intelligenza artificiale e gli abusi hanno eroso la loro fiducia: questo è quanto emerge dal Cisco 2021 Consumer Privacy Survey.

Le risposte di 2600 adulti di 12 Paesi diversi hanno evidenziato il desiderio di conoscere le informazioni raccolte, le finalità e le modalità di elaborazione.

L’Intelligenza artificiale non è l’ancora di salvezza, anzi, probabilmente viene interpretata come la zavorra in grado di far affondare anche gli ultimi spiragli di fiducia: il 56% degli intervistati ha espresso preoccupazione sull’utilizzo delle informazioni personali che vengono raccolte e gestite da sistemi basati sull’intelligenza artificiale. 

L’IA è uno strumento che, dato un input, restituisce un output - fa notare Negroni, country leader della cybersecurity per Cisco Italia a Italian Tech - una tecnologia che permette di analizzare informazioni in modo più veloce di quanto farebbe l’uomo e che per il consumatore potrebbe risultare invasiva”.

Iscriviti alla Newsletter di UTOPIA.

Iscriviti alla Newsletter per ricevere il Privacy Digest che include un riepilogo bisettimanale degli ultimi articoli del Blog e le ultime novità di UTOPIA.

Iscrizione avvenuta con successo!
Ops! Qualcosa è andato storto. Ricarica la pagina e riprova...
 SCOPRI TUTTE LE NEWS SUL GDPR

Rimani aggiornato sul mondo GDPR e ricevi l'infografica sull'accountability documentale

Scopri quali sono gli adempimenti documentali obbligatori e consigliati a fronte dell’entrata in vigore del nuovo regolamento europeo sulla protezione dei dati personali.

Crea il tuo account personale in meno di un minuto e scopri tutte le potenzialità di UTOPIA. Tutto incluso e senza alcuna limitazione, gratuitamente, per 14 giorni.

infographic
Iscrizione effettuata con successo!
Abbiamo inviato una email all'indirizzo che hai scelto con il link per scaricare l'infografica sull'accountability documentale. Assicurati che non sia andata a finire nello SPAM.
Ops! Si è verificato un errore. Ricarica la pagina e riprova...