Le problematiche legali dell’intelligenza artificiale

Le problematiche legali dell’intelligenza artificiale

Il sistema normativo e giudiziario non riesce ad accompagnare l’evoluzione incessante dei sistemi di intelligenza artificiale.

La questione è semplice da sollevare e comprendere, ma di difficile risoluzione: il danno causato da una macchina diventata indipendente e autonoma grazie al deep learning (capacità di prendere decisioni fondata su esperienza e autoapprendimento) a chi va attribuito?

Innanzitutto va fatta chiarezza sulle responsabilità tirate in ballo dalla questione:

  • La responsabilità civile che include la normativa civilistica generale e la normativa sulla responsabilità del produttore;
  • La responsabilità penale che include la normativa penalistica generale;
  • La tutela della proprietà intellettuale ed industriale che comprende la legge sul diritto d’autore e il codice della proprietà industriale;
  • La tutela della privacy, ossia il GDPR ed eventuali provvedimenti settoriali.

Esistono solo tre direttive presenti all’interno del quadro giuridico comunitario che possono essere applicate ai sistemi di AI, con molta fantasia e poca efficacia:

  • Direttiva Macchine: disciplina i requisiti di salute e sicurezza imposti in sede di progettazione e costruzione delle macchine;
  • 01/95/CE: riguarda la sicurezza generale dei prodotti;
  • 94/44/CE: disciplina la vendita e le garanzie dei beni di consumo.

Chi risponde per condotte imprevedibili e/o inevitabili?

L’indipendenza e l’autonomia della macchina costituiscono circostanze idonee a interrompere il nesso causa (condotta del programmatore) - conseguenza (danni provocati dalle macchine).

Quindi chi si assume le responsabilità? Sono 4 i soggetti coinvolti:

  • L’autore del software o dell’algoritmo;
  • Il produttore della macchina che incorpora sistemi di AI;
  • Chi incorpora il sistema AI nella macchina;
  • L’utilizzatore della macchina con AI.

I modelli di attribuzione della responsabilità in Italia

Il parlamento italiano nel 2017 ha prospettato due possibili modelli di attribuzione delle responsabilità:

  • Responsabilità oggettiva del produttore (Strict liability): occorre una prova del danno causato e l’individuazione del nesso tra causa (funzionamento lesivo della macchina) ed effetto (danno subito);
  • Gestione dei rischi: l’attenzione si sposta dalla persona che ha agito con negligenza, alla persona che ha minimizzato i rischi ed è incapace di affrontare l’impatto negativo.

I suggerimenti del parlamento europeo

Secondo il parlamento europeo, sarebbe necessario valutare l’attuazione di alcuni provvedimenti:

  • L’istituzione di un regime assicurativo obbligatorio relativo a categorie particolari come i robot self-learning;
  • La costituzione di un apposito fondo per garantire al soggetto leso il risarcimento del danno;
  • L’immatricolazione individuale dei robot.
Iscriviti alla Newsletter di UTOPIA.

Iscriviti alla Newsletter per ricevere il Privacy Digest che include un riepilogo bisettimanale degli ultimi articoli del Blog e le ultime novità di UTOPIA.

Iscrizione avvenuta con successo!
Ops! Qualcosa è andato storto. Ricarica la pagina e riprova...

GDPR e intelligenza artificiale

Il General Data Protection Regulation contiene una serie di principi applicabili ai trattamenti svolti dall’intelligenza artificiale.

Principio di correttezza del trattamento

Secondo la lettera A dell’articolo 5 del GDPR i dati vanno trattati in modo lecito, corretto e trasparente.

Alcune attività dei sistemi di intelligenza artificiale come la profilazione possono avere effetti invasivi sugli individui.

Anche la trasparenza è messa a dura prova per via dell’elevata complessità che sta alla base del Machine Learning.

Principio di limitazione del trattamento

I dati sono raccolti per finalità determinate, esplicite e legittime: quindi è sufficiente effettuare una valutazione della compatibilità con le finalità e verificare la correttezza del trattamento.

Principio di minimizzazione del trattamento

Secondo la lettera C dell’articolo 5 del GDPR i dati devono essere adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati.

Le grandi potenzialità di raccolta e archiviazione dei sistemi evoluti di intelligenza artificiale potrebbero indurre a raccogliere più dati del necessario e conservarli senza scadenze temporali.

La convivenza tra etica e tecnologia

Il rispetto del GDPR, l’obbligatorietà di certificazioni di sicurezza, i codici di condotta e l’educazione dell’utente sono le uniche strade per districarsi in queste tematiche complesse.

Nell’evoluzione e nella diffusione dei sistemi di AI occorre affiancare all’aspetto lecito, anche l’aspetto etico.

I sistemi di intelligenza artificiale dovrebbero essere progettati e sviluppati per utilizzare i dati in maniera neutrale, senza pregiudizi e senza possibilità di errore.

 SCOPRI TUTTE LE NEWS SUL GDPR

Leggi il nostro blog

Unisciti ad altri appassionati di privacy e ricevi subito l’Infografica sull’Accountability documentale, oltre alle novità sul mondo dei dati personali direttamente nella tua e-mail. Una volta al mese, niente SPAM.

Grazie per esserti iscritto alla nostra newsletter.
Presto riceverai una mail con l'Infografica sull'Accountability documentale! 👈🏼
Ops! Qualcosa è anadato storto durante l'invio della richiesta.