• Privacy - Tecnologie dell'informazione e della comunicazione (ICT)

2 novembre 2018

Etica e protezione dei dati nei sistemi di Intelligenza Artificiale

di Maria Alessandra Monanni

Nella settimana dal 22 al 26 ottobre 2018 si è svolta a Bruxelles la 40° Conferenza Internazionale delle Autorità di Protezione della Privacy sul tema dell'etica digitale. Erano presenti esperti in materia di tutela della privacy, tutela dei consumatori, antitrust, etica dei dati, al fine di stabilire un nuovo approccio normativo (conciliazione sviluppo tecnologico e rispetto della privacy) che potesse rispondere alle nuove esigenze nate dalle innovative tecnologie, quali l'Intelligenza Artificiale, la Robotica, i Big data.

Alla Conferenza hanno partecipato, tra gli altri, il Garante Europeo della Protezione dei Dati, Giovanni Buttarelli, il quale ha affermato che "alla luce delle nuove sfide che riguardano l'Intelligenza Artificiale è necessario un approfondimento per preparare la società del futuro. La conferenza ha l'obiettivo di individuare principi etici volti a orientare al meglio lo sviluppo delle nuove tecnologie per comprendere ciò che è tecnicamente possibile da ciò che è eticamente sostenibile […], ciò richiede un forte cambiamento culturale della società".

I lavori della Conferenza hanno condotto alla pubblicazione il 23 ottobre 2018 della Dichiarazione sull'etica e la protezione dei dati nell'Intelligenza Artificiale (IA) - alla cui stesura ha partecipato anche lo stesso Buttarelli - in cui sono stati espressi importanti principi guida che tenessero conto dello sviluppo e utilizzo dei sistemi di Intelligenza Artificiale, in funzione del rispetto delle libertà fondamentali e diritti umani. In particolare, il diritto alla protezione dei dati personali e alla vita privata, alla dignità, alla non discriminazione, al fine di permettere alle persone di poter comprendere e tenere sotto controllo i sistemi di IA. Aspetti a cui occorre ricollegare il fatto che l'IA nel suo complesso e nel caratteristico "apprendimento automatico" (machine learning), fa sì che sia possibile elaborare un elevato numeri di dati personali, a rischio però di una loro violazione. Occorre pertanto, in conformità ai principi etici, attuare un'adeguata protezione degli stessi e comprensione di chi possa essere responsabile in caso di errori o danni.

Quindi la 40° Conferenza approva i seguenti principi guida, come valori fondamentali per preservare i diritti umani nello sviluppo dell'Intelligenza Artificiale.

  1. L'Intelligenza Artificiale e il machine learning dovrebbero essere progettate, sviluppate e utilizzate nel rispetto dei diritti umani fondamentali e in conformità con il principio di equità, tenendo in debito conto:
  1. di quello che si aspettano ragionevolmente le persone "facendo sì che l'uso dei sistemi di Intelligenza Artificiale rimanga coerente con i loro scopi originali e che i dati siano utilizzati in modo non incompatibile con lo scopo originale della loro raccolta";
  2. dell'impatto che l'IA può avere sull'individuo, oltre che sulla collettività e la società in generale;
  3. di garantire che "sistemi di Intelligenza Artificiale siano sviluppati in modo tale da facilitare lo sviluppo dell'umanità e non la impediscano o compromettano, riconoscendo così la necessità di delineare e limitare i confini su determinati usi".

  1. È necessario garantire "un'attenzione e vigilanza continue", oltreché la "responsabilità per i potenziali effetti e le conseguenze dei sistemi di Intelligenza Artificiale", favorendo:
  1. "la responsabilità di tutte le parti interessate nei confronti dei singoli, delle autorità di vigilanza e di altre parti terze, ove opportuno, anche attraverso la realizzazione di audit, monitoraggio continuo e valutazione dell'impatto dei sistemi di Intelligenza Artificiale e revisione periodica dei meccanismi di supervisione";
  2. "la responsabilità collettiva e congiunta, coinvolgendo l'intera catena di attori e soggetti interessati, ad esempio con lo sviluppo di standard collaborativi e la condivisione delle migliori pratiche";
  3. investimenti in "sensibilizzazione, istruzione, ricerca e formazione al fine di garantire un buon livello di informazione e comprensione dell'Intelligenza Artificiale e dei suoi potenziali effetti nella società";
  4. la disposizione di "processi di governance" che siano attestabili per tutti i soggetti interessati, "affidandosi ad esempio a terzi fidati o istituendo comitati etici indipendenti".

  1. La "trasparenza e l'intelligibilità dei sistemi di Intelligenza Artificiale dovrebbero essere migliorate, con l'obiettivo di un'efficace implementazione", attraverso:
  1. investimenti nella ricerca scientifica sia pubblica che privata "sull'Intelligenza Artificiale spiegabile";
  2. la promozione della "trasparenza, intelligibilità e raggiungibilità", attraverso, ad esempio, "lo sviluppo di modi di comunicazione innovativi, tenendo conto dei diversi livelli di trasparenza e informazione richiesti per ciascun pubblico pertinente";
  3. la promozione della "trasparenza algoritmica e la verificabilità dei sistemi, garantendo al tempo stesso la rilevanza delle informazioni fornite", proprio in funzione, in generale, della trasparenza delle pratiche delle organizzazioni;
  4. la garanzia al "diritto all'autodeterminazione informativa, in particolare assicurando che le persone siano informate in modo appropriato quando interagiscono direttamente con un sistema di Intelligenza Artificiale, o quando forniscono dati personali che devono essere elaborati da tali sistemi";
  5. un'adeguata informazione "sullo scopo e sugli effetti dei sistemi di Intelligenza Artificiale al fine di verificare l'allineamento continuo con le aspettative degli individui e consentire il controllo umano generale su tali sistemi".

  1. I sistemi di IA nell'ambito di un generale orientamento di "etica della progettazione", dovrebbero essere progettati e sviluppati in maniera responsabile, in applicazione dei principi di "privacy by default" e "privacy by design". Essi costituiscono una delle essenziali novità del GDPR, disciplinati dall'art.25 del Regolamento Europeo n.679/2016, per i quali la protezione dei dati dovrebbe nascere sin dalla progettazione e il titolare del trattamento dovrebbe mettere in atto "misure tecniche e organizzative adeguate a garantire che siano trattati, per impostazione predefinita, solo i dati personali necessari per ogni specifica finalità del trattamento".

Il principio di "privacy by design" quindi ha lo scopo di valutare e prevenire i possibili rischi che possano verificarsi, con il proposito di risolvere eventuali problemi a partire dalla progettazione del sistema, ossia prima che si dia inizio al trattamento stesso dei dati. Inoltre, deve garantire un'impostazione predefinita della privacy in funzione di una maggiore sicurezza, visibilità e trasparenza nel rispetto dei diritti dell'utente. L'obiettivo del sistema dei dati personali è di garantire la "centralità dell'utente" affinché si assicuri una protezione sia formale che sostanziale, per cui il sistema sia progettato nei termini normativi a tutela dell'utente.

Il principio di "privacy by default" ("protezione per impostazione predefinita") prevede che le imprese trattino i dati personali solamente nella misura necessaria e sufficiente alle finalità e al periodo previsto.

Quindi in applicazione di questi principi, si intende:

  1. "attuare misure e procedure tecniche e organizzative - proporzionali al tipo di sistema sviluppato - per garantire il rispetto della vita privata e dei dati personali degli interessati, sia nel determinare le modalità del trattamento che al momento dell'elaborazione dei dati";
  2. "valutare e documentare gli impatti previsti sugli individui e sulla società all'inizio del progetto di Intelligenza Artificiale e per gli sviluppi rilevanti durante l'intero ciclo di vita";
  3. individuare "specifici requisiti per un uso etico e corretto dei sistemi di Intelligenza Artificiale e per il rispetto dei diritti umani, come parte dello sviluppo e delle operazioni di qualsiasi sistema di Intelligenza Artificiale".

  1. Sarebbe opportuno promuovere la "responsabilizzazione di ogni individuo", favorire "l'esercizio di diritti individuali", così come "la creazione di opportunità per l'impegno pubblico", attraverso:
  1. "il rispetto della protezione dei dati e dei diritti alla privacy, incluso, se del caso, il diritto all'informazione, il diritto di accesso, il diritto di opporsi al trattamento e il diritto alla cancellazione, e promuovendo tali diritti attraverso campagne di educazione e sensibilizzazione";
  2. "il rispetto dei diritti connessi che includono la libertà di espressione e informazione, nonché il diritto di non discriminazione";
  3. l'individuazione che il diritto ad opporsi o ad appellarsi si applica alle tecnologie che influenzano lo sviluppo personale, o le opinioni e garantisce, ove applicabile, il diritto delle persone di non essere assoggettate a una decisione basata esclusivamente sul trattamento automatizzato;
  4. l'utilizzo delle capacità dei sistemi di Intelligenza Artificiale allo scopo di promuovere un'equivalente "responsabilizzazione e migliorare l'impegno pubblico", tramite, ad esempio, "interfacce adattabili e strumenti accessibili".
  1. Sarebbe infine opportuno cercare di ponderare e moderare pregiudizi o discriminazioni illecite che possono derivare dall'uso di dati nell'Intelligenza Artificiale, attraverso:
  1. la garanzia del "rispetto degli strumenti giuridici internazionali in materia di diritti umani e non discriminazione";
  2. investimenti nella ricerca tecnica per identificare, indirizzare e attenuare i pregiudizi;
  3. l'adozione di adeguate misure al fine di assicurare che "i dati e le informazioni personali utilizzati nel processo decisionale automatizzato siano accurati, aggiornati e il più possibile completi";
  4. l'elaborazione di specifici orientamenti e principi "nell'affrontare pregiudizi e discriminazioni e promuovendo la consapevolezza dei singoli e delle parti interessate".

L'obiettivo di questi principi comuni è di essere in grado di affrontare le sfide attuate dal repentino sviluppo delle tecnologie di Intelligenza Artificiale "sulla base di un approccio multi-stakeholder al fine di affrontare tutte le questioni intersettoriali in gioco", in un'ottica internazionale, al fine di garantire che il suo potenziamento e utilizzo si verifichino in conformità ai principi e valori etici, e nel rispetto della dignità umana.

A tal fine viene istituito un gruppo di lavoro in materia di "etica e protezione dei dati nell'Intelligenza Artificiale" con l'incarico di promuovere la comprensione e il rispetto dei principi della presente Dichiarazione da tutte le parti interessate coinvolte, quali "governi e autorità pubbliche, organismi di standardizzazione, progettisti di sistemi di IA, fornitori e ricercatori, aziende, cittadini e utenti finali di sistemi di IA".

Questo gruppo di lavoro dovrà riferire regolarmente della propria attività in relazione alle attività svolte anche degli altri gruppi di lavoro presenti alla Conferenza.

In sostanza la "Conferenza si sforza così di sostenere proattivamente un dibattito pubblico attivo sull'etica digitale, mirando alla creazione di una forte cultura etica e della consapevolezza personale in questo campo".

 


Dott.ssa Maria Alessandra Monanni

Legal Specialist in Proprietà Intellettuale 

Copywriter e Blogger