L’Opinione 28/2024 del Comitato Europeo per la Protezione dei Dati (EDPB) affronta aspetti fondamentali relativi alla protezione dei dati personali nel contesto dei modelli di Intelligenza Artificiale (IA). Adottata il 17 dicembre 2024, l’Opinione evidenzia come il GDPR, tutelando il diritto fondamentale alla protezione dei dati, rappresenta un quadro giuridico che incoraggia l’innovazione responsabile, salvaguardando altri diritti fondamentali dell’UE.
L’opinione è stata redatta in risposta a una richiesta specifica dell’autorità di controllo irlandese, che ha sollecitato chiarimenti su quattro punti chiave:
1. Criteri per l’anonimizzazione dei modelli di IA: L’EDPB afferma che i modelli addestrati su dati personali non possono essere automaticamente considerati anonimi.
Secondo l’EDPB, l’anonimizzazione di un modello di IA deve soddisfare criteri rigorosi. La condizione essenziale è che la probabilità di ottenere dati personali da un modello, sia in modo diretto che probabilistico, deve essere insignificante. Questa valutazione deve includere non solo i rischi di identificazione tramite i dati di addestramento originari, ma anche la possibilità che il modello stesso possa generare o esporre informazioni personali attraverso le sue risposte a query o interazioni.
Per determinare se un modello possa essere considerato anonimo, è necessario adottare un approccio che tenga conto di tutti i mezzi ragionevolmente utilizzabili per identificare un individuo. Tale analisi deve includere la valutazione della tecnologia disponibile, delle risorse economiche e delle competenze tecniche che potrebbero essere impiegate per ottenere informazioni personali. Questo implica che l’anonimizzazione non può essere garantita esclusivamente attraverso misure tecniche specifiche, ma richiede una combinazione di misure tecniche, organizzative e procedurali.
L’Opinione fornisce indicazioni su alcune metodologie che possono essere utilizzate per dimostrare l’anonimizzazione. Questi metodi includono, ad esempio, la limitazione della raccolta di dati personali durante la fase di sviluppo, la riduzione della loro identificabilità attraverso tecniche come il mascheramento o l’aggregazione, e l’adozione di misure per prevenire l’estrazione dei dati personali. È altresì fondamentale che queste metodologie siano progettate per resistere agli attacchi più avanzati secondo lo stato dell’arte. Le autorità di controllo, infatti, devono essere in grado di verificare non solo l’efficacia delle misure adottate, ma anche la loro adeguatezza rispetto al contesto specifico.
2. Legittimo interesse come base giuridica per il trattamento dei dati: L’Opinione sottolinea che non esiste una gerarchia tra le basi giuridiche previste dal GDPR.
Questo implica che i titolari del trattamento sono liberi di scegliere la base giuridica più appropriata in relazione alle loro specifiche attività di trattamento, ma sono anche chiamati a giustificare in modo dettagliato e trasparente la scelta effettuata. Nel contesto particolarmente dell’IA, ciò è rilevante poiché le tecnologie coinvolte, per la loro natura, comportano un potenziale significativo di interferenza con i diritti fondamentali degli interessati, come la privacy, la libertà di pensiero e il diritto all’uguaglianza.
L’analisi del legittimo interesse richiede l’applicazione di un rigoroso test articolato in tre fasi. Innanzitutto, è necessario identificare l’interesse legittimo perseguito dal titolare del trattamento o dal terzo. Questo interesse deve essere concreto, attuale e sufficientemente rilevante, e non può derivare da esigenze meramente speculative o ipotetiche. Nel contesto dei modelli di IA, gli interessi legittimi comunemente invocati includono l’innovazione tecnologica, il miglioramento dei servizi e l’efficienza operativa. Tuttavia, tali interessi devono essere specificati e documentati con precisione per essere presi in considerazione.
La seconda fase consiste nella valutazione della necessità del trattamento per il perseguimento dell’interesse legittimo identificato. Questo implica che il trattamento dei dati personali deve essere essenziale per raggiungere l’obiettivo prefissato, e non devono essere disponibili alternative meno invasive che possano conseguire lo stesso risultato. Nel caso dei modelli di IA, questa fase assume una complessità particolare, poiché è necessario dimostrare che l’utilizzo di dati personali è indispensabile, ad esempio, per addestrare o migliorare il modello, senza alternative che non implichino l’uso di tali dati.
Infine, la terza fase del test richiede il bilanciamento tra l’interesse legittimo del titolare ei diritti e le libertà fondamentali degli interessati. Questo bilanciamento deve essere effettuato tenendo conto della natura dei dati trattati, del contesto specifico del trattamento, delle ragionevoli aspettative degli interessati e delle misure adottate dal titolare per mitigare i rischi. Nel contesto dell’IA, questo passaggio è cruciale, poiché i modelli possono avere un impatto significativo e potenzialmente dannoso sugli interessati, ad esempio attraverso discriminazioni indirette o profilazioni invasive.
3. Conseguenze del trattamento illecito dei dati nella fase di sviluppo: L’Opinione esplora gli effetti a catena derivanti dall’uso illecito di dati personali durante la fase di sviluppo dei modelli. Sottolinea che il trattamento successivo potrebbe essere viziato se si basa su dati raccolti o utilizzati in modo non conforme al GDPR. Le autorità di controllo devono valutare se e in che misura il modello può continuare ad operare legittimamente o deve essere rettificato o eliminato.
4. Ruolo delle autorità di controllo : L’EDPB invita le autorità a promuovere linee guida chiare ea eseguire controlli rigorosi sui titolari per garantire conformità ai principi fondamentali del GDPR. Inoltre, l’Opinione sottolinea la necessità di una maggiore cooperazione internazionale, data la natura transfrontaliera delle tecnologie IA.
L’opinione è stata redatta in risposta a una richiesta specifica dell’autorità di controllo irlandese, che ha sollecitato chiarimenti su quattro punti chiave:
1. Criteri per l’anonimizzazione dei modelli di IA: L’EDPB afferma che i modelli addestrati su dati personali non possono essere automaticamente considerati anonimi.
Secondo l’EDPB, l’anonimizzazione di un modello di IA deve soddisfare criteri rigorosi. La condizione essenziale è che la probabilità di ottenere dati personali da un modello, sia in modo diretto che probabilistico, deve essere insignificante. Questa valutazione deve includere non solo i rischi di identificazione tramite i dati di addestramento originari, ma anche la possibilità che il modello stesso possa generare o esporre informazioni personali attraverso le sue risposte a query o interazioni.
Per determinare se un modello possa essere considerato anonimo, è necessario adottare un approccio che tenga conto di tutti i mezzi ragionevolmente utilizzabili per identificare un individuo. Tale analisi deve includere la valutazione della tecnologia disponibile, delle risorse economiche e delle competenze tecniche che potrebbero essere impiegate per ottenere informazioni personali. Questo implica che l’anonimizzazione non può essere garantita esclusivamente attraverso misure tecniche specifiche, ma richiede una combinazione di misure tecniche, organizzative e procedurali.
L’Opinione fornisce indicazioni su alcune metodologie che possono essere utilizzate per dimostrare l’anonimizzazione. Questi metodi includono, ad esempio, la limitazione della raccolta di dati personali durante la fase di sviluppo, la riduzione della loro identificabilità attraverso tecniche come il mascheramento o l’aggregazione, e l’adozione di misure per prevenire l’estrazione dei dati personali. È altresì fondamentale che queste metodologie siano progettate per resistere agli attacchi più avanzati secondo lo stato dell’arte. Le autorità di controllo, infatti, devono essere in grado di verificare non solo l’efficacia delle misure adottate, ma anche la loro adeguatezza rispetto al contesto specifico.
2. Legittimo interesse come base giuridica per il trattamento dei dati: L’Opinione sottolinea che non esiste una gerarchia tra le basi giuridiche previste dal GDPR.
Questo implica che i titolari del trattamento sono liberi di scegliere la base giuridica più appropriata in relazione alle loro specifiche attività di trattamento, ma sono anche chiamati a giustificare in modo dettagliato e trasparente la scelta effettuata. Nel contesto particolarmente dell’IA, ciò è rilevante poiché le tecnologie coinvolte, per la loro natura, comportano un potenziale significativo di interferenza con i diritti fondamentali degli interessati, come la privacy, la libertà di pensiero e il diritto all’uguaglianza.
L’analisi del legittimo interesse richiede l’applicazione di un rigoroso test articolato in tre fasi. Innanzitutto, è necessario identificare l’interesse legittimo perseguito dal titolare del trattamento o dal terzo. Questo interesse deve essere concreto, attuale e sufficientemente rilevante, e non può derivare da esigenze meramente speculative o ipotetiche. Nel contesto dei modelli di IA, gli interessi legittimi comunemente invocati includono l’innovazione tecnologica, il miglioramento dei servizi e l’efficienza operativa. Tuttavia, tali interessi devono essere specificati e documentati con precisione per essere presi in considerazione.
La seconda fase consiste nella valutazione della necessità del trattamento per il perseguimento dell’interesse legittimo identificato. Questo implica che il trattamento dei dati personali deve essere essenziale per raggiungere l’obiettivo prefissato, e non devono essere disponibili alternative meno invasive che possano conseguire lo stesso risultato. Nel caso dei modelli di IA, questa fase assume una complessità particolare, poiché è necessario dimostrare che l’utilizzo di dati personali è indispensabile, ad esempio, per addestrare o migliorare il modello, senza alternative che non implichino l’uso di tali dati.
Infine, la terza fase del test richiede il bilanciamento tra l’interesse legittimo del titolare ei diritti e le libertà fondamentali degli interessati. Questo bilanciamento deve essere effettuato tenendo conto della natura dei dati trattati, del contesto specifico del trattamento, delle ragionevoli aspettative degli interessati e delle misure adottate dal titolare per mitigare i rischi. Nel contesto dell’IA, questo passaggio è cruciale, poiché i modelli possono avere un impatto significativo e potenzialmente dannoso sugli interessati, ad esempio attraverso discriminazioni indirette o profilazioni invasive.
3. Conseguenze del trattamento illecito dei dati nella fase di sviluppo: L’Opinione esplora gli effetti a catena derivanti dall’uso illecito di dati personali durante la fase di sviluppo dei modelli. Sottolinea che il trattamento successivo potrebbe essere viziato se si basa su dati raccolti o utilizzati in modo non conforme al GDPR. Le autorità di controllo devono valutare se e in che misura il modello può continuare ad operare legittimamente o deve essere rettificato o eliminato.
4. Ruolo delle autorità di controllo : L’EDPB invita le autorità a promuovere linee guida chiare ea eseguire controlli rigorosi sui titolari per garantire conformità ai principi fondamentali del GDPR. Inoltre, l’Opinione sottolinea la necessità di una maggiore cooperazione internazionale, data la natura transfrontaliera delle tecnologie IA.
Views: 0
Correlati
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link