La nostra ricerca sulle applicazioni concrete delle Privacy Enhancing Technologies continua qui con alcuni Differential Privacy Example.
Consideriamo uno scenario plausibile.
La DF in modo intuitivo
Un’organizzazione intende condividere dati con terze parti, e procede rimuovendo o anonimizzando le PII, Personally Identifiable Information.
Abbiamo già approfondito perché sia difficile l’anonimizzazione dei dati personali, ma dobbiamo anche considerare come non sempre queste operazioni siano sufficienti.
La differenza tra anonimizzazione e pseudonimizzazione è precisa eppure la privacy degli individui di un database potrebbe essere a rischio se non venissero considerati alcuni possibili attacchi.
Ad esempio, i dati condivisi potrebbero essere correlati con altre banche dati per identificare specifici individui.
Una delle operazioni più comuni per limitare questo rischio è la perturbazione dei dati attraverso l’aggiunta di rumore durante il trattamento (i.e. ai dati grezzi, al risultato dei calcoli o ai dati elaborati).
In questo modo le singole osservazioni, le righe del nostro dataset, risultano protette.
Allo stesso tempo è comunque possibile estrarre informazioni utili sulle distribuzioni dei valori perturbati, se analizzati in modo aggregato.
Benissimo! Facciamo però un passo indietro.
Questa introduzione ci serve per capire in modo intuitivo cosa sia la Differential Privacy.
Parlare di rumore causale da aggiungere ai dati è infatti troppo generico.
Abbiamo bisogno di un metodo matematico per calcolare la quantità di rumore da aggiungere ai dati per assicurare la privacy di ogni individuo del database.
Ecco cos’è la Differential Privacy.
Considera che abbiamo esaminato cos’è la Differential Privacy in un post precedente, e non intendiamo ripeterci.
Ecco perché ora andremo dritti al punto e ci concentreremo sulle applicazioni concrete.
Differential Privacy Example
Dalla descrizione iniziale della privacy differenziale a oggi sono stati compiuti significative ricerche per migliorare la scalabilità della tecnica, oggi usata in una varietà di scenari reali.
Persino il settore finanziario, che pur tratta dati di natura assai delicata, potrebbe trarre considerevole beneficio nell’applicazione della differential privacy.
La differential privacy è una tecnologia dal costo incrementale (incremental cost) marginale e con potenziali benefici chiari.
L’aggiunta di rumore ai dati crea un trade-off tra privacy e utilità, motivo per cui tale tecnica è utile in contesti in cui è necessario calcolare trend generali anziché particolari.
Quindi l’anomaly detection (e.g. per applicazioni di fraud analysis) o il pattern-matching accurato (e.g. per applicazioni di optical character recognition) non sono così adatte per la differential privacy.
Per agevolare ancor di più l’applicazione di queste tecnologie, alcune aziende hanno sviluppato servizi di Data Governance che integrano strumenti, come la differential privacy, per applicazioni in produzione.
Un esempio è Immuta.
Per il momento è tutto.
Per aspera, ad astra.
Un caldo abbraccio, Andrea