• 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
  • 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
Business, Data Science, machine-learning, Privacy Preserving

Cosa sono le Privacy-enhancing technologies o techniques (PETs)

Cosa sono le Privacy-enhancing technologies o techniques (PETs)

Ci siamo. In questo blogpost presentiamo finalmente le Privacy-enhancing Technologies (PETs).

Indubbiamente i dati sono oggi prezioso carburante dell’industria.

Alimentando visione strategia e processi decisionali, sostengono la crescita e lo sviluppo di nuove tecnologie, come l’Intelligenza Artificiale e l’Internet Of Things.

Perché servono le Privacy-enhancing technologies?

Per beneficiare a fondo di queste nuove tecnologie (i.e. AI, e IoT), le aziende devono poter sfruttare pienamente i dati a loro disposizione.

Tuttavia, quando questi dati appartengono all’insieme dei dati personali, il loro trattamento inizia a essere limitato e tutelato da regolamentazioni internazionali come l’europeo GDPR, o il californiano CCPA.

Dobbiamo quindi ammettere l’esistenza di un attrito tripartito che vede ai tre estremi altrettante figure con interessi opposti e conflittuali.

Le istituzioni, aziende e titolari del trattamento dati, intendono sfruttare il pieno potenziale dei dati, anche per fini commerciali, ampliando l’offerta dei propri servizi a vantaggio del cliente.

I regolatori limitano l’operato delle istituzioni per tutelare la privacy dei clienti.

I clienti temono che la propria privacy venga violata, e che loro informazioni personali siano abusate inducendo in loro un qualche tipo di danno.

Tuttavia sono gli stessi clienti che chiedono nuovi servizi alle istituzioni, danno nuovamente vigore al ciclo.

Comprendere questo attrito è allora cruciale per legittimare l’esistenza e l’uso di queste tecnologie: ecco a te le Privacy-enhancing technologies.

Cosa sono le Privacy-enhancing Technologies

Le Privacy-enhancing Technologies (PETs) sono dunque un insieme di tecnologie atte a trattare i dati conservandone la privacy e limitando l’accesso all’informazione diretta.

In questo modo la confidenzialità delle informazioni, dei dati, è tutelata e la conformità normativa assicurata.

Il loro funzionamento si basa su anni di progresso e ricerca in ambito matematico e crittografico.

Quali sono

Possiamo raggruppare le Privacy-enhancing technologies in tre grandi gruppi di tecnologie:

  • Differential privacy
  • Federated Analysis
  • Homomorphic Encryption
  • Zero-knowledge proofs
  • Secure multiparty computation

Differential Privacy

Per essere precisi, la privacy differenziale, tra le Privacy-enhancing technologies, non è una tecnica o sistema in senso stretto, quanto piuttosto una misura matematica della quantità di informazione trapelata da una determinata operazione effettuata sui dati.

Per ridurre l’abilità di un malintenzionato, un outsider intento a dedurre l’input di un’analisi dal suo risultato, si applicano varie tecniche e metodi.

Il più comune è l’uso del rumore statistico, ovvero una perturbazione del dato originario atto a camuffarne il reale valore.

L’intensità di tale perturbazione è in genere controllata da un policy scelta dall’analista, che tiene contro del privacy budget.

Passiamo ora alla successiva Privacy-enhancing technologies (PETs)

Federated Analysis

Non abbiamo mai trattato l’analisi federata su questo blog, perché ci siamo sempre concentrati sul passo successivo: lo sviluppo di modelli di machine learning in modo federato attraverso il Federated Learning.

Il concetto comunque è lo stesso.

Devi sapere che alcune regolamentazioni impongono di trattare i dati là dove risiedono.

Nel GDPR ad esempio questo è il principio di data residency, che molto semplicemente impedisce di salvare, o inviare, i dati di cittadini europei in paesi che non dispongono di normative di protezione dati equivalenti.

Cosa facciamo quindi quando non possiamo inviare i dati da qualche parte per analizzarli?

Semplice. Inviamo le analisi là dove i dati risiedono.

Ecco a te la spiegazione concettuale dell’analisi federata o distribuita.

Potremmo anche dire che in questa tipologia di analisi le parti condividono insights sul trattamento senza condividere i dati. Il senso è comunque lo stesso: dati fissi, informazioni in movimento.

Approfondiremo il funzionamento in un prossimo articolo, ma per il momento questa presentazione è ottima.

Homomorphic Encryption

La crittografia omomorfica è una sofisticata tecnologia crittografica che applicata all’analisi dati apre le porte a scenari prima solo immaginabili.

Molto semplicemente, criptando un dato l’informazione è indecifrabile da chiunque non sia in possesso della chiave usata per generare l’informazione cifrata.

Un dato criptato è anonimo, e questo ci piace perché il GDPR non si applica ai dati anonimi.

Però un informazione cifrata è inutile proprio perché incomprensibile.

Qui entra in gioco la crittografia omomorfica che permette alcune operazioni o, nella sua forma completa, tutte le operazioni matematiche su dati criptati assicurando che il risultato sia corretto.

Possiamo così condividere informazioni personali, senza preoccuparci che qualcuno le intercetti, avendo modo di effettuare comunque analisi sulle stesse, decifrando poi solo il risultato finale.

Zero-knowledge proofs

Una delle Privacy-enhancing technologies tanto sofisticata quanto meravigliosa.

Pensa che puoi provare a qualcuno di possedere un’informazione, o il valore di un dato, senza tuttavia condividere quel dato o svelare il suo reale valore.

Wow.

Semplicemente wow.

Secure Multiparty Computation

L’ultima delle Privacy-enhancing technologies che consideriamo è definita Secure Multyparty computation.

È una tipologia di analisi cooperativa che permette l’interazione di diverse parti, senza però che alcuna di esse sia in grado di conoscere o ricostruire le informazioni e i dati posseduti dalle altre parti.

Per il momento è tutto.

Per aspera, ad astra.

Un caldo abbraccio, Andrea

Written by Andrea Provino - Febbraio 7, 2021
Tags | differential privacy, privacy, privacy preserving machine learning, teoria

You Might Also Like

homomorphic-encryption-additive-secret-sharing-data-science-machine-learning-differential-privacy-federated-learning-scaled

Homomorphic Encryption and Additive Secret Sharing | Python Code

Febbraio 11, 2020

Confusion Matrix for Binary Classifier | Model Evaluation

Settembre 27, 2019
differential-privacy-by-shuffling-data-science-machine-learning-privacy-preserving-ai

Differential Privacy by Shuffling in Italiano

Agosto 3, 2020
Next Post
Previous Post

Una pubblicità che non vedi se usi AdBlock

EXPAND YOUR KNOWLEDGE

  • Blockchain Developer

    Circuito aritmetico

    Novembre 1, 2022
  • machine-learning

    Un nuovo inizio

    Settembre 4, 2021
  • Zero Knwoledge Proof Article Privacy Preserving

    Zero Knowledge Proof: zk-SNARK e zk-STARK | Prova a conoscenza zero

    Luglio 8, 2021
  • oblivious-transfer-spiegazione-italiano-ot-explanation Privacy Preserving

    Oblivious Transfer (OT)

    Luglio 6, 2021
  • Aleo Studio Website Preview machine-learning

    Aleo Studio: un IDE per Zero-Knowledge Proofs Applications

    Luglio 1, 2021
  • privacy-enhancing-technologies-data-machine-learning-data-science Privacy Preserving

    Perché il Privacy Tech è un vantaggio competitivo micidiale

    Giugno 17, 2021
  • bloom-filter-spiegazione-italian Privacy Preserving

    Bloom Filter

    Giugno 3, 2021
  • trusted-execution-environment-tee-data-science-come-fuziona Data Science, Privacy Preserving

    Trusted Execution Environment | Cos’è un TEE?

    Giugno 2, 2021
  • Crypto Custody services machine-learning

    Crypto Custody: Guida alla custodia delle criptomonete

    Maggio 26, 2021
  • deep-q-learning-q-learning-reinforcement-learning machine-learning

    Deep Q-Learning

    Aprile 27, 2021

Quello che Google pensa ti possa piacere

Prodotti che i Cookie dicono potresti trovare interessanti

AI Blog - © 2019-2021 Andrea Provino