PySyft è una libreria per sviluppare sistemi di machine learning criptati (encrypted) che preservino la privacy (privacy preserving).
È stato sviluppato da un gruppo di visionari guidati da Andrew Trask PhD, che è stato in grado di dare vita a una community di data scientist e machine learning engineer che oggi conta 7k persone: OpenMined.
Il sito ufficiale di OpenMined è una meraviglia da gustare: dagli un’occhiata.
Torniamo a noi. Cos’è PySyft?
Per rispondere a questa domanda devi prima sapere che questo mese abbiamo dato il via a un nuovo percorso di studi che intende soffermarsi sull’etica attorno ai modelli di machine learning.
Abbiamo dapprima discusso circa il concetto di Trusting AI Fairness, soffermandoci poi su come i sistemi di deep learning possano essere verificati.
Il prossimo step è capire come si possa conciliare privacy e AI.
Per farlo, iniziamo subito dalla pratica presentando un tool chiamato PySyft che nei prossimi giorni impareremo a utilizzare!
PySyft
PySyft nasce come soluzione a insidiosi questioni riguardanti privacy e sicurezza connessa ai dati trattati dai sistemi di machine learning.
Più nel dettaglio: come possiamo sapere che nel creare un modello di machine learning i dati siano gestiti secondo le vigenti norme in vigore, senza mettere a rischio la privacy degli utenti a cui le informazioni appartengono.
PySyft permette di gestire efficacemente la decentralizzazione e la privatizzazione nell’ecosistema di un progetto di Deep Learning.
Cosa ancora più meravigliosa: la community di OpenMined è open-source-oriented, con parecchie risorse ufficiali da cui iniziare a muovere i primi passi.
È quello che faremo in questo post!
PySyft for Privacy Related Topics | Why they matters
Prima d’iniziare, ecco tre motivi gratuiti per cui è fondamentale concentrarci oggi su questi temi!
Competitive Career Advantage
Negli ultimi 20 anni, lo sviluppo tecnologico ha prodotto una mole di dati impressionante, riducendo progressivamente il tempo di raddoppio: quello necessario a produrre una quantità di dati pari a quella creata dall’inizio della storia umana al momento della misurazione.
Le nuove regolazioni sui dati, come il GDPR, hanno introdotto attenzioni rigorose al passaggio e la manipolazione delle informazioni utente: le aziende sono sotto pressione.
Tutti devono stare attenti a come usino e analizzino i dati utente.
Questo impone severe limitazioni a molti data scientist che si trovano a dover lavorare su piccoli dataset contenenti poche informazioni utili di alto valore.
È fondamentale imparare gli strumenti per preservare la privacy nei sistemi di deep learning: in futuro ne avremo sempre maggiore bisogno.
New Entrepreneurial Opportunities
Esistono moltissimi problemi sociali che potrebbero essere risolti o attenuati sfruttando tecnologie di deep learning.
Il problema è l’assenza di dati.
Questi sistemi avrebbero bisogno di accedere a molte informazioni sensibili e private su persone con problemi di salute, la cui privacy andrebbe preservata ad ogni costo.
Imparare a sfruttare questi sistemi significa dunque aprire le porte a nuovi orizzonti di possibilità: opportunità per startup, che non erano prima fattibili e attuabili senza questi sistemi.
Social Good
Deep learning può essere usato per risolvere una grande varietà di problemi nel mondo reale.
Ora, creare sistemi di Deep Learning basandosi sulle informazioni personali, significa creare Deep Learning per le persone.
La più grande challenge è sicuramente imparare a strutturare sistemi su dati che non si possiede: questo ci dà però l’opportunità di risolvere alcuni dei più personali ma importanti problemi nella vita delle persone, in modo scalabile.
Nel prossimo post inizieremo subito con un caso pratico, muovendo i primi passi con PySyft e PyTorch!
Qui il link alla repository ufficiale!
Un caldo abbraccio, Andrea.