• 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
  • 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
AI, machine-learning

LeNet-5 CNN Networks – Deep Learning Engineer Italia

LeNet-5 CNN Networks – Deep Learning Engineer Italia

LeNet-5 è un’architettura di rete neurale convoluzionale ampiamente impiegata nel riconoscimento delle cifre: una delle 4 CNN Networks che esploreremo.

Un Deep Learning Engineer mastica backpropagation e cost function a colazione, progettando CNN Networks a colpo d’occhio.

Bene, caro il mio marinaio.

Sotto l’egida del vento di levante, e col rutilante Sole all’orizzonte, prepariamoci a salpare.

Parole altisonanti a parte, vediamo 4 architetture di CNN.

LeNet-5

Questa architettura è tra le più conosciute nell’ambito delle CNN.

Fu creata da Yann LeCun nel 1998 e da allora ampiamente usata nel riconoscimento della scrittura (hand-written digits recognition), con molteplici applicazioni sul MNIST.

Qui possiamo leggere la pubblicazione ufficiale.

L‘input layer di dimensioni 32x32x1 supporta immagini in scala grigi (greyscale image)

LeNet-5 Architecture

A seguire troviamo sei filtri convoluzionali 5×5 con uno stride di 1.

Risultato?

Il sample finale avrà dimensioni 28x28x6 con stride 1 e padding 0.

Per calcolare l’output possiamo servirci di questa relativamente semplice formula:

(n +2p –f )/ s +1 * (n +2p –f )/ s +1 * Nc

Nc: è il numero di canali
p: padding (nel caso di LeNet-5 questo valore è nullo)
s: stride
f: la dimensione del filtro

Proseguiamo: ora LeNet-5 prevede un filtro di Pooling.

Qui, occorre una precisazione.

20 anni fa i filtri di average pooling erano molto più comuni dei max pooling.

Volendo costruire una variante moderna, potremmo preferire il secondo filtro al primo.

Mantenendo il riferimento al’immagine di cui sopra, l’average pooling conduce a un volume di 14x14x6.

La formula per il calcolo delle nuove dimensioni è la medesima.

Ora applichiamo un altro filtro convoluzionale. Questa volta sono 16 i filtri: stessa dimensione, 5×5.

Il volume che otteniamo e 10x10x16.

Per concludere applichiamo un ultimo filtro di average pooling per ridurre le dimensioni a 5x5x16, che si traducono in 400 parametri.

Ecco infine la nostra deep neural network composta da due fully connected layer.

Il primo, collega ognuno dei 400 nodi a ciascuno dei 120 neuroni.

Il secondo, collega ciascuno dei 120 successivi nodi agli 84 neuroni dell’output layer.

Chiude le danze una funzione di attivazione non lineare: softmax.

La pubblicazione prevedeva una funzione RBF, caduta però in disuso.

Ecco le nostre previsioni di probabilità per ognuna delle 10 variabili, una per ciascuna cifra.

Qualche considerazione rapida sul processo.

L’immagine iniziale a canale unico di 32x32x1 è stata ridotta a 5x5x16, con un elevato aumento di canali: da 1 a 16.

Per il momento è tutto!

Un caldo abbraccio, Andrea.

Written by Andrea Provino - Febbraio 27, 2020
Tags | deep learning

You Might Also Like

tensorflow-wallpaper-machine-learning-data-science-deep-learning-tensorflow-guida-italiano-primi-passi-con-tesnorflow-italia

Tensorflow Guida Italiano: primi passi con Tensorflow

Aprile 2, 2020
optimization-algoritmh-adam-optimizer-deep-learning-neural-network-data-science-machine-learning-guida-italiano-tutorial-blog

Cosa sono Optimization algorithm e Optimizer | Neural Network & Deep Learning

Ottobre 27, 2019
rrn-tensorflow-example-deep-learning-guida-italiano-recurrent-neural-network

RNN Tutorial Tensorflow: Music Generation

Aprile 5, 2020
Next Post
Previous Post

Una pubblicità che non vedi se usi AdBlock

EXPAND YOUR KNOWLEDGE

  • rust-react-webassembly-privacy-preserving-machine-learning Logs

    Rust, WebAssembly, React e un MVP

    Dicembre 21, 2020
  • diffie-hellman-key-exchange-protocol-scambio-di-chiavi-diffie-hellman Data Science, Privacy Preserving

    Cos’è lo scambio di chiavi Diffie-Hellman (DH)? | Privacy Preserving

    Dicembre 15, 2020
  • principio-di-esattezza-data-science-machine-learning-gdpr-data-accuracy Data Science, GDPR Compliant

    GDPR: Principio di esattezza dei dati (Data Accuracy)

    Dicembre 12, 2020
  • tensorflow-extended-tfx-deploy-machine-learning-guide-machine-learning-pipelines machine-learning

    TFX: come funziona Tensorflow Extended?

    Dicembre 9, 2020
  • tensorflow-extended-tfx-deploy-machine-learning-guide-machine-learning-pipelines machine-learning

    TensorFlow Extended (TFX) | Production Machine Learning Pipeline

    Dicembre 6, 2020
  • mean-shift-clustering-guida-italiano-spiegazione-semplice-algoritmo-di-clustering-esempio Data Science

    Mean-Shift Clustering

    Dicembre 3, 2020
  • data-minimization-principle-gdpr-principio-minimizzazione-dati-personali-gdpr-italia-consulenza-spiegazione-semplice Data Science, GDPR Compliant

    GDPR: Principio di minimizzazione dei dati (Data minimization)

    Dicembre 1, 2020
  • machine-learning-for-finance-trading-online-data-science-deep-learning-intelligenza-artificiale AI, machine-learning

    FinTech: Machine Learning for Finance (FinML) | Guide e Risorse di qualità

    Novembre 29, 2020
  • gdpr-principio-di-limitazione-della-finalita-machine-learning-data-science-guida-prupose-limitation-gdpr Data Science, GDPR Compliant

    GDPR: Principio di Limitazione della finalità | Purpose Limitation

    Novembre 26, 2020
  • machine-learning-engineer-lavoro-stipendio-responsabilità-come-diventare AI, Business, machine-learning

    Machine Learning Engineer

    Novembre 23, 2020

Quello che Google pensa ti possa piacere

Prodotti che i Cookie dicono potresti trovare interessanti

AI Blog - © 2019-2021 Andrea Provino