• 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
  • 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
AI

U-Net FCN Networks | Deep Learning Engineer Italia

U-Net FCN Networks | Deep Learning Engineer Italia

Cos’è U-Net? U-Net è una Fully Convolutional Network (FCN) sviluppata per applicazioni in campo medico: l’individuazione di tumori nei polmoni e nel cervello attraverso l’Image Segmentation.

Com’è fatta una U’Net?

In sintesi, l’architettura di una U-Net è costiuita da:

  1. Un encoder che riduce (down-sample) l’immagine in ingresso in una feature map, attraverso pooling layers, estraendone gli elementi chiave
  2. Un decoder che amplifica (up sample) la feature map in una immagine, usando i livelli di deconvoluzione, impiegando cioè i pooling layers appresi per permettere la localizzazione degli elementi.

Sai perché vengono chiamate U-Net? L’immagine sottostante sembra essere sufficientemente esplicativa, sebbene non chiarisca il motivo di una simile struttura a U.

Seguimi: sto per svelarti il perché della loro struttura a U.

Continua a leggere…

In esempio, un’immagine con risoluzione minima di 32×32 pixels. Ogni blue box corrisponde a una feature map multicanale. Il numero di canali è specificato al di sopra dei box. Le dimensioni x-y sono indicate nell’angolo in basso a sinistra di ogni box. Quelli bianchi sono invece le feature map copiate. Le frecce indicano infine le differenti operazioni eseguite.

UNet for Image Segmentation

La struttura delle U-Net, che vedremo tra poco, le rende particolarmente adatte a risolvere problemi di segmentazione delle immagini.

Senza ulteriori indugi, esploriamone la composizione!

Struttura U-Net FCN Networks

La caratteristica distintiva di una rete neurale U-Net è costituita dalle così dette connessioni scorciatoia (shortcut connection).

Per capire la loro utilità e le esigenze della loro presenza, dobbiamo fare un passo indietro.

Nel nostro post sulle Fully Convolutional Networks abbiamo appreso che nella riduzione delle dimensioni operata dall’encoder la perdita di informazione è significativa.

Il decoder fatica quindi a effettuare l’up-sampling con un conseguente risultato mediocre.

Le FCN gestiscono allora la perdita di informazioni ricostruendo l’immagine e recuperando parte delle informazioni dai filtri di pooling prima della sintesi dalla feature map.

Le reti U-Net propongono invece una soluzione differente.

La struttura base rimane invariata, con due percorsi simmetrici che chiamiamo:

  1. Encoder, o percorso di contrazione (contraction path) che cattura il contesto dell’immagine. È costituito da livelli di convoluzione e di max pooling al pari di una Convolutional Neural Network.
  2. Decoder, o percorso di espansione (expanding path) che localizza con precisione gli elementi dell’immagine attraverso le convoluzioni trasposte (transposed convolutions).

Ogni up-sampling layer del decoder riceve i dati dal corrispondete down sampling layer dell’encoder.

In questo modo siamo in grado di catturare più informazioni contenendo la complessità computazionale.

Chiaramente i livelli iniziali dell’encoder contengono più informazioni, ergo per cui garantiscono un significativo boost nel processo di up-sampling permettendo il recupero di dettagli e migliorando significativamente il risultato.

Ecco che introduciamo le shortcut connection.

Più nello specifico la prima shortcut connections crea un ponte tra l’encoder prima del’iniziale filtro di pooling e il decoder dopo l’ultima operazione di deconvoluzione.

A questa se ne aggiungo altre, con un funzionamento analogo.

In questa pubblicazione accademica è poi presentata una nuova loss function per migliorare ulteriormente le prestazioni.

Per il momento è tutto.

Per aspera, ad astra.

Un caldo abbraccio, Andrea

Written by Andrea Provino - Novembre 14, 2020
Tags | computer vision, deep learning, teoria

You Might Also Like

machine-learning-vs-deep-learning-spiegazione-italiano-blog-intelligenza-artificiale

Machine Learning vs Deep Learning

Settembre 24, 2020
global-differential-privacy-local-differential-privacy-deep-learning-data-science-scaled

Global Differential Privacy vs Local Differential Privacy

Febbraio 13, 2020
deep-learning-gradient-descent-neural-network-batch-gradient-descent-spiegazione-italiano-deep-learning-tutorial

Gradient Descent: cos’è? | Deep Learning & Neural Networks

Ottobre 28, 2019

No Comment

Please Post Your Comments & Reviews
Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Next Post
Previous Post

Una pubblicità che non vedi se usi AdBlock

EXPAND YOUR KNOWLEDGE

  • Blockchain

    Patricia Merkle Trie

    Maggio 30, 2023
  • Artistic representation of a tree Blockchain

    Tree Data Structure: cos’è un Merkle Tree

    Maggio 26, 2023
  • Cover image for Bitcoin UTXO explanation post Blockchain

    UTXO: come funziona il modello Unspent Transaction Outputs

    Maggio 23, 2023
  • Blockchain

    Cos’è Ethereum

    Maggio 15, 2023
  • Blockchain Developer

    Circuito aritmetico

    Novembre 1, 2022
  • machine-learning

    Un nuovo inizio

    Settembre 4, 2021
  • Zero Knwoledge Proof Article Privacy Preserving

    Zero Knowledge Proof: zk-SNARK e zk-STARK | Prova a conoscenza zero

    Luglio 8, 2021
  • oblivious-transfer-spiegazione-italiano-ot-explanation Privacy Preserving

    Oblivious Transfer (OT)

    Luglio 6, 2021
  • Aleo Studio Website Preview machine-learning

    Aleo Studio: un IDE per Zero-Knowledge Proofs Applications

    Luglio 1, 2021
  • privacy-enhancing-technologies-data-machine-learning-data-science Privacy Preserving

    Perché il Privacy Tech è un vantaggio competitivo micidiale

    Giugno 17, 2021

Quello che Google pensa ti possa piacere

Prodotti che i Cookie dicono potresti trovare interessanti

AI Blog - © 2019-2021 Andrea Provino