• 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
  • 🏡 Home
  • 🚨 GDPR Compliant
  • ⚡️ Data Science
  • 📌 Machine Learning
  • 🔒 Privacy Preserving
AI

U-Net FCN Networks | Deep Learning Engineer Italia

U-Net FCN Networks | Deep Learning Engineer Italia

Cos’è U-Net? U-Net è una Fully Convolutional Network (FCN) sviluppata per applicazioni in campo medico: l’individuazione di tumori nei polmoni e nel cervello attraverso l’Image Segmentation.

Com’è fatta una U’Net?

In sintesi, l’architettura di una U-Net è costiuita da:

  1. Un encoder che riduce (down-sample) l’immagine in ingresso in una feature map, attraverso pooling layers, estraendone gli elementi chiave
  2. Un decoder che amplifica (up sample) la feature map in una immagine, usando i livelli di deconvoluzione, impiegando cioè i pooling layers appresi per permettere la localizzazione degli elementi.

Sai perché vengono chiamate U-Net? L’immagine sottostante sembra essere sufficientemente esplicativa, sebbene non chiarisca il motivo di una simile struttura a U.

Seguimi: sto per svelarti il perché della loro struttura a U.

Continua a leggere…

In esempio, un’immagine con risoluzione minima di 32×32 pixels. Ogni blue box corrisponde a una feature map multicanale. Il numero di canali è specificato al di sopra dei box. Le dimensioni x-y sono indicate nell’angolo in basso a sinistra di ogni box. Quelli bianchi sono invece le feature map copiate. Le frecce indicano infine le differenti operazioni eseguite.

UNet for Image Segmentation

La struttura delle U-Net, che vedremo tra poco, le rende particolarmente adatte a risolvere problemi di segmentazione delle immagini.

Senza ulteriori indugi, esploriamone la composizione!

Struttura U-Net FCN Networks

La caratteristica distintiva di una rete neurale U-Net è costituita dalle così dette connessioni scorciatoia (shortcut connection).

Per capire la loro utilità e le esigenze della loro presenza, dobbiamo fare un passo indietro.

Nel nostro post sulle Fully Convolutional Networks abbiamo appreso che nella riduzione delle dimensioni operata dall’encoder la perdita di informazione è significativa.

Il decoder fatica quindi a effettuare l’up-sampling con un conseguente risultato mediocre.

Le FCN gestiscono allora la perdita di informazioni ricostruendo l’immagine e recuperando parte delle informazioni dai filtri di pooling prima della sintesi dalla feature map.

Le reti U-Net propongono invece una soluzione differente.

La struttura base rimane invariata, con due percorsi simmetrici che chiamiamo:

  1. Encoder, o percorso di contrazione (contraction path) che cattura il contesto dell’immagine. È costituito da livelli di convoluzione e di max pooling al pari di una Convolutional Neural Network.
  2. Decoder, o percorso di espansione (expanding path) che localizza con precisione gli elementi dell’immagine attraverso le convoluzioni trasposte (transposed convolutions).

Ogni up-sampling layer del decoder riceve i dati dal corrispondete down sampling layer dell’encoder.

In questo modo siamo in grado di catturare più informazioni contenendo la complessità computazionale.

Chiaramente i livelli iniziali dell’encoder contengono più informazioni, ergo per cui garantiscono un significativo boost nel processo di up-sampling permettendo il recupero di dettagli e migliorando significativamente il risultato.

Ecco che introduciamo le shortcut connection.

Più nello specifico la prima shortcut connections crea un ponte tra l’encoder prima del’iniziale filtro di pooling e il decoder dopo l’ultima operazione di deconvoluzione.

A questa se ne aggiungo altre, con un funzionamento analogo.

In questa pubblicazione accademica è poi presentata una nuova loss function per migliorare ulteriormente le prestazioni.

Per il momento è tutto.

Per aspera, ad astra.

Un caldo abbraccio, Andrea

Written by Andrea Provino - Novembre 14, 2020
Tags | computer vision, deep learning, teoria

You Might Also Like

deep-learning-training-neural-network-guida-italiano-teoria-bocconi-laurea-intelligenza-artificiale-machine-learning-blog-data-science-scaled

Neural Network Training Theory | 6.S191 – Deep Learning

Marzo 3, 2020
exploration-policies-exploration-policy-reinforcement-learning-machine-learning-data-science-markov-decision-process

Exploration Policies: ε-greedy policy | Reinforcement Learning

Agosto 17, 2020
time-series-analysis-data-science-machine-learning-blog-model

Time Series Data: serie storiche

Febbraio 20, 2020
Next Post
Previous Post

Una pubblicità che non vedi se usi AdBlock

EXPAND YOUR KNOWLEDGE

  • Blockchain Developer

    Circuito aritmetico

    Novembre 1, 2022
  • machine-learning

    Un nuovo inizio

    Settembre 4, 2021
  • Zero Knwoledge Proof Article Privacy Preserving

    Zero Knowledge Proof: zk-SNARK e zk-STARK | Prova a conoscenza zero

    Luglio 8, 2021
  • oblivious-transfer-spiegazione-italiano-ot-explanation Privacy Preserving

    Oblivious Transfer (OT)

    Luglio 6, 2021
  • Aleo Studio Website Preview machine-learning

    Aleo Studio: un IDE per Zero-Knowledge Proofs Applications

    Luglio 1, 2021
  • privacy-enhancing-technologies-data-machine-learning-data-science Privacy Preserving

    Perché il Privacy Tech è un vantaggio competitivo micidiale

    Giugno 17, 2021
  • bloom-filter-spiegazione-italian Privacy Preserving

    Bloom Filter

    Giugno 3, 2021
  • trusted-execution-environment-tee-data-science-come-fuziona Data Science, Privacy Preserving

    Trusted Execution Environment | Cos’è un TEE?

    Giugno 2, 2021
  • Crypto Custody services machine-learning

    Crypto Custody: Guida alla custodia delle criptomonete

    Maggio 26, 2021
  • deep-q-learning-q-learning-reinforcement-learning machine-learning

    Deep Q-Learning

    Aprile 27, 2021

Quello che Google pensa ti possa piacere

Prodotti che i Cookie dicono potresti trovare interessanti

AI Blog - © 2019-2021 Andrea Provino