Immagini 2-D convertite in 3-D con il deep learning

L'illustrazione che accompagna il comunicato stampa che presenta Deep-Z, Il nuovo sistema creato dai ricercatori dell' University of California, Los Angeles (UCLA)

Una nuova tecnica grazie alla quale si possono convertire le immagini 2D in strutture 3D è stata ideata da un gruppo di ricerca dell’Università della California a Los Angeles. I ricercatori hanno sfruttato gli ultimi progressi nel campo della microscopia fluorescenza per etichettare con precisione aree di cellule viventi nonché tessuti con determinati coloranti. Questi ultimi possono “brillare” quando inondati da un fascio di luce. Con questo sistema i ricercatori possono realizzare sezioni tridimensionali (naturalmente virtuali) partendo da immagini bidimensionali.

La nuova tecnica, denominata “Deep-Z”, potrebbe rivelarsi molto utile soprattutto per mostrare l’attività all’interno del corpo o degli organi di quest’ultimo, come specificato anche nello studio apparso su Nature Methods. Il sistema acquisisce immagini 2D, realizzate da un tipo di microscopio, e le converte virtualmente in 3D come se fossero state ottenute da microscopi più avanzati (e più costosi).

“Questo è un nuovo metodo molto potente che è abilitato dall’apprendimento profondo per eseguire l’imaging 3D di campioni vivi, con la minima esposizione alla luce, che può essere tossica per i campioni”, dichiara Aydogan Ozcan, ricercatore dell’UCLA, dove è anche direttore del California NanoSystems Institute, nonché autore senior dello studio.
Si tratterebbe di uno strumento, basato sull’apprendimento profondo, per l’elaborazione di immagini 3D molto utile, veloce e, come accennato prima, molto meno costoso degli attuali metodi.

Per arrivare a questi risultati hanno prima dovuto “addestrare” Deep-Z: lo hanno fatto utilizzando immagini prelevate da un microscopio a fluorescenza a scansione, dati prelevati durante migliaia di sessioni. Con questa fase di addestramento, la rete neurale ha cominciato ad apprendere le modalità di acquisizione del immagini 2D per dedurne sezioni tridimensionali relativamente accurate, sezioni che potevano rilevare aree in profondità e interne del campione. I risultati sono stati abbastanza confortanti.
“Ogni microscopio ha i suoi vantaggi e svantaggi. Con questo framework, puoi ottenere il meglio da entrambi i mondi usando l’IA per connettere digitalmente diversi tipi di microscopi”, spiega Yair Rivenson, altro ricercatore dell’UCLA impegnato nello studio.

Approfondimenti

Articoli correlati

Condividi questo articolo

Dati articolo


Resta aggiornato su Facebook