Nuova tecnica riduce fino al 60% il tempo di addestramento degli algoritmi di deep learning

Un nuovo metodo per accelerare il tempo di formazione delle reti di deep learning fino al 60% è stato descritto in uno studio presentato alla 35ª Conferenza Internazionale IEEE sull’ingegneria dei dati, che si è tenuta dall’8 all’11 aprile a Macao, in Cina.
Come sarà noto a chi segue anche un po’ le notizie riguardanti l’intelligenza artificiale, la tecnica del machine learning prevede che un algoritmo informatico impari da solo analizzando una massa di dati, di solito molto grande. Questa fase migliora la precisione e dunque la qualità dei risultati dello stesso software, qualsiasi sia il suo campo di applicazione.

Secondo Xipeng Shen, professore di informatica presso la North Carolina State University, è possibile accelerare la fase di apprendimento approfondito, una delle fasi più critiche dei nuovi strumenti di intelligenza artificiale in quanto porta via tempo e soprattutto necessita di molta potenza di calcolo.
Il metodo per accelerare questa fase è stato denominato dagli stessi ricercatori Adaptive Deep Reuse. Secondo Shen è possibile ridurre i tempi di “allenamento” fino al 69% senza per questo rinunciare alla qualità dei risultati.

Secondo il ricercatore, infatti, di solito molti dei blocchi dei dati che vengono forniti ad un algoritmo di deep learning sono molto simili tra loro. Ad esempio in un’immagine dove c’è un cielo, molte zone del cielo stesso sono sostanzialmente quasi identiche.
Insegnare ad una rete di deep learning a riconoscere questi blocchi di dati molto simili potrebbe permettere allo stesso algoritmo di applicare dei filtri a determinate porzioni di dati, ad esempio a quei blocchi molto simili in uno stesso set, risparmiando così molta potenza di calcolo e tempo.

A tal proposito i ricercatori hanno progettato un algoritmo adattivo che implementa in maniera automatica e incrementale questi filtri durante il processo di addestramento.
Adaptive Deep Reuse, secondo i ricercatori, durante i test ha mostrato di poter ridurre i tempi di addestramento fino a 69%. E non solo: quanto più grande è la rete, tanto più Adaptive Deep Reuse è in grado di ridurre i tempi di formazione, come afferma Hui Guan, coautore dello studio.

Fonti e approfondimenti

Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo