Nuova tecnica riduce fino al 60% il tempo di addestramento degli algoritmi di deep learning

Un nuovo metodo per accelerare il tempo di formazione delle reti di deep learning fino al 60% è stato descritto in uno studio presentato alla 35ª Conferenza Internazionale IEEE sull’ingegneria dei dati, che si è tenuta dall’8 all’11 aprile a Macao, in Cina.
Come sarà noto a chi segue anche un po’ le notizie riguardanti l’intelligenza artificiale, la tecnica del machine learning prevede che un algoritmo informatico impari da solo analizzando una massa di dati, di solito molto grande. Questa fase migliora la precisione e dunque la qualità dei risultati dello stesso software, qualsiasi sia il suo campo di applicazione.

Secondo Xipeng Shen, professore di informatica presso la North Carolina State University, è possibile accelerare la fase di apprendimento approfondito, una delle fasi più critiche dei nuovi strumenti di intelligenza artificiale in quanto porta via tempo e soprattutto necessita di molta potenza di calcolo.
Il metodo per accelerare questa fase è stato denominato dagli stessi ricercatori Adaptive Deep Reuse. Secondo Shen è possibile ridurre i tempi di “allenamento” fino al 69% senza per questo rinunciare alla qualità dei risultati.

Secondo il ricercatore, infatti, di solito molti dei blocchi dei dati che vengono forniti ad un algoritmo di deep learning sono molto simili tra loro. Ad esempio in un’immagine dove c’è un cielo, molte zone del cielo stesso sono sostanzialmente quasi identiche.
Insegnare ad una rete di deep learning a riconoscere questi blocchi di dati molto simili potrebbe permettere allo stesso algoritmo di applicare dei filtri a determinate porzioni di dati, ad esempio a quei blocchi molto simili in uno stesso set, risparmiando così molta potenza di calcolo e tempo.

A tal proposito i ricercatori hanno progettato un algoritmo adattivo che implementa in maniera automatica e incrementale questi filtri durante il processo di addestramento.
Adaptive Deep Reuse, secondo i ricercatori, durante i test ha mostrato di poter ridurre i tempi di addestramento fino a 69%. E non solo: quanto più grande è la rete, tanto più Adaptive Deep Reuse è in grado di ridurre i tempi di formazione, come afferma Hui Guan, coautore dello studio.

Fonti e approfondimenti

Articoli correlati

Condividi questo articolo


Resta aggiornato su Facebook