
Un nuovo metodo per accelerare il tempo di formazione delle reti di deep learning fino al 60% è stato descritto in uno studio presentato alla 35ª Conferenza Internazionale IEEE sull’ingegneria dei dati, che si è tenuta dall’8 all’11 aprile a Macao, in Cina.
Come sarà noto a chi segue anche un po’ le notizie riguardanti l’intelligenza artificiale, la tecnica del machine learning prevede che un algoritmo informatico impari da solo analizzando una massa di dati, di solito molto grande. Questa fase migliora la precisione e dunque la qualità dei risultati dello stesso software, qualsiasi sia il suo campo di applicazione.
Secondo Xipeng Shen, professore di informatica presso la North Carolina State University, è possibile accelerare la fase di apprendimento approfondito, una delle fasi più critiche dei nuovi strumenti di intelligenza artificiale in quanto porta via tempo e soprattutto necessita di molta potenza di calcolo.
Il metodo per accelerare questa fase è stato denominato dagli stessi ricercatori Adaptive Deep Reuse. Secondo Shen è possibile ridurre i tempi di “allenamento” fino al 69% senza per questo rinunciare alla qualità dei risultati.
Secondo il ricercatore, infatti, di solito molti dei blocchi dei dati che vengono forniti ad un algoritmo di deep learning sono molto simili tra loro. Ad esempio in un’immagine dove c’è un cielo, molte zone del cielo stesso sono sostanzialmente quasi identiche.
Insegnare ad una rete di deep learning a riconoscere questi blocchi di dati molto simili potrebbe permettere allo stesso algoritmo di applicare dei filtri a determinate porzioni di dati, ad esempio a quei blocchi molto simili in uno stesso set, risparmiando così molta potenza di calcolo e tempo.
A tal proposito i ricercatori hanno progettato un algoritmo adattivo che implementa in maniera automatica e incrementale questi filtri durante il processo di addestramento.
Adaptive Deep Reuse, secondo i ricercatori, durante i test ha mostrato di poter ridurre i tempi di addestramento fino a 69%. E non solo: quanto più grande è la rete, tanto più Adaptive Deep Reuse è in grado di ridurre i tempi di formazione, come afferma Hui Guan, coautore dello studio.
Fonti e approfondimenti
Articoli correlati
- Creare un solo algoritmo di intelligenza artificiale emette carbonio quanto 5 auto (6/6/2019)
- Intelligenza artificiale è futuro dell’astronomia: lo dimostra questo nuovo studio (11/8/2020)
- Nuovo algoritmo aiuta a capire se un testo è stato scritto da una macchina (28/7/2019)
- Nuovo algoritmo permette a robot militari USA di imparare da umani (12/8/2020)
- Harvard e Google pensano di poter prevedere scosse di assestamento con intelligenza artificiale (31/8/2018)
- Intelligenza artificiale può prevedere dove può colpire un fulmine (8/11/2019)
- Intelligenza artificiale, nuovo software riconosce e identifica uccelli dalle immagini (27/7/2020)
- Ricercatori stanno addestrando intelligenza artificiale a riconoscere odori (25/10/2019)