Intelligenza artificiale, ecco il modello che prevede l’evoluzione della scienza anno per anno

Un nuovo studio pubblicato su arXiv[1] introduce AnnualBERT, una serie di modelli linguistici pensati per analizzare l’evoluzione temporale del linguaggio scientifico. A differenza dei modelli generici, AnnualBERT si basa su un’architettura RoBERTa addestrata su articoli scientifici organizzati per anno.

Un modello per ogni anno di scienza

Il team ha sviluppato una strategia di pretraining originale: si parte da un modello base addestrato su articoli arXiv fino al 2008, poi si aggiorna il modello ogni anno con i nuovi articoli pubblicati. Questo approccio, detto “continual training”, consente a ciascun modello di riflettere il linguaggio e le tendenze specifiche di un periodo storico. I modelli usano tokenizzazione a parola intera, una scelta che consente di seguire meglio l’evoluzione dei concetti scientifici nel tempo, senza che vengano spezzettati in frammenti poco significativi.

Prestazioni e capacità predittive

AnnualBERT è stato confrontato con modelli noti come SciBERT e BioBERT su compiti NLP come classificazione, riconoscimento di entità e predizione di relazioni. Sebbene non eccella nei compiti di riconoscimento delle entità, si dimostra superiore nelle previsioni legate alla classificazione degli articoli e nella capacità di identificare articoli interdisciplinari. La versione continuamente aggiornata del modello ha prestazioni migliori anche rispetto alla variante addestrata una sola volta sull’intero corpus.

Modello e scienza evolvono insieme

Una delle applicazioni più originali di AnnualBERT è la predizione dei collegamenti nelle reti di citazione: il modello riesce a prevedere quali articoli citeranno altri articoli, sia nel presente che in futuro. Inoltre, analizzando il cambiamento nei pesi interni dei modelli nel tempo, si osservano traiettorie coerenti che riflettono l’evoluzione della scienza. Alcune funzioni come la previsione di sottocategorie migliorano nel tempo, altre invece mostrano segni di “dimenticanza” delle conoscenze passate.

Un nuovo modo per esplorare la conoscenza

AnnualBERT si propone non solo come strumento per migliorare le prestazioni su testi scientifici, ma anche come “archivio intelligente” capace di sintetizzare il sapere accumulato anno per anno. Le sue capacità di interpolazione tra modelli suggeriscono che il linguaggio scientifico evolve in modo graduale e comprensibile. Questo lavoro apre la strada a nuove ricerche sull’analisi temporale automatica della scienza attraverso i modelli linguistici.

Approfondimenti

  1. [2409.09636] Towards understanding evolution of science through language model series
Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo