
Uno studio pubblicato su Economics Letters[1] mostra come i modelli linguistici di intelligenza artificiale stiano modificando in modo evidente lo stile della scrittura accademica, soprattutto nel campo dell’economia.
Uno stile sempre più artificiale
Analizzando oltre due decenni di articoli pubblicati su 25 tra le più autorevoli riviste economiche, due dottorandi dell’Università del Massachusetts Amherst, Maryam Feyzollahi e Nima Rafizadeh, hanno notato un cambiamento netto nella scrittura dopo il rilascio pubblico di ChatGPT a fine 2022. Dal 2023 al 2024, l’uso di un linguaggio associato all’IA è aumentato di quasi 5 punti percentuali, passando dal 3% al 7%, con un’accelerazione che suggerisce una crescente familiarità degli economisti con questi strumenti.
Il linguaggio dell’IA ha una firma riconoscibile
Gli autori hanno identificato una serie di parole tipiche dell’IA — come “nuance” e “leverage” — il cui uso si è intensificato nei testi scientifici. Feyzollahi spiega che questi termini funzionano come una sorta di impronta digitale che rende riconoscibile l’intervento dell’intelligenza artificiale. L’analisi statistica ha messo in luce variazioni sottili ma sistematiche che, a occhio nudo, sarebbero difficili da cogliere nei singoli articoli.
Questioni etiche aperte e disparità tecnologiche
Lo studio mette in evidenza la necessità urgente di stabilire linee guida comuni. Le riviste accademiche oggi si muovono in ordine sparso: alcune vietano l’uso dell’IA, altre richiedono una dichiarazione, altre ancora tacciono del tutto. Feyzollahi e Rafizadeh, che non hanno usato l’IA per scrivere il loro studio, sollevano domande cruciali: quando l’aiuto dell’IA diventa una forma di co-autorialità? Serve citarla nei ringraziamenti? E come si garantisce la trasparenza?
Un’opportunità, ma non per tutti
L’IA potrebbe rappresentare un’opportunità di democratizzazione, soprattutto per ricercatori alle prime armi o non madrelingua inglese. Tuttavia, potrebbe anche rafforzare le disuguaglianze tra chi ha accesso a tecnologie avanzate e chi ne è escluso. Rafizadeh sostiene che bisogna smettere di pensare solo a come “scoprire e punire” l’uso dell’IA, e iniziare a riflettere su come integrarla in modo responsabile e trasparente nei processi accademici.


