
Lo studio è stato pubblicato su arXiv[1] e analizza quanto le intelligenze artificiali siano realmente efficaci nel comprendere e moderare il linguaggio digitale della Generazione Alpha (nati tra il 2010 e il 2024).
Una nuova lingua digitale
La Generazione Alpha ha sviluppato un proprio codice linguistico, fatto di meme, abbreviazioni, slang da videogiochi e riferimenti all’intelligenza artificiale. Questo linguaggio è in continua evoluzione e si adatta rapidamente ai contesti digitali. Tuttavia, proprio questa sua fluidità rende difficile per genitori, insegnanti e sistemi automatici riconoscere segnali di pericolo come bullismo, manipolazione o adescamento online.
I limiti delle IA nel rilevare pericoli
Il team ha confrontato le capacità di GPT-4, Claude, Gemini e Llama 3 nell’interpretare 100 espressioni comuni tra i giovani. Sebbene abbiano mostrato una discreta comprensione di base, tutti i modelli hanno faticato nel rilevare contenuti pericolosi mascherati, soprattutto quelli in evoluzione o dipendenti dal contesto. Espressioni apparentemente innocue, come “let him cook” o “you ate that up”, possono assumere significati opposti a seconda del contesto e risultare derisorie o offensive.
Il divario generazionale e la sfiducia
Gen Alpha mostra una comprensione quasi nativa del proprio linguaggio, ma tende a non chiedere aiuto agli adulti, percepiti come incapaci di capire. I genitori e anche i moderatori professionisti faticano a seguire il ritmo del cambiamento linguistico, con gravi conseguenze in termini di protezione. Il divario tra generazioni diventa quindi anche un problema di sicurezza.
Verso un’IA più equa e trasparente
Lo studio sottolinea anche i bias nei sistemi di moderazione automatica, che colpiscono soprattutto i giovani delle minoranze. Gli autori propongono una nuova metodologia di valutazione, con la partecipazione attiva dei giovani, per progettare sistemi di sicurezza più equi e consapevoli. La ricerca mostra come l’automazione totale nella moderazione dei contenuti non sia ancora una soluzione sufficiente e che la collaborazione tra IA e umani resti fondamentale per proteggere i più giovani.


