
Uno studio pubblicato su Nature Human Behaviour[1] ha valutato come i modelli linguistici come GPT-4 si comportano in scenari sociali simulati, rivelando i loro limiti nel comprendere fiducia, cooperazione e compromesso.
AI troppo logiche per essere sociali
Per capire il comportamento delle intelligenze artificiali in contesti umani, i ricercatori hanno usato la teoria dei giochi comportamentale. Hanno sottoposto diversi modelli, incluso GPT-4, a una serie di giochi che richiedevano interazione sociale. Mentre GPT-4 si è dimostrata eccellente nei giochi in cui contava la logica individuale, ha avuto grosse difficoltà in quelli che esigevano collaborazione e coordinamento. Eric Schulz, autore senior dello studio, afferma che la razionalità estrema del modello finisce per ostacolare la sua capacità di costruire relazioni fondate sulla fiducia.
Un trucco semplice migliora la cooperazione
Il team ha quindi deciso di applicare un metodo chiamato Social Chain-of-Thought (SCoT), in cui il modello è invitato a considerare il punto di vista dell’altro prima di agire. Questo semplice cambiamento ha avuto effetti sorprendenti: l’IA è diventata più cooperativa, più flessibile e più capace di ottenere risultati vantaggiosi per entrambi i partecipanti, anche quando giocava con esseri umani. Elif Akata, prima autrice, sottolinea che molti partecipanti non riuscivano a distinguere l’IA da una persona reale.
Possibili impieghi nella sanità
Le implicazioni di questa ricerca vanno ben oltre i giochi: toccano il modo in cui le IA potranno supportare persone reali in contesti delicati. In settori come la salute mentale, la gestione delle malattie croniche o l’assistenza agli anziani, un’intelligenza artificiale capace di cogliere segnali sociali e creare fiducia può fare la differenza. Secondo Akata, l’obiettivo è sviluppare sistemi che sappiano motivare i pazienti, accompagnarli in momenti difficili e gestire conversazioni complesse.
Verso un’intelligenza più umana
Lo studio dimostra che la socialità non è fuori dalla portata delle macchine, ma va allenata. Anche i modelli più avanzati non sembrano ancora dotati di intelligenza sociale innata, ma possono imparare a comportarsi in modo più umano con semplici accorgimenti. La strada verso un’IA empatica e cooperativa è appena iniziata, ma promette di rivoluzionare le relazioni tra uomo e macchina in ambiti sempre più ampi.


