GPT-4 sorprende nei giochi sociali, ma sbaglia in fiducia e cooperazione con gli umani

Generato con AI

Uno studio pubblicato su Nature Human Behaviour[1] ha valutato come i modelli linguistici come GPT-4 si comportano in scenari sociali simulati, rivelando i loro limiti nel comprendere fiducia, cooperazione e compromesso.

AI troppo logiche per essere sociali

Per capire il comportamento delle intelligenze artificiali in contesti umani, i ricercatori hanno usato la teoria dei giochi comportamentale. Hanno sottoposto diversi modelli, incluso GPT-4, a una serie di giochi che richiedevano interazione sociale. Mentre GPT-4 si è dimostrata eccellente nei giochi in cui contava la logica individuale, ha avuto grosse difficoltà in quelli che esigevano collaborazione e coordinamento. Eric Schulz, autore senior dello studio, afferma che la razionalità estrema del modello finisce per ostacolare la sua capacità di costruire relazioni fondate sulla fiducia.

Un trucco semplice migliora la cooperazione

Il team ha quindi deciso di applicare un metodo chiamato Social Chain-of-Thought (SCoT), in cui il modello è invitato a considerare il punto di vista dell’altro prima di agire. Questo semplice cambiamento ha avuto effetti sorprendenti: l’IA è diventata più cooperativa, più flessibile e più capace di ottenere risultati vantaggiosi per entrambi i partecipanti, anche quando giocava con esseri umani. Elif Akata, prima autrice, sottolinea che molti partecipanti non riuscivano a distinguere l’IA da una persona reale.

Possibili impieghi nella sanità

Le implicazioni di questa ricerca vanno ben oltre i giochi: toccano il modo in cui le IA potranno supportare persone reali in contesti delicati. In settori come la salute mentale, la gestione delle malattie croniche o l’assistenza agli anziani, un’intelligenza artificiale capace di cogliere segnali sociali e creare fiducia può fare la differenza. Secondo Akata, l’obiettivo è sviluppare sistemi che sappiano motivare i pazienti, accompagnarli in momenti difficili e gestire conversazioni complesse.

Verso un’intelligenza più umana

Lo studio dimostra che la socialità non è fuori dalla portata delle macchine, ma va allenata. Anche i modelli più avanzati non sembrano ancora dotati di intelligenza sociale innata, ma possono imparare a comportarsi in modo più umano con semplici accorgimenti. La strada verso un’IA empatica e cooperativa è appena iniziata, ma promette di rivoluzionare le relazioni tra uomo e macchina in ambiti sempre più ampi.

Approfondimenti

  1. AI meets game theory: How language models perform in human-like social scenarios
Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo