L’influenza nascosta dell’intelligenza artificiale, gli umani cambiano per insegnare equità

Questo studio, pubblicato su Proceedings of the National Academy of Sciences (PNAS), [1] esamina l’impatto del comportamento umano sulla formazione dell’intelligenza artificiale. Rivela che le persone modificano le proprie azioni quando credono che le proprie decisioni plasmeranno i sistemi di intelligenza artificiale, un’intuizione con implicazioni di vasta portata per lo sviluppo dell’intelligenza artificiale.

Modificazioni comportamentali nell’addestramento dell’intelligenza artificiale

Secondo lo studio, ai partecipanti è stato chiesto di giocare al “Gioco dell’Ultimatum”, in cui hanno negoziato pagamenti in denaro con altri o con un computer. Quando sono stati informati che le loro scelte sarebbero state utilizzate per addestrare un’IA, i giocatori hanno costantemente mostrato un comportamento più imparziale, anche se ciò significava ricevere una quota minore di denaro.
Questo cambiamento di comportamento indica che quando le persone sanno di influenzare l’IA, sono motivate a insegnarle ad agire in modo equo, il che suggerisce un intrinseco senso di responsabilità verso lo sviluppo etico dell’IA.

Cambiamenti comportamentali duraturi

Ciò che è particolarmente sorprendente è che questo comportamento è persistito anche dopo che ai partecipanti è stato detto che le loro decisioni non avrebbero più influenzato l’addestramento all’IA. Questa scoperta suggerisce che il processo di addestramento dell’IA può avere un impatto duraturo sul modo in cui le persone prendono decisioni, potenzialmente instillando nuove abitudini o rafforzando le tendenze esistenti verso correttezza ed equità.
Wouter Kool, coautore dello studio, sottolinea questo come un esempio di come la formazione di abitudini possa estendersi oltre l’innesco iniziale, modellando il comportamento in modi inaspettati. Chien-Ju Ho, un altro coautore, sottolinea che molti sistemi di IA sono addestrati su decisioni umane, che raramente sono neutrali. Se gli sviluppatori non tengono conto di questi pregiudizi, l’IA risultante potrebbe perpetuare l’ingiustizia, come si vede in alcune tecnologie di riconoscimento facciale che hanno difficoltà a identificare accuratamente le persone di colore.

Approfondimenti

  1. The consequences of AI training on human decision-making | PNAS
Condividi questo articolo

C’è un errore?

Hai trovato un errore in questa pagina? Segnalacelo!

Disclaimer notizie

Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n° 62 del 7.03.2001. L’autore non è responsabile di altri siti collegati tramite link né del loro contenuto che può essere soggetto a variazioni nel tempo.

Notizie scientifiche.it usa i cookie per migliorare l'esperienza di navigazione (Leggi di più)


Dati articolo