Intelligenza artificiale e metaverso: abbiamo responsabilità verso esseri che creeremo?

Credito: Mysticsartdesign, Pixabay, ID: 4760049

In un interessante articolo su The Conversation Richard A. Bartle, professore onorario di computer game design all’Università dell’Essex, produce diverse riflessioni sull’avanzamento nel campo dell’intelligenza artificiale in particolare per quanto riguarda la sua applicazione nel cosiddetto “metaverso” e nella creazione di entità intelligenti all’interno dei futuri mondi virtuali.

Personaggi intelligenti nei metaversi

In effetti l’applicazione dei progressi che stiamo vedendo nell’applicazione dell’intelligenza artificiale nella creazione di personaggi o comunque entità distinte all’interno di un mondo virtuale come un metaverso risulterebbe una di quelle ideali. Tuttavia, come fa notare Bartle, creare dei “personaggi” (spesso detti NPC, Non-Player Character, personaggi non giocanti) che poi, con l’avanzamento stesso delle tecniche di intelligenza artificiale, risulteranno sempre più complessi fino a diventare intelligenti almeno quanto un essere umano produce considerazioni che dovremmo fare già da ora.

Personaggi virtuali intelligenti quanto gli umani

Secondo il ricercatore, un giorno potremmo produrre dei mondi virtuali i quali, al di là della loro complessità o vastità, potrebbero contenere al loro interno dei personaggi altrettanto virtuali ma intelligenti quanto gli esseri umani. Se si arriverà a quel punto, questi personaggi saranno praticamente capaci di pensare come noi e comunque avranno un loro libero arbitrio.
Ne consegue che probabilmente avremmo delle responsabilità nei loro confronti in quanto, come creatori, possiamo controllare la fisica dei loro mondi e quindi la loro stessa esistenza.

Potremmo condannare “creature” intelligenti alla non esistenza

Se gli esseri umani creano dei personaggi che pensano liberamente, allora dovremmo trattarli come tali in maniera indipendente da come possano apparire agli osservatori esterni. In sostanza se spegniamo uno dei metaversi che creeremo e se al loro interno ci sono dei personaggi con un’intelligenza artificiale pari all’intelligenza umana, sostanzialmente condanneremo miliardi di queste “creature” intelligenti alla non esistenza.

Domande ancora senza risposta

Salvare una copia di backup di un mondo virtuale prima della sua terminazione forzata, magari perché quel metaverso prodotto da una determinata azienda non ha avuto il successo sperato a livello commerciale, basterebbe a non condannare questi esseri alla non esistenza?
La sola possibilità di riattivare quel mondo riportandolo allo stato in cui era esattamente nel momento in cui lo stesso mondo veniva terminato basterebbe per non “uccidere” questi personaggi? E se il software che è alla base di quel metaverso non fosse più disponibile?
Sono tutte domande che Bartle si fa e che, come lascia intendere, dovremmo farci anche noi se riteniamo immorale far soffrire individui o entità che possono pensare liberamente.

Scale di importanza

Naturalmente, come fa notare il ricercatore, probabilmente ci saranno scale di importanza ma ciò non eliminerebbe il problema. Salvare un bambino reale, per esempio, uno in carne ed ossa, probabilmente sarà sempre più importante del salvataggio di un personaggio in un metaverso, qualsiasi sia il suo livello di intelligenza e di libero arbitrio, così come è più importante oggi del salvataggio di un cane.
Tuttavia oggi viene considerato riprovevole non porre attenzione alla sofferenza di animali come i cani: i personaggi intelligenti all’interno dei metaversi del futuro dovrebbero poter avere un livello di considerazione perlomeno pari?
Una domanda che probabilmente presto dovremo cominciare a porci.

Articoli correlati


Tag

Condividi questo articolo


Data articolo