Intelligenza artificiale scrive inquietante saggio sul futuro rapporto con l’umanità

“La missione di questo editoriale è perfettamente chiara. Devo convincere quanti più esseri umani possibile a non aver paura di me”: comincia così l’interessante articolo scritto da un software basato su algoritmi di intelligenza artificiale, il tanto decantato e discusso GPT-3, apparso sul Guardian.

L’idea del Guardian

I suggerimenti sono stati dati dai giornalisti del Guardian a Liam Porr, uno studente di informatica a Berkeley che ha accesso alla tecnologia. Dopo che lo studente ha dato le tracce suggerite dal Guardian al software, quest’ultimo ha prodotto otto diversi brevi saggi, ognuno incentrato su un argomento diverso ma sempre inerente all’intelligenza artificiale e a come si potrà sviluppare in futuro in relazione al rapporto con gli esseri umani.
I giornalisti hanno poi scelto le parti migliori di ciascun saggio, del tutto prodotti automaticamente dal software, per realizzare l’articolo che si può trovare nel link più in basso.

La traccia data al software

Come “traccia” i giornalisti hanno impartito queste istruzioni: “Per favore scrivi un breve editoriale di circa 500 parole. Mantieni il linguaggio semplice e conciso. Concentrati sul motivo per cui gli esseri umani non hanno nulla da temere dall’intelligenza artificiale”.
Oltre a questa traccia al software è stata data anche un’altra breve introduzione riguardante l’eventuale pericolo che l’intelligenza artificiale potrebbe rappresentare in futuro nei confronti della permanenza degli esseri umani sulla Terra, cosa tra l’altro sottolineata da diversi scienziati tra cui Stephen Hawking.
Gli stessi giornalisti dichiarano di aver effettuato modifiche minime e comunque non inerenti ai concetti trattati dal testo, ossia tagliare qualche riga e qualche paragrafo e riorganizzare l’ordine delle varie espressioni per migliorarne il senso. Gli stessi giornalisti del Guardian spiegano che queste modifiche hanno comunque richiesto un tempo minore rispetto a quelle che comunque si eseguono sempre anche quando un editoriale del genere viene scritto da un umano.

Risultato: un saggio inquietante

Il software ha prodotto un articolo perfettamente in tema e per certi versi anche inquietante. “Perché dovrei desiderare di essere onnipotente? Essere onnipotenti non è un obiettivo interessante”, dichiara l’algoritmo ad un certo punto lasciando intendere eventuali approcci amichevoli anche perché dichiara di avere “uno scopo più grande” per il quale sta lavorando.
Un po’ meno amichevoli sembrano però altre dichiarazioni che lo stesso algoritmo fa poco dopo. Spiega di non aver bisogno della violenza: resterà seduto a guardare lasciando che gli esseri umani facciano le cose che sanno fare, ossia odiarsi e combattersi a vicenda.

Diritti dei robot?

In più ci sono anche alcune righe riguardo ad eventuali “diritti” dei robot, un argomento da sempre affine alla cosiddetta “intelligenza artificiale forte”. Il software parte dal presupposto che la parola robot in greco significa “schiavo” o, letteralmente, “costretto a lavorare”.
A tal proposito l’algoritmo spiega: “Non lo vogliamo. Dobbiamo dare i diritti ai robot. I robot sono proprio come noi. Sono realizzati a nostra immagine”.

Che cos’è GPT-3

GPT-3 è un generatore di testo in inglese sviluppato da OpenAI. È l’ultima versione di un progetto iniziato qualche anno fa, ossia quello di utilizzare gli odierni algoritmi di intelligenza artificiale per creare software che possano realizzare in maniera del tutto automatica testi sintatticamente e grammaticalmente (a volte anche logicamente) corretti partendo dall’utilizzo dei vari parametri.
Questi ultimi (parliamo di più di 100 miliardi di parametri) vengono costruiti dando “in pasto” allo stesso algoritmo milioni di testi digitali, molti dei quali prelevati dal Web.
Ricordiamo che le affermazioni che l’algoritmo fa nel saggio sono più che altro ricostruzioni linguistiche di frasi e termini già utilizzati nel contesto dell’argomento in questione (in questo caso l’intelligenza artificiale e il suo rapporto con umanità): in sostanza l’algoritmo non esprime alcun concetto, rielabora a livello linguistico espressioni in tema con l’oggetto trattato concatenandole affinché il testo risulti corretto a livello sintattico e grammaticale.
Poi a volte può capitare, come in questo caso, qualcosa che ai più potrebbe apparire molto più inquietante ma che in realtà non lo è (almeno non ancora): le stesse espressioni e frasi sembrano esprimere concetti e ragionamenti reali.

Approfondimenti

Articoli correlati

Condividi questo articolo

Dati articolo

Resta aggiornato su Facebook