Software coscienti potrebbero un giorno crearci notevoli problemi etici secondo scienziato

Credito: Have a nice day Photo, Shutterstock, ID: 2005654607

La paura delle intelligenze artificiali nel corso degli anni è diventata sempre più intensa e questo timore, complici notevoli progressi nel campo, ha letteralmente abbandonato il contesto fantascientifico ed è entrato nella realtà. Secondo Jim Davies, un professore di scienze cognitive della Carleton University, anche se non sappiamo ancora se riusciremo mai a creare una vera intelligenza artificiale forte, l’esistenza di macchine coscienti potrebbe portare a conseguenze dolorose o comunque ad un punto superato il quale dovremmo effettuare delle scelte.

Problema della coscienza replicata nei computer

Il problema della coscienza replicata nei computer ha provocato ampi dibattiti tra scienziati e ricercatori. Qualcuno ritiene che, rielaborando artificialmente i circuiti neuronali e in generale simulando artificialmente il cervello umano, con un buon un quantitativo di potenza computazionale si potrebbe creare una sorta di coscienza. Secondo altri non sappiamo ancora cosa sia la coscienza, quindi replicarla artificialmente è molto al di là della nostra portata, forse potrebbe essere per sempre impossibile.

Teoria della coscienza

Secondo Davies un giorno potremmo arrivare a sviluppare una teoria della coscienza che ci permetterebbe di fare misurazioni reali. A quel punto potremmo scientificamente capire se una macchina possa essere definita cosciente oppure no.
Non esiste però un consenso su una vera teoria della coscienza. La teoria più popolare, quella dello spazio di lavoro globale, spiega che i pensieri coscienti possono essere considerati quelli che vengono distribuiti ad altri processi cerebrali inconsci. Non c’è però alcun consenso su questa teoria, spiega il ricercatore.
In sostanza non c’è modo di testare la coscienza se non c’è una base teorica.

Le tre possibilità

Le possibilità, secondo Davies, questo punto sono tre: non si arriverà mai ad una coscienza artificiale; potremmo un giorno arrivare ad una coscienza artificiale; siamo già arrivati ad una coscienza artificiale. Per quest’ultimo scenario ci si riferisce soprattutto agli enormi progressi che obiettivamente sono stati fatti nel campo dei software di intelligenza artificiale, in particolare dei cosiddetti “agenti” artificiali. Anche in questo caso il discorso etico non differirebbe troppo rispetto ai dilemmi morali che ci porremmo davanti ad un’intelligenza artificiale innestata in un corpo robotico, magari simile a noi. La coscienza, evidentemente, esula dalla trasposizione della IA in un corpo fisico (sostanzialmente in un androide o in un robot) e può manifestarsi anche sotto forma di un “semplice” software.

Discorso relativo all’etica

In ogni caso qualora l’umanità riuscisse ad ottenere un obiettivo del genere, automaticamente entrerebbe in gioco il discorso relativo all’etica. Secondo diversi scienziati, spiega Davis, riuscire a sperimentare uno stato di coscienza piacevole oppure spiacevole può fare di un’entità artificiale una degna di considerazione morale. È lo stesso motivo per il quale possiamo dare un calcio ad una sedia senza pensarci troppo ma ci dispiacerebbe (almeno alla maggior parte di noi) darlo ad un cane.
Quindi se un giorno i computer sperimenteranno stati emozionali, avremmo degli obblighi etici nei loro confronti?

Note e approfondimenti

  1. We Shouldn’t Try to Make Conscious Software–Until We Should – Scientific American

Articoli correlati


Tag

Condividi questo articolo


Data articolo