
La paura delle intelligenze artificiali nel corso degli anni è diventata sempre più intensa e questo timore, complici notevoli progressi nel campo, ha letteralmente abbandonato il contesto fantascientifico ed è entrato nella realtà. Secondo Jim Davies, un professore di scienze cognitive della Carleton University, anche se non sappiamo ancora se riusciremo mai a creare una vera intelligenza artificiale forte, l’esistenza di macchine coscienti potrebbe portare a conseguenze dolorose o comunque ad un punto superato il quale dovremmo effettuare delle scelte.
Problema della coscienza replicata nei computer
Il problema della coscienza replicata nei computer ha provocato ampi dibattiti tra scienziati e ricercatori. Qualcuno ritiene che, rielaborando artificialmente i circuiti neuronali e in generale simulando artificialmente il cervello umano, con un buon un quantitativo di potenza computazionale si potrebbe creare una sorta di coscienza. Secondo altri non sappiamo ancora cosa sia la coscienza, quindi replicarla artificialmente è molto al di là della nostra portata, forse potrebbe essere per sempre impossibile.
Teoria della coscienza
Secondo Davies un giorno potremmo arrivare a sviluppare una teoria della coscienza che ci permetterebbe di fare misurazioni reali. A quel punto potremmo scientificamente capire se una macchina possa essere definita cosciente oppure no.
Non esiste però un consenso su una vera teoria della coscienza. La teoria più popolare, quella dello spazio di lavoro globale, spiega che i pensieri coscienti possono essere considerati quelli che vengono distribuiti ad altri processi cerebrali inconsci. Non c’è però alcun consenso su questa teoria, spiega il ricercatore.
In sostanza non c’è modo di testare la coscienza se non c’è una base teorica.
Le tre possibilità
Le possibilità, secondo Davies, questo punto sono tre: non si arriverà mai ad una coscienza artificiale; potremmo un giorno arrivare ad una coscienza artificiale; siamo già arrivati ad una coscienza artificiale. Per quest’ultimo scenario ci si riferisce soprattutto agli enormi progressi che obiettivamente sono stati fatti nel campo dei software di intelligenza artificiale, in particolare dei cosiddetti “agenti” artificiali. Anche in questo caso il discorso etico non differirebbe troppo rispetto ai dilemmi morali che ci porremmo davanti ad un’intelligenza artificiale innestata in un corpo robotico, magari simile a noi. La coscienza, evidentemente, esula dalla trasposizione della IA in un corpo fisico (sostanzialmente in un androide o in un robot) e può manifestarsi anche sotto forma di un “semplice” software.
Discorso relativo all’etica
In ogni caso qualora l’umanità riuscisse ad ottenere un obiettivo del genere, automaticamente entrerebbe in gioco il discorso relativo all’etica. Secondo diversi scienziati, spiega Davis, riuscire a sperimentare uno stato di coscienza piacevole oppure spiacevole può fare di un’entità artificiale una degna di considerazione morale. È lo stesso motivo per il quale possiamo dare un calcio ad una sedia senza pensarci troppo ma ci dispiacerebbe (almeno alla maggior parte di noi) darlo ad un cane.
Quindi se un giorno i computer sperimenteranno stati emozionali, avremmo degli obblighi etici nei loro confronti?
Note e approfondimenti
Articoli correlati
- Computer non potranno mai raggiungere livello di coscienza secondo scienziato informatico
- Intervista all’intelligenza artificiale: che futuro si prospetta?
- La coscienza è il campo elettromagnetico autogenerato dal cervello: ecco nuova teoria
- Mind uploading forse possibile tramite approccio adattivo decentralizzato
- In arrivo i “deadbot”, i nuovi bot per chattare con le persone defunte
- Percezione visiva cosciente avviene al di fuori del sistema visivo
- Immortalità digitale? C’è un tranello secondo scienziata
- Fermare una superintelligenza artificiale? Non avremmo speranze