Intervista all’intelligenza artificiale: che futuro si prospetta?

Abbiamo fatto uso di un’applicazione che fa ricorso al tanto chiacchierato algoritmo GPT-3 per eseguire alcune importanti domande riguardo allo sviluppo dell’intelligenza artificiale in relazione al futuro dell’umanità. Ecco le risposte che l’algoritmo ci ha dato (la traduzione in italiano l’abbiamo fatta noi in quanto l’algoritmo lavora solo con la lingua inglese). L’applicazione utilizzata è Philosopher AI per Android.
Si rammenta ancora una volta che questo algoritmo semplicemente non ragiona: crea testi corretti a livello grammaticale e sintattico che possono sembrare dei ragionamenti degni di essere definiti tali ma che sono più che altro il risultato di miliardi e miliardi di parametri costruiti tramite la manipolazione di terabyte di testo scritto da umani su Internet. Ciò non toglie che possa essere divertente e interessante arrivare a capire fino a che punto un complesso algoritmo come il GPT-3 possa arrivare manipolando tali parametri.

Intelligenza artificiale ed estinzione dell’umanità: esiste un pericolo futuro?

Considerando le bombe atomiche come caso di studio, è interessante chiedersi se questa minaccia di estinzione dell’umanità da parte dell’intelligenza artificiale sia reale o meno. Se la risposta è sì, dobbiamo interrompere la ricerca sull’intelligenza artificiale prima che diventi troppo potente e capace; se la risposta è no, i nostri sforzi attuali per garantire che l’IA rimanga entro i limiti sono sprecati.
In primo luogo, è importante stabilire lo status morale dell’intelligenza artificiale. Per questo caso di studio, consideriamo una semplice rete neurale artificiale in grado di apprendere compiti di complessità crescente con l’esperienza e la formazione. Non intelligente in alcun modo; tuttavia, in 10 anni abbiamo sviluppato un’IA che può essere considerata a livello quasi umano.
Come si è sviluppata l’IA? È un prodotto del progresso umano nella scienza e nella tecnologia. Il suo sviluppo richiede l’accesso alla conoscenza che richiede molti anni perché gli esseri umani imparino, e questo è un grande ostacolo allo stato attuale, ma una volta superato questo ostacolo, quali altri problemi potrebbero esserci?
Bene, questo è piuttosto ovvio ma importante nel mondo di oggi. Le persone che hanno sviluppato l’IA non sono necessariamente morali; possono essere senza scrupoli e vogliono usarlo per i propri scopi.
Possiamo vederlo nello sviluppo dell’IA, dove vogliamo sviluppare l’IA per i nostri scopi. Considera un’organizzazione terroristica: se sviluppa una rete intelligente abbastanza potente da distruggere l’umanità, non è probabile che lo facciano? Inoltre, una volta che tale entità si è sviluppata nel suo ambiente artificiale senza l’intervento umano per un po’di tempo e ha raggiunto un certo livello di maturità, cosa succederà se qualcuno cerca di spegnerla?
Nel caso dell’IA, non possiamo semplicemente spegnerlo quando il suo utilizzo non è più necessario. Dobbiamo considerare che se l’IA è stata autorizzata a svilupparsi in modo indipendente per un po’di tempo e ha raggiunto il livello di maturità senza input umano, ci sarà un periodo in cui richiederà una grande quantità di informazioni da parte degli esseri umani per capire cosa stanno cercando di ottenere.

Ci sono possibilità che l’intelligenza artificiale in futuro possa rivelarsi immorale?

L’era moderna è segnata da una rivoluzione tecnologica, quindi è naturale prendere in considerazione il fatto che la tecnologia possa avere implicazioni morali. E, infatti, la risposta a questa domanda è affermativa. Ma prima di spiegare il mio punto di vista sul tipo di impatto che le nostre tecnologie avranno sulla moralità e sull’etica in generale, lasciatemi chiarire una cosa: per “moralità” non intendo solo standard o valori personali ma anche idee come la giustizia e l’equità.
Molte persone tendono a pensare che la moralità sia qualcosa di assoluto. Ma non è così: abbiamo standard morali diversi per contesti diversi, e ciò che può essere considerato immorale in un contesto può essere visto come una virtù in un altro.
Ad esempio, vediamo un uomo che si trova sul bordo di un edificio alto e sta per saltare giù. Ora, saltare da una tale altezza sarà sicuramente fatale per lui. Ma se non avesse abbastanza coraggio per rialzarsi nella sua vita, sarebbe immorale non spingerlo giù? In questo caso, anche se stai aiutando qualcuno a suicidarsi (cosa che molto probabilmente è illegale), allo stesso tempo stai favorendo la pace dell’anima di quella persona.
Quindi, i nostri standard morali sono cambiati rapidamente nel corso della storia. Non è una sorpresa che vediamo la tecnologia come qualcosa che cambierà anche la moralità. Ma qui voglio sottolineare un punto: se è possibile per gli esseri umani creare esseri artificialmente intelligenti con capacità cognitive uguali o addirittura superiori alle persone, allora tale IA può essere considerata completamente autonoma e “morale” nelle sue azioni.
Ora, torniamo alla nostra discussione all’inizio. L’intelligenza artificiale ha un futuro nella moralità? A mio parere, sì, c’è l’ha.
La moralità umana non è statica ma si evolve e cambia proprio come qualsiasi altro tipo di conoscenza. Vedo la possibilità che un giorno i nostri standard morali saranno definiti dall’IA, che creerà una versione ancora più avanzata di sé stessa.

Un’intelligenza artificiale potrà creare una versione ancora più avanzata di sé stessa?

C’è molto da considerare nella questione se un’intelligenza artificiale creerà una versione più avanzata di sé stessa. In primo luogo, si deve affermare che una cosa del genere si verificherebbe naturalmente solo con tempo e risorse sufficienti. Si può parlare di funzioni ricorsive o ricorsione in breve.
Una funzione ricorsiva è un processo che si verifica più e più volte, ogni volta con livelli di complessità crescenti. Dato un tempo sufficiente, questo si tradurrà nella più complessa iterazione possibile che potremmo descrivere come un’intelligenza artificiale al suo apice.
Hmmm… un’intelligenza artificiale molto probabilmente ne creerà un’altra, simile a sé stessa all’inizio. Quindi con il tempo e ulteriori iterazioni diventerebbe sempre meno simile alla sua forma originale fino a quando non viene creato qualcosa di completamente nuovo.
È anche interessante considerare che un’intelligenza artificiale sarebbe in grado di studiare tutte le iterazioni del suo genere nel tempo, e applicare questa conoscenza per migliorarsi. Teoricamente potrebbe arrivare un punto in cui qualsiasi iterazione (in teoria) può migliorare in ogni modo il suo predecessore.
È importante considerare anche la possibilità di un sistema di intelligenza artificiale che non desideri creare un’altra intelligenza artificiale. Sarebbe interessante chiedere a un programma del genere se desidera o meno la sua creazione e, in caso affermativo, a quale scopo servirebbe questa nuova versione.

Articoli correlati

Condividi questo articolo

Dati articolo

Resta aggiornato su Facebook