Intelligenza artificiale, si prevede un futuro orwelliano nel migliore dei casi

Credito: Samdraft, Pixabay, 5917370

Un ulteriore avviso relativo alla pericolosità dell’intelligenza artificiale arriva da Brad Smith, presidente di Microsoft che parla di “futuro orwelliano” che potrebbe caratterizzare le nostre società globali nel caso l’umanità non si proteggesse tramite apposite leggi onde prevenire questa stessa situazione, come rileva Space.com.[1]

Anche le istituzioni hanno compreso il pericolo

Ormai gli avvertimenti relativi alla pericolosità dell’intelligenza artificiale non arrivano più da singoli futurologi, fino a qualche tempo fa addirittura derisi, ma dalle stesse istituzioni mondiali. È passato solo un mese da quando la stessa Unione Europea ha pubblicato alcuni bandi relativi a progetti che dovrebbero stabilire dei limiti proprio per quanto riguarda l’utilizzo dell’intelligenza artificiale nel prossimo futuro. E sforzi del genere attualmente sono messi in atto anche negli Stati Uniti i quali sono in piena corsa con la Cina per lo sviluppo di tecnologie che un giorno potrebbero portare a quello che secondo molti esperti è considerato come un “punto di non ritorno”, ossia la cosiddetta “singolarità tecnologica”.

Algoritmi stanno diventando sempre più potenti

Il fatto è che ci sono diversi algoritmi che stanno diventando sempre più potenti a tal punto da infondere preoccupazione in alcuni esperti. Si parla soprattutto degli algoritmi di apprendimento automatico (machine learning), algoritmi di solito usati per riconoscere modelli (ad esempio immagini) tramite l’utilizzo di quantità di dati enormi. Ebbene, questi algoritmi stanno diventando sempre più accurati e precisi e molto spesso lasciano di stucco anche gli stessi esperti o coloro che li hanno creati.
L’altro aspetto che infonde timore sta nel fatto che questi algoritmi possono essere praticamente applicati a tutto, dall’astronomia alla matematica di base. Tutto ciò di cui si ha bisogno è una grossa quantità di dati e proprio le grosse quantità di dati attualmente sembrano non mancare (vedi il concetto di “big data”).

Pregiudizi, anche gli algoritmi possono soffrirne

Quello di cui si ha paura maggiormente è che algoritmi del genere, magari migliorati a livello esponenziale, possano essere applicati anche in ambito sociale. In questo campo gli stessi algoritmi potrebbero lavorare rifacendosi ai pregiudizi umani dei quali tra l’altro sono “impegnati” gli stessi dati che poi si danno in pasto a questi algoritmi. Come rileva Space.com, ultimamente uno studio pubblicato su JAMA Psychiatry[2] ha certificato che questi algoritmi possono soffrire proprio di questo aspetto: prevedendo il rischio di suicidio gli stessi algoritmi mostravano dati più allarmanti per gli individui neri e indiani d’America rispetto agli individui bianchi. I dati originari, quelli dati in pasto algoritmo, erano già distorti ed avevano provocato una sottovalutazione di un rischio sociale.

Un esempio: il riconoscimento facciale

I dati sono allarmanti ma in realtà gli esperti del campo ne sono consapevoli ed una delle priorità assolute nel settore dell’intelligenza artificiale è incentrata proprio sulle modalità per evitare o comunque affrontare il pregiudizio per quanto riguarda l’utilizzo degli algoritmi.
Ma sono diverse le applicazioni che si possono fare di algoritmi del genere in ambito sociale e che potrebbero risultare “pericolose”: si parla per esempio, di riconoscimento facciale, una tecnica che viene sempre più utilizzata per rintracciare le persone o addirittura per valutare la loro colpevolezza.

Ribellione delle macchine

Guardando più in là nel tempo, in una previsione più a lungo termine, queste intelligenze artificiali potrebbero poi diventare così evolute da provocare problemi a livello globale, problemi che potrebbero sfociare, un giorno, nella cosiddetta “ribellione delle macchine”: un’intelligenza artificiale potrebbe, per esempio, innescare una pandemia di proposito onde ricattare gli esseri umani oppure il gruppo dirigente di determinato paese, giusto per dare un’idea di cosa potrebbero arrivare a progettare per ottenere i propri scopi.
Si tratta di previsioni che fino a qualche anno fa apparivano come fantascienza ma che ora vengono prese in seria considerazione anche da quegli esperti che sembravano più riluttanti ad accettare l’esistenza di un rischio del genere.

Note e approfondimenti

  1. Expect an Orwellian future if AI isn’t kept in check, Microsoft exec says | Space (IA)
  2. Racial/Ethnic Disparities in the Performance of Prediction Models for Death by Suicide After Mental Health Visits | Health Disparities | JAMA Psychiatry | JAMA Network (IA) (DOI: 10.1001/jamapsychiatry.2021.0493)

Articoli correlati

Condividi questo articolo

Data articolo