Intelligenza artificiale crea blog che inganna migliaia di visitatori inconsapevoli

Un blog “fake”, nel senso che non è stato creato da un essere umano ma da un algoritmo di intelligenza artificiale, è riuscito ad “ingannare” decine di migliaia di visitatori che non si sono accorti che il testo dei vari post del sito erano stati scritti non da una mano umana.
All’inizio doveva essere solo un esperimento divertente, come spiega, in un articolo-intervista sul sito Technology Review del MIT, Liam Porr, uno studente di Berkeley che ha messo su il sito poi popolato dai post creati dall’algoritmo. Poi alcuni dei post sono stati linkati anche su Hacker News, una sorta di aggregatore di notizie in cui le persone commentano i link postati da altre persone, e qui i post dell’IA hanno scatenato i commenti di qualche visitatore che ha cominciato a ragionare e a controbattere sui concetti espressi dall’intelligenza artificiale. Uno scenario da fantascienza che però descrive un caso più che reale.

Voleva solo eseguire un test con un particolare algoritmo di intelligenza artificiale denominato GPT-3. Pubblicato da poche settimane, questo potente algoritmo è diventato subito il più potente strumento di generazione di testi (per il momento in inglese) perfettamente leggibili e corretti sotto il profilo grammaticale e sintattico.
Questo software per la generazione di testo ha permesso al ragazzo di creare un blog fittizio molto simile a quello che un qualunque altro ragazzo del college potrebbe aver creato. Ci sono state addirittura visitatori che hanno lasciato dei commenti ma la cosa più spaventosa, come ammette lo stesso Porr, sta nel fatto che il tutto si è rivelato, oltre che velocissimo dato che ha dovuto solo copiaincollare il testo creato dal software nel blog, semplicissimo.

GPT-3, creato da OpenAI, è il potente successore di GPT-2, sua versione precedente. Inizialmente gli stessi creatori avevano dichiarato che non avrebbero reso pubblici questi algoritmi perché troppo “spaventosi” e pericolosi: sono capaci di generare testo partendo da una traccia che può essere composta anche da una singola frase.
Il testo creato dall’algoritmo non solo è corretto dal punto di vista grammaticale e sintattico ma, per certi versi, sembra anche avere un senso logico.

L’utente esperto, soprattutto colui che è già a conoscenza dell’esistenza di GPT-3, può arrivare a comprendere che si tratta di un testo generato da una macchina ma qualsiasi altro utente della rete farà un’enorme fatica per arrivare a questa conclusione e probabilmente non sospetterà che testi del genere sono stati scritti da un algoritmo di intelligenza artificiale.
Ad oggi questi algoritmi sono accessibili presentando una “domanda” alla stessa OpwnAI: si deve compilare un breve modulo in cui deve essere spiegata anche la destinazione di utilizzo ma è evidente che non passerà molto tempo prima che saranno ampiamente disponibili e magari facilmente utilizzabili tramite un banale frontend utilizzabile anche dai non “addetti ai lavori”.

Quando arriveremo a quel punto, e quando lo stesso algoritmo sarà diventato ancora più efficiente e i testi indistinguibili da quelli creati da un umano, chi ci potrà assicurare che un qualunque post, messaggio, notizia o resoconto che troveremo sul Web sia stato scritto da un umano senziente oppure realizzato in una frazione di secondo da un software insieme ad altri milioni o miliardi di pubblicazioni simili?

Approfondimenti

Articoli correlati

Condividi questo articolo

Dati articolo

Resta aggiornato su Facebook