I cosiddetti “deepfake” sono stati classificati, in un nuovo rapporto realizzato da ricercatori dell’University College di Londra, come una delle più gravi minacce informatiche del prossimo futuro e come la più grave di tutto il settore della criminalità informatica.
Si tratta di un vero e proprio studio quello realizzato dai ricercatori, pubblicato su Crime Science, che ha identificato ben 20 modalità con le quali la stessa intelligenza artificiale potrebbe essere usata per facilitare il crimine informatico nel corso dei prossimi 15 anni.
I ricercatori hanno analizzato vari fattori come il danno che queste tecnologie potrebbero causare, l’eventuale profitto, la facilità con cui mettere in atto il determinato crimine e la difficoltà nel fermarli da parte delle autorità.
I ricercatori alla fine hanno convenuto che sono proprio i contenuti (sostanzialmente audio e video) falsi quelli più pericolosi, più difficili da scoprire e da fermare. Un contenuto falso, inoltre, potrebbe avere molteplici scopi: dallo screditare una persona famosa o ricca fino alle ipotesi più pericolose, come quelle di video in cui vengono create il corpo e la faccia di una determinata persona per imbrogliarne un’altra (ad esempio impersonare il figlio di una ricca coppia durante una videochiamata).
Inoltre questa tipologia di crimini potrebbe portare, in futuro, ad una diffusa e grave sfiducia nei confronti di tutte le prove audiovisive, una cosa da non sottovalutare in termini di danno per tutta la società.
Oltre agli audio e ai video falsi, tra gli altri crimini da tenere sotto controllo perché collegati all’intelligenza artificiale ci sono quelli relativi all’hacking, ad esempio di veicoli senza conducente se non di veri e propri veicoli dell’esercito con armi. Da non dimenticare il più classico phishing però molto più personalizzato e più difficile da scoprire.
“Man mano che le capacità delle tecnologie basate sull’intelligenza artificiale si espandono, anche le loro potenzialità di sfruttamento criminale. Per prepararsi adeguatamente alle possibili minacce dell’IA, dobbiamo identificare quali potrebbero essere queste minacce, e come possono avere un impatto sulla nostra vita”, spiega Lewis Griffin, autore senior dello studio.