Un software basato sull’intelligenza artificiale che riconosce il bullismo digitale e finanche le molestie di stampo sessuale, ad esempio quelle contenute nel linguaggio di una e-mail, è stato sviluppato dalla società NexLP, con sede a Chicago.
Secondo gli stessi produttori si è trattato di un compito non facile date le sottigliezze linguistiche e le enormi zone grigie che possono esserci tra un approccio non violento o offensivo ed un altro che invece può rientrare nella categoria delle molestie e del bullismo.
Il software è nato soprattutto per quelle aziende che vogliono monitorare tutte le comunicazioni tra i dipendenti affinché possano essere più facilmente identificate azioni di molestie di natura comunicativa.
L’algoritmo utilizzato dal software identifica il bullismo potenziale, tra cui anche le molestie sessuali, nelle e-mail e nei documenti aziendali nonché nella chat di servizio. I dati vengono analizzati da software e le comunicazioni sospette vengono poi messe da parte, con tanto di livelli di probabilità, affinché possano essere poi valutate da un operatore umano, come il responsabile delle risorse umane, affinché possa indagare.
Quello che il software fa è cercare anomalie specifiche nel linguaggio, anomalie che possono essere basate non solo sulle parole utilizzare ma anche sulla loro frequenza. Può per esempio analizzare dei veri e propri modelli di comunicazione attraverso giorni o settimane di messaggi.
Naturalmente il software cerca dei “trigger” specifici e non può andare oltre certi parametri, men che meno può analizzare e valutare complesse dinamiche interpersonali che possono svilupparsi tra due o più persone a livello comunicativo. Il software potrebbe però rivelarsi molto utile per effettuare una scrematura iniziale onde eliminare tutte quelle comunicazioni che, secondo l’algoritmo, non contengono nulla di offensivo.
Naturalmente con un software del genere entra in ballo anche il problema della riservatezza dei dati e in generale della privacy: cosa succede se il software commette un errore e i dati stessi vengono divulgati? Lo stesso software, per sua natura, potrebbe promuovere abusi da parte degli operatori delle risorse umane e dei responsabili e potrebbe portare a decisioni inappropriate.
I creatori del software, che non è l’unico ad analizzare messaggi per individuare azioni di molestie, in particolare quelle di natura sessuale, tanto che si parla già di #MeTooBot, si difendono avvertendo che il software in sé per sé non ha valore discriminatorio e può solo etichettare una determinata comunicazione che va poi valutata e interpretata comunque da esseri umani.