cyberbullismo

Il nuovo algoritmo può distinguere i cyberbulli su Twitter con una precisione del 90 percento

Tempo di lettura: 2 minuti

Un team di ricercatori, tra cui la facoltà della Binghamton University, ha sviluppato algoritmi di apprendimento automatico in grado di identificare con successo il 90% di bulli e aggressori su Twitter.

Gli strumenti efficaci per rilevare azioni dannose sui social media sono scarsi, poiché questo tipo di comportamento è spesso ambiguo in natura e/o esposto attraverso commenti e critiche apparentemente superficiali. Con l’obiettivo di colmare questa lacuna, un team di ricerca che ha visto lo scienziato informatico della Binghamton University Jeremy Blackburn ha analizzato i modelli comportamentali mostrati dagli utenti abusivi di Twitter e le loro differenze rispetto agli altri utenti di Twitter.

“Abbiamo creato crawler: programmi che raccolgono dati da Twitter tramite vari meccanismi”, ha affermato Blackburn. “Abbiamo raccolto i tweet degli utenti di Twitter, i loro profili, nonché le cose (social) relative alla rete, come chi seguono e chi li segue.”

I ricercatori hanno quindi eseguito l’elaborazione del linguaggio naturale e l’analisi del sentimento sui tweet stessi, nonché una varietà di analisi dei social network sulle connessioni tra utenti. I ricercatori hanno sviluppato algoritmi per classificare automaticamente due tipi specifici di comportamento offensivo online, vale a dire cyberbullismo e cyberaggressione. Gli algoritmi sono stati in grado di identificare utenti offensivi su Twitter con una precisione del 90 percento. Si tratta di utenti che intraprendono comportamenti molesti, ad esempio coloro che inviano minacce di morte o fanno commenti razzisti agli utenti.

“In breve, gli algoritmi” apprendono “come distinguere tra bulli e utenti tipici ponderando determinate funzionalità man mano che vengono mostrati più esempi”, ha affermato Blackburn.

Mentre questa ricerca può aiutare a mitigare il cyberbullismo, è solo un primo passo, ha affermato Blackburn.

“Uno dei maggiori problemi con i problemi di sicurezza informatica è il danno che viene fatto agli umani, che è molto difficile ” annullare “”, ha affermato Blackburn. “Ad esempio, la nostra ricerca indica che l’apprendimento automatico può essere utilizzato per rilevare automaticamente gli utenti che sono cyberbullies e quindi aiutare Twitter e altre piattaforme di social media a rimuovere gli utenti problematici. Tuttavia, un tale sistema è in definitiva reattivo: non impedisce intrinsecamente azioni di bullismo, ma le identifica solo su larga scala. E la sfortunata verità è che anche se gli account di bullismo vengono eliminati, anche se tutti i loro attacchi precedenti vengono eliminati, le vittime rimangono potenzialmente colpite ”.

Blackburn e il suo team stanno attualmente esplorando tecniche di mitigazione proattive per affrontare campagne di molestie.

Lo studio, “Detecting Cyberbullying and Cyberaggression in Social Media“, è stato pubblicato su Transactions on the Web .