Neuer Algorithmus unterscheiden kann cyberbullies von der normalen Twitter-Nutzer, die mit 90% Genauigkeit

Ein team von Forschern, einschließlich Fakultät an der Binghamton University, entwickelten machine-learning-algorithmen, die erfolgreich identifizieren, Tyrannen und Aggressoren auf Twitter mit 90 Prozent Genauigkeit.

Effektive Werkzeuge zur Erkennung von schädlicher Aktionen auf social media sind knapp, wie diese Art von Verhalten ist oft mehrdeutig in der Natur und/oder ausgestellt werden, die über die scheinbar oberflächliche Kommentare und Kritiken. Ziel um diese Lücke zu schließen, ein research-team mit der Binghamton University Informatiker Jeremy Blackburn analysiert die Verhaltens-mustern ausgestellt durch beleidigende Twitter-Nutzer und Ihre Unterschiede von anderen Twitter-Nutzern.

„Wir Bauten crawler-Programme, die das sammeln von Daten aus Twitter über verschiedene Mechanismen,“ sagte Blackburn. „Wir sammelten tweets von Twitter-Nutzern, Ihre profile sowie (soziale) Netzwerk-bezogene Dinge, wie, die Sie Folgen und wer Ihnen folgt.“

Die Forscher führten dann mit der Verarbeitung natürlicher Sprache und sentiment-Analyse auf die tweets selbst, sowie eine Vielzahl von social-network-Analysen zu den verbindungen zwischen den Benutzern. Die Forscher entwickelten algorithmen automatisch klassifiziert werden zwei spezifische Arten der offensive, online-Verhalten, d.h., Cybermobbing und cyberaggression. Die algorithmen waren in der Lage zu erkennen missbräuchlichen Nutzer auf Twitter mit 90 Prozent Genauigkeit. Dies sind die Benutzer, die sich belästigend Verhalten, z.B. auf diejenigen, die senden Morddrohungen oder machen rassistische Bemerkungen zu Benutzern.

„Kurz gesagt, die algorithmen, die ‚lernen‘, wie Sie sagen, den Unterschied zwischen Täter und typische Benutzer durch Wiegen bestimmte Funktionen, wie Sie gezeigt werden mehr Beispiele“, sagte Blackburn.

Während diese Forschung kann helfen, zu mildern Cybermobbing, es ist nur ein Erster Schritt, sagte Blackburn.

„Eines der größten Probleme, die mit cyber-Sicherheit Probleme, ist der Schaden, der getan wird, um Menschen, und ist sehr schwierig zu ‚rückgängig machen'“, Sagte Blackburn. „Zum Beispiel, unsere Forschung zeigt, dass maschinelles lernen verwendet werden kann, um automatisch die Benutzer, die cyberbullies, und damit helfen könnten, Twitter und anderen social-media-Plattformen entfernen Sie problematische Nutzer. Aber so ein system ist letztlich reaktiv: es hat nicht grundsätzlich verhindern, Mobbing Aktionen, die es nur identifiziert, Sie findet an der Waage. Und die traurige Wahrheit ist, dass selbst wenn die Mobbing-Konten gelöscht, auch wenn alle Ihre früheren Angriffe gelöscht werden, um die Opfer noch gesehen und waren potenziell von Ihnen betroffen sind.“

Blackburn und sein team untersucht derzeit pro-active-mitigation-Techniken, Umgang mit Belästigung Kampagnen.