Die FH St. Pölten und das AIT Austrian Institute of Technology haben im Rahmen des internationalen EXIST-Wettbewerbs (sEXismIdentification in Social neTworks ) eine Methode zur automatischen Erkennung von sexistischen Äußerungen entwickelt. Sexismus ist in den sozialen Medien stark verbreitet. Dort sinkt die Hemmschwelle der User für verbale Übergriffe und die Netzwerke sind ein Beschleuniger bei der Verbreitung von Hatespeech.
„Ein zentrales Ziel unserer Forschung ist es, stets einen sinnvollen Beitrag zu leisten, um Probleme in unserer Gesellschaft zu lösen. Eine automatisierte Erkennung von sexistischen Äußerungen kann dazu beitragen, den Diskurs in den Sozialen Medien zu verbessern, Problembewusstsein zu stärken und Maßnahmen gegen diskriminierende Inhalte zu setzen“, so Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für CreativeMedia/Technologies der FH St. Pölten.
Beim Wettbewerb haben die Fachhochschule und das AIT unter 31 internationalen Teams den dritten Platz erreich. Entwickelt wurde ein Tool, das mithilfe von künstlicher Intelligenz, Natural Language Processing (NLP) und Machine Learning Posts in sozialen Medien semantisch untersucht und klassifiziert. Als Datenbasis wurde den Teams Postings auf Twitter und Gab (wird auch als „Twitter für Rassisten” bezeichnet). Dabei wurde nicht nur zwischen sexistischen und nicht sexistischen Inhalten unterschieden, sondern eine feine Kategorisierung sexistischer Inhalte vorgeschlagen. Die Postings, welche in englischer und spanischer Sprache vorlagen, wurden basierend auf deren Inhalt kategorisiert und in folgende Typen eingeteilt, die es automatisch zu unterscheiden galt: Ideologie und Ungleichheit, Stereotype und Herrschaft, Objektifizierung, sexuelle Gewalt, Misogynie und nicht-sexuelle Gewalt.
Besonders herausfordernd bei der automatischen Erkennung von sexistischen Inhalten ist die Unterscheidung zwischen verschiedenen Kategorien von sexistischen Äußerungen und der Identifikation von ironischen oder sarkastischen Statements. Laut Alexander Schindler, Leiter des NLP-Teams auf Seite des AIT, erkennt die Software nicht nur offensichtliche Formen von Sexismus, sondern auch subtile Formen und Anspielungen.