Please enable JavaScript.
Coggle requires JavaScript to display documents.
BA Arbeit: 2. Teil - Coggle Diagram
BA Arbeit: 2. Teil
Einschränkungen
- Tweets als rassistisch oder nicht-rassistisch klassifizieren ohne großen Aufwand nicht möglich. Rassismus wird subjektiv wahrgenommen. Es gibt Betroffene, die eine Aussage als rassistisch ansehen, und Betroffene, die die gleiche Aussage nicht als rassistisch wahrnehmen. Zudem gibt es Aussagen, die rassistisch sind, allerdings nicht maschinell leicht rauszufiltern sind. Rassistische Aussagen können auch keine direkten rassistischen Slurs enthalten, "nur" inhaltlich rassistisch sein
- Das Topic Modeling basiert auf word counts bzw. auf counts von Wortkombinationen. Dabei kann das Topic Model nicht zwischen häufig aufgetretene Wortkombinationen unterscheiden, die vermehrt in ironisch gemeinten oder (re)zitierten Aussagen auftreten oder wirklich vermehrt in ernst gemeint Aussagen. Dadurch ermöglicht Topic Modelling es nicht, bei Wortkombinationen, die einen rassistischen Zusammenhang aufweisen, von ernst gemeinten Aussagen in darunter liegenden Tweets auszugehen. Aus diesem Grund kann man hier nicht von ehrlich gemeinten, rassistischen Zuschreibungen reden. Man kann höchstens von der Reproduktion von rassistischen Bildern sprechen
- Zudem ist es bei der Analyse von Resultaten des Topic Models vorteilhafter, nicht von rassistischen Argumentationsmustern zu sprechen, sondern eher von reproduzierteren hmmhphoben/hmmhfeindlichen bis rassistischen Zuschreibungen zu sprechen
- Wir betrachten hier nur das deutschsprachige Twitter seit 2018 bis zum (??) 10.06.2022. Genauer gesagt nur die Tweets, dessen User beim Tweeten in Deutschland lokalisiert werden konnte. Tweets, die in Deutschland in diesem Zeitraum getweeted worden sind, wo der Standort allerdings nicht lokalisiert werden konnte. Dementsprechend ist weder die Weltbevölkerung noch die deutsche Bevölkerung noch Social Media noch Twitter User nur in Teilen die deutschsprachige Twitter Community - eher die Teile der deutschsprachigen Twitter Community, die (zum Thema Islam/ Judentum) tweeten
-
Forschungsfragen
Im jeweiligen Themenkomplex, in welchen Unterkategorien werden am meisten Zuschreibungen reproduziert (im Topic Model), die in Verbindung mit Rassismus gebracht werden? Übertragen: werden Juden/Muslime im deutschsprachigen Twitter mit Berücksichtigung der Unschärfe des Modells eher als Nation/Volk, gesellsch. Gruppe, Religion oder Kultur wahrgenommen? Und wird hier eher auf das Geschlecht geachtet und dort unterschieden?
(Fragestellung 1)
-
Im Vergleich zur gängigen Theorie: welche Zuschreibungen aus der Theorie sind auf dem deutschsprachigen Twitter (seit 2018 (?)) mit Berücksichtigung dem Filter des Topic Modeling (unter- und überproportional) unter- oder überrepräsentiert? (Fragestellung 2)
Preprocessing
Ablauf
- Herausfilter von Tweets zu den großen Themenkomplexen Islam und Judentum
- Erster Teil der Vorverarbeitung
-
- Entfernen der Nutzernamen und Links
- Entfernen von Punkten, Kommata etc.
- Entfernen von inhaltlich irrelevanten Nummern
-
- Entfernen von Währungszeichen
- "Einteilen" der gefilterten Tweets in Unterkategorien Nation, Kultur, Religion, Ethnie bzw. Herausfiltern von Tweets der Unterkategorien aus den bereits gefilterten Tweets des jeweiligen Themenkomplexes
- Lemmatization also Zurückführen der Wörter in den Tweets auf ihren Wortstamm
- Aufteilen des Tweets in eine Liste von Worten (notwendig fuer das Durchfuehren des Topic Modeling)