Zusammenfassung
Mit den kommunikativen Möglichkeiten in den Sozialen Medien steigt auch die Verbreitung von Kommentaren, die als Hate Speech klassifiziert werden können. Die Technikwissenschaften haben es sich im Sinne einer Moderation daher zum Ziel gesetzt, solche Kommentare, Tweets und Inhalte algorithmisch detektierbar zu machen. In der vorliegenden Untersuchung wird gezeigt, dass jedoch gerade eine praxisrelevante Verbindung der einerseits ethischen Konzeptionen zu Hate Speech und der andererseits technologischen Methodik zur Hate Speech Detection auszubauen und zu vertiefen ist. Hierzu ist zum Ersten das Spezifikum von Hate Speech herauszuarbeiten, wobei insbesondere eine Abgrenzung zu offense und hateful erfolgen muss. Zum Zweiten ist aufbauend auf ethischen Theorien eine allgemeine Methodik des maschinellen Lernens kritisch zu begutachten, da sich Limitationen sowohl aus deontologischer wie auch aus konsequentialistischer Sicht zeigen lassen und die Forderung nach transparenter Gestaltung deutlich werden muss. Zum Dritten sind Kompromisslösungen nur dann sinnvoll, wenn sie die Problematik subjektiver Annotationen in den Blick nehmen und sich der transdisziplinären Kritik definitorischer, methodischer und ethischer Perspektiven bewusst sind.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Literatur
Al Kuwatly, H., Wich, M., & Groh, G. (2020). Identifying and measuring annotator bias based on annotators’ demographic characteristics. In Proceedings of the Fourth Workshop on Online Abuse and Harms (S. 184–190).https://doi.org/10.18653/v1/2020.alw-1.21
Alorainy, W., Burnap, P., Liu, H., & Williams, M. L. (2019). “The enemy among us”: Detecting cyber hate speech with threats-based othering language embeddings. ACM Transactions on the Web 13(3), Artikel 14, 26 Seiten.https://doi.org/10.1145/3324997
Arango, A., Pérez, J., & Poblete, B. (2019). Hate speech detection is not as easy as you may think: A closer look at model validation. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (S. 45–54)https://doi.org/10.1145/3331184.3331262
Bender, E. M., & Friedman, B. (2018). Data statements for natural language processing: Toward mitigating system bias and enabling better science. Transactions of the Association for Computational Linguistics 6, 587–604. https://doi.org/10.1162/tacl_a_00041
Bolukbasi, T., Chang, K.-W., Zou, J., Saligrama, V., & Kalai, A. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In Proceedings of the 30th International Conference on Neural Information Processing Systems, S. 4356–4364.
Burnap, P., & Williams, M. L. (2015). Cyber Hate Speech on Twitter: An Application of Machine Classification and Statistical Modeling for Policy and Decision Making. Policy & Internet 7(2), 223–242.https://doi.org/10.1002/poi3.85
Burnap, P., & Williams, M. L. (2016). Us and them: identifying cyber hate on Twitter across multiple protected characteristics. EPJ Data Science 5, Artikel 11.https://doi.org/10.1140/epjds/s13688-016-0072-6
Brink, D. O. (2009). Mill’s liberal principles and freedom of expression. In Ten, C. L. (Hrsg.), Mill’s On Liberty: A Critical Guide (S 40–61). Cambridge University Press.https://doi.org/10.1017/CBO9780511575181.003
Criado-Perez, C. (2020). Unsichtbare Frauen: Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. btb Verlag.
Davidson, T., Warmsley, D., Macy, M., & Weber, I. (2017). Automated hate speech detection and the problem of offensive language. In Proceedings of the 11th International AAAI Conference on Web and Social Media (S. 512–515).
Dignum, V. (2019). Responsible artificial intelligence. How to develop and use artificial intelligence in a responsible way. Springer.https://doi.org/10.1007/978-3-030-30371-6
Feinberg, J. (1985). The moral limits of the criminal law: Offense to others (Bd. 2). Oxford University Press.
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2018). Datasheets for Datasets. Working Paper. arXiv:1803.09010
Gorwa, R, Binns, R., & Katzenbach, C. (2020). Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society 7(1).https://doi.org/10.1177/2053951719897945
Johndrow, J. E., & Lum, K. (2019). An algorithm for removing sensitive information: Application to race-independent recidivism prediction. The Annals of Applied Statistics 13(1), 189–220.
Mill, J. S. (2011). On Liberty [1859]. Cambridge University Press. https://doi.org/10.1017/CBO9781139149785
O’Neil, C. (2017). Angriff der Algorithmen: Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. Hanser.
Rawls, J. (1999). A Theory of Justice. Harvard University Press. https://doi.org/10.2307/j.ctvkjb25m
Razavi, A. H., Inkpen, D., Uritsky, S., & Matwin, S. (2010). Offensive Language Detection Using Multi-level Classification. In A. Farzindar & V. Kešelj (Hrsg.), Advances in Artificial Intelligence. Canadian AI 2010. Lecture Notes in Computer Science, Volume 6085 (S. 16–27). Springer.https://doi.org/10.1007/978-3-642-13059-5_5
Ross, B., Rist, M., Carbonell, G., Cabrera, B., Kurowsky, N., & Wojatzki, M. (2016). Measuring the reliability of hate speech annotations: The case of the European refugee crisis. In 3rd Workshop on Natural Language Processing for Computer-Mediated Communication (S. 6–9).https://doi.org/10.17185/duepublico/42132
Sap, M., Card, D., Gabriel, S., Choi, Y., & Smith, N. A. (2019). The Risk of racial bias in hate speech detection. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (S. 1668–1678).https://doi.org/10.18653/v1/S.19-1163
Schefczyk, M., & Schramme, T. (2015). Einleitung. In dies. (Hrsg.), John Stuart Mill: Über die Freiheit (S. 1–10). De Gruyter.
Schmidt, A., & Wiegand, M. (2017). A survey on hate speech detection using natural language processing. In Proceedings of the Fifth International Workshop on Natural Language Processing for Social Media (S. 1–10).https://doi.org/10.18653/v1/W17-1101
Sponholz, L. (2018). Hate speech in den Massenmedien. Theoretische Grundlagen und empirische Umsetzung. Springer VS. https://doi.org/10.1007/978-3-658-15077-8
Vidgen, B., & Derczynski, L. (2020). Directions in abusive language training data, a systematic review: Garbage in, garbage out. PLoS ONE 15(12), e0243300.https://doi.org/10.1371/journal.pone.0243300
Waldron, J. (2012). The harm in hate speech. Harvard University Press.
Waseem, Z. (2016). Are you a racist or am I seeing things? Annotator influence on hate speech detection on twitter. In Proceedings of 2016 EMNLP Workshop on NLP and Computational Social Science (S. 138–142).https://doi.org/10.18653/v1/W16-5618
Waseem, Z., & Hovy, D. (2016). Hateful symbols or hateful people? Predictive features for hate speech detection on twitter. In Proceedings of NAACL Student Research Workshop (S. 88–93).https://doi.org/10.18653/v1/N16-2013
Wiegand, M., Ruppenhofer, J., & Kleinbauer, T. (2019). Detection of abusive language: The problem of biased datasets. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, vol. 1 (S. 602–608).https://doi.org/10.18653/v1/N19-1060
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Lerch, L., Wich, M., Eder, T., Groh, G. (2022). Mediale Hasssprache und technologische Entscheidbarkeit: Zur ethischen Bedeutung subjektiv-perzeptiver Datenannotationen in der Hate Speech Detection. In: Marci-Boehncke, G., Rath, M., Delere, M., Höfer, H. (eds) Medien – Demokratie – Bildung. Ethik in mediatisierten Welten. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-36446-5_17
Download citation
DOI: https://doi.org/10.1007/978-3-658-36446-5_17
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-36445-8
Online ISBN: 978-3-658-36446-5
eBook Packages: Social Science and Law (German Language)