Ein Beispiel hierfür ist die Forschung zum Einfluss automatisierter Accounts, sogenannter Bots, in digitalen Kommunikationsräumen. Während automatisierte Accounts scheinbar gezielt eingesetzt werden, um das öffentliche Meinungsklima in digitalen Kommunikationsräumen zu beeinflussen (Kovic, Rauchfleisch, Sele & Caspar, 2018), steht die Frage im Raum, ob diese Interventionen breiten gesellschaftlichen Einfluss entwickeln können.
Hier deuten Studien auf Basis von eindeutig als Bots identifizierten Accounts – zum Beispiel durch offiziell verifizierte Listen – auf vernachlässigbare Auswirkungen (z. B. Keller, Schoch, Stier & Yang, 2019). Gleichzeitig dominiert in der öffentlichen Debatte das Bild von manipulativen und übermächtigen Bots, die auf Knopfdruck Debatten bestimmen können. Dieses Bild entstand weitgehend auf Basis der Klassifizierung von Bots durch automatisierte Verfahren (z. B. Varol, Ferrara, Davis, Menczer & Flammini, 2017) oder sehr oberflächlicher Faustregeln (z. B. Howard & Kollanyi, 2016). Zudem bemühen sich entsprechende Verfahren nicht ausreichend um die Validierung der verwendeten Methoden und scheinen zu einer deutlichen Überschätzung der Bot-Population zu tendieren (Gallwitz & Kreil, 2019, Kreil, 2020).
Ohne ernst zu nehmende Versuche, das Ausmaß der durch entsprechende Methoden falsch als Bot klassifizierten Accounts einzuschätzen, bleiben entsprechende Methoden interessante Klassifizierungsübungen. Auf dieser Basis allerdings Gefahren für die Demokratie abzuleiten erscheint verfrüht.
Das wiederum heißt nicht, dass die Untersuchung automatisierter oder semiautomatisierter Accounts im öffentlichen Diskurs in Onlinekommunikationsräumen unwichtig oder illegitim ist. Es heißt auch nicht, dass es nicht grundsätzlich denkbar ist, dass entsprechende Accounts Einfluss nehmen können. Es heißt aber, dass überwiegend auf Basis nicht ausreichend validierter Klassifizierungsverfahren geweckte gesellschaftliche oder politische Erwartungen genauso unzuverlässig sind wie die zugrundeliegenden Verfahren.
Es ist vollkommen natürlich, dass sich in der Frühphase der Nutzung neuer Datensets und Methoden wissenschaftliche Befunde und Verfahren im Zeitverlauf als instabil und teilweise auch fehlerhaft herausstellen. Es ist Aufgabe der Wissenschaft, Neues auszuprobieren und kritisch zu hinterfragen. Probleme entstehen aber, wenn Wissenschaftler entsprechend unsichere Befunde politischen Entscheidern und der Öffentlichkeit ohne den Hinweis auf Vorläufigkeit und Unsicherheit kommunizieren.
Die zugrundeliegende Unsicherheit wird auch nicht notwendigerweise durch umfangreicheren Zugriff von Wissenschaftlern auf Daten aufgehoben. Der Wunsch nach mehr Daten und Einblick in verwendete Algorithmen ist verständlich und gerechtfertigt. Allein hierdurch werden neue Verfahren und Befunde jedoch nicht automatisch sicherer. Das Problem liegt also im Umgang mit notwendig vorläufigen Befunden und Methoden und ihrer Kommunikation.
Achen, C. H. und Bartels, L. M. (2016). Democracy for Realists: Why Elections Do Not Produce Responsive Government. Princeton, NJ: Princeton University Press.
An, J., Kwak, H., Posegga, O. und Jungherr, A. (2019). Political Discussions in Homogeneous and Cross-Cutting Communication Spaces: Interaction Patterns and Linguistic Strategies on Reddit. ICWSM 2019: Proceedings of the Thirteenth International AAAI Conference on Web and Social Media (S. 68–79). Menlo Park, CA: Association for the Advancement of Artificial Intelligence (AAAI).
Asmolov, G. (2019). The Effects of Participatory Propaganda: From Socialization to Internalization of Conflicts. Journal of Design and Science, 6. doi:10.21428/7808da6b.833c9940
Benkler, Y., Faris, R. und Roberts, H. (2018). Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. New York: Oxford University Press.
Borgesius, F. J. Z., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H. und Helberger, N. (2016). Should We Worry About Filter Bubbles? Internet Policy Review: Journal on Internet Regulation, 5(1), 1–16. doi:10.14763/2016.1.401
Boxell, L., Gentzkow, M. und Shapiro, J. M. (2017). Greater Internet Use Is Not Associated with Faster Growth in Political Polarization Among US Demographic Groups. PNAS: Proceedings of the National Academy of Sciences of the United States of America, 114(40), 10612–10617. doi:10.1073/pnas.1706588114
DiMaggio, P., Evans, J. und Bryson, B. (1996). Have Americans’ Social Attitudes Become More Polarized? American Journal of Sociology, 102(3), 690–755. doi:10.1086/230995
Egelhofer, J. L. und Lecheler, S. (2019). Fake News as a Two-Dimensional Phenomenon: A Framework and Research Agenda. Annals of the International Communication Association, 43(2), 97–116. doi:10.1080/23808985.2019.1602782
Farrell, H. und Schneier, B. (2018). Common-Knowledge Attacks on Democracy. Boston, MA: The Berkman Klein Center for Internet & Society.
Fiorina, M. P. (2017). Unstable Majorities: Polarization, Party Sorting, and Political Stalemate. Stanford, CA: Hoover Institution Press.
Fiorina, M. P. und Abrams, S. J. (2008). Political Polarization in the American Public. Annual Review of Political Science, 11(1), 563–588. doi:10.1146/annurev.polisci.11.053106.153836
Fiorina, M. P., Abrams, S. J. und Pope, J. C. (2010). Culture War? The Myth of a Polarized America (3. Auflage). New York: Longman.
Fletcher, R., Cornia, A., Graves, L. und Nielsen, R. K. (2018). Measuring the Reach of “Fake News” and Online Disinformation in Europe. Oxford: Reuters Institute for the Study of Journalism.
Flyvbjerk, B. (2001). Making Social Science Matter: Why Social Inquiry Fails and How It Can Succeed Again. Cambridge: Cambridge University Press.
Gallwitz, F. und Kreil, M. (2019). Die Mär von „Social Bots“. Tagesspiegel. Online verfügbar unter https://background.tagesspiegel.de/digitalisierung/die-maer-von-social-bots
Gentzkow, M. und Shapiro, J. M. (2011). Ideological Segregation Online and Offline. The Quarterly Journal of Economics, 126(4), 1799–1839. doi:10.1093/qje/qjr044
Grinberg, N., Joseph, K., Friedland, L., Swire-Thompson, B. und Lazer, D. (2019). Fake News on Twitter During the 2016 U.S. Presidential Election. Science, 363(6425), 374–378. doi:10.1126/science.aau2706
Guess, A., Lyons, B., Nyhan, B. und Reifler, J. (2018). Avoiding the Echo Chamber About Echo Chambers: Why Selective Exposure to Like-Minded Political News Is Less Prevalent than You Think. New York: Knight Foundation.
Guess, A., Nagler, J. und Tucker, J. A. (2019). Less than You Think: Prevalence and Predictors of Fake News Dissemination on Facebook. Science Advances, 5(1), eaau4586. doi:10.1126/sciadv.aau4586
Howard, P. N. und Kollanyi, B. (2016). Bots, #StrongerIn, and #Brexit: Computational Propaganda During the UK-EU Referendum. The Computational Propaganda Project: Algorithms, Automation and Digital Politics. Online verfügbar unter https://comprop.oii.ox.ac.uk/research/working-papers/bots-strongerin-and-brexit-computational-propaganda-during-the-uk-eu-referendum/
Huang, H. (2017). A War of (Mis)Information: The Political Effects of Rumors and Rumor Rebuttals in an Authoritarian Country. British Journal of Political Science, 47(2), 283–311. doi:10.1017/S0007123415000253
Jungherr, A. (2017). Normalizing Digital Trace Data. In N. J. Stroud und S. C. McGregor (Hrsg.), Digital Discussions: How Big Data Informs Political Communication (S. xx–xx). Oxon: Routledge.
Jungherr, A., Rivero, G. und Gayo-Avello, D. (2020). Retooling Politics: How Digital Media Are Shaping Democracy. Cambridge: Cambridge University Press.
Jungherr, A., Schoen, H., Posegga, O. und Jürgens, P. (2017). Digital Trace Data in the Study of Public Opinion: An Indicator of Attention Toward Politics Rather than Political Support. Social Science Computer Review, 35(3), 336–356. doi:10.1177/0894439316631043
Jungherr, A., Schroeder, R. und Stier, S. (2019). Digital Media and the Surge of Political Outsiders: Explaining the Success of Political Challengers in the United States, Germany, and China. Social Media + Society, 5(3), 1–12. doi:10.1177/2056305119875439
Jungherr, A. und Theocharis, Y. (2017). The Empiricist’s Challenge: Asking Meaningful Questions in Political Science in the Age of Big Data. Journal of Information Technology & Politics, 14(2), 97–109. doi:10.1080/19331681.2017.1312187
Karpf, D. (2012). Social Science Research Methods in Internet Time. Information Communication & Society, 15(5), 639–661. doi:10.1080/1369118X.2012.665468
Keller, F. B., Schoch, D., Stier, S. und Yang, J. H. (2019). Political Astroturfing on Twitter: How to Coordinate a Disinformation Campaign. Political Communication. doi:10.1080/10584609.2019.1661888
Kovic, M., Rauchfleisch, A., Sele, M. und Caspar, C. (2018). Digital Astroturfing in Politics: Definition, Typology, and Countermeasures. Studies in Communication Sciences, 18(1), 69–85. doi:10.24434/j.scoms.2018.01.005
Kreil, M. (2020). The Army that Never Existed: The Failure of Social Bots Research. michaelkreil.github.io. Online verfügbar unter https://michaelkreil.github.io/openbots/
Lazer, D., Pentland, A., Adamic, L. A., Aral, S., Barabasi, A. L., Brewer, D., Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G., Macy, M. W., Roy, D. und Van Alstyne, M. (2009). Computational Social Science. Science, 323(5915), 721–723. doi:10.1126/science.1167742
Lewandowsky, S., Stritzke, W. G. K., Freund, A. M., Oberauer, K. und Krueger, J. I. (2013). Misinformation, Disinformation, and Violent Conflict: From Iraq and the “War on Terror” to Future Threats to Peace. American Psychologist, 68(7), 487–501. doi:10.1037/a0034515
Marwick, A. E. (2018). Why Do People Share Fake News? A Sociotechnical Model of Media Effects. Georgetown Law Technology Review, 2(2), 474–512.
Neuman, W. R. (2016). The Digital Difference: Media Technology and the Theory of Communication Effects. Cambridge, MA: Harvard University Press.
Neuman, W. R., Bimber, B. und Hindman, M. (2011). The Internet and Four Dimensions of Citizenship. In G. C. Edwards III, L. R. Jacobs und R. Y. Shapiro (Hrsg.), The Oxford Handbook of American Public Opinion and the Media (S. 22–42). Oxford: Oxford University Press.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin.
Salganik, M. J. (2017). Bit by Bit: Social Research in the Digital Age. Princeton, NJ: Princeton University Press.
Southwell, B. G., Thorson, E. A. und Sheble, L. (Hrsg.; 2018). Misinformation and Mass Audiences. Austin, TX: University of Texas Press.
Sunstein, C. R. (2007). Republic.com 2.0. Princeton, NJ: Princeton University Press.
Sunstein, C. R. (2017). #Republic: Divided Democracy in the Age of Social Media. Princeton, NJ: Princeton University Press.
Varol, O., Ferrara, E., Davis, C. A., Menczer, F. und Flammini, A. (2017). Online Human-Bot Interactions: Detection, Estimation, and Characterization. In D. Ruths, W. Mason, A. E. Marwick und S. González-Bailón (Hrsg.), ICWSM 2017: Proceedings of the Eleventh International AAAI Conference on Web and Social Media (S. 280–289). Menlo Park, CA: Association for the Advancement of Artificial Intelligence (AAAI).
Watts, D. J. (2011). Everything Is Obvious: How Common Sense Fails Us. New York: Random House.
Webster, J. G. (2014). The Marketplace of Attention: How Audiences Take Shape in a Digital Age. Cambridge, MA: The MIT Press.
Zimmermann, F. und Kohring, M. (2018). “Fake News” als aktuelle Desinformation: Systematische Bestimmung eines heterogenen Begriffs. M&K: Medien & Kommunikationswissenschaft, 66(4), 526–541. doi:10.5771/1615-634X-2018-4-526