Wie Algorithmen den gesellschaftlichen Diskurs beeinflussen

Wie Algorithmen den gesellschaftlichen Diskurs beeinflussen

Eb29a07f49b3256adf8cb2fdee6ad160?s=128

klischka

June 19, 2018
Tweet

Transcript

  1. Wie Algorithmen den gesellschaftlichen Diskurs beeinflussen Erfurt, 22. Juni 2018

    Konrad Lischka
  2. Kurze Antwort: Auf verschiedene Menschen unterschiedlich. Noch kürzer: Es ist

    kompliziert. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 2
  3. Vermitteln zwischen Dritten, aus deren Interaktion Öffentlichkeit entsteht z.B. Privatpersonen,

    journalistisch-redaktionelle Medien, Politik Verbreiten von Dritten erstellte Inhalte basierend auf eigenen Prinzipien z.B. Zugangsbedingungen, Mechanismen des Matchings Sortieren mit Prozessen algorithmischer Entscheidungsfindung z.B. für Auswahl, Relevanzeinschätzung Algorithmisch sortierte Intermediäre entkoppeln Veröffentlichung und Reichweite. Schwache künstliche Intelligenz schafft Öffentlichkeit. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 3 Stöcker, Lischka 2017 Intermediäre
  4. Algorithmisch sortierte Intermediäre sind relevant für die Meinungsbildung - aber

    nicht entscheidend. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 4 Bevölkerung ab 14 Jahren | 100% | 69,6 Mio. 53,1 % Google 24,4 % Facebook 5,7 % Youtube 16,8 % andere davon wichtigster Intermediär zur Information übers Zeitgeschehen: Intermediäre insgesamt | 95,5 % | 38,8 Mio. Intermediäre informativ | 57 % | 23,8 Mio. Internet | 58,3 % | 40,6 Mio. tägliche Nutzung Ecke, O. 2016 / Hölig, S., & Hasebrink, 2016 51% nennen TV Hauptquelle für Nachrichten
  5. Strukturwandel der Öffentlichkeit Der graduelle Wandel der Nutzung sagt nichts

    über die Qualität des Strukturwandels im gesellschaftlichen Diskurs aus. Die ist immens. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 5 Wechselwirkung zwischen maschineller und redaktioneller Auswahl Zentralisierung der Auswahlinstanzen Impulsive Mikroreaktionen des Publikums beeinflussen Reichweiten Personalisierung Entbündelung von Publikationen Entkopplung von Veröffentlichung und Reichweite
  6. Automatische, impulsive Reaktionen von Menschen sind bei Intermediären wichtige Signale

    für Relevanz. Beispiel Facebook: 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 6 Format (Foto, Text,…) Ähnlich dem, was Tester gut bewerten? Wann veröffentlicht? Bisherige Reaktion auf Formate Ähnliche Inhalte verborgen? Klicks, Scrollverhalten Kommentare, Likes Likes, Shares, Kommentare Wie oft verborgen? Umfrageergebnisse Rückkehrgeschwindigkeit Betrachtungsdauer Eigenschaften des Inhalts Interaktionen des Empfängers mit Inhalten Interaktion anderer Empfänger mit Inhalten Freundschaft, Tags Menschliche Evaluation Moderation Tests Beziehung Sender & Empfänger Quellen: Backstrom 2013; Facebook 2016a; Facebook 2016b; Oremus 2016; Zhang und Chen 2016.
  7. Darstellung externer Quellen auf Plattformen kann die einzige Grundlage für

    Diskussionen sein. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 7 Gabielkov, Ramachandran, Chaintreau, Legout (2016) “Our results show that sharing content and actually reading it are poorly correlated.” “People form an opinion based on a summary, or summary of summaries, without making the effort to go deeper.”
  8. “As recent history of the web demonstrates, the ease or

    difficulty of doing a particular action affects the likelihood that a behavior will occur. .” “To initiate action, doing must be easier than thinking. The more effort – either physical or mental – required to perform the desired action, the less likely it is to occur.” Designprinzip Captology: Verhalten ohne Nachdenken so wahrscheinlich wie irgend möglich zu machen CC BY-SA 3.0 Font Awesome by Dave Gandy | CC BY-SA 4.0 Umberto Nurs (Nir Eyal, 2014) 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 8
  9. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 9 Captology als

    Designprinzip in der Plattform-Praxis Relevanzsignale geben ohne Nachdenken: Algorithmische Sortierung nutzen ohne Nachdenken:
  10. Auf mühelose Anwendung optimiertes Design begünstigt einen Denkmodus, den Kahneman

    als System 1 bezeichnet. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 10 (nach Kahneman, 2012)  automatisch  schnell  weitgehend mühelos  ohne willentliche Steuerung Beispiel: Feindseligkeit in einer Stimme erkennen System 1 („schnelles Denken“):  mühevoll/anstrengend  deliberativ  logisch  geordnet Beispiel: Steuererklärung machen System 2 („langsames Denken“):
  11. Werden Entscheidungen schnell, ohne Reflexion, ja „automatisch“ getroffen, treten eher

    kognitive Verzerrungen auf. Wie zum Beispiel:  allgemeine Bestätigungstendenz: Inhalte so wählen und interpretieren, dass sie die eigene Erwartung erfüllen.  Verfügbarkeitsheuristik: Woran man sich leicht erinnert, scheint wichtiger, häufiger. Man erinnert sich leichter z.B. an Ungewöhnliches, emotional Aufgeladenes. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 11 Kurz: Im gesellschaftliche Diskurs ist System 1 nicht unser Freund “The confirmatory bias of System 1 favors uncritical acceptance of suggestions and exaggeration of the likelihood of extreme and improbable events.” (Kahneman, 2012)
  12. Plattform-Design beeinflusst menschliches Verhalten. Das Verhalten werten Plattformen aus. 22.06.2018

    | Wie algorithmisch sortierte Intermediäre wirken 12 “We find that the introduction of the 'People You May Know' feature locally nearly doubled the average number of edges added daily.” (Malik & Pfeffer, 2016) „At Facebook, we run over a thousand experiments each day.“ (Bakshy, 2014)
  13. Die Folgen eines auf System 1 und Engagement optimierten Systems

    23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 13 Die 3 am häufigsten empfohlenen YouTube-Videos zur Suchfrage „is the earth flat or round?” Quelle: Algotransparency.org, 2018 * Engagement: Reaktionen, Kommentaren und Shares
  14. Die Folgen eines auf System 1 und Engagement optimierten Systems

    22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 14 Die 10 erfolgreichsten Artikel über Angela Merkel nach Engagement* auf Facebook (2012-2017) 1. Angela Merkel: Deutsche müssen Gewalt der Ausländer akzeptieren 2. Merkel möchte allen Flüchtlingen schnellstmöglich Wahlrecht geben 3. Psychoanalytiker Hans-Joachim Maaz: "Angela Merkel handelt vollkommen irrational" 4. Merkel ist wahnsinnig | Kanadisches Fernsehen liefert Beweise 5. Merkel: Rente reicht nicht für alle 6. Angela Merkel wurde bei einem Verkehrsunfall überfahren. 7. Manipulation: Merkel verhängt Zensur über die ARD-Tagesschau 8. EILMELDUNG! Angela Merkel kündigt Rücktritt an! 9. Merkel will in Afrika für Einwanderung nach Deutschland werben 10. "Business Insider": Britisches Magazin: Angela Merkel ist die größte Bedrohung für Europa Quelle: Buzzfeed, 2017 * Engagement: Reaktionen, Kommentaren und Shares
  15. Emotional negativ aufgeladene Beiträge provozieren mehr Reaktionen 22.06.2018 | Wie

    algorithmisch sortierte Intermediäre wirken 15 “Rage!” by Brad.K is licensed under CC BY 2.0 Facebook-Beiträge mit geäußerter negativer Stimmung erhalten mehr Kommentare als die mit positiver Stimmung. (Stieglitz, S., & Dang-Xuan, L., 2012) Je stärker emotional aufgeladen ein Tweet ist, desto häufiger wird er verbreitet. Bei negativer Stimmung ist der Effekt stärker. (Stieglitz, S., & Dang-Xuan, L., 2013) Je aktiver Menschen in Facebook-Gruppen zu Verschwörungen sind, desto negativer wird die Stimmung ihrer Beiträge. (Vicario u.a. 2016)
  16. 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 16 Definition Filterblasen:

    algorithmische Sortierung teilt Algorithmische Sortierung und Personalisierung zeigt Menschen eher Inhalte an, denen sie zustimmen. Das verstärkt ideologische Teilung. nach Pariser, 2011
  17. Filterblasen-Effekte sind wegen geschlossener Plattformen schwer erforschbar. Existierende Empirie zeigt

    keine oder schwache Effekte. 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 17 Facebook: Leichte Verengung des Nachrichtenangebots (USA) System zeigt Konservative etwa 5 % weniger Inhalte aus dem anderen politischen Lager im Vergleich zu dem, was ihre Freunde tatsächlich teilen. Liberale sehen 8 % weniger ideologisch anders gefärbte Inhalte. (Bakshy, Messing und Adamic, 2015) Twitter: Kein Filterb.-Effekt bei Falschmeldung Schweden-Reisewarnung (D) Überwiegende Mehrheit der Verbreiter der Falschmeldung hatte Korrektur- Nachrichten in der Timeline - aber interagierte nicht damit. (Kreil, Seemann, 2017) Fazit: Letztlich spielt vermutlich Wechselwirkung individueller Entscheidungen mit ADM-Systemen eine zentrale Rolle bei der Frage, ob sich das Weltbild durch den Intermediär verengt oder nicht.
  18. 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 18 Definition Echokammern:

    Menschen bevorzugen Gleichgesinnte Menschen neigen u.a. aufgrund der Bestätigungsverzerrung dazu, von ihnen bevorzugte Narrative zu verbreiten. Sie finden sich in polarisierten Gruppen zusammen. Algorithmische Sortierung ist dabei Mittel und ggf. Verstärker, nicht Auslöser. nach Quattrociocchi, Sunstein, 2016
  19. Echokammern: Polarisierung wächst, doch da wirkt viel mehr als nur

    die algorithmische Sortierung 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 19 TV: Polarisierte Mediennutzung wächst in politisch stark polarisierten Gesellschaften (USA): Republikaner Fox News vs. Demokraten NPR, CNN. (Iyengar und Hahn, 2009) In Vielparteiensystemen solche sind vergleichbare Polarisierungs-Effekte nicht nachweisbar (NL) (Trilling u. a., 2016) Facebook: Nutzer sammeln sich in Gruppen Gleichgesinnter, die kognitive Verzerrungen begünstigen (I). „This (…) leads to proliferation of biased narratives fomented by unsubstantiated rumors, mistrust, and paranoia” (Vicario u.a., 2016) Facebook: Konfrontation mit Widersprüchen stärkt die Echokammer (I). "Indeed, after interacting with debunking posts, users retain, or even increase, their engagement within the conspiracy echo chamber." (Zollo u.a., 2015)
  20. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 20 Echokammer 1:

    Asymmetrische Aufmerksamkeitsmuster sprechen gegen allein technisch bedingten Effekt (USA, Facebook) Benkler, 2017  Große Knoten: Medien mit häufig geteilten Inhalten  Nahe liegende Knoten: Hohe Publikumsüberschneidung  Farbeschema nach Nutzern: Rot: Nutzer retweeten Trump 4:1 Blau: Nutzer retweeten Clinton 4:1 Hellblau: Clinton 3:2 Grün: 1:1 Fazit: Unterschiedliche Effekte derselben algorithmischen Infrastruktur in den Gruppen. Die Twitter-Wolke sieht fast genauso aus
  21. Echokammer 2: Verbreitung der Falschmeldungen und Korrekturen zur Schweden-Reisewarnung zeigt

    Polarisierung (D, Twitter) 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 21 Seemann, 2017  Große Knoten: Konten mit vielen Followern  Beieinander liegende Knoten: Hohe Überschneidung des Publikums  Farbeschema: Rot: Falschmeldung verbreitet Blau: Korrektur verbreitet Dunkelrot: erst Falschmeldung dann Korrektur (kommt kaum vor) Fazit: Getrennte Sphären, obgleich Korrektur und Falschmeldung der Mehrheit in beiden zugänglich war
  22. Wechselwirkungen überall oder: It‘s complicated Algorithmische Sortierung Kognitive Verzerrungen Captology-Design:

    Handeln ohne nachzudenken Bots etc. Politisch/kommerziell motivierte Desinformation Politische Polarisierung Redaktionelle Kuratierung Politisches System, Wahlsystem 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 22
  23. Alternative algorithmische Sortierung ist möglich – es fehlt an Vielfalt,

    weil Infrastruktur und Dienste auf Plattformen nicht getrennt sind. 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 23 Alternative Sortierkriterien: 1. Lautstärke und Höflichkeit 2. ausgewerteter Zeitraum und Viralität 3. Themen und Ressorts 4. Textlängen und Informationsdichte 5. Experimentierfreude fördern, z.B. durch graduelle Skalen (vgl. Prototypen über bestehende APIs: gobo.social, nuzzle | Konzepte: deepnews.ai):
  24. Was man tun kann: Neun Ansatzpunkte für Interventionen 1. Algorithmische

    Sortierung ist redaktionelle Arbeit. Deshalb: Vielfalt der Relevanzprognosen sichern. 2. Daraus Konsequenzen für Vielfaltssicherung, Aufsicht usw. bei Intermediären ziehen. 3. Bring Your Own Algorithm! Plattformen als Infrastruktur regulieren & von darauf laufenden Diensten (z.B. Sortierung) trennen – vgl. Telefonnetz, Windows, TCP/IP. 4. Externe Beforschbarkeit relevanter algorithmisch sortierter Intermediäre schaffen. 5. Menschen für die Funktionsweise algorithmischer Systeme sensibilisieren. 6. Menschen für die Wirkung kognitiver Verzerrungen sensibilisieren. 7. Erforschung & Entwicklung von Intermediären fördern, die System-2-Verarbeitung begünstigen. 8. Zulassungsverfahren für bestimmte algorithmische Systeme. Vorbild: Bots in der Wikipedia. 9. Leitwerte algorithmischer Intermediäre individuelle und institutionell verankern und fortentwickeln - z. B. Ausbildung, Professionsethik, Impact Assessments 22.06.2018 | Wie algorithmisch sortierte Intermediäre wirken 24
  25. www.bertelsmann-stiftung.de Besuchen Sie uns auch auf Danke! www.algorithmenethik.de @algoethik konrad.lischka@bertelsmann-stiftung.de

  26. Backup 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 26

  27. OSI- und TCP/IP-Schichtenmodelle 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken

    27 https://de.wikipedia.org/wiki/Internetprotokollfamilie#TCP/IP-Referenzmodell
  28. Manche Bots sind dafür optimiert, scheinbare Reichweite zu erzeugen. 23.05.2018

    | Wie algorithmisch sortierte Intermediäre wirken 28 “This work studies bot traffic on Twitter, finding that almost 50% of traffic is generated and propagated by a rapidly growing bot population — a major concern for networked systems in the future.“ (Zafaer u.a., 2017) „By adopting state-of-the-art detection techniques developed by our group in the past, we estimated that about 400,000 bots are engaged in the political discussion about the Presidential election, responsible for roughly 3.8 million tweets, about one-fifth of the entire conversation.” (Bessi & Ferrara, 2016) “We estimate that false or spam accounts represent less than 5% of our MAUs” (Twitter, 2017) Chris 73 / Wikimedia Commons cc-by-sa 3.0
  29. Quellen  Algotransparency.org: YouTube’s most recommended videos from is the

    earth flat or round?, 18.2.2018  Backstrom, Lars. „News Feed FYI: A Window Into News Feed“. Facebook for Business, 6. August 2013.  Bakshy, Eytan, Solomon Messing, und Lada A Adamic. „Exposure to ideologically diverse news and opinion on Facebook“. Science 348, Nr. 6239 (2015): 1130–32. https://doi.org/10.1126/science.aaa1160.  Bessi, Alessandro. „Personality Traits and Echo Chambers on Facebook“. arXiv:1606.04721 [cs], 15. Juni 2016. http://arxiv.org/abs/1606.04721.  Bessi, Alessandro, Fabio Petroni, Michela Del Vicario, Fabiana Zollo, Aris Anagnostopoulos, Antonio Scala, Guido Caldarelli, und Walter Quattrociocchi. „Viral misinformation: The role of homophily and polarization“. In Proceedings of the 24th International Conference on World Wide Web, 355–356. ACM, 2015. http://dl.acm.org/citation.cfm?id=2745939.  Borgesius, Zuiderveen, Frederik J, Damian Trilling, Judith Moeller, Balázs Bodó, De Vreese, Claes H, und Natali Helberger. „Should We Worry About Filter Bubbles?“ SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, 2. April 2016. https://papers.ssrn.com/abstract=2758126.  Ecke, Oliver. „Wie häufig und wofür werden Intermediäre genutzt?“ Berlin, 30. November 2016.  Eyal, Nir. Hooked: how to build habit-forming products. New York, New York: Portfolio/Penguin, 2014.  Facebook. „How News Feed Works“. Nonprofits on Facebook, 17. Juni 2016.  Facebook. „Werte des News Feed“. Facebook News Feed (blog), 28. Juni 2016. https://newsfeed.fb.com/values/.  Gabielkov, Maksym, Arthi Ramachandran, Augustin Chaintreau, und Arnaud Legout. „Social Clicks: What and Who Gets Read on Twitter?“ ACM SIGMETRICS/IFIP Performance 2016, 2016. https://hal.inria.fr/hal-01281190/file/sigm095-gabielkov.pdf.  Hasebrink, Uwe, Jan-Hinrik Schmidt, und Lisa Merten. „Wie fließen Intermediäre in die Meinungsbildung ein?“ Berlin, 30. November 2016.  Iyengar, Shanto, und Kyu S. Hahn. „Red media, blue media: Evidence of ideological selectivity in media use“. Journal of Communication 59, Nr. 1 (2009): 19– 39.  Kahneman, Daniel. Schnelles Denken, langsames Denken. Übersetzt von Thorsten Schmidt. Siedler Verlag, 2012.  Lischka, Konrad, und Christian Stöcker. „Digitale Öffentlichkeit“. BStift - Bertelsmann Stiftung, 2017. https://doi.org/10.11586/2017028 23.05.2018 | Wie algorithmisch sortierte Intermediäre wirken 29
  30. 23.05.2018 30  Malik, Momin M., und Jürgen Pfeffer. „Identifying

    Platform Effects in Social Media Data“, 2016. http://mominmalik.com/malik_icwsm2016.pdf.  Michael Seemann. „Digitaler Tribalismus und Fake News“, 29. September 2017. http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/.  Oremus, Will. „Who Controls Your Facebook Feed“. Slate, 3. Januar 2016.  Pariser, Eli. The filter bubble: what the Internet is hiding from you. New York: Penguin Press, 2011.  Quattrociocchi, Walter, Antonio Scala, und Cass R. Sunstein. „Echo chambers on facebook“, 2016. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2795110.  Schmehl, Karsten. „7 der 10 erfolgreichsten Artikel über Angela Merkel auf Facebook sind Fake News“. BuzzFeed. Zugegriffen 9. Oktober 2017.  Stieglitz, Stefan, und Linh Dang-Xuan. „Emotions and Information Diffusion in Social Media—Sentiment of Microblogs and Sharing Behavior“. Journal of Management Information Systems 29, Nr. 4 (2013): 217–48. https://doi.org/10.2753/MIS0742-1222290408.  ———. „Impact and Diffusion of Sentiment in Public Communication on Facebook“. ECIS 2012 Proceedings, Nr. August (2012). http://aisel.aisnet.org/ecis2012/98.  Trilling, Damian, Marijn van Klingeren, und Yariv Tsfati. „Selective Exposure, Political Polarization, and Possible Mediators: Evidence From the Netherlands“. International Journal of Public Opinion Research, 24. März 2016, edw003. https://doi.org/10.1093/ijpor/edw003.  Vicario, Michela Del, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, und Walter Quattrociocchi. „The Spreading of Misinformation Online“. Proceedings of the National Academy of Sciences 113, Nr. 3 (19. Januar 2016): 554– 59. https://doi.org/10.1073/pnas.1517441113.  Yochai Benkler, Robert Faris, Hal Roberts, und Ethan Zuckerman. „Breitbart-led right-wing media ecosystem altered broader media agenda“. Columbia Journalism Review, 3. März 2017. http://www.cjr.org/analysis/breitbart-media-trump-harvard-study.php.  Zafar, Muhammad Bilal, Isabel Valera, Manuel Gomez Rodriguez, und Krishna P. Gummadi. „Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment“. arXiv preprint arXiv:1610.08452, 2016. https://arxiv.org/abs/1610.08452.  Zhang, Cheng, und Si Chen. „Using Qualitative Feedback to Show Relevant Stories“, 1. Februar 2016.  Zollo, Fabiana, Alessandro Bessi, Michela Del Vicario, Antonio Scala, Guido Caldarelli, Louis Shekhtman, Shlomo Havlin, und Walter Quattrociocchi. „Debunking in a World of Tribes“. arXiv preprint arXiv:1510.04267, 2015. https://arxiv.org/abs/1510.04267.