Details

Gute Algorithmen, böse Algorithmen: Folgen für die Netzkultur

Autorinnen: Stella Noack (Redaktion SAGW) & Laura Bronner (Public Discourse Foundation und ETH Zürich)
Gesellschaft – Kultur – Sprache

Entscheidend für die digitale Diskursqualität ist die Frage, wie wir möglichst viele verschiedene Stimmen dazu ermutigen können sich angstfrei an Diskussionen zu beteiligen.

Denken Sie bei digitalen Diskussionsplattformen auch zuerst an Filterblasen, Zensur und Diskriminierung? Soziale Medien, Kommentarspalten von Nachrichtenseiten oder Onlineforen haben in Sachen Diskussionskultur einen schlechten Ruf – erst recht, wenn Algorithmen dazukommen, die steuern, was wir sehen und wie wir interagieren. Ist dieses Misstrauen gerechtfertigt und wie kann der giftige Sumpf in den Schweizer Kommentarspalten trockengelegt werden? Wir sprachen mit der Politikwissenschaftlerin Laura Bronner, wissenschaftliche Leiterin der neu gegründeten Public Discourse Foundation, über das Design von digitalen Diskussionsplattformen und Strategien für eine bessere Diskursqualität.

Schöne Namen für nette Algorithmen

Frau Bronner, warum haben Algorithmen in der breiten Gesellschaft so einen miserablen Ruf?

«Im Prinzip sind Algorithmen nur Regeln, um Aufgaben zu lösen, in diesem Fall eben Entscheidungen zu treffen. Das ist nicht inhärent schlecht, nur werden ihre Funktionsweisen und Entscheidungen oft nicht erklärt und daher selten verstanden», sagt Bronner.

Dazu kommt, dass wir oft nur das Wort «Algorithmus» brauchen, wenn wir uns auf einen intransparenten Algorithmus beziehen. Der Begriff «Algorithmus» hat sich semantisch der «Black Box» genähert und suggeriert das Unbekannte, dem mit Misstrauen und Vorsicht zu begegnen ist. Algorithmen, die als harmlose Helfer des Alltags gelten, erhalten einen anderen Namen. Bronner nennt ein Beispiel: «Die Rechtschreibprüfung im Wordprogramm ist auch ein Algorithmus. Aber der ist verständlich und wird auch nicht so bezeichnet. Das ist einfach ‹Spell Check›, sehr nett, angenehm und praktisch.»

Die Effekte von Filterblasen sind wissenschaftlich umstritten

Grosses Misstrauen besteht gegenüber Empfehlungsalgorithmen, die beispielsweise unseren Instagram-Feed zusammenstellen oder die Reihenfolge von Meldungen in einem Newsfeed bestimmen. Aus Sicht des digitalen Marketings, wo Metriken wie Engagement und Aufenthaltsdauer zur Erfolgsmessung herangezogen werden, ist ein gut funktionierender Empfehlungsalgorithmus entscheidend. Sehen die User Inhalte, die sie interessieren, dann bleiben sie länger auf einer Plattform.

Auf welcher Basis diese Algorithmen funktionieren, ist ein gut gehütetes Geschäftsgeheimnis der Plattformbetreiber und durch breite mediale Berichterstattung hat sich die Vorstellung etabliert, dass Empfehlungsalgorithmen die Überzeugungen der Plattformnutzenden verfestigen. Begriffe wie «Filter-Bubble» oder «Echo-Chamber» entstanden aus dieser These.

In der Wissenschaft sind die Effekte der Empfehlungsalgorithmen auf die Überzeugungen von Plattformnutzenden umstritten.

Wie wirkt der Empfehlungsalgorithmus auf die Überzeugungen der User?

«Die Filterbubble ist mittlerweile in der wissenschaftlichen Literatur1 ziemlich umstritten. Es scheint auf Basis verschiedener Studien wenige Beweise dafür zu geben, dass die Auswirkungen von Empfehlungsalgorithmen auf die Radikalisierung der Meinungen so gross ist wie anfänglich angenommen», sagt Bronner.

Die Zusammenstellung des eigenen Social-Media-Feeds fördere eher die Polarisierung als die Radikalisierung, ist eine These. «Das Problem ist nicht unbedingt, dass man nur Gleichgesinnte im Feed hat, es könnte vielmehr so gelagert sein, dass man Andersdenkende ungefiltert mit ihrer Community sprechen sieht», sagt Laura Bronner.

Man sehe die extremen Äusserungen der «anderen Seite» und verspüre dadurch noch weniger das Bedürfnis, mit Menschen gegensätzlicher Überzeugungen in Interaktion zu treten, auch wenn sie nicht alle gleich radikale Positionen vertreten. Die Forschung2 zu dieser Hypothese stammt aber überwiegend aus den USA, wo die Polarisierung in zwei Lager stärker ausgeprägt ist als in Europa. Als Beispiel nennt Bronner die «Quote Tweet»-Funktion bei Twitter. Oft würden damit besonders schockierende Aussagen der «Gegenseite» kommentiert geretweetet.

Niemand merkt, ob der Moderator ein Algorithmus oder ein Mensch ist

Auch Kommentarspalten unter Nachrichtenmeldungen sind rege genutzte Räume, in denen Diskurse digital ausgehandelt werden. Teilweise werden die Diskussionen von Algorithmen moderiert. «Algorithmisch moderiert» bedeutet, dass maschinell entschieden wird, welche Kommentare veröffentlicht werden und welche nicht. John Albert von «Algorithm Watch Deutschland» warnte kürzlich: «Wir können den Einfluss, den Plattformen auf den öffentlichen Diskurs ausüben, nicht abschätzen, wenn wir nicht wissen, wie der Diskurs von ihnen algorithmisch moderiert wird.»3

Laura Bronner sieht das differenzierter: «Die Moderationsalgorithmen, die Plattformen verwenden, sind grösstenteils einfach Versuche die Moderationsentscheidungen, die von Menschen irgendwann einmal getroffen wurden, so in Regeln darzustellen, dass sie maschinell repliziert werden können.» Moderationsentscheidungen seien auch für Menschen sehr schwierig zu treffen, was die Übersetzung in Regeln, die von einem Algorithmus angewendet werden können, zu einer ungleich grösseren Herausforderung mache. Man könne also nicht davon ausgehen, dass die algorithmische Moderation die Diskursqualität in den Kommentarspalten verschlechtert. «Ich würde die Hypothese aufstellen, dass die User in den Kommentarspalten gar nicht merken, ob ihre Kommentare von einem Algorithmus oder von einem Menschen moderiert werden. Denn derselbe menschliche Moderator trifft nicht immer die gleichen Entscheidungen. Seine Entscheidungen bezüglich eines Kommentars sind zu einem gewissen Grad immer arbiträr», sagt Bronner.

Kommentarspalten sind Monokulturen, die Diskurse verzerren

Die Diskursqualität krankt also nicht an algorithmischen Steuerungen auf Plattformen?

«Dass diese Algorithmen grosse Auswirkungen auf die Qualität des öffentlichen Diskurses haben, ist wissenschaftlich gesehen nicht so klar», sagt Laura Bronner. Die Zusammensetzung der interagierenden Nutzerinnen und Nutzer und die Themen zu denen sie diskutieren, hätten einen grösseren Einfluss auf die digitale Diskussionskultur als algorithmische Eingriffe.

Welche Probleme bestehen also?

«Was wir wissen ist, dass eine kleine Gruppe von Usern für einen Grossteil von problematischem Content verantwortlich ist», sagt Bronner.

Gefährlich sei nicht nur, dass der Diskurs in den Kommentarspalten anders ist als in der analogen Welt, es finde auch eine Verzerrung der Stimmengewichtung statt: «Die Kommentare unter einem Nachrichtenartikel sind keine repräsentative Stichprobe der Leute, wie auch immer man ‹die Leute› definieren will. Es sind sehr wenige Leute, die kommentieren, und von diesen wenigen Leuten kommentieren einige sehr viel. Und die Evidenz zeigt, dass die Leute, die kommentieren, sich von denen unterscheiden, die nicht kommentieren. Der Diskurs in den Kommentarspalten ist also in keiner Weise repräsentativ, auch nicht für die Leserschaft einer Zeitung», sagt Bronner.

Neben dem Problem der Verzerrung weise die Forschung4 darauf hin, dass das zum Teil toxische Milieu in den Kommentarspalten vor allem unterrepräsentierte Gruppen davon abhält, sich zu äussern, also Menschen, die insgesamt häufiger von Diskriminierung betroffen sind. Daher muss die Meinungsvielfalt erhöht werden, um die Qualität des Diskurses zu verbessern.

Und was hilft gegen den Hass?

«Wir wissen, dass deplatformen hilft.5 Dass wenn man jemandem eine Plattform wegnimmt, man die Verbreitung von dessen Diskursen eindämmen kann. Wir wissen auch, dass man Leute mit Gegenrede zum Überlegen bringen kann. Aber vieles wissen wir auch nicht, und bei vielen Themen gibt es keine klaren Ergebnisse, beispielsweise bei der Frage, welche Auswirkungen Anonymität hat», sagt Bronner.

Die ETH hat erste Evidenz6 zur Gestaltung einer funktionierenden Gegenrede geliefert. Unter drei Strategien der Gegenrede, basierend auf Empathie, der Warnung vor Konsequenzen oder Humor, zeigte nur erstere in beschränktem Masse Wirkung. In Experimenten zeigte sich, dass die Wahrscheinlichkeit, dass Nutzer, die der empathiebasierten Gegenrede ausgesetzt waren, ihren Hassrede-Tweet löschten, um 8.4 Prozentpunkte höher war als in der Kontrollgruppe.

Gestatten Bot Dog: Spürhund für digitale Hassrede

Sie waren an der Entwicklung eines Algorithmus, dem Bot Dog beteiligt, der Plattformbetreibern helfen soll online Hatespeech schnell zu identifizieren. Wie programmiert man einen solchen Bot?

«Er wird auf der Basis von hunderttausenden von Annotationen trainiert. Denn zunächst muss man eine Basis von Entscheidungen schaffen, ob etwas Hate Speech ist oder nicht. Das machen Menschen. Das führt zu vielen Texten, die eine Eins oder eine Null haben. Diese Einsen und Nullen werden dann in ein Transformer-basiertes Sprachmodell eingespeist, das versucht die Einsen und Nullen möglichst gut auseinanderzuhalten», erläutert Bronner.

Da die Entwicklerinnen und Entwickler mit Bot Dog so transparent wie möglich vorgehen wollten, wird der Entwicklungsprozess und die Funktionsweise detailliert in diesem Paper erklärt.

Drei geistes- und sozialwissenschaftliche Herausforderungen

Die Entwicklung und Anwendung eines Algorithmus provoziert viele Fragen, die geistes- und sozialwissenschaftlicher Natur sind.

Erstens ist nicht immer klar, ob eine Äusserung Hassrede ist oder nicht. Die inhärent polare Natur eines Algorithmus kann die Ambiguitäten der menschlichen Sprache nur schlecht verarbeiten. Man habe versucht, erklärt Laura Bronner, dem Problem entgegenzuwirken, indem man drei Kategorien gebildet habe: Hate Speech, Toxische Sprache und unproblematisch. Nur in der ersten Kategorie beziehen sich die Abwertungen auf Identitätsmerkmale. Das Problem der Binärität bleibt aber im Kern bestehen, auch wenn mehr binäre Auswahlmöglichkeiten zur Verfügung stehen.

Laura Bronner hält fest: «Zweitens gibt es keine allgemein akzeptierte Definition von Hate Speech. Um damit umzugehen, haben wir bei Bot Dog zwei verschiedene Vorgehensweisen angewandt. Einerseits wurde Annotatorinnen und Annotatoren eine Beschreibung vorgegeben, die auf der UN-Definition von Hate Speech basiert, andererseits haben wir auch versucht, die Vielfalt der verschiedenen Meinungen einzufangen, indem die annotierende Community vom Projekt Stop Hate Speech weniger genaue Vorgaben hatten.» Ein wissenschaftliches Paper, um diese Unterschiede zu untersuchen, ist in Vorbereitung.

Die technische Seite der Entwicklung wird so etwas komplizierter: «Rein algorithmisch gesehen ist es leichter einen Algorithmus zu trainieren, wenn alle die gleiche Definition haben. Das reflektiert aber nicht die Vielfalt der Menschen,» sagt Bronner.

Drittens stellt sich die Frage, wie sowohl Meinungsfreiheit geschützt und digitale Hassrede wirksam reguliert werden kann. Meinungsfreiheit gewährt primär Rechte vor dem Staat; private Plattformbetreiber können Rede sozusagen nach Hausrecht einschränken. Wo das Gesetz wenig reguliert, steigt die Eigenverantwortung. Ein algorithmischer Hassrededetektor macht moralische Überlegungen nicht obsolet, er ist kein easy way out. Seine automatische Entscheidungsfindung setzt voraus sich umso gründlicher mit moralischen Fragen auseinanderzusetzen.

Zur Public Discourse Foundation

Die im April 2023 gegründete Public Discourse Foundation mit Sitz in Zürich hat sich zum Ziel gesetzt, evidenzbasierte Strategien und Werkzeuge zu entwickeln, mit denen Plattformbetreiber und  -nutzer die Qualität von Diskussionen auf digitalen Plattformen, insbesondere in Kommentarspalten, verbessern können. Dabei arbeitet sie eng mit der ETH Zürich zusammen. Der dort lehrende Professor für Politikanalyse, Dominik Hangartner, präsidiert den Stiftungsrat. Die Stiftung will einerseits Strategien erforschen, wie Plattformen die Partizipation von Menschen aus unterrepräsentierten Gruppen stärken können. Andererseits sollen Tools entwickelt werden, die Gegenrede, also Zivilcourage gegen giftige oder hasserfüllte Inhalte, ermöglichen. «Die Idee ist, dass wir Werkzeuge zur Verfügung stellen, mit denen Menschen eingreifen können, ohne Angst haben zu müssen, selbst zur Zielscheibe von Hass zu werden», sagt Bronner.

Referenzen

[1] Vgl. beispielsweise Flaxman S., Goel S., Rao J. (2016). Filter Bubbles, Echo Chambers, and online news consumption. Public Opinion Quaterly 80, S. 298-320. https://doi.org/10.1093/poq/nfw006 oder Barberá, P. (2020). Social Media, Echo Chambers, and Political Polarization. In N. Persily & J. Tucker (Eds.), Social Media and Democracy: The State of the Field, Prospects for Reform, S. 34-55. Cambridge: Cambridge University Press. https://doi.org/10.1017/9781108890960

[2] Bail C., Argyle L., Brown T. et al. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences of the United States of America 115(37), S. 9216-9221. https://doi.org/10.1073/pnas.1804840115

[3] John Albert. Der Digital Services Act: EU verpflichtet Plattformen zu einem neuen Rechenschaftsstandard. 27. April 2022, https://algorithmwatch.org/de/dsa-neuer-rechenschaftsstandard-fur-plattformen/ (Abgerufen am 13. Juni 2023).

[4] Für einen Forschungsüberblick siehe Seiten 68 bis 70 in: Siegel, A. (2020). Online Hate Speech. In N. Persily & J. Tucker (Eds.), Social Media and Democracy: The State of the Field, Prospects for Reform. Cambridge: Cambridge University Press.  https://doi.org/10.1017/9781108890960

[5] Rauchfleisch, A. and Kaiser, J. (2021). Deplatforming the Far-right: An Analysis of YouTube and BitChute. Social Science Research Network. http://dx.doi.org/10.2139/ssrn.3867818

[6] Hangartner D., Gennaro G., Alasiri S. et al. (2021). Empathy-based counterspeech can reduce racist hate speech in a social media field experiment. Proceedings of the National Academy of Science 118 (50). https://www.pnas.org/doi/10.1073/pnas.2116310118

Zur Person

Laura Bronner ist wissenschaftliche Leiterin der Public Discourse Foundation und Senior Applied Scientist bei der Public Policy Group an der ETH Zürich. Sie war davor Quantitative Editor bei der Datenjournalismus-Website FiveThirtyEight. 2018 hat sie an der London School of Economics in Politikwissenschaft promoviert.

Open Access

Dies ist eine Open-Access-Publikation, lizenziert unter CreativeCommons CC BY-SA 4.0.

Disclaimer

Die Blogbeiträge können Meinungsäusserungen der AutorInnen enthalten und stellen nicht grundsätzlich die Position der jeweiligen Arbeitgeberin oder der SAGW dar.