Ich lese mir die Welt, wie sie mir gefällt. Dank Algorithmen erhalten wir nur die Nachrichten, die in unser Weltbild passen. Das ist bequem, aber gefährlich. Von Hannah Lichtenthäler und Kim Mensing
Das Morgenritual der Studierenden: Die Facebook-Timeline überfliegen. Abonnierte Nachrichtenkanäle servieren Informationen in angenehm kleinen Appetithäppchen, Freunde und Freundinnen teilen das, worüber man nach der Vorlesung gemeinsam redet. Facebook ist ein bedeutender Nachrichtenkanal geworden – jede fünfte Person informiert sich einer Oxford-Studie aus 2015 zufolge über das soziale Netzwerk. Im Gegensatz dazu ist die Zahl derer, die sich gedruckte Tageszeitungen kaufen, innerhalb der letzten 25 Jahre um knapp die Hälfte gesunken. Auf den ersten Blick scheint es ja auch, als könne man sich auf Facebook umfassend informieren. Doch der Schein der vielfältigen, da großen Informationsflut, trügt: Denn Algorithmen, Berechnungsverfahren, die nach einem logischen Schema immer dieselben Ergebnisse liefern, mischen sich mit ein und filtern unsere Timeline. Und über der Hälfte der Facebooknutzenden ist dies – zumindest, wenn man sich auf eine US-amerikanische Studie aus dem Jahr 2015 beruft – gar nicht bewusst.
Lutz Prechelt, Professor für technische Informatik, kennt die Problematik der Filterblasen. In seiner Vergangenheit hat er sich viel mit selbstlernenden Algorithmen beschäftigt. Mit diesen kann Facebook anhand des Nutzungsverhaltens kontinuierlich Profile erstellen, vor allem für Werbezwecke. „Je häufiger ich klicke und like, umso transparenter wird meine Persönlichkeit“, erklärt Prechelt. Facebook nutzt diese Informationen und zeigt uns nur die Inhalte an, die zu unserem Profil passen – andere Informationen werden herausgefiltert: Wir bewegen uns nur noch in unserer eigenen Informationsblase. Das ist vielleicht angenehm für die meisten User, doch mit einer ausgewogenen Nachrichten-Umgebung hat das nichts zu tun. Im Gegenteil: „Es kann zu einer verzerrten Wahrnehmung der Wirklichkeit kommen, wenn man nur noch von Ähnlichdenkenden umgeben ist. So kann das Gefühl entstehen, die ganze Welt sei der eigenen Meinung.” Algorithmen können dadurch im Netz kursierende Meinungen verstärken – und polarisieren.
Nicht nur Facebook, sondern auch Google sammelt massenhaft Daten und spuckt Suchergebnisse nach unserem Nutzungsverhalten aus. Googles angepasste Ergebnisse sind zwar oft praktisch und präzise, doch immer häufiger auch problematisch. Eine Studie der Cornell Universität kam zu dem Ergebnis, dass als weiblich identifizierte Nutzerinnen erheblich weniger Ergebnisse von gut bezahlten Stellen angezeigt bekommt als ein Mann. Fragwürdig sind auch die Vorschläge von Google wenn man in der Suchleiste „Frauen sollten nicht…“ eingibt – der erste Vorschlag der Auto-Vervollständigung lautet „… arbeiten“.
Eine häufige Annahme ist, dass die Programmierenden Schuld daran seien, dass es zu diskriminierenden Suchergebnissen kommt, schließlich mangelt es in der Männerdomäne IT oft an Diversität. Prechelt erklärt, dass die Programmierung zwar parteiisch sein könne, jedoch könnten Begriffe wie Sexismus und Rassismus als soziale Konstrukte nicht für Maschinen selbst gelten.
Er erklärt auch, dass Algorithmen zwar auf Stereotypen basieren. „Anders als Menschen haben sie aber überhaupt kein Problem damit, sich von Vorurteilen zu lösen – wenn sie entsprechend programmiert sind und man ihnen die Zusatzinformation zur Verfügung stellt.” Denn Verzerrungen entstehen oft, weil die Informationen einseitig sind. So basiert der Suchalgorithmus für Stellenanzeigen wahrscheinlich auf Daten, die Frauen ein geringeres Gehalt zuschreiben. Man könnte dem Algorithmus nun beibringen, dass es diesen Aspekt ignorieren soll.
Wir können nicht die Programmierung der Algorithmen bestimmen, was wir jedoch in der Hand haben, ist der Umgang mit der Filterblase – und welchen Einfluss wir ihr zusprechen wollen. Denn durch sie kann sich die Wirklichkeitswahrnehmung durchaus verzerren. Martin Emmer, Professor für Publizistik und Kommunikationswissenschaft, hat bereits zu Filterblasen geforscht. Emmer möchte nicht alleine Algorithmen dafür verantwortlich machen, dass extremistische Inhalte und Diskriminierung im Netz gefühlt zunehmen. Man habe schließlich auch schon vor der Existenz des Internets selektiert: „Wer zum Beispiel politisch links ausgerichtet war, las die taz und nicht die FAZ.“ Außerdem entstehe unsere Weltsicht heute auch nicht ausschließlich aus Online-Quellen. Man gehe ja immer noch auf die Straße und unterhalte sich mit Menschen. Trotzdem ist die Diskussion um politische und gesellschaftliche Auswirkungen von Algorithmen nicht zu unterschätzen, meint Emmer. „Natürlich gibt es Verstärkungseffekte: Wenn Menschen, die nur diffuse Ausländerängste haben, online in Verschwörungstheorien hineingezogen werden, können sich schnell verfestigte Stereotypen entwickeln.” Einseitige Meinungen im Web zu diskutieren, sei Aufgabe einer demokratischen Gesellschaft, findet Emmer: „Da steckt auch immer eine Chance drin. Jetzt sind wir gefordert, klar Position einzunehmen.” Prechelt dagegen sieht ein Dilemma: „Facebook in dieser Hinsicht zu regulieren, halte ich für sehr kompliziert. Erwünscht wäre es auch nicht unbedingt.” Die Leute fühlten sich wohl in ihrer Filterblase. „Ganz viele wollen das – sie wollen jeden Tag Katzenbilder sehen. Das ist ja auch eine Form von Freiheit.“ Bei aller Freiheit sei es allerdings wichtig, die Gesellschaft über die Algorithmen und ihre Wirkungen aufzuklären.”
Trotzdem sind wir nicht ganz machtlos. Prechelt und Emmer sind sich darin einig: Wenn wir uns gezielt über verschiedene Medienkanäle informieren, kommen wir aus der Filterblase heraus. Wer sich dennoch über Facebook informieren möchte, kann durch seine Likes das eigene Profil beeinflussen, so Prechelt: „Ich kann einfach Seiten und Beiträge liken, die ich eigentlich ganz und gar nicht gut finde.“ Das mag unbequem sein. Aber nur so können wir beeinflussen, dass uns auch kontroverse Beiträge und Links im Facebook-Feed angezeigt werden. Auch wenn die heutige Situation dystopisch aussehen mag, liegt es doch auch noch ein Stück weit an uns, ob und wie wir uns wehren.
Trotzdem sind wir nicht ganz machtlos. Prechelt und Emmer sind sich darin einig: Wenn wir uns gezielt über verschiedene Medienkanäle informieren, kommen wir aus der Filterblase heraus. Wer sich immer noch über Facebook informieren möchte, kann durch seine Likes das eigene Profil beeinflussen, so Prechelt: „Ich kann einfach Seiten und Beiträge liken, die ich eigentlich ganz und gar nicht gut finde.“ Nur so können wir beeinflussen, dass uns auch kontroverse Beiträge und Links im Facebook-Feed angezeigt werden. Auch wenn die heutige Situation dystopisch aussehen mag, liegt es doch auch noch ein Stück weit an uns, ob und wie wir uns wehren.