„Die Automatisierung ist kein Naturereignis”

Die Zwei-Tage-Arbeitswoche oder vollautomatisierte Drohnenkriege? Beides wäre mithilfe digitaler Algorithmen möglich. Die gesellschaftliche Richtungsentscheidung kann uns die Technik jedoch nicht abnehmen, erklärt Philosoph und Informatiker Rainer Rehak im Gespräch mit Caroline Blazy und Anna Schönenbach.

Der Philosoph und Informatiker Rainer Rehak. Foto: European Climate Foundation.

Rainer Rehak ist Doktorand am Weizenbaum-Institut für vernetzte Gesellschaft in Berlin und Teil der Foschungsgruppe Quantifizierung und gesellschaftliche Regulierung. Zuvor studierte er in Berlin Informatik an der Humboldt-Universität sowie Philosophie an der Freien Universität.

FURIOS: Herr Rehak, nahezu jede*r hat im Alltag – bewusst oder unbewusst – Berührungspunkte mit ihnen, doch nur wenige wissen, wie sie wirklich funktionieren. Was sind überhaupt Algorithmen?

Rainer Rehak: In der Informatik sagt man, dass es endlich viele und eindeutig beschriebene Schritte sein müssen, sodass aus einem wohldefinierten Anfangszustand ein wohldefinierter Ausgangszustand entsteht. Das ist ähnlich einer Stadtverwaltung. Da gibt es bestimmte Regeln, Schritte und interne Abläufe, zum Beispiel, wenn man sich ummeldet. Die Verwaltung funktioniert ähnlich wie ein Computer und die Verwaltungsregeln sind wie die Algorithmen. 

Vom Onlineshopping bis zu Dating-Apps: Entscheidungs- und Verhaltensprozesse werden heute vielfach durch Algorithmen beeinflusst und gesteuert. Machen wir uns zu sehr von Algorithmen abhängig? Droht uns am Ende sogar ein Verlust der Autonomie?

Wir sollten uns nicht so sehr auf die Algorithmen selbst fokussieren. Stattdessen sollten wir schauen, welche Akteur*innen diese algorithmischen Entscheidungssysteme zu welchem Zweck einsetzen. Bei einem unserer Forschungsprojekte am Weizenbaum-Institut haben wir uns angesehen, wie eigentlich Uber die Fahrer*innen und die Fahrgäste durch die App beeinflusst. Wir haben erkannt, dass da ganz viel Nudging (Anm. d. Red.: Anstreben von Verhaltensveränderungen) erfolgt, aber genau das ist Ubers Geschäftsmodell. Wenn die Fahrer*innen nicht über eine bestimmte Anzahl an Sternen kommen, werden sie gesperrt.

Uber verwendet diese Algorithmen als Werkzeug. Da machen nicht wir uns von Algorithmen abhängig, sondern wir lassen als Gesellschaft zu, dass bestimmte Akteur*innen Algorithmen verwenden, um ihre Interessen durchzusetzen. Eigentlich machen wir uns von den Akteur*innen abhängig. Die Algorithmen sind dabei nur Mittel zum Zweck.

Wenn zum Beispiel die Filterung der Auswahl beim Shoppen transparent geschieht oder es vorher einen Entscheidungsprozess gab, welche Kriterien höher gewichtet werden sollen, dann ist es eine gute Sache. Es erleichtert uns den Lebensalltag, wenn wir uns nicht ständig neu durch 5000 Produkte klicken müssen. In dem Moment ist die Automatisierung und die Algorithmisierung eine Befreiung und eine Entlastung der Menschen. 

Eigentlich ist es total ungerecht, dass die unbewussten Neigungen von Menschen so ausgenutzt werden. Wir können aber auch als Gesellschaft entscheiden, dass die Algorithmen, die uns Produkte präsentieren, veröffentlicht werden müssen. 

Heißt das, es gibt gar keine Zufälle mehr? Werden die zufällige Auswahl von Produkten oder unerwartete Begegnungen im Alltag durch Algorithmen minimiert? 

Ja und nein. Ich stoße auch nicht auf eine zufällige Anordnung von Produkten, wenn ich in einen Laden gehe. Das war schon so, als es noch keine Computer gab. Die Süßigkeiten waren neben der Kasse, damit die Kinder durchdrehen, und auf Sichthöhe der Augen stehen die teuren Sachen, um den Gewinn zu maximieren. 

Bei Dating-Apps geht natürlich Zufall verloren. Aber Zufall kann ja auch bedeuten, viel Zeit mit nicht besonders erfüllenden Verabredungen zu verbringen. Wenn ich in Berlin-Schöneberg in eine Bar gehe, ist allerdings auch vorgefiltert, wen ich da treffe. Ich warne vor dem Eindruck, dass es vor den Computern die paradiesische Welt des Zufalls gab und jetzt auf einmal die bösen Algorithmen unsere Welt vorstrukturieren. Das sollte man nicht idealisieren.

Gibt es Bereiche, in denen der Einsatz von Algorithmen zum Problem wird oder sogar Schaden anrichtet?

Drohnenkriege, um mal ein extremes Beispiel zu nennen, haben sehr negative Auswirkungen, die ohne Computereinsatz überhaupt nicht greifen würden. Bei dieser Art digitaler Kriegsführung basierend auf Algorithmen sehe ich den gesellschaftlichen Nutzen nicht.

Die Wirkung der Automatisierung muss natürlich im gesellschaftlichen Kontext betrachtet werden. Erstmal ist nichts Schlimmes daran, dass Roboter unsere Arbeit erledigen und wir uns dafür mit einer Zwei-Tage-Woche mehr um unsere Familie und Hobbys kümmern können. Das Problem entsteht dann, wenn die Algorithmisierung und Automatisierung nicht gesellschaftsverträglich politisch begleitet wird. Das ist aber keine technische Frage. 

Auf der anderen Seite gibt es dieses „Heilsversprechen der Digitalisierung”, was man kritisch betrachten muss. Da heißt es dann, die Automatisierung würde uns befreien oder ganze Arbeitszweige überflüssig machen. Gerade in der Medizin ist das nicht so einfach, weil diese Systeme gerne überreagieren und nicht nur Sachen erkennen, die problematisch sind, sondern auch die unproblematischen. Etwa bei der Krebserkennung gibt es zunehmend die Kritik, dass KI-Systeme auch unproblematische Veränderungen als Krebs klassifizieren. Da muss man sehr aufpassen.

Oftmals betrachten wir die Automatisierung unter dem Gesichtspunkt, dass wir effizienter sein wollen, Dinge schneller und reibungsloser erledigen. Das ist allerdings eine inhärent ökonomische Sichtweise. Es gibt Prozesse, zum Beispiel in der Gesetzgebung, die sind mit Absicht langsam, weil man Betroffene anhören will, Interessenskonflikte diskutieren und aushandeln muss. Dadurch wird eine andere Qualität bedient, die auch notwendig ist. Man kann die Algorithmisierung und Automatisierung nur nützlich und zielgerichtet einsetzen, wenn man reflektiert, welche Optimierungsziele dahinterstehen. 

Algorithmen werden von Menschen entwickelt. Können sie dann überhaupt objektiv sein? 

Es gibt keine neutralen oder objektiven Algorithmen. Die Datenerhebung an sich beruht schon auf Annahmen. Ein klassisches Beispiel: Wenn ich einen Kredit auf Basis von neutral existierenden Daten vergebe, dann ist klar, dass Männer höhere Kredite erhalten als Frauen. Das ist mathematisch korrekt, weil Männer im Schnitt mehr verdienen als Frauen. Das heißt, wenn ich da einen neutralen Algorithmus anwende, ist der ungerecht. Würde ich einen fairen Algorithmus anwenden, wäre der nicht neutral.

Wenn man das auf die Technik reduziert und auf Neutralität hofft, wird man Systeme bauen, bei denen man blind ist für die Vorannahmen, die dahinter stecken. Eigentlich wollen wir eine faire und gerechte Gesellschaft, in der strukturell benachteiligte Gruppen unterstützt werden. Es ist leider nie nur eine technische Frage. 

Innerhalb der Strafjustiz kam insbesondere in den USA zuletzt der Vorwurf auf, Algorithmen seien ebenso diskriminierend und rassistisch wie das Polizeisystem. Wie kommt es dazu? Ist „Predictive Policing”, also vorausschauende Polizeiarbeit, mit für die Polizeigewalt in den USA verantwortlich? 

Algorithmen werden diesbezüglich meistens zur Vorhersage von Rückfallwahrscheinlichkeit im Zusammenhang mit Kriminalität verwendet. Es hat sich gezeigt, dass die Systeme äußerst rassistisch waren, da sie in ähnlichen Umgebungen bei People of Color viel höhere Rückfallwahrscheinlichkeiten attestierten. Das kam erst heraus, als die Systeme genauer analysiert wurden. Das Problem ist, dass wir gar nicht genau wissen, wie diese Systeme funktionieren. Der Schutz von Geschäftsgeheimnissen steht Transparenz und Gerechtigkeit im Wege. 

Predictive Policing ist der zweite Bereich, in dem solche Algorithmen verwendet werden. Man kommt hier zu dem Schluss: Sehr wahrscheinlich werden in diesem Bezirk vermehrt Wohnungseinbrüche stattfinden und dort wird man hinfahren, um das zu verhindern. Das heißt, dass Gebiete, über die viele Daten vorliegen, mehr untersucht werden. Wenn ich aber öfter kontrolliere, sinkt dort die Dunkelziffer und ich erwische mehr Leute. Dadurch wird die Statistik verzerrt. Das kann sozial und finanziell benachteiligte Nachbarschaften treffen und hat krasse Konsequenzen, wenn sich die Polizeipräsenz erhöht.

„Das ist die Auswirkung einer rassistischen Gesellschaft”

Das ist sehr problematisch. Ich kenne aber keine wissenschaftlichen Untersuchungen, welche die Polizeigewalt in den USA auf diskriminierende Algorithmen zurückführen. Das ist einfach die Auswirkung einer rassistischen Gesellschaft und da ist die technische Dimension das negative i-Tüpfelchen. 

Wenn Sie an die Zukunft denken, wie sähe eine automatisierte Welt dann aus?

Für mich sähe eine automatisierte Welt so aus, dass wir die Früchte der Digitalisierung und der Automatisierung durch entsprechende gesellschaftliche Rahmenbedingungen tatsächlich auch allen Menschen zugutekommen lassen könnten. Ich sehe da eine Welt, in der wir uns dank verkürzter Arbeitszeiten mit dem beschäftigen können, was uns als Menschen ausmacht: Kreativität und Zwischenmenschlichkeit. Für mich wäre das eine sehr schöne und auch eine sehr viel gerechtere Welt, wenn sie dafür sorgt, dass uns mehr Zeit für soziale Interaktion zur Verfügung stehen würde. 

Die Digitalisierung und Automatisierung sind keine Naturereignisse, bei denen wir mit Bangen auf die Flutwelle warten. Wenn wir sie aber verwenden, um jeden Tastenanschlag der Angestellten bei der Arbeit zu überwachen und mit automatisierten Bewertungssystemen nach Effizienz zu kategorisieren, dann wird das eine sehr dunkle Zukunft.

Die Digitalisierung ist ein Werkzeug. Ob wir uns daraus eine schöne, bessere Welt bauen, liegt an uns. Diese politische und gesellschaftliche Entscheidung kann uns die Technik allerdings nicht abnehmen.


Dieser Beitrag steht unter der Lizenz CC BY-ND 3.0.

Autor*innen

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.