· 

«Algorithmisierung – ein Problem für die Demokratie?»

„In the mass media era, representations drew their power from their visibility. But in the digital era, representations of the world live in databases too, invisible to most human beings, though transparent to algorithms. […] [They] are the building blocks of the new media-technology order. Not bits—algorithms.” (ebd.:)

Fred Turner – The world outside and the pictures in our networks, 253ff.



Für die Demokratisierung des Computers spielte die technologische Entwicklung des Graphical User Interfaces eine fundamentale Rolle. Durch das GUI erlangte der Computer eine, wie dies der Kulturwissenschaftler Nishant Shah ausdrückt, «sichtbare und spielzeugartige Gegenwärtigkeit», welche «die unheimliche Maschine in einen netten Begleiter» transformierte (2017: 245). Innerhalb weniger Jahrzehnte avancierten dann die Bildschirme unserer PCs und Laptops, unsere Smartphones und Macbooks, unaufhaltsam zu jener dominanten Schnittstelle der Gegenwart, welche «die mystifizierte Welt der Datenverarbeitung mit der irrationalen Welt menschlicher Intention» zusammenführt (ebd.). Hinter der spielerischen Fassade der GUIs bleibt das Digitale allerdings nach wie vor vielschichtig und vielfach undurchsichtig. Was genau verbirgt sich hinter der Black Box «Interface»? Und was passiert «dort« mit Blick auf die Vermittlung demokratischer Öffentlichkeit?

Automatisierung und digitale Maschinen

Wie die Schweizer Soziologin Bettina Heintz in ihrer Arbeit zum Ursprung digitaler Algorithmen zeigt, sind unsere heutigen Computer letztlich jeweils Realisierungen ein und derselben symbolischen Maschine: der Turingmaschine. Bei dieser «universal machine», wie Alan Turing sie selbst nannte (1970: 7), handelt es sich allerdings um keine Maschine im mechanischen Sinne. Der britische Mathematiker und Informatiker entwarf keine Bauanleitung oder ähnliches. Sie war vielmehr ein mathematisches Modell, das er 1936 einführte, um den Begriff des Algorithmus zu präzisieren. Dabei stellte er sich folgende Frage: Was tut ein Mensch, der einer Vorschrift folgt? Seine Antwort: Der Mensch handelt Schritt für Schritt, ohne zu denken – wie eine Maschine. Aufbauend auf dieser Einsicht reduzierte Turing in seinen Modellen die menschlichen Computer auf regelbefolgende Apparate, die automatisiert jeden Input durchrechnen, den sie erhalten.

Seine Rede von «menschlichen» Rechenmaschinen verweist dabei keineswegs darauf, dass Turing die Computertechnologie von Menschenhand gemacht sah, sondern er bezog sich auf die Tatsache, dass «Computer» ursprünglich eine Bezeichnung für eine Berufsgruppe war. Gemeint waren die – meist weiblichen – «Rechner, die von Hand rein mechanische Zahlenarbeit» leisteten“ (Heintz 1993: 231). Im Anschluss an die entsprechende Verkürzung der Leistungsfähigkeit dieser arbeitenden Menschen argumentierte Turing, dass man sich eine universale Maschine vorstellen könne, die im Prinzip genauso vorgehe und zu den gleichen Leistungen fähig sei: einer präzisen Regel folgen – automatisiert. Diese Analogie war der gedankliche Geburtsmoment unsere digitalen Maschinen. Computergesteuerte Automatisierung, d. h. die maschinelle Manipulation von Daten ohne menschliches Zutun, bildet heute einer der wesentlichen Prozesse, die im Hintergrund unserer Interfaces ablaufen. Gemäss diesem Prinzip transportieren z. B. Algorithmen unentwegt polarisierende Inhalte auf unsere Bildschirme: Fake News, Rassismus, Rechtpopulismus, Sexismus – ohne menschliches Zutun, automatisiert.

Algorithmen – wirkmächtige Akteure im Cyber-Raum

Im Kontext sozialer Medien wie Facebook etwa sind es dann die Algorithmen, die in der Interaktion mit menschlichen Nutzer*innen festlegen, welche politischen Inhalte wie lange auf dem Interface eines Smartphones erscheinen dürfen oder welche Politiker*innen von potentiellen Wähler*innen wie umfangreich gehört werden können (vgl. Kunzelmann 2017). Rein technisch lässt sich ein Algorithmus als ein Verfahren beschreiben, «…das in einer endlichen Anzahl von elementaren Operationsschritten, deren Abfolge im Voraus in einer endlich langen Beschreibung eindeutig festgelegt ist, die Lösung eines (mathematischen) Problems erlaubt.» (Heintz 1993: 72)

Betrachten wir den Programmcode der entsprechenden Operationsschritte allerdings nicht nur als formale Abbildungsvorschriften, sondern als Teil einer alltäglichen Technologiepraxis, lässt sich ein entscheidender Perspektivwechsel vollziehen. Algorithmen lassen sich so nicht nur als Zeichen und Zahlen ausdrücken, sie sind darüber hinaus auch konstitutive Elemente unserer gegenwärtigen Kommunikationskultur. Als solche sind sie unmittelbar daran beteiligt, diverse soziale, ökonomische und politische Werte zu produzieren. Für ein Technologieunternehmen wie Facebook erfüllen Algorithmen formal die Funktion eines «Gatekeepers». Sie rechnen die schier unendliche Menge jener Ereignisse, welche die Menschen mithilfe ihrer digitalen Endgeräte dokumentieren, auf eine begrenzte Fläche der Darstellung herunter: auf ein individuelles GUI eines Users oder einer Userin. Grafiken, Texte und Fotos landen also nicht per Zufall auf unseren Bildschirmen. In ihrer Vermittlung ist ein technisches Verfahren zwischengeschaltet: ein Algorithmus.

 

Die Lösung des (mathematischen) Problems, d. h. die Rechenoperationen, die diese Verfahren für Technologieunternehmen durchführen, bleiben für uns Mediennutzende unsichtbar. Worauf wir als Staatsbürger*innen oder potentielle Wähler*innen oftmals hochemotional reagieren – man denke etwa an das Überwachtungsvideo der gewaltsamen Festnahme des Afroamerikaners George Floyd in den USA im Mai 2020 –, ist also immer auch das Resultat einer konkreten mathematischen Operation, deren Logik wir nicht direkt wahrnehmen können. Dass Algorithmen dabei weitgehend im Verborgenen agieren, ist ebenfalls kein Zufall. Abgesehen davon, dass ohnehin nur relativ wenige Menschen die hochkomplexen Rechenvorgänge verstehen, müssen sie als Geschäftsgeheimnisse zwangsläufig unter Verschluss gehalten werden. Sie generieren Profit. «Algorithms«, so beschreibt es der an Stanford University forschende Kommunikationswissenschaftler Fred Turner, «serve discrete ends and therfore render their creators invisible» (2014: 253). Die Glaubwürdigkeit der entsprechenden Geschäftsmodelle wiederum hängt weitgehend von der Aufrechterhaltung einer «Legende algorithmischer Objektivität» ab (Roberge/Seyfert 2017: 24). Es handelt sich um das grosse Versprechen einer mechanischen Neutralität, die fern ab von der Intervention durch menschliche Hände operiert: pure, reine, zauberhafte Mathematik (vgl. Gillespie 2014: 181). Diese Behauptung der Technologieunternehmen, dass ihre Algorithmen hinter der Black Box «Interface» als unabhängige Instanzen fungieren, greift allerdings zu kurz. Aus kulturanthropologischer Perspektive sollten wir Algorithmen vielmehr als wirkmächtige Akteure im Cyber-Raum verstehen, d. h. als von Menschenhand gemachte Computer, deren Rechenleistung eben auch etwas Kollektives mitverantwortet: die Vermittlung von Politik. Warum aber könnte die algorithmisierte Form der Öffentlichkeit sozialer Medien ein Problem für unsere Demokratie darstellen? Zur Veranschaulichung, ein Blick in die Vergangenheit.

Es war einmal… – der synchrone Konsum von Massenmedien

Im folgenden Zitat beschreibt Benedict Anderson die gemeinschaftsstiftende Wirkung, die beispielsweise durch das kollektive Lesen einer Tageszeitung entsteht und die sich über den gleichzeitig stattfindenden Konsum ihrer Inhalte in modernen Nationalstaaten entfalten konnte. Den konkreten Mechanismus, den der Politikwissenschaftler dabei identifiziert und mit dessen Hilfe sich die Veränderungen heutiger, algorithmisierte Medienlandschaften verstehen lassen, könnte man als die Synchronität des Symbolischen bezeichnen. Anderson selbst vergleicht die Wirkung dieses Mechanismus mit einer Form der Massenzeremonie:

«Sie wird in zurückgezogener Privatheit vollzogen, […] aber jedem Leser ist bewußt, daß seine Zeremonie gleichzeitig von Tausenden (oder Millionen) anderer vollzogen wird, von deren Existenz er überzeugt ist, von deren Identität er jedoch keine Ahnung hat. Darüber hinaus wird diese Zeremonie unablässig über das ganze Jahr hinweg in täglichen oder halbtäglichen Intervallen wiederholt. […] Indem der Zeitungsleser beobachtet, wie exakte Duplikate seiner Zeitung in der U-Bahn, beim Friseur, in seiner Nachbarschaft konsumiert werden, erhält er ununterbrochen die Gewißheit, daß die vorgestellte Welt sichtbar im Alltagsleben verwurzelt ist. […] [So] sickert die Fiktion leise und stetig in die Wirklichkeit ein und erzeugt dabei jenes bemerkenswerte Vertrauen in eine anonyme Gemeinschaft, welches das ursprüngliche Kennzeichen moderner Nationen ist.» (2005: 41f.)

Folgt man Andersons Argument, kommt man zu dem Schluss, dass medientechnische Neuerungen – zu denen definitiv auch die gegenwärtige Algorithmisierung sozialer Medien zu zählen ist – stets den Spielraum von Politik transformieren. Im Kontext seiner historischen Analysen bedrohten entsprechende Neuerungen die bis dahin stabilen Sakralkulturen des Christentums, des Ummah-Islams und den Konfuzianismus. Die Verbreitung neuer Gedanken mittels neuer Medien führte so schließlich zur Formierung moderner, nationalstaatlich verfasster Gesellschaften. Möglich wurde dies vor allem mit Hilfe des Druckgewerbes, da es das Potenzial enthielt, «Sinn, Macht und Zeit» auf eine neue Art und Weise «miteinander zu verbinden» (ebd.). Der synchronisierende Konsum von symbolischen Produkten, die das Druckgewerbe in der Folge massenhaft produzierte – von Literatur über Kartenmaterial bis hin zu Briefköpfen mit nationalen Symboliken –, erzeugte jenen gemeinschaftsstiftenden Effekt, der im obigen Zitat beschrieben wird. Heute lesen Menschen zwar nach wie vor etwas zeitgleich von einem Medium ab, nur ist der auf ihren Bildschirmen angezeigte Inhalt meist vollständig individualisiert und damit verschieden. Die Rückbestätigung, dass eine gemeinsam vorgestellte Welt sichtbar im Alltagsleben verwurzelt ist, entfällt. An die Stelle der von Anderson beschriebenen Wirkung tritt ein gänzlich anders getakteter Medienkonsum: menschliche Kommunikation via soziale Medien erfolgt zunehmend asynchron.

Mediale Asynchronität und fragmentierte Öffentlichkeit(en)

Auf Facebook etwa ist Medienkonsum in dem Sinne asynchron, als dass dort derselbe Inhalt zwar auf zahllosen Timelines auftauchen kann, die Nutzer*innen der entsprechenden Konten durch einen Algorithmus aber auf diesen Inhalt zu einem jeweils anderen Zeitpunkt aufmerksam gemacht werden. Medial vermittelte Inhalte stehen auf unterschiedlichen Interfaces also durchaus weiterhin in einem empirischen Zusammenhang zueinander, mit dem wichtigen Unterschied, dass sie nun nicht mehr synchron erlebt bzw. rezipiert werden. Dies bedeutet, dass via soziale Medien zwar nach wie vor politisch mobilisiert wird, d. h. Menschen gehen auch im Jahr 2020 für ihre Sache auf die Strasse, allerdings findet diese Mobilisierung gemäss der Gesetzmässigkeiten eines algorithmisierten «Marktes der Einzelnen» statt (vgl. Introna 2017: 59). Das milliardenfache Aufsplitten der Nutzer*innen in ihre einzelnen, indexierbaren Interaktionsakte, das z. B. dem Geschäftsmodell des US amerikanischen Technologieunternehmen Facebook zugrunde liegt, wäre ohne Algorithmen undenkbar. Allerdings lösen die entsprechenden Algorithmen keineswegs rein mathematische Probleme, wenn sie das Verhalten von Individuen berechenbar machen und diesen Menschen – vorgeblich neutral – passgenaue Inhalte vermitteln. Würde man aus der Vogelperspektive auf jene mediale Landschaft blicken, die Facebook mit seinen Algorithmen weltweit erzeugt, sähe man Milliarden von Bildschirmen, auf denen milliardenfach im selben Moment jeweils unterschiedliche Inhalte erscheinen.

Öffentlichkeit zerfällt auf sozialen Medien in eine unbeschreibliche Vielzahl von Mikro-Öffentlichkeiten: in eine Art politisches Rauschen, das digitale Maschinen unaufhörlich und stets neu berechnen. Jedes größere Bild einer vorgestellten Gemeinschaft, das sich in solchen Medienräumen ergeben könnte, zerfällt sofort wieder in eine Vielzahl symbolischer Fragmente. Diese gegenwärtig stattfindende Form gesellschaftlicher Fragmentierung wird in der Politikwissenschaft als Siegeszug der «Identitätspolitik» reflektiert und zunehmend auch problematisiert (vgl. Fukuyama 2018). Für Entscheidungsträger*innen stellt sich hier die unausweichliche Frage, welche sozialen, ökonomischen oder politischen Konsequenzen die Transformation eines der wesentlichen Strukturprinzipien demokratischer Öffentlichkeit für ihre jeweiligen Felder und Tätigkeiten mit sich bringt.

Herausforderungen digital-demokratischer Partizipation

Selbst wenn soziale Medien in den seltensten Fällen die Ursache für eskalierende politische Auseinandersetzungen darstellen, sind sie häufig ein entscheidender «Amplifikator sozialer Dynamiken» (vgl. Kunzelmann 2020: 303f.). Ihre Automatisierung und Algorithmisierung reproduzieren die selektive Wahrnehmung von Konfliktparteien, sie befeuern das bewusste Abgrenzen gegenüber den Ideen anderer Gemeinschaften und sie zementieren die politische Polarisierung. Aus der in diesem Essay skizzierten Perspektive heraus stellt die eingangs erwähnte Demokratisierung der Computer also ein potentielles Eintrittstor zu einer zerstörerischen Form politischer Partizipation dar. Die Wirkmacht, die Algorithmen als Akteure im Cyber-Raum innewohnt, macht Technologieunternehmen wie Facebook somit auch in einem politischen Sinne mitverantwortlich für entsprechend negative Effekte. Ihr Programmcode repräsentiert keine abstrakten Zahlen und Zeichen. Ihr Code ist Gesetz (vgl. Lessig 2006). Allerdings – und hier fängt der genuine Spielraum der Politik an – lassen sich von Menschenhand gemachte Regeln eben nicht nur stur befolgen, sie lassen sich auch umschreiben, so dass die entsprechende Ausführung der jeweiligen Vorschriften durch digitale Maschinen eine weniger toxische Form von Öffentlichkeit erzeugt. In einem ersten Schritt ist es aber notwendig, überhaupt ein Bewusstsein dafür zu schaffen, dass hinter dem Schleier unserer Graphical User Interfaces mehr als nur Mathematik passiert. Dies erscheint deshalb dringend geboten, weil Menschen sich bereits heute schon in unzähligen Cyber-Räumen bewegen und dort mit Algorithmen interagieren. Wir müssen uns folglich auch nicht «vorbereiten» auf die Digitalisierung, wie dies immer wieder gefordert wird, sondern wir müssen sie anders denken.

Dr. Daniel Kunzelmann


Literatur:

Anderson, Benedict (2005). Die Erfindung der Nation. Frankfurt a. M.

Dietzsch, Ina & Kunzelmann, Daniel (2017). Kartieren und rechnende Räume. Zur Digitalisierung einer Kulturtechnik. In Gertraud Koch (Hrsg.), Digitalisierung. Theorien und Konzepte für die empirische Kulturforschung (Kulturwissenschaft, S. 283–308). Konstanz.

Fukuyama, Francis (2018). Against identity politics:. the new tribalism and the crisis of democracy. Foreign Affairs, 97 (5), 90-114.

Gillespie, Tarleton (2014). The relevance of algorithms. In Tarleton Gillespie, Pablo Bockowski & Kirsten Foot (Hrsg.), Media technologies. Essays on communication, materiality, and society (S. 167–195). Cambridge.

Heintz, Bettina (1993). Die Herrschaft der Regel. Zur Grundlagengeschichte des Computers. Frankfurt a. M.

Introna, Lucas D. (2017). Die algorithmische Choreographie des beeindruckbaren Subjekts. In Robert Seyfert & Jonathan Roberge (Hrsg.), Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit (Kulturen der Gesellschaft, S. 41–74). Bielefeld.

Kunzelmann, Daniel (2017). Hinter den Bildern:. Algorithmen – die unsichtbare Macht in unseren Köpfen. In Walter Leimgruber, Konrad Kuhn & Katrin Sontag (Hrsg.), Lebenskunst. Erkundungen zu Biographie, Lebenswelt und Erinnerung (S. 528–539). Festschrift für Jacques

Picard. Wien.

Kunzelmann, Daniel (2020): «Zwischen den Menschen das Medium. Eine Ethnographie über die Digitalisierung zivilgesellschaftlicher Protestformen im Spanien der (Nach-)Krisenjahre. Murcia, 2013-2015». Dissertationsschrift.

Lessig, Lawrence (2006). Code and other laws of cyberspace. Version 2.0. New York.

Roberge, Jonathan & Seyfert, Robert (2017). Was sind Algorithmuskulturen? In Robert Seyfert & Jonathan Roberge (Hrsg.), Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit (Kulturen der Gesellschaft, S. 7–40). Bielefeld.

Shah, Nishant (2017). Von der Userschnittstelle zur Schnittstelle ohne User. In Gertraud Koch (Hrsg.), Digitalisierung. Theorien und Konzepte für die empirische Kulturforschung (Kulturwissenschaft, S. 243–266). Konstanz.

Turing, Alan (1970). Intelligent Machinery. In Bernhard Meltzer & Donald Michie (Hrsg.), Machine Intelligence (S. 3–23). New York.

Turner, Fred (2014). The world outside and the pictures in our networks. In Tarleton Gillespie, Pablo Bockowski & Kirsten Foot (Hrsg.), Media technologies. Essays on communication, materiality, and society (S. 251–260).

Cambridge.