Digital. Demokratisch?

Datum

Wie können wir digitale Kommunikationsplattformen in den Dienst der Demokratie stellen? Wie die Unternehmen zur Verantwortung ziehen, die eine kritische Infrastruktur für die demokratische Willensbildung zur Verfügung stellen, dabei aber völlig intransparent für ihre Nutzer:innen agieren? Diesen Fragen gingen zwei Expertinnen in der 22. Leopoldina Lecture am 24. Mai 2022 im Xplanatorium Herrenhausen nach.

Gesellschaften sind auf Kommunikationsinfrastrukturen angewiesen, damit demokratische Willensbildung überhaupt möglich ist. Auch digitale Plattformen wie Facebook, Twitter oder Instagram sind aus der Medienlandschaft nicht mehr wegzudenken. Doch die Betreiber der Plattformen werden ihrer Verantwortung als Anbieter demokratierelevanter Infrastruktur nicht gerecht. Die Geschäftsmodelle der Unternehmen sind nicht nachhaltig und ihr Vorgehen steht in Konflikt mit demokratischen Grundsätzen. 

"Die Frage ist: Wie können wir die neuen Medien so in Dienst nehmen, dass sie Demokratie fördern?", sagt Prof. Jeanette Hofmann. Mit der Arbeitsgruppe "Digitalisierung und Demokratie" zum Zusammenhang von Digitalisierung mit Öffentlichkeiten und deren Transformation von der Nationalen Akademie der Wissenschaften Leopoldina hat die Politikwissenschaftlerin von der Freien Universität Berlin Antwortansätze formuliert.

Videomitschnitt der Veranstaltung:

Digitalität und Demokratie: Welche Formen digitaler Kommunikation braucht das Land?
Jeanette Hofmann steht an Podium
Soziale Medien haben – im Gegensatz zu den klassischen – keinen Informationsauftrag, konstatiert Prof. Jeanette Hofmann von der FU Berlin. (Foto: Philip Bartz für VolkswagenStiftung)

Warum es so schwierig sei, die Vorgehensweisen der digitalen Kommunikationsplattformen regulatorisch einzuschränken, obwohl bekannt sei, wie sie Informationen diskriminieren, fragte Moderatorin Vera Linß. Das liege daran, dass der Regulationsgegenstand selber schwer greifbar und kaum zu beschreiben sei, erklärte Hofmann "Die Flüchtigkeit der Datensätze in Kombination mit verteilten Systemen von Algorithmen sind extrem schwer zu analysieren und zu regulieren." Zielsetzungen dagegen, auf welche die Algorithmen trainiert würden, könnten natürlich kritisiert werden. "Dafür brauchen wir Gesetze, sodass nicht mehr das Gutdünken der Unternehmen bestimmt, was wir zu sehen bekommen und was nicht." Zudem sollten Vielfaltsprinzipien für die Weitergabe von Informationen formuliert werden, um der Aufmerksamkeitsökonomie entgegenzuwirken.

Individueller Service, gesellschaftliche Fragmentierung? 

Ein Zuschauer fragte, ob die regulatorische Beschränkung der Algorithmen nicht dem Wunsch der Nutzer:innen nach individualisierten Services entgegenstehe. Jeanette Hofmann antwortete darauf, dass sie die Macht über die Auswahl lieber bei den Nutzenden sähe: "Wenn ich den Drehknopf zur Einstellung der Auswahl auf meiner Seite haben könnte, möchte ich ihn lieber selber bedienen." Die Diskussion dürfe sich auch nicht auf technische Probleme beschränken, ergänzte Mollen. "Es reicht nicht, einen Quellcode offenzulegen. Entscheidungen fallen in den Organisationen", sagte sie. "Und die haben offenbar keinerlei Interesse, ihrer Verantwortung nachzukommen und etwas gegen die problematischen Tendenzen zu unternehmen. Sie entscheiden sich im Zweifel für den Profit."

Auf gesellschaftlicher Ebene stelle sich die Frage, ob durch den Mangel an gemeinsam wahrgenommener Information eine Fragmentierung der Öffentlichkeit stattfinde, sagte Jeanette Hofmann. Sie sieht dabei die Nutzer:innen in der Verantwortung. Wissenschaftlich sei etwa nicht nachgewiesen, dass sich auf Plattformen Echokammern oder Filterblasen bildeten, "das ist allenfalls an den extremen Rändern der Gesellschaft zu beobachten." Es seien die Menschen, die extremistische Strategien ausspielten – "denken Sie nur an Viktor Orbán oder Donald Trump. Die Plattformen bedienen solches Verhalten, aber sie erfinden es nicht." Soziale Normen seien deshalb enorm wichtig, um die Probleme auf gesellschaftlicher Ebene zu lösen.

Vielfalt fördern 

"Wie kann der Spagat gelingen, Plattformen nach rechtsstaatlichen Prinzipien zu regulieren ohne ihre grundrechtlich garantierten Freiheiten einzuschränken?", fragte Vera Linß. Vielfalt unter den Plattformen zu fördern, lautet ein Vorschlag der Arbeitsgruppe der Leopoldina. "Es liegt in der Natur von Telekommunikationsmedien, zur Monopolstellung zu tendieren", erklärte Hofmann. Grund sei der Netzwerkeffekt: Je mehr Nutzer:innen eine Plattform vereint, desto attraktiver ist sie. Um dem entgegenzuwirken, könnten die klassischen Massenmedien sich stärker plattformartig organisieren und Alternativen zu den dominierenden Anbietern bilden.

Auch kleinere Nischenangebote mit spezifischen Nutzungsarten und -gruppen hätten sich bewährt. "In Europa sollten wir Schutzräume schaffen für solche Plattformen, die dezidiert andere politische Ziele verfolgen", meinte Hofmann. 

Dr. Anne Mollen am Podium stehend
Dr. Anne Mollen von AlgorithmWatch erklärt, dass Algorithmen die Informationen bestimmen, die wir über die sozialen Netzwerke erhalten. (Foto: Philip Bartz für VolkswagenStiftung)

Demokratisch kontrollieren 

Klar sei: "Wir wollen keinen mächtigen Staat", betonte die Politikwissenschaftlerin Hofmann. Das traditionelle System der staatsfernen Medienregulierung mit Komponenten der Selbstkontrolle müsse erhalten bleiben. "Denn einmal geschaffene Machtpositionen in der Medienregulierung können jederzeit missbraucht werden", mahnte sie. In Analogie zu den klassischen Massenmedien seien demokratisch besetzte Beiräte sinnvolle Kontrollgremien. 

Eine Herausforderung für diese Aufsichtsgremien zeige sich in der Arbeit des unabhängigen Beirates, den Facebook bereits eingerichtet hat: "Wie weit lassen sich Urteile über Einzelfälle verallgemeinern?", fragte Jeanette Hofmann. "Unsere Sprache ist ambivalent und entwickelt sich immer weiter; was letzte Woche noch diskriminierend war, kann morgen positiv besetzter Ausdruck in einer Miniszene sein." Die Ansätze zur Regulierung seien daher voller Dilemmata und Zielkonflikte, universelle Regeln für alle Kulturkreise aufzustellen sei schier unmöglich.

"Uns werden immer wieder einfache technische Lösungen versprochen", ergänzte Anne Mollen, "wie akkurates, effektives automatisiertes Löschen. Doch KI-Algorithmen, die auf bestehenden Datensätzen trainiert sind, können nicht zuverlässig zukunftsgerichtet und global funktionieren." 

Gesetzlich regulieren

Ob es nicht grundsätzlich richtiger gewesen wäre, erst die Regeln festzulegen, bevor man die sozialen Medien zugelassen habe, fragte ein Zuhörer. Die Entwicklung der Plattformen sei nicht vorhersehbar, sagte dazu Anne Mollen – nicht einmal für die Betreiber. "Sie stellen die Technologie zur Verfügung und im Zusammenspiel mit den kreativen Praktiken der Nutzer:innen entwickeln sich die Funktionen." Diese Freiheit, zu handeln, sei für unsere Gesellschaft essentiell, sagte sie. "Das muss eine Demokratie aushalten."

Vera Linß sitzt mit Mikrofon in der Hand auf einem Stuhl auf einer Bühne
Die Moderatorin Vera Linß fragte unter anderem danach, ob sich das Vorgehen der digitalen Kommunikationsplattformen regulieren lasse. (Foto: Philip Bartz für VolkswagenStiftung)

Auch wenn es der Entwicklung der Plattformen somit in gewisser Weise hinterherhinke, halten beide Sprecherinnen das kürzlich auf EU-Ebene beschlossene "Gesetz über digitale Dienste" für lobenswert und richtungsweisend. Es bilde die Grundlage zur Einführung wichtiger Sicherheitsmaßnahmen, um systemische Risiken auf organisatorischer Ebene zu adressieren, sagte Anne Mollen: Qualitätskontrolle der Daten, die für Maschinelles Lernen eingesetzt werden; systematische Überprüfung der Programmierungen auf Diskriminierung; Auditierungen der Unternehmen auf Qualitätsmerkmale. Hofmann bemängelte jedoch, dass das Geschäftsmodell des Bezahlens mit persönlichen Daten für Services per se in dem Gesetz nicht angegangen worden sei. "Es unterläuft unsere Freiheiten uns ist nicht nachhaltig, dass heute Menschen aufwachsen, die nie eine Privatsphäre gehabt haben!" Dass Unternehmen auf ihren Servern "Data Doubles" (gemeint sind digitale Abbilder unserer Person/Persönlichkeit, die auf Basis der gesammelten Internetnutzungsdaten erstellt werden, Anm. der. Red.) von Personen kreieren, sei mit der Demokratie nicht vereinbar. 

Wie kann die Gesellschaft partizipieren?

Das EU-Gesetz sieht auch vor, dass Zivilgesellschaft und Forschung Zugang zu den gesammelten Daten erhalten – eine zentrale politische Forderung von Algorithm Watch. "Diese Daten sind ein Kollektivgut und sollten zum Wohle aller genutzt werden", sagt Anne Mollen. Ihre Beforschung durch akademische Wissenschaft, NGOs und Journalismus sei notwendig, "damit wir eine gesellschaftliche Diskussion über Plattformdynamiken führen können." Und nicht nur, um die Betreiber zur Rechenschaft bezüglich der Kuratierung zu ziehen, seien die Daten wichtig, ergänzte Jeanette Hofmann: "Sie sind ein Schatz für die gesellschaftliche Selbstbeobachtung durch die Sozialforschung und können dem Wohl der Gesellschaft und wirtschaftlichen Innovationen dienen."

Zum Abschluss der Diskussion fasste Moderatorin Vera Linß zusammen, was es nach Ansicht der Diskutierenden brauche, um die digitalen Kommunikationsplattformen in den Dienst der Demokratie zu stellen: mehr Vielfalt, demokratische besetzte, unabhängige Beiräte und ein neues Geschäftsmodell – von dem allerdings keine der Teilnehmerinnen konkret sagen konnte, wie es aussehen müsste.

von Dr. Ulrike Schneeweiß