Externe Inhalte anzeigen
Um Ihre personenbezogenen Daten zu schützen, haben wir das automatische Laden externer Inhalte blockiert (z. B. Videos von Youtube oder Vimeo). Um diese Inhalte anzuzeigen, benötigen wir Ihre Zustimmung:
Ihre Zustimmung können Sie unter Datenschutzhinweise widerrufen.

Algorithmen beeinflussen die Wahrnehmung
Einen Problemaufriss lieferte Hofmann in ihrem Impulsvortrag zu Beginn der Leopoldina Lecture "Digitalität und Demokratie: Welche Formen digitaler Kommunikation braucht das Land?". "Die klassischen Medien haben einen Informationsauftrag. Sie sollen unser Wissen und damit die Qualität unserer demokratischen Beteiligung steigern", beschreibt sie. Das Ziel digitaler Plattformen dagegen sei, unser Verhalten zu beobachten. "Die gewonnenen Daten sind ihre eigentliche Einnahmequelle." Die Unternehmen agieren nach dem Prinzip der Aufmerksamkeitsökonomie: Um die Aufmerksamkeit der Nutzer:innen zu binden, kuratieren sie Inhalte. Sie präsentieren nur solche Inhalte, von denen sie annehmen, dass sie den oder die jeweilige Nutzer:in interessieren. Die Auswahl treffen Algorithmen. Diese selektieren nicht nach Informationswert, sondern nach Kriterien, die sie anhand des beobachteten Browse-Verhaltens personalisieren.
"Die Algorithmen bestimmen, was wir über unsere Umwelt erfahren und welche politischen Inhalte wir wahrnehmen", erklärt Dr. Anne Mollen, Senior Policy & Advocacy Manager bei der zivilgesellschaftlichen Organisation Algorithm Watch. Die Plattformen übten durch politisches Mikro-Targeting Einfluss auf Wähler:innen aus, auch kommerzielle Werbung oder Stellenanzeigen würden selektiv bestimmten Nutzer:innengruppen präsentiert.
Intransparent, komplex und flüchtig
Die benutzten Algorithmen sind dabei für Außenstehenden völlig intransparent und die Unternehmen halten die gesammelten Daten unter Verschluss. Mollen schilderte, wie Algorithm Watch anhand von freiwilligen Datenspenden versucht, Einblicke in die Kriterien zu bekommen, nach denen Algorithmen Inhalte bewerten – und sie berichtete, wie die Unternehmen solche Versuche rechtlich oder technisch abwehren.

Warum es so schwierig sei, die Vorgehensweisen der digitalen Kommunikationsplattformen regulatorisch einzuschränken, obwohl bekannt sei, wie sie Informationen diskriminieren, fragte Moderatorin Vera Linß. Das liege daran, dass der Regulationsgegenstand selber schwer greifbar und kaum zu beschreiben sei, erklärte Hofmann "Die Flüchtigkeit der Datensätze in Kombination mit verteilten Systemen von Algorithmen sind extrem schwer zu analysieren und zu regulieren." Zielsetzungen dagegen, auf welche die Algorithmen trainiert würden, könnten natürlich kritisiert werden. "Dafür brauchen wir Gesetze, sodass nicht mehr das Gutdünken der Unternehmen bestimmt, was wir zu sehen bekommen und was nicht." Zudem sollten Vielfaltsprinzipien für die Weitergabe von Informationen formuliert werden, um der Aufmerksamkeitsökonomie entgegenzuwirken.
Individueller Service, gesellschaftliche Fragmentierung?
Ein Zuschauer fragte, ob die regulatorische Beschränkung der Algorithmen nicht dem Wunsch der Nutzer:innen nach individualisierten Services entgegenstehe. Jeanette Hofmann antwortete darauf, dass sie die Macht über die Auswahl lieber bei den Nutzenden sähe: "Wenn ich den Drehknopf zur Einstellung der Auswahl auf meiner Seite haben könnte, möchte ich ihn lieber selber bedienen." Die Diskussion dürfe sich auch nicht auf technische Probleme beschränken, ergänzte Mollen. "Es reicht nicht, einen Quellcode offenzulegen. Entscheidungen fallen in den Organisationen", sagte sie. "Und die haben offenbar keinerlei Interesse, ihrer Verantwortung nachzukommen und etwas gegen die problematischen Tendenzen zu unternehmen. Sie entscheiden sich im Zweifel für den Profit."
Auf gesellschaftlicher Ebene stelle sich die Frage, ob durch den Mangel an gemeinsam wahrgenommener Information eine Fragmentierung der Öffentlichkeit stattfinde, sagte Jeanette Hofmann. Sie sieht dabei die Nutzer:innen in der Verantwortung. Wissenschaftlich sei etwa nicht nachgewiesen, dass sich auf Plattformen Echokammern oder Filterblasen bildeten, "das ist allenfalls an den extremen Rändern der Gesellschaft zu beobachten." Es seien die Menschen, die extremistische Strategien ausspielten – "denken Sie nur an Viktor Orbán oder Donald Trump. Die Plattformen bedienen solches Verhalten, aber sie erfinden es nicht." Soziale Normen seien deshalb enorm wichtig, um die Probleme auf gesellschaftlicher Ebene zu lösen.
Vielfalt fördern
"Wie kann der Spagat gelingen, Plattformen nach rechtsstaatlichen Prinzipien zu regulieren ohne ihre grundrechtlich garantierten Freiheiten einzuschränken?", fragte Vera Linß. Vielfalt unter den Plattformen zu fördern, lautet ein Vorschlag der Arbeitsgruppe der Leopoldina. "Es liegt in der Natur von Telekommunikationsmedien, zur Monopolstellung zu tendieren", erklärte Hofmann. Grund sei der Netzwerkeffekt: Je mehr Nutzer:innen eine Plattform vereint, desto attraktiver ist sie. Um dem entgegenzuwirken, könnten die klassischen Massenmedien sich stärker plattformartig organisieren und Alternativen zu den dominierenden Anbietern bilden.
Auch kleinere Nischenangebote mit spezifischen Nutzungsarten und -gruppen hätten sich bewährt. "In Europa sollten wir Schutzräume schaffen für solche Plattformen, die dezidiert andere politische Ziele verfolgen", meinte Hofmann.

Demokratisch kontrollieren
Klar sei: "Wir wollen keinen mächtigen Staat", betonte die Politikwissenschaftlerin Hofmann. Das traditionelle System der staatsfernen Medienregulierung mit Komponenten der Selbstkontrolle müsse erhalten bleiben. "Denn einmal geschaffene Machtpositionen in der Medienregulierung können jederzeit missbraucht werden", mahnte sie. In Analogie zu den klassischen Massenmedien seien demokratisch besetzte Beiräte sinnvolle Kontrollgremien.
Eine Herausforderung für diese Aufsichtsgremien zeige sich in der Arbeit des unabhängigen Beirates, den Facebook bereits eingerichtet hat: "Wie weit lassen sich Urteile über Einzelfälle verallgemeinern?", fragte Jeanette Hofmann. "Unsere Sprache ist ambivalent und entwickelt sich immer weiter; was letzte Woche noch diskriminierend war, kann morgen positiv besetzter Ausdruck in einer Miniszene sein." Die Ansätze zur Regulierung seien daher voller Dilemmata und Zielkonflikte, universelle Regeln für alle Kulturkreise aufzustellen sei schier unmöglich.
"Uns werden immer wieder einfache technische Lösungen versprochen", ergänzte Anne Mollen, "wie akkurates, effektives automatisiertes Löschen. Doch KI-Algorithmen, die auf bestehenden Datensätzen trainiert sind, können nicht zuverlässig zukunftsgerichtet und global funktionieren."
Gesetzlich regulieren
Ob es nicht grundsätzlich richtiger gewesen wäre, erst die Regeln festzulegen, bevor man die sozialen Medien zugelassen habe, fragte ein Zuhörer. Die Entwicklung der Plattformen sei nicht vorhersehbar, sagte dazu Anne Mollen – nicht einmal für die Betreiber. "Sie stellen die Technologie zur Verfügung und im Zusammenspiel mit den kreativen Praktiken der Nutzer:innen entwickeln sich die Funktionen." Diese Freiheit, zu handeln, sei für unsere Gesellschaft essentiell, sagte sie. "Das muss eine Demokratie aushalten."

Auch wenn es der Entwicklung der Plattformen somit in gewisser Weise hinterherhinke, halten beide Sprecherinnen das kürzlich auf EU-Ebene beschlossene "Gesetz über digitale Dienste" für lobenswert und richtungsweisend. Es bilde die Grundlage zur Einführung wichtiger Sicherheitsmaßnahmen, um systemische Risiken auf organisatorischer Ebene zu adressieren, sagte Anne Mollen: Qualitätskontrolle der Daten, die für Maschinelles Lernen eingesetzt werden; systematische Überprüfung der Programmierungen auf Diskriminierung; Auditierungen der Unternehmen auf Qualitätsmerkmale. Hofmann bemängelte jedoch, dass das Geschäftsmodell des Bezahlens mit persönlichen Daten für Services per se in dem Gesetz nicht angegangen worden sei. "Es unterläuft unsere Freiheiten uns ist nicht nachhaltig, dass heute Menschen aufwachsen, die nie eine Privatsphäre gehabt haben!" Dass Unternehmen auf ihren Servern "Data Doubles" (gemeint sind digitale Abbilder unserer Person/Persönlichkeit, die auf Basis der gesammelten Internetnutzungsdaten erstellt werden, Anm. der. Red.) von Personen kreieren, sei mit der Demokratie nicht vereinbar.
Wie kann die Gesellschaft partizipieren?
Das EU-Gesetz sieht auch vor, dass Zivilgesellschaft und Forschung Zugang zu den gesammelten Daten erhalten – eine zentrale politische Forderung von Algorithm Watch. "Diese Daten sind ein Kollektivgut und sollten zum Wohle aller genutzt werden", sagt Anne Mollen. Ihre Beforschung durch akademische Wissenschaft, NGOs und Journalismus sei notwendig, "damit wir eine gesellschaftliche Diskussion über Plattformdynamiken führen können." Und nicht nur, um die Betreiber zur Rechenschaft bezüglich der Kuratierung zu ziehen, seien die Daten wichtig, ergänzte Jeanette Hofmann: "Sie sind ein Schatz für die gesellschaftliche Selbstbeobachtung durch die Sozialforschung und können dem Wohl der Gesellschaft und wirtschaftlichen Innovationen dienen."
Zum Abschluss der Diskussion fasste Moderatorin Vera Linß zusammen, was es nach Ansicht der Diskutierenden brauche, um die digitalen Kommunikationsplattformen in den Dienst der Demokratie zu stellen: mehr Vielfalt, demokratische besetzte, unabhängige Beiräte und ein neues Geschäftsmodell – von dem allerdings keine der Teilnehmerinnen konkret sagen konnte, wie es aussehen müsste.
von Dr. Ulrike Schneeweiß