
Hanna Barakat & Cambridge Diversity Fund / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/
Mensch oder Maschine? KI in der Wissenschaftskommunikation
#Wissenschaftskommunikation #Künstliche IntelligenzWie können KI und Kommunikator:innen bei der Wissensvermittlung so kooperieren, dass auch künftig gesichertes Wissen sein Publikum erreicht? Darum ging es in einer neuen Folge der Webtalk-Reihe "Treffpunkt Wissenschaftskommunikation". Bernd Eberhart fasst zusammen.
Wie wichtig ist der Mensch noch bei der automatisierten Wissensvermittlung? Diese Frage stellt Christoph Neuberger, Professor für Publizistik- und Kommunikationswissenschaft und Geschäftsführer am Weizenbaum-Institut in Berlin, seinem Impuls voran. Zunächst gibt Neuberger einen Überblick über unseren aktuellen Umgang mit generativer Künstlicher Intelligenz (KI): "KI war lange Zeit eine Verheißung, ein nicht eingelöstes Versprechen", sagt Neuberger. Das habe sich spätestens 2022 mit ChatGPT geändert. KI sei damit im Alltag der Menschen angekommen.
Eigentlich gehe es in dieser Diskussion gar nicht um Künstliche Intelligenz, erklärt Neuberger. Sondern um Künstliche Kommunikation, wie es die italienischen Soziologin Elena Esposito ausgedrückt hat: Denn die Algorithmen beobachten zwar die menschliche Kommunikation, die im Netz nachverfolgbar ist. Aber nicht die menschliche Intelligenz. "Ein Blick in unsere Köpfe", so Neuberger, gelänge der KI nicht. Noch nicht.
"Der KI fehlt gesunder Menschenverstand"
Die Large Language Models (LLM), also die großen Sprachmodelle, gehören zu den generativen KI-Modellen, die in ihrer Grundfunktion die Wahrscheinlichkeiten berechnen, welcher bestimmte Wert an einer Stelle folgen soll. Sie produzieren also Texte – doch damit produzieren sie noch lange kein Wissen. Denn Christoph Neuberger definiert den Begriff des "Wissens" als "begründete, wahre Überzeugung, die sich in einem kritischen Prüfverfahren bewährt hat." LLMs hingegen seien nicht zuverlässig und rekonstruierten ungeprüft fremdes Wissen. Auch seien echte Innovation oder Vielfalt nicht von einem LLM zu erwarten, denn es "kann nur wiedergeben, was in seinen Trainingsdaten enthalten war", sagt Neuberger.
Die Rolle der Wissenschaftskommunikation wird eher zunehmen als abnehmen.
Der KI fehle, so zitiert Neuberger die Wissenschaftsjournalistin Manuela Lenzen, "gesunder Menschenverstand", um Situationen und Kontexte richtig verstehen zu können. Auch im Hinblick auf die aktuelle Kommunikation – und die Wissenschaftskommunikation – seien das Problem also weniger die übermächtigen Algorithmen, so Neuberger – sondern die überforderten. Das zeigt der Kommunikationswissenschaftler anhand der sehr unterschiedlichen Studien-Ergebnisse über die Qualität der Antworten von KI. Vor allem bei kritischen Themen wie dem Krieg in der Ukraine würden hier schlechte Werte erzielt – in denen sich auch das Eindringen von Falschinformationen und russischer Propaganda in generative KI zeige.
KI-Guidelines regeln den verantwortungsvollen KI-Einsatz
Schon heute wird KI sowohl im Journalismus als auch in der Hochschulkommunikation regelmäßig genutzt. Der Deutsche Journalistenverband forderte daher 2023 in einem Positionspapier unter anderem, dass vor Veröffentlichung immer eine menschliche Prüfung erfolgt. Diese Forderung stellen auch eine ganze Reihe anderer Codices für den Einsatz von KI in Redaktionen, erklärt Neuberger; auch die Information des Publikums über den Einsatz von KI und ein kontrolliertes Training der KI sind häufig genannte Punkte. Für einen praktischen Einsatz im Journalismus regt Neuberger Experimentierräume an, sogenannte Media Labs, in denen in großen Netzwerken ein gemeinsames Lernen und ein Erfahrungsaustausch möglich sind – wie etwa das "AI for Media Network", das der Bayrische Rundfunk gegründet hat.
Welche langfristigen Folgen wird KI in der Gesellschaft haben? Neuberger will sich einer Antwort mit zwei Szenarien nähern. Für sein negatives Szenario stützt er sich auf den Politikwissenschaftler Andreas Jungherr: Die aktuellen negativen Trends würden verstärkt, Verzerrungen nähmen zu, Falschinformationen würden weiter und variantenreicher verbreitet. Auch könnte sich die ökonomische Krise der Medien verschärfen, wenn Unternehmen wie Google Inhalte zunehmend ohne den Zwischenschritt über die klassischen Medien ausspielen.
Nicht ungeprüft glauben, was die KI sagt
All das führt in diesem negativen Szenario dazu, dass die Qualität des verfügbaren Wissens sinkt. Die KI-Unternehmen gewinnen dabei immer mehr an Kontrolle und Einfluss; die Autoritäten von Wissenschaft und Journalismus allerdings würden immer weiter infrage gestellt. Für die Bürger:innen, führt Neuberger aus, stellt sich in diesem Negativszenario letztlich die Frage, inwieweit sie sich den bequemen Dienstleistungen der KI hingeben – oder ob sie eine Bereitschaft zur kritischen Prüfung und Beteiligung zeigten. Wenn alle Menschen ihre Bürgerrollen aufgeben, wenn künftig nur noch Bots miteinander diskutieren – dann würden wir in einer bloßen Demokratie-Simulation landen, sagt Neuberger.
Die KI ersetzt nicht unsere Rolle als Wissenschaftskommunikatoren
Für ein positives Szenario gelte es KI zu regulieren. Dann könnten Standards definiert werden, wie KI gemeinwohlorientiert sein kann und wie Werte der liberalen Demokratie in die Modelle einfließen können. Um ein solches positives Szenario zu erreichen, resümiert Neuberger, hängt vieles davon ab, dass die professionelle Kompetenz im Journalismus und in der Wissenschaftskommunikation gestärkt wird. "Die Rolle der Wissenschaftskommunikation", schließt Neuberger, "wird eher zunehmen als abnehmen."
Wie gelangt gute Wissenschaft in die Trainingsdaten?
Hendrik Schneider, KI-Beauftragter und zuständig für die Öffentlichkeitsarbeit beim ZALF Leibniz-Zentrum für Agrarlandschaftsforschung, ergänzt die Ausführungen von Christoph Neuberger um einen Praxisblick: Das ZALF, erklärt er, gehöre zu den Early Adopters der generativen KI-Tools für die Öffentlichkeitsarbeit. Dafür hat sich Schneider intensiv mit Qualitätsmanagement befasst und eine erste KI-Guideline innerhalb der Leibniz-Gemeinschaft entwickelt.
"KI ist unglaublich disruptiv für die Art, wie wir Kommunikation betreiben – im Journalismus und der Wissenschaftskommunikation", sagt Schneider. Es gehe immer weniger um die Information, die eine Institution teilt – sondern um das, was die KI-Systeme damit machen. Die Frage, die er sich für das Leibniz-Institut stellt, ist also: "Wie finden wir mit unseren Inhalten in diesen KI-Modellen statt?" Eine Schlüsselkompetenz für Wissenschaftskommunikation und Journalismus sei also künftig, ihre Informationen maschinenlesbar aufzubereiten.
Die Frage ist: Wie finden wir mit unseren Inhalten in diesen KI-Modellen statt?
Was für die Öffentlichkeit relevant ist, bestimmt künftig die KI
Um Vertrauen bei den KI-skeptischen Nutzer:innen aufzubauen, ist es nötig, die Prozesse des Qualitätsmanagements transparent zu machen, sagt Schneider – und mit eindeutigen Disclaimern zu arbeiten, um KI-generierte Inhalte zu kennzeichnen. Auch was die Relevanz angeht, sieht Scheider einen Umbruch: "Vor zehn Jahren haben Journalisten in der Redaktionskonferenz bestimmt, was relevant ist", sagt Schneider. "In Zukunft wird KI darüber bestimmen – und zwar darüber, was emotionalisiert, was geklickt und gesucht wird."
Insgesamt stellt Schneider ein "erschreckendes Defizit" fest, was die KI-Kompetenz in vielen wissenschaftlichen Einrichtungen angeht. Er fordert deren gezielten Aufbau durch Guidelines, Qualitätsmanagementprozesse und Schulungen – und zwar am besten nicht als Einzelkämpfer, sondern als Gemeinschaftsanstrengung in einem breiten Netzwerk an Forschungseinrichtungen. "Die KI ersetzt nicht unsere Rolle als Wissenschaftskommunikatoren", prognostiziert Schneider. "Sie verändert sie maßgeblich: Wir werden Inhalte nicht mehr erstellen. Wir werden zu Kurator:innen für Wissen." Schon heute würden am ZALF 90 Prozent der Pressemitteilungen und Social Media-Posts von KI erstellt – streng überwacht und im Rahmen von engen Regeln.
Um qualitativ hochwertige Ergebnisse zu erhalten, muss ein KI-Modell auch mit hochwertigen Trainingsdaten trainiert werden, darin sind sich Hendrik Schneider und Christoph Neuberger einig. Voraussichtlich werden viele Forschungsinstitute in Zukunft eigene Modelle haben und beispielsweise eigene Chatbots anbieten – als seriöse Anlaufstellen für hochwertige Informationen aus der Wissenschaft.