Eine Collage mit einer Vintage-Illustration des Kopfes einer Frau, die mit beschrifteten Abschnitten versehen ist, die an ein Phrenologiediagramm erinnern. Die kartierten Abschnitte werden von einem neutralen Netzdiagramm überlagert, das sich kreuzende schwarze Linien zeigt. Zwei anonyme Hände strecken sich von der linken Seite aus und ziehen an zwei Drähten des Diagramms.  Im Hintergrund ist eine Tafel der Turing-Maschine mit zahlreichen Knöpfen und Schaltern zu sehen
Veranstaltungsbericht

Mensch oder Maschine? KI in der Wissenschaftskommunikation

#Wissenschaftskommunikation #Künstliche Intelligenz

Wie können KI und Kommunikator:innen bei der Wissensvermittlung so kooperieren, dass auch künftig gesichertes Wissen sein Publikum erreicht? Darum ging es in einer neuen Folge der Webtalk-Reihe "Treffpunkt Wissenschaftskommunikation". Bernd Eberhart fasst zusammen. 

Wie wichtig ist der Mensch noch bei der automatisierten Wissensvermittlung? Diese Frage stellt Christoph Neuberger, Professor für Publizistik- und Kommunikationswissenschaft und Geschäftsführer am Weizenbaum-Institut in Berlin, seinem Impuls voran. Zunächst gibt Neuberger einen Überblick über unseren aktuellen Umgang mit generativer Künstlicher Intelligenz (KI): "KI war lange Zeit eine Verheißung, ein nicht eingelöstes Versprechen", sagt Neuberger. Das habe sich spätestens 2022 mit ChatGPT geändert. KI sei damit im Alltag der Menschen angekommen.

Mann im Portrait

Macht KI die Menschen in der Wissensvermittlung überflüssig, Herr Neuberger?

Christoph Neuberger vom Weizenbaum-Institut für digitale Gesellschaften referierte am 23. April im Webtalk "Treffpunkt Wissenschaftskommunikation". Vorab hatten wir ihm drei Fragen gestellt.

Mehr erfahren

Eigentlich gehe es in dieser Diskussion gar nicht um Künstliche Intelligenz, erklärt Neuberger. Sondern um Künstliche Kommunikation, wie es die italienischen Soziologin Elena Esposito ausgedrückt hat: Denn die Algorithmen beobachten zwar die menschliche Kommunikation, die im Netz nachverfolgbar ist. Aber nicht die menschliche Intelligenz. "Ein Blick in unsere Köpfe", so Neuberger, gelänge der KI nicht. Noch nicht.

"Der KI fehlt gesunder Menschenverstand"

Die Large Language Models (LLM), also die großen Sprachmodelle, gehören zu den generativen KI-Modellen, die in ihrer Grundfunktion die Wahrscheinlichkeiten berechnen, welcher bestimmte Wert an einer Stelle folgen soll. Sie produzieren also Texte – doch damit produzieren sie noch lange kein Wissen. Denn Christoph Neuberger definiert den Begriff des "Wissens" als "begründete, wahre Überzeugung, die sich in einem kritischen Prüfverfahren bewährt hat." LLMs hingegen seien nicht zuverlässig und rekonstruierten ungeprüft fremdes Wissen. Auch seien echte Innovation oder Vielfalt nicht von einem LLM zu erwarten, denn es "kann nur wiedergeben, was in seinen Trainingsdaten enthalten war", sagt Neuberger. 

Die Rolle der Wissenschaftskommunikation wird eher zunehmen als abnehmen.

Christoph Neuberger

Der KI fehle, so zitiert Neuberger die Wissenschaftsjournalistin Manuela Lenzen, "gesunder Menschenverstand", um Situationen und Kontexte richtig verstehen zu können. Auch im Hinblick auf die aktuelle Kommunikation – und die Wissenschaftskommunikation – seien das Problem also weniger die übermächtigen Algorithmen, so Neuberger – sondern die überforderten. Das zeigt der Kommunikationswissenschaftler anhand der sehr unterschiedlichen Studien-Ergebnisse über die Qualität der Antworten von KI. Vor allem bei kritischen Themen wie dem Krieg in der Ukraine würden hier schlechte Werte erzielt – in denen sich auch das Eindringen von Falschinformationen und russischer Propaganda in generative KI zeige. 

KI-Guidelines regeln den verantwortungsvollen KI-Einsatz

Schon heute wird KI sowohl im Journalismus als auch in der Hochschulkommunikation regelmäßig genutzt. Der Deutsche Journalistenverband forderte daher 2023 in einem Positionspapier unter anderem, dass vor Veröffentlichung immer eine menschliche Prüfung erfolgt. Diese Forderung stellen auch eine ganze Reihe anderer Codices für den Einsatz von KI in Redaktionen, erklärt Neuberger; auch die Information des Publikums über den Einsatz von KI und ein kontrolliertes Training der KI sind häufig genannte Punkte. Für einen praktischen Einsatz im Journalismus regt Neuberger Experimentierräume an, sogenannte Media Labs, in denen in großen Netzwerken ein gemeinsames Lernen und ein Erfahrungsaustausch möglich sind – wie etwa das "AI for Media Network", das der Bayrische Rundfunk gegründet hat.

Newsletter Wissenschaftskommunikation

Abonnieren Sie unseren kostenlosen Newsletter Wissenschaftskommunikation, mit Beiträgen zu Fragen des digitalen und gesellschaftlichen Wandels, die Wissenschafts-PR und Wissenschaftsjournalismus aktuell herausfordern.

Hier anmelden

Welche langfristigen Folgen wird KI in der Gesellschaft haben? Neuberger will sich einer Antwort mit zwei Szenarien nähern. Für sein negatives Szenario stützt er sich auf den Politikwissenschaftler Andreas Jungherr: Die aktuellen negativen Trends würden verstärkt, Verzerrungen nähmen zu, Falschinformationen würden weiter und variantenreicher verbreitet. Auch könnte sich die ökonomische Krise der Medien verschärfen, wenn Unternehmen wie Google Inhalte zunehmend ohne den Zwischenschritt über die klassischen Medien ausspielen. 

Nicht ungeprüft glauben, was die KI sagt

All das führt in diesem negativen Szenario dazu, dass die Qualität des verfügbaren Wissens sinkt. Die KI-Unternehmen gewinnen dabei immer mehr an Kontrolle und Einfluss; die Autoritäten von Wissenschaft und Journalismus allerdings würden immer weiter infrage gestellt. Für die Bürger:innen, führt Neuberger aus, stellt sich in diesem Negativszenario letztlich die Frage, inwieweit sie sich den bequemen Dienstleistungen der KI hingeben – oder ob sie eine Bereitschaft zur kritischen Prüfung und Beteiligung zeigten. Wenn alle Menschen ihre Bürgerrollen aufgeben, wenn künftig nur noch Bots miteinander diskutieren – dann würden wir in einer bloßen Demokratie-Simulation landen, sagt Neuberger.

Die KI ersetzt nicht unsere Rolle als Wissenschaftskommunikatoren

Hendrik Schneider

Für ein positives Szenario gelte es KI zu regulieren. Dann könnten Standards definiert werden, wie KI gemeinwohlorientiert sein kann und wie Werte der liberalen Demokratie in die Modelle einfließen können. Um ein solches positives Szenario zu erreichen, resümiert Neuberger, hängt vieles davon ab, dass die professionelle Kompetenz im Journalismus und in der Wissenschaftskommunikation gestärkt wird. "Die Rolle der Wissenschaftskommunikation", schließt Neuberger, "wird eher zunehmen als abnehmen."

Wie gelangt gute Wissenschaft in die Trainingsdaten?

Hendrik Schneider, KI-Beauftragter und zuständig für die Öffentlichkeitsarbeit beim ZALF Leibniz-Zentrum für Agrarlandschaftsforschung, ergänzt die Ausführungen von Christoph Neuberger um einen Praxisblick: Das ZALF, erklärt er, gehöre zu den Early Adopters der generativen KI-Tools für die Öffentlichkeitsarbeit. Dafür hat sich Schneider intensiv mit Qualitätsmanagement befasst und eine erste KI-Guideline innerhalb der Leibniz-Gemeinschaft entwickelt.

"KI ist unglaublich disruptiv für die Art, wie wir Kommunikation betreiben – im Journalismus und der Wissenschaftskommunikation", sagt Schneider. Es gehe immer weniger um die Information, die eine Institution teilt – sondern um das, was die KI-Systeme damit machen. Die Frage, die er sich für das Leibniz-Institut stellt, ist also: "Wie finden wir mit unseren Inhalten in diesen KI-Modellen statt?" Eine Schlüsselkompetenz für Wissenschaftskommunikation und Journalismus sei also künftig, ihre Informationen maschinenlesbar aufzubereiten.

Die Frage ist: Wie finden wir mit unseren Inhalten in diesen KI-Modellen statt?

Hendrik Schneider

Was für die Öffentlichkeit relevant ist, bestimmt künftig die KI

Um Vertrauen bei den KI-skeptischen Nutzer:innen aufzubauen, ist es nötig, die Prozesse des Qualitätsmanagements transparent zu machen, sagt Schneider – und mit eindeutigen Disclaimern zu arbeiten, um KI-generierte Inhalte zu kennzeichnen. Auch was die Relevanz angeht, sieht Scheider einen Umbruch: "Vor zehn Jahren haben Journalisten in der Redaktionskonferenz bestimmt, was relevant ist", sagt Schneider. "In Zukunft wird KI darüber bestimmen – und zwar darüber, was emotionalisiert, was geklickt und gesucht wird."

Insgesamt stellt Schneider ein "erschreckendes Defizit" fest, was die KI-Kompetenz in vielen wissenschaftlichen Einrichtungen angeht. Er fordert deren gezielten Aufbau durch Guidelines, Qualitätsmanagementprozesse und Schulungen – und zwar am besten nicht als Einzelkämpfer, sondern als Gemeinschaftsanstrengung in einem breiten Netzwerk an Forschungseinrichtungen. "Die KI ersetzt nicht unsere Rolle als Wissenschaftskommunikatoren", prognostiziert Schneider. "Sie verändert sie maßgeblich: Wir werden Inhalte nicht mehr erstellen. Wir werden zu Kurator:innen für Wissen." Schon heute würden am ZALF 90 Prozent der Pressemitteilungen und Social Media-Posts von KI erstellt – streng überwacht und im Rahmen von engen Regeln.

Um qualitativ hochwertige Ergebnisse zu erhalten, muss ein KI-Modell auch mit hochwertigen Trainingsdaten trainiert werden, darin sind sich Hendrik Schneider und Christoph Neuberger einig. Voraussichtlich werden viele Forschungsinstitute in Zukunft eigene Modelle haben und beispielsweise eigene Chatbots anbieten – als seriöse Anlaufstellen für hochwertige Informationen aus der Wissenschaft.

Literaturauswahl: KI und Wissenschaftskommunikation

  • Bulian, J., Schäfer, M. S., Amini, A., Lam, H., Ciaramita, M., Gaiarin, B., ... & Strauß, N. (2023). Assessing large language models on climate information. arXiv preprint arXiv:2310.02932. https://doi.org/10.48550/arXiv.2310.02932
  • Coeckelbergh, M. (2024). Why AI undermines democracy and what to do about it. Polity.
  • Greussing, E., Guenther, L., Baram-Tsabari, A., Dabran-Zivan, S., Jonas, E., Klein-Avraham, I., Taddicken, M., Agergaard, T., Beets, B., Brossard, D., Chakraborty, A., Fage-Butler, A., Huang, C.-J., Kankaria, S., Lo, Y.-Y., Middleton, L., Nielsen, K. H., Riedlinger, M. and Song, H. (2025). Exploring temporal and cross-national patterns: The use of generative AI in science-related information retrieval across seven countries. Journal of Science Communication, 24(2), A05. https://doi.org/10.22323/2.24020205
  • Guenther, L., Kunert, J. and Goodwin, B. (2025). “Away from this duty of chronicler and towards the unicorn”: How German science journalists assess their future with (generative) Artificial Intelligence. Journal of Science Communication, 24(2), A06. https://doi.org/10.22323/2.24020206
  • Henke, J. (2025). The new normal: The increasing adoption of generative AI in university communication. Journal of Science Communication, 24(2), A07. https://doi.org/10.22323/2.24020207
  • Jungherr, A. (2023). Artificial Intelligence and Democracy: A Conceptual Framework. Social Media + Society, 9(3). https://doi.org/10.1177/20563051231186353
  • Kuznetsova, E., Makhortykh, M., Vziatysheva, V., Stolze, M., Baghumyan, A., & Urman, A. (2023). In generative AI we trust: Can chatbots effectively verify political information? arXiv preprint. https://doi.org/10.48550/arXiv.2312.13096
  • Maiden, N., Zachos, K., Franks, S., Nyre, L., & Linden, C.-G. (2023). Automating science journalism tasks: Emerging opportunities. Journalism Practice, 0(0). https://doi.org/10.1080/17512786.2023.2226116
  • Makhortykh, M., Sydorova, M., Baghumyan, A., Vziatysheva, V., & Kuznetsova, E. (2024, August 26). Stochastic lies: How LLM-powered chatbots deal with Russian disinformation about the war in Ukraine. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-154
  • Simon, F. (2024). Artificial intelligence in the news: how AI retools, rationalizes, and reshapes journalism and the public arena. Tow Center for Digital Journalism, Columbia University. www.cjr.org/tow_center_reports/artificial-intelligence-in-the-news.php
  • Volk, S. C., Schäfer, M. S., Lombardi, D., Mahl, D., & Yan, X. (2024). How generative artificial intelligence portrays science: Interviewing ChatGPT from the perspective of different audience segments. Public Understanding of Science, 34(2), 132-153. https://doi.org/10.1177/09636625241268910
  • Wachter, S., Mittelstadt, B., & Russell, C. (2024). Do large language models have a legal duty to tell the truth? Royal Society Open Science. http://dx.doi.org/10.2139/ssrn.4771884