Künstliche Intelligenz und das Bild vom Krieg

Manipulation durch Künstliche Intelligenz

von Felix Koltermann
Schwerpunkt
Schwerpunkt

Krieg und Gewalt mit den Bildmedien der Zeit darzustellen ist ein wesentlicher Aspekt der Menschheitsgeschichte. Ob Höhlenmalerei, Gemälde oder Radierung, immer stand dabei die Interpretation des Geschehens im Vordergrund. Das änderte sich mit dem Aufkommen der Fotografie als einer Technik mit dokumentarischem Charakter und direktem Realitätsbezug. Spätestens mit dem ersten Weltkrieg wurde die Fotografie zum wichtigsten Medium der Kriegsdarstellung. Mit KI-generierten Bildern erscheint nun ein neues Bildmedium am Horizont, das das Potential hat, die Bildgeschichte des Krieges fundamental zu verändern. Aber auch über die Bildgenerierung hinaus wirbeln KI-Anwendungen alte Glaubenssätze des Journalismus und der öffentlichen Kommunikation durcheinander.

Im November 2023 schockierte eine Nachricht den Fotojournalismus: Eine der größten Bilddatenbanken der Welt, Adobe Stock, vertrieb KI-generierte Bilder mit Bezug zum Gazakrieg auf der gleichen Plattform, auf der auch Fotografien zu erwerben sind. Journalistische Recherchen ergaben, dass die KI-generierten Bilder mit Bezug zum Gazakrieg vor allem bei Blogs und auf Social Media breite Verwendung fanden. (1) Die Besonderheit der Bilder ist, dass mit dem bloßen Auge kaum erkennbar war, dass es sich um KI-generiertes Bildmaterial handelte. Was vor wenigen Jahren noch kaum denkbar war, ist damit Realität geworden: KI-generierte Bilder sind Fotografien auf den ersten Blick erstaunlich ähnlich. Und wurden KI-generierte Bilder bis dato vor allem für unpolitische Themen genutzt, fluteten in Folge des Gaza-Kriegs plötzlich politische Motive von Krieg und Gewalt die Bilddatenbanken und damit auch die digitale Medienöffentlichkeit.

Krieg in der digitalen Medienöffentlichkeit
Erschwert wird die Situation dadurch, dass in der digitalen Medienöffentlichkeit das Informationsmonopol nicht mehr bei journalistischen Medien liegt. Viele Menschen beziehen ihre Nachrichten direkt über soziale Netzwerke. Dort kommunizieren alle mit allen ohne die Filterfunktion journalistischer Medien. In Bezug auf die Kommunikation über Krieg und Konflikt bedeutet dies, dass der professionelle Journalismus mit Konfliktparteien, Privatleuten und Blogger*innen in Konkurrenz steht und die Deutungshoheit über ein Geschehen immer neu ausgehandelt werden muss. Problematisch ist, dass es unter diesen so unterschiedlichen Akteuren keine einheitlichen Standards zur Verifikation von Informationen und Fotografien sowie den Umgang mit KI-Bildern gibt. Während Redaktionen sich vorwiegend bei professionellen Bilddatenbanken bedienen, die klar zwischen redaktionellen und nicht-redaktionellen Fotografien sowie KI-generierten Bildern unterscheiden, bedienen sich nicht-journalistische Akteur*innen aller möglichen Quellen. Einzuschätzen was Fake und was wahr, was Propaganda und was Information ist, bleibt allein den Nutzer*innen überlassen. Das macht den Umgang mit Kriegsfotografien und KI-generierten Kriegsbildern so herausfordernd.

Texteingabe am PC anstatt Anwesenheit vor Ort
Während die Produktion journalistischer Fotografien sehr aufwendig ist, da aufgrund des Authentizitätsanspruches die Bildproduzent*innen immer vor Ort direkt im Geschehen sein müssen, lassen sich KI-Bilder mit wenigen Klicks generieren. Der Zugang zu den KI-Bildgeneratoren ist niedrigschwellig und steht prinzipiell allen offen. Die am meisten genutzten KI-Bildgeneratoren sind sogenannte Text-zu-Bild-Anwendungen. Über eine Texteingabe, auch Prompt genannt, wird der KI-Anwendung eine Handlungsanweisung gegeben, die zur Generierung eines Bildes führt. So lässt sich in kürzester Zeit eine Vielzahl von Bildern produzieren, die auf den ersten Blick kaum von Fotografien zu unterscheiden sind. Die Ähnlichkeit liegt darin begründet, dass die KI mit Millionen von Fotografien genau auf diesen Zweck hin trainiert wurde. Dies öffnet neuen Formen der Kriegspropaganda und Fake-News Tür und Tor. Mit wenigen Klicks oder gleich voll automatisiert lassen sich die KI-generierten Bilder dann auch in sozialen Netzwerken verbreiten. Damit entstehen vor allem für die Nutzer*innen sozialer Netzwerke neue Herausforderungen.

KI in journalistischen Redaktionen
KI-generierte Bilder sind dabei nur ein Teil eines größeren Phänomens der Transformation des digitalen Journalismus durch die Nutzung von KI-Anwendungen. Eine Bestandsaufnahme über KI im Journalismus von Jonas Schützeneder, Michael Graßl, Klaus Meier für eine Studie der Friedrich-Ebert-Stiftung (FES) ergab, dass KI „im Newsroom entlang der kompletten Wertschöpfungskette eines journalistischen Produkts“ (2) unterstützt. Also sowohl bei Recherche, Verifikation, Produktion, Archivierung, Distribution und Analyse. Anwendungen reichen von Bild-, Video-, Audio- und Datenanalyse über Transkription und Übersetzung, Korrektur und Zusammenfassung bis zu Kommentarmoderation und Social-Media-Monitoring. Ethische Herausforderung ergeben sich dabei vor allem in Bezug auf die Generierung von journalistischen Inhalten verbunden mit den journalistischen Grundtugenden der Sorgfaltspflicht und der Transparenz. Die Problematik besteht jedoch darin, dass nur journalistische Medien an den Pressekodex gebunden sind, aber nicht Privatpersonen oder Kriegsparteien.

Reaktionen auf KI im Journalismus    
Vermehrt haben Journalismus-Verbände zuletzt Richtlinien zum Umgang mit KI angemahnt und eigene Empfehlungen veröffentlicht. Dazu zählen etwa die Pariser Charta für Künstliche Intelligenz (KI) (3) und Journalismus, die von Reporter ohne Grenzen und anderen NGOs im November 2023 verabschiedet wurde, oder eine Handlungsempfehlung des deutschen Fotograf*innenverbands FREELENS (4). Zwei zentrale Stoßrichtungen zeichnen sich dabei ab: Erstens eine Kennzeichnungspflicht bei der Verwendung von KI-generierten Bildern und Inhalten und zweitens bessere Richtlinien zum Urheberrechtsschutz der von den KI-Modellen genutzten Trainingsdaten. Weitere Empfehlungen kommen von den Autoren des FES Impuls zu KI und Journalismus: Die Schaffung einer technisch-optimistischen Redaktionskultur, die Etablierung redaktioneller Leitlinien, die Kontrolle von Plattformen sowie die Stärkung von Medienkompetenz der Gesellschaft. Interessant ist in diesem Zusammenhang auch der Vorschlag des Schweizer Fotografen und Medienwissenschaftlers Christoph Schütz, die Medienförderung an einen KI-Verzicht zu knüpfen. (5) In jedem Fall sollte nichts unversucht bleiben, der KI regulatorische Schranken anzulegen und die digitale Öffentlichkeit zu disziplinieren, damit das Pendel von der Information nicht noch weiter Richtung Propaganda ausschlägt.

Anmerkungen
1 Siehe z.B.: https://correctiv.org/faktencheck/2023/11/08/dieses-bild-von-einem-mann-... oder https://www.heise.de/news/Kaempfe-im-Gazastreifen-Adobe-Stock-verkauft-K...
2 Siehe: https://library.fes.de/pdf-files/a-p-b/20987.pdf
3 Siehe: https://mmm.verdi.de/beruf/charta-fuer-ki-und-journalismus-93109
4 Siehe: https://freelens.com/kuenstliche-intelligenz/ueber-den-umgang-mit-ki-bil...
5 Siehe: https://medialex.ch/2023/09/05/ki-und-fotografie-in-den-medien/

Ausgabe

Rubrik

Schwerpunkt
Felix Koltermann ist Fotograf und Friedens- und Konfliktforscher.