In den Monaten seit der Veröffentlichung von ChatGPT haben nach und nach viele große Medienhäuser in Deutschland ihre eigenen KI-Guidelines veröffentlicht. Das schafft Handlungssicherheit nach innen, aber auch Vertrauen nach außen. Es wird für Mitarbeiter*innen und Konsument*innen in wenigen Seiten klar, wie im Haus KI eingesetzt wird, und wie eben nicht. Schauen wir einmal, worin sich alle einig sind und wo die größten Unterschiede liegen.
Warum braucht es KI Guidelines für die journalistische Praxis?
Der Einsatz von künstlicher Intelligenz verändert die Arbeit von Redaktionen in Deutschland, aber auch im Ausland, seit Jahren. Automatisierung, Tracking, Personalisierung, Datenanalyse und mehr sind längst journalistischer Alltag. Doch durch den Siegeszug von generativer KI, also KI, die realistisch aussehende Inhalte erstellen kann, wurde es notwendig, für jede einzelne Person, Regeln im Umgang damit aufzustellen. Die Zugänglichkeit, hat KI aus den Händen der Experten genommen und in die Hände der Masse gelegt – auch in den Redaktionen.
Da die Inhalte von generativer KI basierend auf Statistiken und Algorithmen generiert werden, ist es aus ethischen und moralischen Gründen nun notwendig, Regeln und Maxime zu Genauigkeit, Zuverlässigkeit, Verzerrung, Datenschutz und der journalistischen Verantwortung zu erneuern. Dafür gibt es die neuen KI-Guidelines der Häuser.
Welche KI-Guidelines gibt es in den Medienhäusern?
Zu Beginn ein unvollständiger Überblick der bekanntesten KI-Guidelines der deutschen Medienhäuser:
- Bayerischer Rundfunk: Die KI-Richtlinien des Bayerischen Rundfunk https://www.br.de/extra/ai-automation-lab/ki-ethik-100.html
- dpa: Die Guidelines der dpa für Künstliche Intelligenz https://innovation.dpa.com/2023/04/03/kuenstliche-intelligenz-fuenf-guidelines-der-dpa/
- Süddeutsche Zeitung: Die Nutzung der künstliche Intelligenz bei der SZ https://www.sueddeutsche.de/projekte/artikel/kolumne/kuenstliche-intelligenz-ki-e903507/
- taz: Die Nutzung von Künstlicher Intelligenz bei der Taz https://taz.de/Wie-die-taz-Kuenstliche-Intelligenz-nutzt/!5967635/
Und aus dem internationalen Raum:
- Der Umgang des Guardian mit KI: https://www.theguardian.com/help/insideguardian/2023/jun/16/the-guardians-approach-to-generative-ai
- SRF Schweizer Radio und Fernsehen: https://publizistische-leitlinien.srf.ch/leitlinie/umgang-mit-kuenstlicher-intelligenz-ki/
- Paris Charter on AI and Journalism: https://rsf.org/sites/default/files/medias/file/2023/11/Paris%20charter%20on%20AI%20in%20Journalism.pdf
- KI Leitlinien des zwischenstaatliche Lenkungsausschuss für Medien und die Informationsgesellschaft (CDMSI) des Europarates: https://rm.coe.int/cdmsi-2023-014-guidelines-on-the-responsible-implementation-of-artific/1680adb4c6
Das sind bei weitem nicht alle Leitlinien. Einige Häuser arbeiten aber auch noch daran. Und, mit einer Leitlinie wird es auf dauer sicher nicht getan sein. Es wird mit neuen Technologiesprüngen sicher den Bedarf geben, diese zu erweitern und zu erneuern.
Doch werfen wir doch zuerst einmal einen Blick darauf, worin sich die vier nationalen und vier internationalen KI-Guidelines einige sind, und wo sie sich unterscheiden.
Was ist ähnlich in den journalistischen KI-Guildelines und was nicht?
Die oben genannten 8 KI-Richtlinien von nationalen und internationalen Häusern und Vereinigungen ergeben folgendes Bild:
Was ist übergreifend ähnlich?
- Menschliche Aufsicht: Alle betonen die Notwendigkeit menschlicher Aufsicht über KI-Systeme, um die Qualität und Zuverlässigkeit der Inhalte sicherzustellen.
- Ethische Standards: Es gibt eine klare Verpflichtung zu ethischen Standards, wobei Transparenz, Verantwortlichkeit und der Schutz von Daten und Privatsphäre hervorgehoben werden.
- Transparenz: Die Medienhäuser sind bestrebt, transparent über den Einsatz von KI aufzuklären, sowohl intern als auch gegenüber ihrem Publikum.
- Journalistische Integrität: Die Grundprinzipien des Journalismus bleiben unverändert. KI-Tools sollten diese Prinzipien unterstützen, nicht untergraben.
- Förderung des Verständnisses: Es ist wichtig, dass die Mitarbeiter*innen verstehen, wie KI-Systeme funktionieren, um deren Potenziale und Grenzen zu erkennen und sie verantwortungsbewusst einzusetzen.
- Vermeidung von Verzerrungen (Bias): Die Medienhäuser sind bestrebt, sicherzustellen, dass ihre KI-Anwendungen keine vorurteilsbehafteten oder diskriminierenden Inhalte erzeugen.
- Verantwortlichkeit und redaktionelle Kontrolle: KI-Tools können unterstützen, aber Entscheidungen, insbesondere in ethischen und redaktionellen Fragen, sollen von Menschen getroffen werden.
Was ist unterschiedlich?
Neben den Anwendungsbereichen und dem Detaillierungsgrad der Richtlinien, fallen auch inhaltliche Unterschiede auf.
Besonders der BR hat einige Punkte, die in anderen Richtlinien nicht vorkommen:
- Regionale Vielfalt und Dialekte: Als Lokalsender strebt der BR an, dass sie Dialektmodellen für Speech-to-Text-Anwendungen entwickeln wollen und einen aufmerksamen Umgang mit möglichen Vorurteilen in Trainingsdaten pflegen, um die regionale Vielfalt Bayerns zu berücksichtigen.
- Zusammenarbeit mit lokalen Unternehmen: Dazu passt auch, dass das Medienhaus die Zusammenarbeit mit bayerischen Startups betont, um die regionale KI-Kompetenz zu nutzen und zu fördern.
- Interdisziplinäre Reflexion: Der BR setzt von Anfang an in der Produktentwicklung auch auf interdisziplinäre Reflexion.
- Agile Lernkultur: Hierdurch soll eine „agilen Lernkultur“ entstehen, die durch Pilotprojekte und Prototypen gefördert wird.
- Weiter Abweichungen kommen von SZ und Guardian:
- Eigene Forschung und Entwicklung: Einige Medienhäuser wie die Süddeutsche Zeitung (SZ) heben ihre Beteiligung an der Forschung und Entwicklung von KI-Technologien hervor, was nicht in allen Richtlinien explizit genannt wird.
- Umgang mit Urheberrechten: Der Guardian legt einen spezifischen Fokus auf den Respekt für die Schöpfer und Eigentümer von Inhalten, was eine explizite Erwähnung der Problematik umfasst, dass viele KI-Modelle auf Material trainiert werden, das ohne Wissen oder Zustimmung seiner Urheber erfasst wird.
Außerdem stechen die Guidelines des SFR durch ihre besondere Ausführlichkeit bei der Anleitung von Anwender*innen heraus. So stellt das Medienhaus sicher, dass klare Prozesse und Verfahren in Anwendungsfällen möglichst verständlich weitergegeben werden.
Was können alle Medienhäuser daraus lernen?
- Guidelines müssen einfach, verständlich und zugänglich für alle internen und externen Zielgruppen sein.
- KI-Technologien entwickeln sich kontinuierlich weiter, daher müssen die Guidelines regelmäßig überprüft und angepasst werden.
- Alle Mitarbeiter*innen müssen so weit geschult werden, dass sie die Möglichkeiten, Grenzen und ethischen Dimensionen der KI verstehen.
- Journalist*innen sollten den Dialog über KI sowohl intern als auch mit ihrem Publikum und der breiteren Gesellschaft fördern.
- Medienhäuser können die innovativen Möglichkeiten von KI erkunden, ohne dabei die ethischen Grundlagen oder ihren gesellschaftlichen Auftrag zu vernachlässigen.
Zusammenfassend kann man also sagen, dass sich die Investition von Zeit uns Ressourcen in eine KI-Guideline gleich in mehreren Dimensionen für die Häuser lohnt: Sie sorgen für (strategische) Klarheit, holen die verschiedenen internen und externen Stakeholder an Board und halten diese auf dem Laufenden. Sie bieten aber auch Möglichkeiten, sich als innovatives Medienhaus zu positionieren und die eigene Marke zu stärken.
Wie sieht Ihre ideale KI-Guideline aus?