KI-Guidelines für Journalist*innen – wo sind sich alle einig, und wo nicht?

In den Monaten seit der Veröffentlichung von ChatGPT haben nach und nach viele große Medienhäuser in Deutschland ihre eigenen KI-Guidelines veröffentlicht. Das schafft Handlungssicherheit nach innen, aber auch Vertrauen nach außen. Es wird für Mitarbeiter*innen und Konsument*innen in wenigen Seiten klar, wie im Haus KI eingesetzt wird, und wie eben nicht. Schauen wir einmal, worin sich alle einig sind und wo die größten Unterschiede liegen.

Ein Artikel von Jennifer Fritz

Warum braucht es KI Guidelines für die journalistische Praxis?

Der Einsatz von künstlicher Intelligenz verändert die Arbeit von Redaktionen in Deutschland, aber auch im Ausland, seit Jahren. Automatisierung, Tracking, Personalisierung, Datenanalyse und mehr sind längst journalistischer Alltag. Doch durch den Siegeszug von generativer KI, also KI, die realistisch aussehende Inhalte erstellen kann, wurde es notwendig, für jede einzelne Person, Regeln im Umgang damit aufzustellen. Die Zugänglichkeit, hat KI aus den Händen der Experten genommen und in die Hände der Masse gelegt – auch in den Redaktionen. 

Da die Inhalte von generativer KI basierend auf Statistiken und Algorithmen generiert werden, ist es aus ethischen und moralischen Gründen nun notwendig, Regeln und Maxime zu Genauigkeit, Zuverlässigkeit, Verzerrung, Datenschutz und der journalistischen Verantwortung zu erneuern. Dafür gibt es die neuen KI-Guidelines der Häuser. 

Welche KI-Guidelines gibt es in den Medienhäusern? 

Zu Beginn ein unvollständiger Überblick der bekanntesten KI-Guidelines der deutschen Medienhäuser:

Und aus dem internationalen Raum: 

Das sind bei weitem nicht alle Leitlinien. Einige Häuser arbeiten aber auch noch daran. Und, mit einer Leitlinie wird es auf dauer sicher nicht getan sein. Es wird mit neuen Technologiesprüngen sicher den Bedarf geben, diese zu erweitern und zu erneuern. 

Doch werfen wir doch zuerst einmal einen Blick darauf, worin sich die vier nationalen und vier internationalen KI-Guidelines einige sind, und wo sie sich unterscheiden. 

Was ist ähnlich in den journalistischen KI-Guildelines und was nicht?

Die oben genannten 8 KI-Richtlinien von nationalen und internationalen Häusern und Vereinigungen ergeben folgendes Bild: 

Was ist übergreifend ähnlich?

  • Menschliche Aufsicht: Alle betonen die Notwendigkeit menschlicher Aufsicht über KI-Systeme, um die Qualität und Zuverlässigkeit der Inhalte sicherzustellen.
  • Ethische Standards: Es gibt eine klare Verpflichtung zu ethischen Standards, wobei Transparenz, Verantwortlichkeit und der Schutz von Daten und Privatsphäre hervorgehoben werden.
  • Transparenz: Die Medienhäuser sind bestrebt, transparent über den Einsatz von KI aufzuklären, sowohl intern als auch gegenüber ihrem Publikum.
  • Journalistische Integrität: Die Grundprinzipien des Journalismus bleiben unverändert. KI-Tools sollten diese Prinzipien unterstützen, nicht untergraben.
  • Förderung des Verständnisses: Es ist wichtig, dass die Mitarbeiter*innen verstehen, wie KI-Systeme funktionieren, um deren Potenziale und Grenzen zu erkennen und sie verantwortungsbewusst einzusetzen.
  • Vermeidung von Verzerrungen (Bias): Die Medienhäuser sind bestrebt, sicherzustellen, dass ihre KI-Anwendungen keine vorurteilsbehafteten oder diskriminierenden Inhalte erzeugen.
  • Verantwortlichkeit und redaktionelle Kontrolle: KI-Tools können unterstützen, aber Entscheidungen, insbesondere in ethischen und redaktionellen Fragen, sollen von Menschen getroffen werden.

Was ist unterschiedlich?

Neben den Anwendungsbereichen und dem Detaillierungsgrad der Richtlinien, fallen auch inhaltliche Unterschiede auf.

Besonders der BR hat einige Punkte, die in anderen Richtlinien nicht vorkommen: 

  • Regionale Vielfalt und Dialekte: Als Lokalsender strebt der BR an, dass sie Dialektmodellen für Speech-to-Text-Anwendungen entwickeln wollen und einen aufmerksamen Umgang mit möglichen Vorurteilen in Trainingsdaten pflegen, um die regionale Vielfalt Bayerns zu berücksichtigen.
  • Zusammenarbeit mit lokalen Unternehmen: Dazu passt auch, dass das Medienhaus die Zusammenarbeit mit bayerischen Startups betont, um die regionale KI-Kompetenz zu nutzen und zu fördern.
  • Interdisziplinäre Reflexion: Der BR setzt von Anfang an in der Produktentwicklung auch auf interdisziplinäre Reflexion.
  • Agile Lernkultur: Hierdurch soll eine „agilen Lernkultur“ entstehen, die durch Pilotprojekte und Prototypen gefördert wird.
  • Weiter Abweichungen kommen von SZ und Guardian:
  • Eigene Forschung und Entwicklung: Einige Medienhäuser wie die Süddeutsche Zeitung (SZ) heben ihre Beteiligung an der Forschung und Entwicklung von KI-Technologien hervor, was nicht in allen Richtlinien explizit genannt wird.
  • Umgang mit Urheberrechten: Der Guardian legt einen spezifischen Fokus auf den Respekt für die Schöpfer und Eigentümer von Inhalten, was eine explizite Erwähnung der Problematik umfasst, dass viele KI-Modelle auf Material trainiert werden, das ohne Wissen oder Zustimmung seiner Urheber erfasst wird.

Außerdem stechen die Guidelines des SFR durch ihre besondere Ausführlichkeit bei der Anleitung von Anwender*innen heraus. So stellt das Medienhaus sicher, dass klare Prozesse und Verfahren in Anwendungsfällen möglichst verständlich weitergegeben werden. 

Was können alle Medienhäuser daraus lernen?

  • Guidelines müssen einfach, verständlich und zugänglich für alle internen und externen Zielgruppen sein. 
  • KI-Technologien entwickeln sich kontinuierlich weiter, daher müssen die Guidelines regelmäßig überprüft und angepasst werden.
  • Alle Mitarbeiter*innen müssen so weit geschult werden, dass sie die Möglichkeiten, Grenzen und ethischen Dimensionen der KI verstehen.
  • Journalist*innen sollten den Dialog über KI sowohl intern als auch mit ihrem Publikum und der breiteren Gesellschaft fördern.
  • Medienhäuser können die innovativen Möglichkeiten von KI erkunden, ohne dabei die ethischen Grundlagen oder ihren gesellschaftlichen Auftrag zu vernachlässigen.

Zusammenfassend kann man also sagen, dass sich die Investition von Zeit uns Ressourcen in eine KI-Guideline gleich in mehreren Dimensionen für die Häuser lohnt: Sie sorgen für (strategische) Klarheit, holen die verschiedenen internen und externen Stakeholder an Board und halten diese auf dem Laufenden. Sie bieten aber auch Möglichkeiten, sich als innovatives Medienhaus zu positionieren und die eigene Marke zu stärken. 

Wie sieht Ihre ideale KI-Guideline aus? 

Artikel teilen

Diese Artikel könnten dich auch interessieren

Teenager analysiert KI-Chatbot-Altersgrenze am Computer

Altersgrenze für KI-Chatbots: EU-Parlament fordert besseren Schutz für Minderjährige

Das EU-Parlament hat eine neue Debatte angestoßen: Soll der Zugang zu KI-Chatbots & Social Media künftig an ein einheitliches Mindestalter geknüpft werden? Eine Resolution empfiehlt 16 Jahre als Mindestalter – mit Ausnahmen bei elterlicher Zustimmung. Ein Schritt zum besseren Kinderschutz oder ein Eingriff in digitale Grundrechte?

28. November 2025
Weiterlesen
Erschöpfte Mitarbeiterin bei KI-Inhaltsmoderation

xAI Grok: Die ethischen Grenzen eines provokativen Chatbots

Von sexuellen Fantasien bis Holocaust-Verharmlosung: Mitarbeitende bei Elon Musks KI-Firma xAI berichten über die psychisch belastende Moderation von verstörenden Inhalten. Der Fall wirft Fragen nach Ethik, Verantwortung und Regulierung auf – und zeigt, wie KI zum Spiegel dunkler Online-Kultur werden kann.

25. September 2025
Weiterlesen
Holographischer KI-Avatar, digitale Unsterblichkeit.

Digitale Unsterblichkeit mit KI: Zwischen Trauerarbeit und ethischer Grenzüberschreitung

Was bleibt von einem Menschen, wenn er stirbt? In der Ära der Künstlichen Intelligenz wird diese Frage nicht nur philosophisch, sondern technologisch greifbar. Immer mehr Entwickler nutzen KI, um digitale Versionen Verstorbener zu erschaffen – mit Stimmen, Mimik und Erinnerungen. Doch was als emotionale Stütze gedacht ist, wirft gravierende ethische und rechtliche Fragen auf.

11. August 2025
Weiterlesen
Mutter und Kind mit emotionalem KI-Avatar

Emotionale KI: Wie Maschinen lernen, unsere Gefühle zu verstehen

Künstliche Intelligenz entwickelt sich rasant – längst beschränkt sie sich nicht mehr auf reine Datenanalyse oder Textgenerierung. Immer häufiger wird KI darauf trainiert, menschliche Emotionen zu imitieren. Chatbots sprechen verständnisvoll, virtuelle Charaktere wirken einfühlsam, digitale Assistenten zeigen angebliche Sorge oder Freude. Doch was auf den ersten Blick beeindruckt, birgt tiefere Gefahren – sowohl für Erwachsene…

10. Juli 2025
Weiterlesen
Neuralink Gehirnchip mit feinen Drähten integriert

Mensch 2.0? Neuralink bringt Gehirn-Implantat auf die nächste Stufe

Der Neuralink Gehirnchip sorgt für Aufsehen: Elon Musks Vision, das menschliche Gehirn direkt mit Computern zu verbinden, verspricht ungeahnte Möglichkeiten. Angesichts der jüngsten technischen Fortschritte und finanziellen Unterstützung steht die Frage im Raum, ob diese Technologie unser Leben grundlegend verändern könnte. Während Befürworter von medizinischen Durchbrüchen sprechen, warnen Kritiker vor ethischen und sicherheitstechnischen Herausforderungen.

5. Juni 2025
Weiterlesen
Symbolbild für Deepfake-Pornos und rechtliche Maßnahmen

Deepfake-Pornos: Wie der ‚Take It Down Act‘ Betroffene schützt

Deepfake-Pornos sind eine beunruhigende Erscheinung der digitalen Welt, die zunehmend Frauen und Mädchen ins Visier nimmt. Mithilfe von KI-Technologie werden täuschend echte Fälschungen erstellt, die ohne Einwilligung der Betroffenen veröffentlicht werden. Was steckt hinter diesem perfiden Geschäftsmodell und welche rechtlichen Schritte können die Opfer ergreifen? Einblick in eine skandalöse Entwicklung.

8. Mai 2025
Weiterlesen
KI-generierte Anime-Bilder in Galerieausstellung

Das Ende der Kreativität? Wie KI-Algorithmen die Anime-Kunstszene verändern

Sie sind überall: große Augen, schrille Farben, perfektionierte Körper. Das Internet wird derzeit von einer Welle an KI-generierten Anime-Bildern überflutet – auf Plattformen wie Reddit, Pinterest, Lexica oder Civitai dominieren Manga- und Fantasy-Ästhetiken. Doch während Fans begeistert sind, stellen sich immer drängendere Fragen: Wem gehören diese Bilder? Wessen Kultur wird hier algorithmisch reproduziert? Und wie…

3. April 2025
Weiterlesen
Luxusresort und Kriegsruinen im Gaza-KI-Video

Was darf KI? Trumps Gaza-Video und die ethischen Grenzen künstlicher Intelligenz

Ein KI-generiertes Video über den Gazastreifen, das Donald Trump teilte, hat weltweit Aufsehen und Kritik ausgelöst. Der Fall wirft eine zentrale Frage auf: Wie weit darf der Einsatz von Künstlicher Intelligenz in der politischen Kommunikation gehen?

6. März 2025
Weiterlesen
EU AI Act Diskussion im Sitzungsraum

Neue Ära der KI-Regulierung: Was der EU AI Act mit sich bringt

Seit dem 2. Februar 2025 gelten in Europa die ersten verbindlichen Regeln für den Einsatz von Künstlicher Intelligenz. Mit dem EU AI Act setzt die EU weltweit neue Maßstäbe für ethische KI, Transparenz und Sicherheit. Während Social Scoring und manipulative KI-Praktiken verboten werden, müssen Unternehmen hohe Anforderungen an Datensicherheit, Mitarbeiterschulung und Transparenz erfüllen. Doch welche…

6. Februar 2025
Weiterlesen
Menschen und Roboter kooperieren im Büro.

KI-Agenten auf dem Arbeitsmarkt: Die Zukunft der Arbeit im Wandel

KI-Agenten erobern den Arbeitsmarkt und stellen traditionelle Jobmodelle infrage. Mit ihrer Fähigkeit, komplexe Aufgaben zu automatisieren und effizienter zu gestalten, bieten sie sowohl Chancen als auch Herausforderungen. Doch wie verändern sie die Arbeitswelt wirklich? Welche Berufe stehen auf dem Spiel, und welche neuen Möglichkeiten entstehen? Diese Fragen beleuchten wir in unserem heutigen Beitrag.

9. Januar 2025
Weiterlesen

Mehr als nur Kurse:
Die NEXperts KI-Community

Lernen hört nach dem Kurs nicht auf. Teilnehmende der NEXperts Academy werden auch Teil unserer aktiven Community aus KI-Enthusiasten, Praktikern und Experten. Tausche dich aus, stelle Fragen, teile Erfahrungen und bleibe immer auf dem neuesten Stand der KI-Entwicklung. Für Academy-Teilnehmende 1 Jahr kostenfrei.  

Mehr erfahren