KI im Journalismus: Eine Frage der Ethik?
Falsche Vorstellungen zeigen, Künstliche Intelligenz lässt sich noch immer schwer für uns greifen. Trotzdem ist jetzt die richtige Zeit, um über abstrakte Werte wie Moral und Ethik zu sprechen.
Bei der Bildrecherche für diesen Artikel war es schwer ein Foto zu finden, dass keine auf die Tastatur tippende Roboterhand zeigt. Nicht weiter verwunderlich, haben die Fotograf:innen vermutlich nur das reproduziert, was die meisten von uns im Kopf haben, wenn sie an Künstliche Intelligenz (KI) im Journalismus denken. Ist Ihnen vielleicht auch sofort der Knuddel-Roboter R2-D2 aus „Star Wars“ in den Sinn gekommen? Oder doch eher die Killer-Maschine Terminator? Damit wären Sie nicht alleine. Tatsächlich prägen genau diese beiden Film-Roboter am ehesten unsere Vorstellung von der KI, wie eine Allensbach-Umfrage im Auftrag der Gesellschaft für Informatik aus dem Jahr 2019 zeigt. Doch das ist im wahrsten Sinne des Wortes reine Fiktion.
KI gleich automatisch gut?
Um zu wissen, wie KI im Journalismus eingesetzt wird, sollten wir vorher klären: Was bedeutet KI eigentlich? Denn schon einmal vorneweg – diesen Text hat keine KI geschrieben, denn dazu wäre sie noch nicht in der Lage und selbst wenn, würde gerade nicht ein – gemäß Star-Wars-Fachjargon – Droide vor dem Bildschirm sitzen. Dass wir bei KI an Roboter denken, liegt zum einen an der fehlenden Greifbarkeit – KI ist nicht sicht- und vor allem beobachtbar – und zum anderen an der schwammigen Begriffsverwendung. Grund hierfür ist eine fehlende allgemeingültige Definition. Selbst Fachleute sind sich uneins, was „Intelligenz“ bedeutet. Der Informatikprofessor Bernhard Nebel, der in Freiburg einen Lehrstuhl für Grundlagen der Künstlichen Intelligenz innehat, hat dies einmal einem Kollegen so erklärt: „In der Informatik nennen wir KI all das, was noch nicht funktioniert. Alles andere hat einen vernünftigen Namen wie Robotik oder Spracherkennung.“
Künstliche Intelligenz beinhaltet die Verwendung von Computern, um Dinge zu tun, die traditionell menschliche Intelligenz erfordern. Das bedeutet, dass Algorithmen erstellt werden, um Daten zu klassifizieren, zu analysieren und Vorhersagen daraus abzuleiten. Es geht auch darum, auf Daten zu reagieren, aus neuen Daten zu lernen und sich mit der Zeit zu verbessern. Genau wie ein kleines menschliches Kind, das zu einem (manchmal) klügeren menschlichen Erwachsenen heranwächst. Datensätze sind so etwas wie die Lehrbücher für Computer. Und von ihnen braucht es viele. KI-Algorithmen werden mit großen Datensätzen trainiert, damit sie Muster erkennen, Vorhersagen treffen und letztlich autonom handeln können. Diesen Bereich nennt man Maschinelles Lernen (engl. machine learning). Natürlich ist das alles grob vereinfacht; es gibt weitere Bereiche und Unterscheidungen. Schon jetzt kommt KI auf vielfache Weise in unserem Alltag vor: als Chat-Bot beim Kundensupport oder bei automatischen Übersetzen in andere Sprache. Autonomes Fahren oder selbstlernende Thermostate, die sich anhand unseres Nutzungsverhaltens regulieren, sind auch keine Science-Fiction mehr. Wichtig ist zu wissen: Die KI ist nur so schlau wie die Daten, die wir ihr geben. Ohne uns wäre sie alles andere als „intelligent“. Und natürlich, wie wir, macht auch sie Fehler.
Welche Rolle spielt KI aktuell in Newsrooms?
Welche ethischen Fragen kann die KI im Journalismus hervorrufen? Dazu wollen wir uns zuerst anschauen, wie KI bislang in Redaktionen eingesetzt wird. So wie sich die Vorstellung vom Roboter hält, hält sich auch die Befürchtung, er nehme den Journalist:innen ihre Jobs weg. Dazu die Medienethikerin PD Dr. Jessica Heesen von der Universität Tübingen:
„Ich glaube schon, dass es in naher Zukunft einige anspruchslosere Formate geben wird, die teilweise automatisiert geschrieben werden können, solange sie nach einem bestimmten Schema F funktionieren.“
PD Dr. Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. Im Gespräch mit White Lab (das ganze Interview gibt es hier) schränkt sie die Möglichkeiten einer KI aber auch stark ein. Sobald Texte komplexer werden, der Meinungsbildung dienen oder einer bestimmten Gattung angehören, brauche es menschliche Intelligenz. Bislang kann eine KI keine Theater-Rezension oder Sozial-Reportage schreiben. Und noch ein Umstand sollte die Angst vom bildlich gesprochenen „Roboter-Kollegen“ schmälern. Laut der Wissenschaftlerin Heesen spiele KI im redaktionellen Alltag bislang kaum eine Rolle. Stattdessen sei es ein beliebtes Thema in der Berichterstattung. Haben wir also eine verzerrte Wahrnehmung, wenn wir davon sprechen, dass die KI im Journalismus auf dem Vormarsch ist?
Natürlich gibt es bereits KI-Anwendungen, die im Journalismus zum Einsatz kommen. Maßgeblich ist hier aber das bereits erwähnte Schema F. Mittlerweile schon klassische Beispiele bei der Veröffentlichung automatisierter Texte sind die Sport-, Wetter- und Börsenberichterstattung. Beiträge aus diesen Bereichen sind oft ähnlich aufgebaut und haben Ergebnisse bzw. Daten als Grundlage. Die amerikanische Nachrichten- und Presseagentur Associated Press nutzt bereits seit Jahren KI bei der Erstellung automatisierter Berichte über Gewinneinnahme von Unternehmen. Damit konnten sie die Schlagzahl pro Quartal von 300 auf 3.700 Artikel steigern. Datensätze werden für die journalistische Arbeit immer wichtiger, doch es fehlt an menschlichen und finanziellen Ressourcen, um diese auszuwerten. Im Auftrag des Bayerischen Rundfunks (BR) beschäftigt sich Cécile Schneider mit KI-Anwendungen. Zum teilweise schlechten Image von KI im Journalismus sagt sie:
„Mich stört das negative Narrativ, das die KI in der Öffentlichkeit bestimmt. Es geht nicht um Roboter, die uns die Jobs wegnehmen. Stattdessen kann die KI aufwändige Arbeitsschritte vereinfachen. Das sollten wir uns bewusstmachen.“
Im Idealfall kann eine KI also lästige Fleißarbeiten übernehmen, während den Journalist:innen mehr Zeit für Recherche und Produktion bleibt. Diese Aussage ist natürlich stark verkürzt. So stellt KI neue Anforderungen an Medienschaffende und könnte die Strukturen innerhalb der Redaktionen verändern. Auch gibt es längst mehrere Ideen und Versuchsverläufe, wie sich KI und Maschinelles Lernen, anderweitig implementieren lassen können. Dieser Artikel beschränkt allerdings nur auf einige. Für mehr Informationen empfiehlt sich die Seite des „JournalismAI Festival 2020“. Hier stellen internationale Expert:innen die neuesten Anwendungen und Projekte im Journalismus vor. Bei aller Innovationsfreude, denn nicht alle Journalist:innen fürchten um ihre Jobs, muss festgehalten werden: Noch befinden sich die meisten Projekte in der Testphase. Die KI ist gar nicht soweit, wie wir vielleicht manchmal glauben möchten. Noch eine verzerrte Wahrnehmung?
Können auch Journalist:innen KI entwickeln?
Unter den deutschen Medienhäusern tut sich bei der Einsetzung von KI besonders der BR hervor. Vor knapp einem Jahr hob die Rundfunkanstalt das „AI + Automation Lab“ aus der Taufe. AI steht hier für „Artificial Intelligence“, die englische Übersetzung von KI. Die interdisziplinär arbeitende Redaktion ist so spannend, weil hier Journalist:innen, Informatiker:innen und Projektentwickler:innen im Team an KI-Anwendungen arbeiten. So hat das Lab gemeinsam mit der Sportredaktion einen Prototyp für Textautomatisierung von Basketballnachrichten entwickelt. Für die Redaktion bedeutet das eine Arbeitserleichterung, für die Nutzer:innen ein zusätzliches Angebot, da nun mehr Berichte veröffentlicht werden können. Dazu Cécile Schneider, die als Product Lead Teil des Labs ist:
„Bevor wir an Geschichten gehen oder Produkte entwickeln, fragen wir uns: ‚Wofür benötigen wir KI? Was wollen wir damit erreichen?‘ Nur weil vieles bereits technisch möglich ist, müssen wir es nicht gleich umsetzen. Der Nutzen steht im Vordergrund.“
Damit spricht sie einen wichtigen Punkt an, der uns zu den ethischen Fragestellungen führt. Journalist:innen und Informatiker:innen sollten verantwortungsvoll mit der Technik umgehen und sie nur nutzerorientiert einsetzen. Um die Aussage von Cécile Schneider noch weiter zu fassen: Nur weil vieles bereits technisch möglich ist, ist es nicht gleich auch gesellschaftlich gewollt. Die Produktentwicklerin berichtet White Lab von vielen Prototypen und Ideen, an den ihr Team und sie arbeiten. Aber: Vieles lässt sich davon noch nicht vollends in den Redaktionsalltag implementieren oder ist im gewissen Maße kontrollierbar. Auch der BR hat einige KI-Technologien im Lab ausprobiert und sich dann gegen den produktiven Einsatz entschieden.
Wer haftet für KI?
Die Frage der Haftung spielt in der aktuellen Diskussion um KI eine zentrale Rolle. KI-Anwender:innen müssen ihr Produkt bzw. den Algorithmus ständig kontrollieren, denn dieser entwickelt sich durch Zugabe von Daten schließlich immer weiter – und sie können dabei diskriminierend oder gar rassistisch werden. Zwar gibt es bislang kaum vergleichbare Beispiele aus den Medien, doch das Problem ist im Personalwesen bekannt. KI-gestützte Anwendungen, die bei der Vorauswahl von Bewerber:innen helfen sollen, können Frauen schlechter einstufen, wenn ihr System vorher mit Datensätzen trainiert hat, die vornehmlich männliche Bewerber enthielten. Treten solche Voreingenommenheiten, sogenannte Bias, auf, kann nicht die KI haftbar gemacht werden. Medienethikerin Jessica Heesen macht einen ungewöhnlichen Vergleich auf:
„Mittlerweile gibt es den Ansatz, dass wir KI so denken müssen wie ein Haustier. Wenn Sie einen Hund haben, sind Sie verantwortlich für ihn. Das Tier hat aber auch ein Eigenleben und ist bis zu einem bestimmten Grad autonom. Wenn der Hund jetzt Ihre Nachbarin beißt, dann sind Sie zwar verantwortlich, Sie können aber eine Art Hundeversicherung abschließen, weil Sie schließlich das Tier nicht immer vollständig kontrollieren können.“
Über eine solche Versicherung für KI-Anwendungen wird derzeit diskutiert. Mit seiner Entscheidung, getestete Verfahren auch einmal zu verwerfen, wenn sie sich als nicht praktikabel für den journalistischen Einsatz herausgestellt haben, möchte der BR Schaden erst gar nicht entstehen lassen. Andere Projekte haben sich dagegen im redaktionellen Alltag bewährt. Für ihre automatisierten Basketballberichte arbeitet die Rundfunkanstalt mit der Technischen Universität München zusammen, da das Lab alleine den technischen Aufwand nicht stemmen könnte. Für andere Projekte kaufen die Redakteur:innen sogenannte Trainingsdaten von KI-Unternehmen und Start-ups ein. Diese sind darauf spezialisiert die benötige Fülle an Daten bereitzustellen, mit denen dann Redaktionen ihre KI-Anwendungen trainieren. Diese Zusammenarbeit zieht ethische Fragen nach sich, denn die Unternehmen bzw. KI-Designer:innen geben nicht immer preis, mit welchen Parametern die Daten gesammelt wurden. Enthalten die Datensätze zum Beispiel nur Informationen zu Männern oder zu weißen Menschen? Die Daten werden schließlich selten zur direkten Fragestellung der Redaktion gesammelt. Hier braucht es eine größere Transparenz, damit die Redaktion ggf. bei Bias gegensteuern kann.
Wie könnten „ethische Labels“ aussehen?
Auch Tech-Unternehmen haben erkannt, dass diversere Datensätze ihre Produkte besser machen – und sich am Ende besser verkaufen lassen. Denkbar wäre daher eine Selbstauskunft als eine Art Qualitätssiegel in der Branche. Aber auch über verpflichtende Zertifizierungen oder Labels denken Medienethiker:innen wie Jessica Heesen derzeit nach:
„Diese könnte durch die öffentliche Hand, NGOS oder Datenschutzbehörden erfolgen. Das Label könnte so ähnlich sein, wie Sie es von Kühlschränken oder anderen Elektrogeräten kennen, also von Rot nach Grün oder Klasse eins bis fünf. Daran könnten Sie dann sehen, welchen Anforderungen dieses System entspricht.“
Bei den Datensätzen müssen Journalist:innen also genauer hinschauen. Vielleicht sollten sie in der Zukunft aber auch versuchen eigene journalistische KI-Tools zu entwickeln, die unabhängig von Tech-Unternehmen funktionieren. Das mag aber noch nach Zukunftsmusik klingen, denn dafür bräuchte es sicherlich die Ressourcen mehrerer Medienhäuser, eine Art Kooperation wäre hier vorstellbar.
Kann die KI den Journalismus ethischer machen?
Wir haben bereits geklärt, was die KI ist, wie sie im Journalismus eingesetzt werden kann und welche ethischen Fragen damit aufgeworfen werden. Bleibt noch zu klären: Kann der Journalismus von der KI auch in ethischer Hinsicht profitieren? Es werden bereits Anwendungen getestet, die die Journalist:innen auf Bias in ihren Text hinweisen oder eine differenzierte Meinungsbildung fördern, indem sie Nutzer:innen Beiträge mit gegensätzlichen Positionen vorschlagen. Dennoch bleibt es die Aufgabe der Journalist:innen, ethischen oder moralischen Prinzipien bei ihrer Arbeit zu folgen. Diese Verantwortung können sie nicht abgeben. Dafür sollte keine Versicherung der Welt haften. Cécile Schneider und Jessica Heesen haben jeweils mit ihren Kolleg:innen Richtlinien für den verantwortungsvollen Umgang mit einer werteorientierten KI erarbeitet.
Wozu all diese ganzen Fragen?
Die KI ist längst noch nicht so weit, wie uns die Berichterstattung über sie vielleicht glauben lässt. Viele Projekte befinden sich in der Testphase. Warum sollten wir uns also schon jetzt mit Fragen der Ethik und Moral beschäftigen? Auf lange Sicht wird die KI eine große Rolle im Journalismus wie auch in der Gesellschaft spielen. Noch befinden wir uns allerdings in einer Art Übergangsphase. Wichtige Rahmenbedingungen im Journalismus können wir also jetzt noch festlegen und damit die Stoßrichtung der KI in der Branche bestimmen. Dazu sollten wir uns weniger davon leiten lassen, was technisch möglich, sondern was gesellschaftlich gewünscht ist. Ethische Standards können Journalist:innen und Informatiker:innen helfen, KI-Anwendungen kritisch zu hinterfragen und zu verbessern. Und so lange die Technik auf sich warten lässt, könnten Berichterstatter:innen in der Zwischenzeit schon einmal dafür sorgen, dass das Bild der KI gerade gerückt wird und Roboter wie der R2-D2 und der Terminator zurück in die Fiktion geschickt werden.
Das ausführliche Interview mit PD Dr. Jessica Heesen über werteorientierte Ethik findest du hier.