Exklusiv-Interview

Jessica Heesen, kann die KI den Journalismus ethischer machen?

Artikelbild: Jessica Heesen, kann die KI den Journalismus ethischer machen?
© Alexander Sinn (Unsplash)

Wie kommt Ethik in die KI? Mit dieser Frage beschäftigt sich PD Dr. Jessica Heesen von der Universität Tübingen. Im Interview erklärt die Medienethikerin, wie abstrakte Werte real werden können.

Wie groß ist das Interesse der Tech-Unternehmen, sich mit Ethik und Moral zu beschäftigen?

PD Dr. Jessica Heesen: Ich weiß aus den Gesprächen mit Unternehmen, dass sie vor zwei großen Problemen stehen. Zum einen sagen sie natürlich: Die Konkurrenz schläft nicht. Besonders die USA und China gelten als schneller und „ungehemmter“ bei der Entwicklung von Künstlicher Intelligenz. Wir hören dann häufig von den deutschen Unternehmen: Wenn wir jetzt auch noch anfangen, uns mit Ethik und anderen Normen zu beschäftigen, dann bedeutet das einen weiteren Wettbewerbsnachteil für uns. Das andere Problem ist: Um ethische Standards umzusetzen, fehlt es den Firmen an ausgebildeten Mitarbeiter:innen. Notwendig sind neue Prozesse und eine weitere Reflexionsschleife. Letztlich muss das Unternehmen intern Kapazitäten schaffen, die Fragestellungen nach Ethik und Recht erlauben.

Warum müssen sich Unternehmen langfristig mit Ethik-Richtlinien beschäftigen?

Heesen: Denken Sie an die Qualität der Trainingsdaten, auf denen die KI-Anwendungen gestützt sind. Wenn ich die Daten nur aus einer bestimmten Gruppe, ohne ein großes Spektrum an Diversität, nutze, dann habe ich Anwendungen, die nur auf die Bedürfnisse dieser Gruppe ausgerichtet sind und andere eventuell diskriminieren. Dagegen kann man viel tun. Man kann z.B. die Trainingsdaten prüfen, gewisse Standards anlegen oder transparent machen, wie sie generiert worden sind. Sie könnten sogar ein Label bekommen. Das ist ein Punkt, der vielen Unternehmen, die Trainingsdaten verkaufen, selbst aufgefallen ist. Sie haben den starken Wunsch die eigene Produktqualität zu verbessern. Denn es geht ja letztendlich darum, sich einen möglichst großen Adressatenkreis für das eigene Produkt zu erschließen und nicht bestimmte Bevölkerungsschichten auszugrenzen. Die Unternehmen haben erkannt, dass sie dadurch den Verkaufswert ihrer Produkte steigern können. Deshalb hat beispielsweise Google ein Diversitätsmanagement eingesetzt, das eigene KI-Entwicklungen zurückspiegelt.

Wie könnte so ein „ethisches Label“ aussehen?

Heesen: Es gibt unterschiedliche Werte, wie Transparenz, Datenschutz, Sicherheit usw. und da könnte es pro Kategorie eine Überprüfung nach verschiedenen Maßgaben geben. Diese könnte durch die öffentliche Hand, NGOS oder Datenschutzbehörden erfolgen. Das Label könnte so ähnlich sein, wie Sie es von Kühlschränken oder anderen Elektrogeräten kennen, also von Rot nach Grün oder Klasse eins bis fünf. Daran könnten Sie dann sehen, welchen Anforderungen dieses System entspricht. Wenn Sie zum Beispiel eine KI zur Personalauswahl nutzen, dann könnte es durchaus vorstellbar sein, dass es eine Art Label gibt, sodass Verwaltungen nur noch solche Produkte kaufen, die ein bestimmtes Label fürs Personalmanagement haben. Das wäre denkbar, ist natürlich aber auch umstritten, da sich KI-Anwendungen teilweise ändern und immer von den Anwendungskontexten abhängig sind. Die Unternehmen sind dem aber nicht abgeneigt, wichtig ist ihnen nur, dass die Maßnahmen für alle gleich gelten. Neben einer verpflichtenden Zertifizierung wäre auch eine Art Selbstverpflichtung in der Branche vorstellbar.

Kann die KI auch den Journalismus ethischer machen? Beispielsweise durch ein System, das Daten darüber sammelt, wie oft in Beiträgen Expert:innen aus Minderheiten zitiert werden?

Heesen: Für das, was Sie beschreiben, braucht es wahrscheinlich keine Künstliche Intelligenz. Der Prozess könnte über schlichtere Algorithmen gesteuert werden. Aber es gibt andere Sachen, die bereits erforscht werden, so auch in dem baden-württembergischen Verbundprojekt „Digitalisierung im Dialog“, an dem ich beteiligt bin. Da geht es tatsächlich darum, dass man über KI so eine Voreingenommenheit, also den sogenannten Bias, in Texten identifizieren und einordnen kann. Es gibt Bemühungen, über KI große Mengen an Text sichten und nach bestimmten ideologischen Ausrichtungen einordnen zu lassen. Das ist etwas, das dem Journalismus helfen könnte. Somit würden Texte nicht nur einfach nach Beliebtheit einsortiert, sondern nach vielen unterschiedlichen Aspekten, die für Journalist:innen wichtig wären.

Kann ich mir das wie eine Art Frühwarnsystem vorstellen, dass im Zweifel aufploppt und die Journalist:innen vorwarnt: ‚Achtung, hier werden gerade Vorurteile bedient!‘?

Heesen: Ja, man kann eine KI so trainieren, dass sie mir anzeigt, wenn meine Beiträge einen Bias beinhalten. Es gibt inzwischen Software die mir immer die gegensätzliche Position zu einem Beitrag anzeigt. Das betrifft jetzt nicht nur Journalist:innen, sondern alle Nutzenden des Internets. Die KI kann erkennen, dass ich mich in einer Informationsblase befinde und mir aktive Angebote machen, wie z.B. 'Lies doch mal das hier!' Was normalerweise eine Tageszeitung leistet, die gegensätzliche Positionen abbildet, könnte aktiv durch solche Systeme beworben werden. Was auch immer relevanter wird: KI-Filter, die davor schützen, Hassnachrichten zu bekommen. Das ist für Journalist:innen aber auch für Menschen interessant, die sich mit Anfeindungen auseinandersetzen müssen. Es gibt auch Anwendungen, die „schlimme“ durch „gute“ Wörter ersetzen und so zum Beispiel diskriminierungsfreie Sprache erleichtern.

Kann KI auch leichter Hassrede und Hetze im Internet finden?

Heesen: Nein, das würde ich nicht sagen. Ein Mensch kann das besser, aber der Mensch ist letztendlich überfordert von der Menge an Anwendungen. KI kommt zu ganz vielen falschen Einschätzungen, auch in Bezug auf Hassnachrichten. KI kann explizite Wörter sehr gut finden, aber sie kann Ironie nicht erkennen oder Hassnachrichten identifizieren, die keine typischen Begrifflichkeiten verwendet. KI erlaubt nur Informationen vorzusortieren und macht es damit möglich zumindest einige Dinge zu vermeiden.

Sagen wir, die KI sortiert etwas falsch ein, der Algorithmus ist diskriminierend – wer haftet in so einem Fall?

Heesen: Es kommt auf das Gebiet an, um das es sich handelt. Wenn Sie KI zum Beispiel in einem autonomen Fahrzeug verbauen, dann hat immer der Fahrzeughersteller die Verantwortung. Wenn Sie ein Produkt verkaufen, dann sind Sie dafür verantwortlich, dass es eine bestimmte Qualität hat und bestimmten Standards genügt. Sobald Sie eine KI-Anwendung nutzen, sind Sie auch in der Verantwortung, das System immer wieder zu kontrollieren und zu schauen, wie es sich entwickelt. In der Datenschutzgrundverordnung gibt es die, abstrakt gesprochen, Figur des menschlichen Letztentscheiders. Das bedeutet, dass alle automatisierten Entscheidungen letztendlich durch einen Menschen überprüft werden müssen. Mit so etwas sind Menschen, die am untersten Ende der Entscheidungskette stehen, vollkommen überfordert. Denken Sie an Compas (Anm. d. Redaktion: Die Software „Compas“ berechnet anhand eines Algorithmus die Rückfallquote von Angeklagten und wird an Gerichten in mehreren US-Bundesstaaten verwendet). Dort haben die Gerichte auch nicht richtig hingeschaut. Sie haben die Entscheidung, getroffen von diesen Systemen, einfach durchgewunken.

Weil sie sich blind auf die Software verlassen haben?

Heesen: Genau, das ist eine falsche Autoritätsgläubigkeit in Bezug auf Künstliche Intelligenz, die immer wieder vorkommt. Mittlerweile gibt es den Ansatz, dass wir KI so denken müssen wie ein Haustier. Wenn Sie einen Hund haben, sind Sie verantwortlich für ihn. Das Tier hat aber auch ein Eigenleben und ist bis zu einem bestimmten Grad autonom. Wenn der Hund jetzt Ihre Nachbarin beißt, dann sind Sie zwar verantwortlich, Sie können aber eine Art Hundeversicherung abschließen, weil Sie schließlich das Tier nicht immer vollständig kontrollieren können. So eine Versicherung wird derzeit auch für die KI diskutiert, da die Fortentwicklung des Systems außerhalb meiner Kontrolle liegt.

Und im Journalismus? Wird die KI Journalist:innen ersetzen?

Heesen: Es gibt im Bereich KI Sprachmodelle, die schon riesige Fortschritte erzielt haben, zum Beispiel das in diesem Jahr erschiene GPT-3. Diese Modelle sind natürlich schon in der Lage einfache Texte zu schreiben, also dort, wo man auch einfache Muster erkennen und Zahlen zusammenrechnen muss, zum Beispiel bei der Sportberichterstattung oder beim Wetterbericht. Das sind aber keine journalistischen Inhalte, die der Meinungsbildung im engeren Sinne dienen. Ich glaube schon, dass es in naher Zukunft einige anspruchslosere Formate geben wird, die teilweise automatisiert geschrieben werden können, solange sie nach einem bestimmten Schema F funktionieren. Denken Sie an Groschenromane, die lassen sich jetzt schon hervorragend durch eine KI schreiben. Anders sieht es im Qualitätsjournalismus aus. Bei komplexen Texten oder Gattungen braucht es Menschen. Meinungsartikel, Essays oder Feuilleton-Artikel können Sie schlecht durch eine KI schreiben lassen.

Was würden Sie Journalist:innen raten, die bereits mit KI-Anwendungen arbeiten?

Heesen: Schauen Sie sich die Trainingsdaten an. Was ist das für ein Unternehmen, dessen KI Sie nutzen? Was ist das Ziel dieser Anwendung? Ist Sie für Ihren oder einen anderen Kontext gemacht worden? Man muss kritisch schauen, wie Algorithmen verfasst sind. Dann ist natürlich immer Transparenz wichtig, nicht nur in Bezug auf die Trainingsdaten, sondern auch in Bezug darauf, wie der Algorithmus funktioniert. Diese Informationen werden Sie teilweise nicht kriegen aber man muss immer wieder danach fragen, weil es die Aufgabe der Unternehmen und Start-ups ist, über ihre Produkte aufzuklären. Sie müssen nicht alles unbedingt transparent, aber zumindest verständlich machen. Ich brauche nicht alles im Detail verstehen, aber das Prinzip sollte klar sein, beispielsweise wie die Gewichtungen für bestimmte Voreinstellungen der Algorithmen aussehen. Kann ich nachvollziehen, an welcher Stelle der Prozess auf Maschine Learning umgeschaltet worden ist? Wie genau sind die Prozesse geleitet worden, die zu diesem Ergebnis geführt haben.

Stichwort Transparenz: Brauchen wir eine Kennzeichnungspflicht bei KI-generierten Texten im Journalismus?

Heesen: Wenn irgendwann KI dazu benutzt wird, Texte zu produzieren, dann sollte das auf alle Fälle transparent gemacht werden. Ich bin auch dafür, dass der Wetterbericht einen Hinweis erhält, wenn er mit einer KI geschrieben worden ist. Meine Einschätzung aber ist, dass die KI im Redaktionsalltag noch keine so große Rolle spielt.

Das heißt, KI ist noch gar nicht so wichtig für den Journalismus?

Heesen: Im Moment gibt es noch nicht so viele praktische KI-Anwendungen im Journalismus. Allerdings ist die KI für Journalist:innen ein sehr spannendes Objekt für ihre Berichterstattung. Ich finde es auch enorm wichtig, dass sich der Journalismus aktiv damit auseinandersetzt, wie die Gesellschaft die KI zukünftig gestalten wird.

Dr. Jessica Heesen » bei Uni-Tübingen nachschlagen

Dr. Jessica Heesen - Foto: Universität Tübingen
Foto: Universität Tübingen

PD Dr. Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. Gemeinsam mit anderen Wissenschaftler:innen beschäftigt sie sich dort mit ethischen Fragen zur Meinungsfreiheit in Sozialen Medien sowie der wertorientierten Entwicklung von Künstlicher Intelligenz. In der vom Bundesministerium für Bildung und Forschung initiierten Plattform Lernende Systeme ist sie Co-Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ehik“ und hat u.a. an einem Leitfaden für sichere und diskriminierungsfreie KI-Anwendungen mitgearbeitet (Foto: Universität Tübingen).