Künstliche Intelligenz beeinflusst und verändert unser aller Leben in vielen Bereichen immer mehr. Mal ganz offensichtlich und mal eher versteckt und unbemerkt. Mal begeistert, mal beunruhigt sie. Nicht selten stellt sich die Frage, was KI darf und was nicht und wo ethische Grenzen ins Spiel kommen. Wir haben mit Prof. Dr. Christoph Lütge, Leiter des Institute for Ethics in Artificial Intelligence (IEAI) an der Technischen Universität München über das Thema „Ethik und künstliche Intelligenz“ gesprochen.

Herr Professor Lütge, worum geht es bei Fragen der Ethik in Zusammenhang mit künstlicher Intelligenz (KI) bzw. was bedeutet Ethik für KI?

Zunächst ist es mir wichtig zu sagen, dass eine Technologie wie KI natürlich auch eine ethische Seite hat, und zwar hinsichtlich der Fragen, was man mit ihr tun darf und was nicht und in welche Richtung man sie programmieren darf. Diese Fragen stellen sich bei KI sehr früh und zwar früher als bei anderen Technologien. Vormals wurden neue Technologien oft schnell eingeführt, um dann erst Jahre später zu sehen, wo die negativen Folgen lagen, und erst dann wurde etwas dagegen unternommen. Das ist bei KI tatsächlich anders.

Ethik in der künstlichen Intelligenz besteht in der normativen Bewertung dieser Technologie und auch in der Frage, was ich gegen negative Folgen und Risiken tun kann. Aber auch: Welche möglichen ethischen Chancen hat diese Technologie? Beispielsweise: Wie viel kann die künstliche Intelligenz zu mehr Nachhaltigkeit beitragen, etwa durch effiziente Energie-Allokation, intelligente Steuerung anderer Systeme usw.? Wie viele Schadensfälle, Verletzte, auch Todesfälle können durch die Technologie vermieden werden, etwa durch autonomes Fahren oder im Bereich Medizin und Gesundheitswesen? Das wird aus meiner Sicht häufig zu wenig berücksichtigt.

Wo liegen die ethischen Risiken bei der Nutzung von KI im Unternehmenskontext?

Die ersten ethischen Richtlinien und Prinzipien für künstliche Intelligenz wurden etwa 2017/2018 definiert. Hier ging es um Fragen des Datenschutzes und der Privatsphäre. Dann aber auch schon um die Frage nach Fairness und Unfairness von KI-Anwendungen und die damit verbundene mögliche Diskriminierung bestimmter Gruppen. Auch die Erklärbarkeit von KI-Systemen und -Prozessen sowie die Nutzung von deren Ergebnissen spielten damals wie heute eine Rolle, ebenso wie die Sicherheit und Robustheit von KI-Systemen.

Risiken bestehen also in vielerlei Hinsicht. Ich kann Systeme nutzen, die nicht sicher sind oder auch nicht die Ergebnisse liefern, die sie sollen, oder gar die Reputation meines Unternehmens gefährden, weil sie diskriminieren. Dann ist der Schaden vermutlich größer als der Nutzen. Seit Kurzem müssen Unternehmen jetzt auch mit finanziellen Strafen rechnen, wenn sie gegen den gerade beschlossenen EU Artificial Intelligence Act verstoßen und die darin festgelegten Vereinbarungen nicht einhalten.

Muss oder sollte der Einsatz von KI denn immer gekennzeichnet werden?

Diese Frage ist nicht so leicht zu beantworten. Bis vor einiger Zeit hätte ich gesagt, dass das aus ethischer Sicht nicht immer wünschenswert ist. Es gibt Studien, die zeigen, dass man Systemen nicht mehr in gleicher Weise vertraut, wenn sie als KI gekennzeichnet sind. Das bedeutet, dass die Ergebnisse, die das System hervorbringt, von Beginn an in gewisser Weise verfälscht sind. Hier gibt es quasi einen Trade-off zwischen Effizienz und Transparenz eines Systems. In jüngster Zeit wird oft gesagt, dass eine Kennzeichnung von KI-generiertem Content angesichts der vielen Deepfakes wünschenswert wäre – allerdings stellt sich für mich dann die Frage, wie das weltweit umgesetzt werden sollte. Hier sehe ich im Moment keinen sinnvoll gangbaren Weg.

Kann man KI-Systemen ethisches Verhalten beibringen?

Aus meiner Sicht ja, das ist möglich. Es gibt Kollegen und Kolleginnen, die sind hier anderer Meinung und sagen: Nein, Ethik kann man nicht einprogrammieren. Wenn Ethik allerdings nur abstrakt in einer Abhandlung steht und ich sie Systemen nicht beibringen kann, ist sie meiner Ansicht nach wertlos. Ich bin schon der Meinung, dass man ethische Grundsätze bei der Programmierung von Systemen einfließen lassen kann und soll. Ein Beispiel: Bei einem unserer Projekte in Zusammenarbeit mit dem Institut für Automobiltechnologie geht es um die Umsetzung ethischer Richtlinien für autonomes Fahren – und zwar im Detail. Hier stellt sich zum Beispiel die Frage: Wie nah sollte ein autonom fahrendes Auto an ein Fahrrad kommen dürfen? Und das ist eben nicht nur eine rein technische Frage, sondern man braucht hier auch einen ethischen Input. Was ist akzeptabel und verantwortbar? Was verteilt die Risiken in möglichst gerechter Weise? Und diese Parameter muss man dem KI-System dann beibringen. Ein Mensch hat hier immer noch andere Einschätzungsmöglichkeiten als eine KI und hier muss man dem Algorithmus eine Grundlage geben. Diese kann im Übrigen kulturell sogar unterschiedlich sein, gerade bei der Thematik des autonomen Fahrens: Manche Studien deuten darauf hin, dass zum Beispiel die Rücksichtnahme auf jüngere und ältere Passanten kulturell unterschiedlich gesehen wird. Im asiatischen Raum etwa scheint die Rücksichtnahme auf Ältere etwas stärker ausgeprägt.

Könnte oder sollte KI dann zum Beispiel zwischen einem Kind und einem Erwachsenen auf dem Fahrrad unterscheiden?

Genau das wäre eben die Frage. Ich war bei der Entwicklung der ersten Ethikrichtlinien für autonomes Fahren des Verkehrsministeriums 2017 beteiligt und hier galt der Grundsatz, dass die persönlichen Eigenschaften und Fähigkeiten beim Vorgehen des Algorithmus keine Rolle spielen dürfen. Das ist schließlich 2021 gesetzlich im Autonomous Driving Act festgeschrieben worden und wurde so auch zum Beispiel bei der Programmierung der S-Klasse, die letztes Jahr als erstes Level-3-Fahrzeug in den USA auf den Markt kam, berücksichtigt.

Jetzt kann man natürlich aus heutiger Sicht fragen: Ist das wirklich in Ordnung? Sollte ich nicht doch auf eine besonders vulnerable Gruppe achten? Das wurde damals so entschieden, aber hinterfragen lässt sich das durchaus. Und daher ist es auch wichtig, dass Ethik der KI Möglichkeiten der Flexibilität hat. Hier braucht es Offenheit, auch vor dem Hintergrund der voranschreitenden technischen Entwicklungen.

Wirtschaft und Gesellschaft stehen mit dem Voranschreiten der künstlichen Intelligenz vor einer Reihe von Herausforderungen. Ihr Institut wurde 2019 gegründet. Worin sehen Sie Ihre Aufgabe? Woran arbeiten Sie ganz konkret?

Für uns ist ein wesentlicher Punkt, und da unterscheiden wir uns auch von einigen anderen Institutionen in diesem Bereich, dass wir mit den Technikentwicklern, Programmierern und allgemein den Herstellern von Technologien zusammenarbeiten. Wir wollen keine Ethikrichtlinien am grünen Tisch entwickeln, nur damit man dann einen Katalog hat, in dem drinsteht, was geht und was nicht. Uns geht es um die Umsetzung, um die Entwicklung von Systemen und die ethischen Fragestellungen, die hierbei im Detail auftreten. Wir möchten uns den ethischen Herausforderungen im Zusammenhang mit KI sehr praxisbezogen und umsetzungsorientiert nähern und hierbei Hilfestellungen geben.

Vielen Dank für das Gespräch, Herr Professor Lütge.

Dieser Artikel wurde zuerst im RKW Magazin "(R)evolution!?"  mit dem Schwerpunkt: "Künstliche Intelligenz" veröffentlicht. Dort haben Sie auch die Möglichkeit unser Magazin zu abonnieren. Alle Magazine finden Sie unter: https://www.rkw-kompetenzzentrum.de/das-rkw/rkw-magazin

Bildquellen und Copyright-Hinweise
  • © Jörg Stöber / Getty Images – Blumenwiese (3195_blumenwiese.jpg)