Ob autonome Fahrzeuge oder Kreditprüfungssysteme – Maschinen entscheiden zunehmend für Menschen. Doch nach welchen Prinzipien? Ein Gespräch mit Professor Christoph Lütge, Direktor des neu geschaffenen Instituts für Ethik in der Künstlichen Intelligenz.
In seiner Form ist es einzigartig in Europa: das Institut für Ethik in der Künstlichen Intelligenz an der Technischen Universität München. Ob Sozialwissenschaftler, Ingenieur oder Jurist – Wissenschaftler unterschiedlichster Disziplinen forschen hier seit diesem Jahr gemeinsam zu ethischen Fragen der intelligenten Maschinen. Direktor Christoph Lütge kennt selbst beide wissenschaftlichen Pole: Er hat Wirtschaftsinformatik und Philosophie studiert.
Herr Professor Lütge, können wir künstlicher Intelligenz vertrauen?
Gegenfrage: Ist es immer besser, auf die menschliche Entscheidung zu vertrauen? In vielen belegten Fällen entscheiden Menschen aufgrund von Vorurteilen oder unzureichender Information schlechter als Maschinen. Das ist ein großer Vorteil von KI: Sie entscheidet vorurteilsfrei und unter Berücksichtigung großer Informationsmengen.
Haben Sie auch keine Angst davor, dass lernende Maschinen eine eigene Ethik entwickeln? Ein Terminator, der sich gegen seine Programmierer wendet?
Davon sind wir aus meiner Sicht noch Jahrzehnte entfernt. Wenn es das überhaupt geben wird. Ich bin da sehr skeptisch. Wir haben uns mehr davor zu fürchten, dass die Systeme eigentlich dumm sind. Zudem verstellen solche Fragen der Superintelligenz – ob Terminator oder Matrix – den Blick für die aktuellen ethischen Fragen der KI.
Mit welchen Forschungsfragen beschäftigt sich Ihr Institut?
Die Projekte decken ein weites Spektrum innerhalb der Ethik in der künstlichen Intelligenz ab. Wir beschäftigen uns mit ethischen Fragen von KI im Gesundheitswesen oder beim Autonomen Fahren. Wir untersuchen Themen wie Vertrauen in maschinelles Lernen oder die Beeinflussung von Entscheidungen über „Nudging“ mit KI.
Unser Ansatz unterscheidet sich dabei von dem anderer Institute. Wir arbeiten in interdisziplinären Tandems: Ein Forscher von der technischen Seite – also ein Informatiker, Ingenieur oder Mediziner – arbeitet mit einem Forscher aus den Gebieten Ethik, Sozialwissenschaften oder Recht zusammen. Unser Ziel: zwischen Technik und Ethik zu vermitteln.
Und das funktioniert?
Natürlich gibt es auch Meinungsverschiedenheiten. Unsere Forscher haben sich aber bewusst für diese Art der Zusammenarbeit entschieden. Wichtig ist: Wir wollen nicht nur Forschungspapiere produzieren, sondern Praktikables. Zum Beispiel ethische Richtlinien für eine bestimmte Software oder einen speziellen Pflegeroboter. Dazu tauschen wir uns mit den Entwicklern aus den Unternehmen zu deren konkreten ethischen Fragestellungen aus.
Was bedeutet das konkret, etwa für das Autonome Fahren?
Wir wollen nicht am grünen Tisch Richtlinien aufstellen, sondern in der Zusammenarbeit mit den Programmierern solcher Systeme überlegen: Was sind Kategorisierungen bei der visuellen Erkennung? Reicht die Objektkategorisierung „Mensch“ oder brauche ich eine Unterscheidung in „alter Mensch“, Kind“, „Mensch im Rollstuhl“? Und mit welcher Wahrscheinlichkeit muss ich überhaupt ein Objekt erkennen?
Ist das Objekt erkannt, müssen automatisierte Systeme Entscheidungen treffen. Das ist ethisch vor allem dann problematisch, wenn Menschenleben auf dem Spiel stehen. Das klassische Beispiel: Ein Kind läuft auf die Straße, auf dem Gehweg steht ein Rentner – wie soll die KI entscheiden?
Zu solchen Dilemmasituationen gibt es umfangreiche Literatur. Das meiste davon ist überflüssig, weil rein theoretisch. Die Frage ist doch: Was macht das Auto konkret? Es bremst zunächst so scharf wie möglich. Schärfer als ein Mensch. Dann kommt die Frage: Kann es zur Seite ausweichen? In der theoretischen Situation wird stets angenommen: Es kann nicht. Letztlich ist das eine sehr spezielle Situation am Ende einer Kette realistischer Überlegungen.
Für den verbleibenden Spezialfall muss man dann zu vernünftigen Entscheidungen kommen. In der vom Verkehrsministerium eingesetzten Ethikkommission für das automatisierte Fahren haben wir gesagt: Diese Entscheidung darf nicht nach persönlichen Eigenschaften getroffen werden. Es darf also nicht der jüngere vor dem älteren Menschen geschützt werden. Wobei auch hier wieder die Maßgabe Realismus ist: Kann ich das in der Situation überhaupt einwandfrei erkennen?
Ist in dem Beispiel die Schuldfrage mit zu berücksichtigen?
Das wird in der Tat stark diskutiert. Studien zu dem Thema sind eindeutig: Entscheidungen zulasten der Person, die sich falsch verhält, akzeptieren die Menschen am meisten. Jemand, der sich nicht an die Regeln hält, muss anders behandelt werden als jemand, der sie befolgt. Wenn eine Person bei Rot über die Ampel geht, hat sie ein höheres Risiko.
Wer trifft hier letztlich die Entscheidung: der Programmierer? Oder doch Gesetzgeber und Verbände?
Ethik ist zu wichtig, um sie der Verantwortung eines Einzelnen zu überlassen. Mit Ethik ist hier auch nicht in erster Linie persönliches Ethos gemeint – wie der „ehrbare Kaufmann“ oder der „verantwortungsbewusste Ingenieur“. Es geht um Ethik auf der Ebene von Systemen, seien es Unternehmen oder Gesellschaften. Manche Ethiker sehen hier zu allererst den Gesetzgeber in der Pflicht. Aber das ist nur ein Weg von vielen. Denn dieser Weg ist langwierig und schwerfällig.
Sie sehen als wesentliche Akteure die Unternehmen in der Verantwortung.
So ist es. Wir können die Fragen von Ethik und KI nur zusammen mit den Unternehmen beantworten. Ethik ist ja oft abstrakt. Wir wollen Ethik in die Praxis, in die konkrete technische Entwicklung einbringen. Nicht um sie zu verhindern, sondern um sie zu fördern. Denn auch Firmen – und das ist meine grundsätzliche These – haben ein ureigenes Interesse daran. Denn sie holen sich mit KI Risiken ins Haus. Und Ethik ist eine Art Frühwarnsystem.
Was bedeutet das organisatorisch? Brauchen Unternehmen eine Stelle für „Corporate Digital Responsibility“ wie von manchen gefordert?
Ich habe darauf noch keine eindeutige Antwort. Viele Unternehmen experimentieren hier mit unterschiedlichen Formen. Allein eine Stelle im Unternehmen zu schaffen, wird aber nicht ausreichen. Ethik muss in den Kern, in den Wertschöpfungsprozess eingebaut werden. Diesen Prozess wollen wir begleiten. Denn ich bin überzeugt: Ein einzelnes Unternehmen allein kann das nicht leisten. Wir brauchen neue Formen der Zusammenarbeit zwischen Unternehmen, Wissenschaft und Zivilgesellschaft. Corporate Digital Responsibility kann als Konzept dabei hilfreich sein.
Menschen aus unterschiedlichen Kulturkreisen werden ethische Fragen unterschiedlich beantworten. Brauchen wir eine universelle Ethik?
Für unser Thema Ethik und KI haben wir einmal den Versuch unternommen, die in letzter Zeit von Unternehmen, Kommissionen und Verbänden vorgelegten ethischen Prinzipien nebeneinanderzulegen und zu vergleichen. Das Ergebnis: So groß sind die Unterschiede nicht. Selbst wenn man chinesische und europäische Prinzipien vergleicht: Überlegungen zu Sicherheit oder Datenschutz etwa weichen nicht fundamental voneinander ab.
Beim Datenschutz gibt es gerade in Europa große Vorbehalte gegenüber den USA oder Asien.
Hier findet ein gegenseitiges Lernen statt. China und die USA lernen dabei von Europa. Aber auch Europa und speziell Deutschland muss lernen: Mit dem rigidesten Datenschutz kommen wir nicht weiter.
Voneinander lernen können wir übrigens auch beim Thema Risikobereitschaft. Gerade bei sicherheitskritischen Systemen ist der europäische Ansatz oft, zunächst alle Eventualitäten auszuschließen und gesetzliche Richtlinien einzuführen. Erst dann gehen wir mit einer Technologie in den Praxiseinsatz. Das schafft einerseits Vertrauen. Und „vertrauenswürdige KI“ könnte als ein europäischer Ansatz durchaus weiterentwickelt werden. Ethik bedeutet aber auch, Innovationen nicht systematisch zu behindern. Denn Technologie kann auch Unfälle verhindern und Menschenleben retten.
Brauchen wir also mehr Aufklärung über KI?
Die zentrale Frage dabei lautet: Werden Menschen diese Systeme akzeptieren? Das gelingt nur, wenn wir das Vertrauen in sie erhöhen. Da hat Ethik eine wichtige Funktion. Denn das Wissen um die ethische Komponente stärkt das Vertrauen in KI.
Wie lässt sich das Vertrauen in KI konkret erhöhen?
Dazu gehört zum Beispiel, dass künstliche Intelligenz unterschiedliche Eigenschaften von Menschen wie Alter, Geschlecht oder Größe berücksichtigt. Denn hier liegt bereits ein ethisches Grundproblem lernender Systeme: Womit werden diese gefüttert? Wenn meine Testgruppe etwa nur große, männliche Ingenieure umfasst, kann das zu einer systematischen Verzerrung führen.
Ein Vorteil von KI-Systemen ist aber gerade, unterschiedlichste Eigenschaften zu berücksichtigen. Technologien werden damit künftig spezifischer sein. Das erfordert ein Umdenken bei den Entwicklern. Der frühere Ingenieuransatz „Ein System für alle“ ist nicht mehr praktikabel.