Rutronik News

Erst kommt die KI, dann die Moral

  Newsletter Article

Autonomes Fahren ist eines der Trendthemen der Automotive-Industrie. Seit einigen Jahren schon versuchen sowohl traditionelle Autobauer als auch Tech-Unternehmen wie Google, selbstfahrende Autos zur Serienreife zu bringen. Gerüchteweise arbeitete selbst Apple zwischenzeitlich an einem autonomen Gefährt, das dann vermutlich in der Tradition des Konzerns iCar geheißen hätte. Tatsächlich zur Marktreife gebracht hat es bisher kein Fabrikat. Dafür gibt es immer mal wieder Berichte von Unfällen mit selbstfahrenden Autos – teils harmlos, teils tödlich, teils selbstverschuldet, teils durch menschliche Verkehrsteilnehmer verursacht. Dass sich also bald schon ein Strom autonomer Autos dicht aneinandergereiht über die Autobahnen der Welt schiebt, ist erst einmal noch Zukunftsmusik.

Aber selbst wenn Unfälle zwischen Autos irgendwann dank konstanter KI-Kontrolle der Vergangenheit angehören, gibt es immer noch den Faktor Mensch: Keine KI der Welt wird Kinder davon abhalten, einem Ball nachzujagen und dabei auf die Straße zu rennen. Und selbst bei ausgeklügelter Predictive-Maintenance-Technologie lässt sich ein Bremsversagen und eine damit entstehende, potentiell tödliche Situation, nicht ganz ausschließen. Dann muss die KI binnen Nanosekunden entscheiden, was zu tun ist – noch bevor der vergleichsweise langsame Mensch eingreifen und eine Entscheidung treffen kann. Aber wie soll der Geist in der Maschine entscheiden? Soll er grundsätzlich lieber den Tod einer Person in Kauf nehmen statt mehrerer? Soll er lieber junge Menschen, die noch ihr ganzes Leben vor sich haben, retten – oder liebe alte Menschen, denen man aufgrund ihrer Lebenserfahrung Respekt erweisen sollte? Und soll er eher sozial angesehene Persönlichkeiten retten oder Menschen, die weiter unten auf der Leiter stehen?

Diese Fragen kann und soll eine KI nicht selbst entscheiden. Sie müssen ihr von Menschenhand eingeflüstert werden. Dafür wiederum braucht es einen moralischen Kompass, anhand dessen die künstliche Intelligenz handeln kann. Um einen solchen zu entwickeln, gibt es Projekte wie „Moral Machine“ – hier können Menschen aus der ganzen Welt verschiedene Unfallszenarien bewerten. Ende Oktober sind schon mehr als 40 Millionen solcher Entscheidungen aus 117 Ländern zusammengekommen. Ein internationales Forscherteam hat sie nun ausgewertet – mit einigen erstaunlichen Ergebnissen. Zwar ist die „Moral Machine“ nicht repräsentativ, da junge Männer verglichen mit anderen Gruppen überproportional teilgenommen haben. Dennoch bietet die Studie einige interessante Einblicke in die kulturelle Sozialisation in verschiedenen Ländern der Erde.

In insgesamt neun Kategorien schlüsseln die Forscher die Entscheidungen der Nutzer auf, darunter die Frage, ob Frauen eher geschützt werden sollen als Männer, ob Menschenleben Vorrang vor Tieren haben oder fitte Menschen eine größere Rücksichtnahme verdienen als dicke oder kranke. Dabei hat man die Möglichkeit, zwei Länder miteinander und gegenüber dem Weltdurchschnitt zu vergleichen. Generell bewegt sich der Weltdurchschnitt immer relativ unentschieden zwischen beiden Polen: So spielt nur für 51 Prozent der Teilnehmer die Anzahl der geretteten Personen eine Rolle. Der breiteste Konsens besteht weltweit bezüglich des Vorrangs von Menschenleben vor Tieren: Zwei Drittel der Teilnehmer tendieren dazu, eher Menschen zu retten als Tiere.

Für Deutschland gibt es einige interessante Beobachtungen: Zum einen neigen wir – und das als Land, das sich noch immer konsequent gegen Tempolimits auf Autobahnen wehrt und sich am Steuer ungern etwas vorschreiben lässt – dazu, in die Entscheidungen der KI so gut wie nicht einzugreifen: Nur jeder Fünfte würde in einer gefährlichen Situation selbst eingreifen, statt dem artifiziellen Fahrer zu vertrauen. Gleichzeitig ist uns der soziale Status fast egal: Weniger als ein Drittel der Teilnehmer macht einen Unterschied darin, ob es einen Arzt, Feuerwehrmann oder einen YouTuber überfährt. Und Frauen leben in Deutschland offenbar tendenziell gefährlicher, denn auf das Geschlecht nehmen die Teilnehmer bei ihrer Entscheidung weniger Rücksicht als der weltweite Durchschnitt.  Uns am ähnlichsten sind übrigens die Schweizer, wohingegen Autofahrer in Venezuela gänzlich unterschiedliche Entscheidungen treffen: Der Schutz von Menschen statt Tieren ist ihnen fast völlig egal, dafür ist der soziale Status umso wichtiger – und Frauen können im Straßenverkehr auf mehr Rücksicht hoffen.

Venezuela wiederum weist ähnliche Entscheidungspräferenzen aus wie Kolumbien, was die Vermutung nahelegt, dass sich Länder auf dem gleichen Kontinent oder demselben Kulturkreis tendenziell ähneln. Dafür spricht, dass die USA, Kanada, Australien und Großbritannien sich sehr ähnlich sind und alle enorme Unterschiede zum Sultanat Brunei aufweisen. Indien und Pakistan dagegen unterscheiden sich am stärksten von der Mongolei – umgekehrt sind sich die beiden verfeindeten Staaten bei moralischen Entscheidungen im Straßenverkehr relativ ähnlich. Interessanterweise ist die Ähnlichkeit zwischen Indien und Schweden aber tatsächlich ähnlich hoch – und sogar höher als die Gemeinsamkeiten mit der ehemaligen Kolonialmacht Großbritannien.

In Anbetracht der deutlich abweichenden Entscheidungspräferenzen je nach Weltregion ist jedenfalls eines klar: Einen Konsens über eindeutige Regeln, nach denen eine KI im autonomen Fahrzeug handeln könnte,  gibt es (noch) nicht. Im Zweifelsfall müsste das autonome Auto je nachdem, wo es sich befindet, ständig seinen „Moralkompass“ aktualisieren. Sonst könnte es in einem Land, in dem eine bestimmte Bevölkerungsgruppe enormes Ansehen genießt,  ausgerechnet das genaue Gegenteil von dem tun, was dort als gesellschaftlich akzeptabel gilt.

Jedenfalls zeigt die „Moral Machine“ eines: Nicht nur in technischer Sicht, sondern auch in Hinsicht auf Werte und Normen, muss noch viel passieren, bis wir uns wirklich sorgenfrei, weitgehend gefahrlos zur Arbeit oder in den Urlaub chauffieren lassen können. Bis dahin müssen wir noch unserem eigenen Urteilsvermögen vertrauen. Und das muss ja nicht zwingend schlechter sein als die kalte Ratio einer KI.