Trends, Innovationen und Digitales aus dem Mobilitätsbereich

Darf eine Künstliche Intelligenz ihren Fahrer töten?

Autonome Fahrzeuge sollen mittels Künstlicher Intelligenz sicherer fahren als der Mensch. Doch was passiert, wenn die KI vor einem Dilemma steht – oder gar versagt?

Als vor ein paar Monaten ein autonomes Auto des US-Unternehmens Uber in Arizona eine Fußgängerin bei einem Unfall tödlich verletzte, war der Aufschrei in den Medien groß. Die Roboter-Autos seien „Killer-Fahrzeuge“, die einen Menschen niemals ersetzen dürften. Der Unfall sei ein Beispiel dafür, dass die Künstliche Intelligenz völlig emotionslos Menschenleben gefährden würde. Ihr fehle das Gewissen. Sogar von einem Verbot von derartigen Systemen war plötzlich die Rede.

Tatsächlich hatte die Software von Uber auf die Warnungen der Sensoren einfach nicht reagiert. Warum das passieren konnte, wird zur Zeit noch ausgewertet. Gegner der Künstlichen Intelligenz und des autonomen Fahrens malten gleich das Schreckensszenario an die Wand: In Zukunft würden die Autos alleine die Entscheidung treffen, ob ein Passant oder der eigene Fahrer ums Leben kommt. Sind Autofahrer also bald nur noch austauschbares Personal für ihre Autos, die über Leben und Tod entscheiden?

Der Philosoph Julian Nida-Rümelin sieht das anders. „Das Auto kann hier nichts entscheiden. Es existiert in der modernen Ethik eine rationalistische Tradition, die davon ausgeht, dass es immer eine beste Lösung gibt. Doch das halte ich für falsch. Wir befinden uns hier vielmehr in einer klassischen dilemmatischen Situation“. Die in der letzten Legislaturperiode eingesetzte Ethik-Kommission des Verkehrsministeriums kam in ihrem Bericht allerdings zu einem etwas anderen Ergebnis. In Gefahrensituationen habe das menschliche Leben immer vor Sachschäden Vorrang. Was logisch klingt, aber es stellt dann eben auch die Frage, ob ein Auto bei einem drohenden Unfall lieber ausweichen sollte. Statt eines Kindes, ist nach dieser Logik ein Unfall mit einem parkenden Auto vorzuziehen – mit Konsequenzen für den Fahrer.

Alexander Mankowsky, Zukunftsforscher bei Daimler, ist anderer Meinung. Er glaubt, dass ein autonomes Auto gar nichts darf, außer zu bremsen. Ein Unfall sei immer ein totaler Kontrollverlust. Niemand könne alle möglichen Konsequenzen eines Unfalls vorherberechnen, auch nicht im Moment des Unfalls. Von daher sei es die einzige Aufgabe, die ein autonomes Auto im Falle einer Karambolage übernehmen sollte. Das Auto solle so schnell wie möglich die Aufprallenergie reduzieren, aber auf gar keinen Fall ausweichen oder sonstige Dinge tun.

Ethik ist wichtig – Fortschritt auch

Schnell wird klar: Man kann nicht einfach geltende ethische Prinzipien auf eine künstliche Intelligenz übertragen. Es mag für alle Gesellschaften dieser Welt als Prinzip gelten, dass das Leben von Menschen ein schützenswertes Gut ist. Aber wie weit dieser Schutz getrieben werden darf, darüber gibt es dann schon wieder unterschiedliche Auffassungen. Muss eine KI über die Nuancen gesellschaftlicher Akzeptanz im Todesfall Bescheid wissen?

Folge NGIN Mobility auf Facebook!

Dass die Diskussion geführt wird, bevor überhaupt die ersten Autos mit serienmäßigem Autopilot auf der Straße sind, ist zu begrüßen. Man darf darüber jedoch nicht in technologie-feindliche Panik verfallen. Unstrittig ist, dass autonome Fahrzeuge einen erheblichen Teil der heutigen Unfälle verhindern werden. Circa 80 Prozent aller Unfälle haben menschliches Versagen als Ursache. Fahrer lassen sich ablenken, sind müde, überfordert und leider auch oft angetrunken. Das passiert einer KI nicht. Hinzu kommt, dass die Reaktionszeiten einer KI deutlich schneller sind, als die eines Menschen. Die KI von autonomen Autos wird also mehr Menschenleben retten.

Die ethischen Grundlagen, nach denen sie ihre Entscheidungen trifft, können wir aber jetzt festlegen. Die Ethik-Kommission hat hierfür schon eine Basis geschaffen. Sie gibt den Entwicklern ein Leitmotiv, ohne diese technologisch auszubremsen. Künstliche Intelligenz wird nicht nur im Auto eine der wichtigsten Antreiber neuer Wirtschaftszweige sein. Regeln für sie sind wichtig, aber sie dürfen nicht in ein zu enges Korsett gesteckt werden.

Don Dahlmann ist seit über 25 Jahren Journalist und seit über zehn Jahren in der Automobilbranche unterwegs. Jeden Montag lest Ihr hier seine Kolumne „Drehmoment“, die einen kritischen Blick auf die Mobility-Branche wirft.

Bild: Daimler AG

Folge NGIN Mobility auf:

In Kooperation mit
amplifypixel.outbrain