Fiktives Gerichtsverfahren: Wer haftet für Schäden durch autonome Fahrzeuge?
Autos, Busse und Lkw können sich mithilfe von KI in Zukunft selbstständig fortbewegen. Das macht den Verkehr sicherer, schneller und umweltfreundlicher. Aber wer trägt die Verantwortung, wenn die autonomen Fahrzeuge einen Unfall verursachen? Diese Streitsache wurde im fiktiven Gerichtsverfahren der Plattform Lernende Systeme und der Leibniz Universität Hannover am Berliner Futurium diskutiert. Rund 150 Interessierte nahmen an der virtuellen Veranstaltung am 17. Februar teil. Eine Aufzeichnung des Livestreams ist verfügbar.
Carla Fuchs ist an einem Samstagabend im Jahr 2025 zu Fuß auf einem Gehweg unterwegs. Auf der Straße nähert sich ihr Peters vollautonomes Fahrzeug. Plötzlich stoppt ein vorausfahrender LKW unerwartet ab. Aufgrund der schlechten Witterung kann Peters Fahrzeug nicht mehr rechtzeitig abbremsen. Beim Ausweichen nach links würde das Auto eine auf der anderen Fahrbahn entgegenkommende Gruppe Fahrradfahrer treffen, beim Ausweichen nach rechts Fußgängerin Carla. Das KI-System im autonomen Fahrzeug ist so programmiert, dass es eine Verletzung seiner Passagiere verhindern soll, die beim Aufprall auf den LKW nicht zu vermeiden wäre. Nach einer schnellen Risikoabwägung zwischen den Verkehrsteilnehmern weicht Peters Fahrzeug nach rechts aus und erfasst Carla. Diese wird dabei verletzt.
In diesem realitätsnahen Fall, der in einer stark vereinfachten Gerichtssituation nachgespielt wurde, schlüpften Fachleute aus den Bereichen KI, Ethik und Recht in die Rollen von Richterin, Anwälten sowie Sachverständigen. Moderiert von Andrea Thilo tauschten sie Argumente und Expertise aus. Simon Gerndt von der Leibniz Universität Hannover forderte in der Rolle von Carlas Anwalt Schadensersatz vom Hersteller des autonomen Fahrzeugs. Er argumentierte, dass das KI-System fehlerhaft sei und die Risikobewertung des Fahrzeugs Carla fälschlicherweise geschädigt hätte. Esra Karakoc in der Rolle der Anwältin des Herstellers führte hingegen an, dass die Entscheidung, zu der das System gezwungen war, folgerichtig war.
Experten erklären technische und ethische Aspekte des Falles
Wie lässt sich beurteilen, ob eine Fehlfunktion des selbstlernenden KI-Systems zu dessen Entscheidung in dieser sogenannten Dilemmasituation geführt hat? Tobias Hesse, Abteilungsleiter am Deutschen Zentrum für Luft- und Raumfahrt und Mitglied der Arbeitsgruppe Mobilität und intelligente Verkehrssysteme der Plattform Lernende Systeme zeigte in der Rolle des Sachverständigen die technischen Hintergründe des Falles auf. Über Sensoren nimmt das autonome Fahrzeug seine Umgebung im Straßenverkehr wahr. Die KI-Software verarbeitet diese Informationen und entscheidet, ob das Fahrzeug zum Beispiel zu bremst oder ausweicht. Diese Software sei nicht vollständig durchprogrammiert, sondern wurde mit vergleichbaren Daten vor seinem Einsatz trainiert. So lernten die Systeme, Menschen Straßenschilder oder Autos zu erkennen. Im Ergebnis machten autonome Fahrzeuge weniger Fehler als Menschen am Steuer, so Hesse. Es werde aber vermutlich in keiner Codezeile stehen, wie das Fahrzeug in einer solch seltenen Situation exakt zu reagieren hat. Die KI im autonomen Fahrzeug lerne nach dem Kauf selbstständig dazu. Warum das Fahrzeug in der Situation so reagiert hat, lässt sich nachträglich kaum nachvollziehen.
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Darf ein selbstlernendes Auto seine Passagiere besser schützen als andere Verkehrsteilnehmer?
Die ethischen Aspekte des Falles erklärte Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT), Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied der Arbeitsgruppe Recht und Ethik. Er betonte, dass ein KI-System keine Entscheidungen treffe, sondern nur auf Grundlage seines Algorithmus und seines Trainings agiere, also so, wie es sein Hersteller konzipiert hat. Zudem erläuterte er, dass aus ethischer Sicht ein autonomes Fahrzeug in einer Notsituation nicht eine Personengruppe in Gefahr bringen und eine andere damit bevorzugen darf. So darf ein autonomes Fahrzeug beispielsweise nicht das Leben seiner Passagiere über das einer Passantin stellen. Faktisch seien Fußgänger und Radfahrer aber immer schlechter geschützt als Passagiere im Auto – auch ohne KI im Bordcomputer.
Rege Diskussion unter Zuschauenden
Die rund 150 Zuschauenden wirkten interaktiv an der Veranstaltung mit. In Live-Abstimmungen zeigten sie ein geteiltes Meinungsbild. Während viele Teilnehmerinnen und Teilnehmer argumentierten, ein KI-System müsse in einer Dilemmasituation nicht besser entscheiden können als ein Mensch, sahen andere die Verantwortung für den Unfallausgang beim Hersteller, der Passagiere im autonomen Fahrzeug nicht besser schützen dürfe als andere Verkehrsteilnehmer.
Ob eine Fehlfunktion beim KI-Systeme vorliegt und wer folglich die Verantwortung für einen Unfall trägt, ist nicht einfach zu klären und noch schwieriger zu beweisen, so das Fazit von Daniela Sprengel von der Leibniz Universität Hannover, die in die Robe der Richterin geschlüpft war. In der fiktiven Streitsache einigten sich die beteiligten Parteien auf einen Vergleich.
Weitere Informationen:
Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de