Suche
Wie sollen autonome Fahrzeuge entscheiden?
Vor einigen Wochen haben wir uns mit den Robotergesetzen beschäftigt. Aber wie gehen die Hersteller von autonomen Fahrzeugen mit diesen Fragen um?
Die kurze Antwort darauf lautet: Bisher überhaupt nicht. Es gibt noch keine wirklich autonom fahrenden Fahrzeugen, als Fahrer muss man immer noch darauf gefasst sein, dass der Wagen die Kontrolle einfach zurückgibt. Aber denken wir mal ein paar Jahre in die Zukunft ... Autos können nun wesentlich schneller entscheiden, als es Menschen jemals möglich wäre. In Situationen in denen Menschen aufgrund der Schrecksekunde jegliche Reaktion unmöglich wäre, behalten Autos möglicherweise noch den Überblick. Und das wirft eine Rolle neuer ethischer Fragen auf: Wie soll eigentlich zwischen Menschenleben abgewogen werden?
Was wäre wenn der Fahrer in einer ausweglosen Situation auf ein Hindernis zurast, aber durch ein Ausweichmanöver auf den bevölkerten Bürgersteig gerettet werden könnte? Sollte das Auto ausweichen, wenn im Wagen fünf Personen sitzen, auf dem Bürgersteig aber nur eine? Sollte das Alter der Personen eine Rolle spielen? Der Gesundheitszustand? Einem menschlichen Fahrer würden sich diese Fragen nicht stellen, er kollidiert einfach mit der Wand. Wie schon bei der Anwendung der Robotergesetze haben wir es hier mit einer ethischen Fragestellung zu tun: Wenn mehrere Menschen zu Schaden kommen müssen, welche sollten das sein? Und wie genau spielen die limitierten technischen Möglichkeiten dabei eine Rolle?
Ganz egal wie diese Fragen beantwortet werden, am Ende könnte ein ganz grundsätzliches Problem der künstlichen Intelligenz eine Lösung diktieren: Je komplexer die KI, desto wahrscheinlich sind so genannte "False Positives". Das könnte zum Beispiel ein Auto sein das ohne Not auf den Gehweg lenkt, weil es von einer falschen Gefahrensituation ausgeht.
Das Titelbild stammt von Steve Jurvetson und zeigt die visuelle Datenaufbereitung eines Autos von Google.
Kommentare
Einen Kommentar schreiben