Moralische Roboterautos
Wenn bei einem Unfall die Technik die Entscheidung trifft
Roboterautos benötigen eine Moral.
Technisch und juristisch ist beim autonomen Fahren noch einiges zu klären. Aber auch moralische Fragen sind noch offen: Wie zum Beispiel soll sich ein Robotermobile bei nicht abzuwendenden Unfällen verhalten? Forscher der TU München haben nun einen Algorithmus entwickelt, der die Frage ethisch korrekt beantworten soll. Das autonome Auto der Zukunft tötet bei einem Unfall planvoll. Während der Mensch in den Sekunden vor dem Aufprall kaum eine Chance zum bewussten Reagieren hat, kann das Roboterauto in dieser Zeit Millionen Berechnungen durchführen – und aus mehreren Handlungsoptionen wählen. Rast es lieber vor die Wand und opfert seine Insassen oder nimmt es den Weg in die Menschenmenge? Kollidiert es mit dem dicken SUV oder dem für ihn ungefährlicheren Kleinwagen? Rammt es eher den Radfahrer mit oder den ohne Helm aus dem Sattel? Um das zu entscheiden, braucht die Maschine eine Art moralischen Kodex. Und den muss der Mensch ihm einprogrammieren.
Die Ethik von Roboterautos beschäftigt zunehmend auch die Autohersteller: Wie soll das vollautomatisiert fahrende Auto der Zukunft in derartigen Dilemma-Situationen entscheiden? Wenn trotz mehrerer Handlungsalternativen immer Menschenleben oder zumindest Sachwerte auf dem Spiel stehen? Schon 2017 sprachen sich 86 Prozent der befragten Branchenvertreter bei einer Umfrage des IT-Verbands Bitkom für die Schaffung eines unabhängigen Ethikrates ein, der die Regel für das Verhalten bei Unfällen festlegt.
Moralischer Kodex: Gremium mit Experten
Besetzt werden sollte das Gremium mit Philosophen, Juristen, Technikern und Politikern. Die Alternative, dass jeder einzelne Autohersteller seine eigenen Regeln anwendet, galt schon damals als gefährlich. Dann nämlich würde die Programmierung des Fahrzeugs zu einem wichtigen Punkt bei der Kaufentscheidung. Und wer würde ein Auto kaufen wollen, dass bei einem unvermeidbaren Unfall im Zweifel seinen Fahrer gefährdet, um andere Schäden zu vermeiden? Die Folge könnte ein rigoroser Egoismus der Algorithmen sein.
Dieser "Charakterschwäche" soll der nun in der Zeitschrift "Nature Machine Intelligence" veröffentlichte ethischen Algorithmus der Münchner Forschergruppe nicht unterliegen. Dafür hat sie fünf Faktoren bestimmt, die bei der Entscheidungsfindung eine Rolle spielen sollen: das akzeptable Maximalrisiko eines Manövers, den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmer. So soll das Risiko künftig fair zwischen autonomen Fahrzeugen, normalen Autos, Fußgängern und Zweiradfahrern verteilt werden.
Bis jetzt gibt es diesen Algorithmus nur im Labor und nicht auf der Straße. Allerdings existieren auch noch keine komplett autonom fahrende Serienautos. Doch die Technik schreitet voran, langsam, aber stetig. Bereits heute können Pkw ohne menschlichen Eingriff Bremsmanöver durchführen, die Fahrtrichtung ändern oder im Stau mitschwimmen. Bis zum Ende des Jahrzehnts soll der Computer dem menschlichen Fahrer einen immer größeren Teil seiner Aufgaben abnehmen. Erste Autos wie der Mercedes EQS fahren zumindest unter bestimmten Bedingungen hochautomatisiert, während der Mensch hinterm Steuer sich anderen Tätigkeiten widmen darf. Dazu dürften auch in Deutschland mittelfristig Roboauto-Fahrdienste ihren Serienbetrieb starten und Passagiere ganz ohne Fahrer, Lenkrad oder Pedalerie durch die Gegend chauffieren.
Vorausschauende und defensive Fahrweise
Die autonomen Autos sollen durch eine vorausschauende und eher defensive Fahrweise kritische Entscheidungen nach Möglichkeit vermeiden. In komplexeren Verkehrssituationen sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht. Dann könnte das Auto gezwungen sein, zwischen mehreren Handlungen mit unerwünschten Folgen abzuwägen. Und – wie eingangs erwähnt – zwischen der Kollision mit einem Laster und einem Kleinwagen entscheiden.
Dass die Software der Münchner Forscher bei der Bewertung solcher Situationen grundsätzlich taugt, haben die Wissenschaftler nach eigenen Angaben in Tausenden Simulationen bestätigt. Trotzdem wird das System immer an Grenzen stoßen. So kann es bei der Bewertung der Eigenverantwortung anderer Verkehrsteilnehmer beispielsweise nicht unterscheiden, ob jemand aus Unachtsamkeit auf die Straße tritt oder ob er gestoßen wird. Claudia Brändle vom Institut für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT) bewertet die Berücksichtigung "persönlicher Verantwortung" generell zurückhaltend: Es sei problematisch, ‚persönliche Verantwortung‘ verschiedener Akteure in einen Algorithmus einzubeziehen, "vor allem wenn die Konsequenzen für Fehlverhalten so schwerwiegend ausfallen können."
Autonomes Fahren: Viele offene Fragen
Auch Ortwin Renn, Wissenschaftlicher Direktor des Research Institute for Sustainability (RIFS) in Potsdam, sieht noch offene Fragen. So könnten Widersprüche zwischen den fünf Kriterien auftreten. "Man stelle sich vor, links stehen zwei junge kraftstrotzende Männer und rechts eine gebrechliche ältere Frau. Zielt der Fahrer auf die ältere Frau, nimmt er in Kauf, dass diese Frau bei einem Aufprall wesentlich mehr Verletzungen davontragen wird als die beiden Männer, demnach wäre das zweite Kriterium der Priorität für die höchst verwundbare Person verletzt. Gleichzeitig würde aber dadurch das Gesamtrisiko verringert, weil jetzt eine Person statt zwei zu Schaden kommen würde. Damit wäre das erste Kriterium erfüllt. Welches der beiden Kriterien hat dann Vorrang?"
Den Münchner Forschern sind solche Probleme bewusst. Wie genau diese Fragen jeweils gewichtet werden sollen, muss ihrer Ansicht nach gesellschaftlich diskutiert werden. Eine Position, die auch große Teile der Autoindustrie vertreten. Sie spricht sich bei der Aufstellung der Verhaltensregeln für einen breiten gesellschaftlichen Konsens aus. Andere Hersteller sehen sich selbst in der Pflicht, da die Verantwortlichkeit für das Produkt bei ihnen liegt. Ein dritter Akteur könnte der Kunde selbst sein, der durch sein Kaufverhalten Einfluss nimmt. Denkbar ist überdies, dass der Kunde die Einstellungen der Maschine in einem abgesteckten Rahmen selbst verändern kann.
Autos treffen moralische Entscheidungen
Wie immer es auch weitergeht: Klar ist, dass Autos schon heute moralische Entscheidungen treffen könnten. Man denke zum Beispiel Kamerasysteme mit Bilderkennung, die zwischen Menschen und Tieren unterscheiden. Noch machen sie ihre Fahrstrategie nicht davon abhängig, wer vor der Motorhaube auftaucht – technisch wäre es ohne weiteres möglich, für das eine Lebewesen auszuweichen, für das andere nicht. Ein paar wichtige Fragen sind also noch zu klären, bevor Roboterautos in großer Zahl die Straßen bevölkern können. Klar ist aber, dass es im Einzelfall nicht immer eine moralisch perfekte Lösung geben kann. Denn die Künstliche Intelligenz ist limitiert, nicht nur in der Version der Münchner Forscher: "Man muss wissen, auch dieser Algorithmus kann – genau wie andere – Risiken für Schäden lediglich minimieren, aber nicht ausschließen", kennzeichnet Brändle die Grenzen der Technik.
Copyright © 2024 VKUonline.de
(Foto: Mercedes-Benz)
Kommentar verfassen