Archiv

Archiv

Blog.Telekom

Caroline Neuenfeld

1 Kommentar

Künstliche Intelligenz trinkt nicht

Autonome Fahrzeuge werden von der Fiktion zur Realität. Mit den sich daraus ergebenden ethischen Fragestellungen hat sich die vom Bundesverkehrsminister eingesetzte „Ethikkommission für automatisiertes und vernetztes Fahren“ befasst und vor wenigen Tagen ihren Bericht vorgelegt. Jenseits ganz konkreter Probleme wie Datenautonomie oder Haftungsfragen geht es grundsätzlich darum: Nehmen wir die inhärenten Risiken in Kauf, die mit jeder komplexen technologischen Entwicklung einhergehen oder lehnen wir sie ab und nehmen den Verzicht auf Fortschritt in Kauf?

Klar ist: Die in selbstfahrenden Autos eingesetzte künstliche Intelligenz ersetzt nicht einfach über Nacht menschliche Fahrer. Die Auswirkungen von automatisiertem Transport aber werden unsere Gesellschaft radikal ändern. 

Studien zufolge werden automatisierte Fahrzeuge große Wohlfahrtsgewinne bringen: sie werden sicherer, sauberer und Treibstoff-effizienter sein als die heutigen Fahrzeuge und die Luftverschmutzung verringern. Vor allem aber werden sie unzählige Menschenleben retten. Denn autonomes Fahren dürfte sehr viel sicherer als ein Mensch am Steuer sein. Jedes Jahr kommen weltweit rund 1,25 Millionen Menschen im Straßenverkehr ums Leben. Menschliche Fehlbarkeit verursacht Statistiken zufolge 90 Prozent aller Verkehrsunfälle. Künstliche Intelligenz dagegen ist berechnend und beständig; sie wird nicht müde, ungeduldig oder hektisch und lässt sich nicht ablenken. Und sie trinkt nicht.

Aber so wie keine komplexe Technologie jemals unfehlbar sein kann, werden auch autonome Fahrzeuge keine 100prozentige Sicherheit bieten können.

Die Ethikkommission hat sich eingehend mit dem Problem von „dilemmatischen Situationen“ beim autonomen Fahren befasst. Sie kommt zu dem Schluss, dass autonome Systeme nicht weiterhelfen, wenn es ausweglos um Situationen von Leben oder Tod geht.

Aber wie realistisch und praktisch sind hypothetische Erwägungen tatsächlich? Die wenigsten Autofahrer, auch Vielfahrer, kommen jemals in eine Situation, in der sie  die furchtbare moralische Entscheidung treffen müssen, entweder in eine Gruppe erwachsener Fußgänger fahren zu müssen oder in eine Gruppe spielender Kinder.

Ob ein menschlicher Autofahrer eine solche Entscheidung zu treffen hat oder künstliche Intelligenz: eine richtige Entscheidung in so einem Fall kann es niemals geben. Während man die menschlichen Autofahrer in einem so ausweglosen no-win Szenario rechtfertigen würde, würde im Falle der künstlichen Intelligenz sehr schnell die Frage nach der Schuld gestellt werden. Mit anderen Worten, wir beurteilen die künstliche Intelligenz nach anderen Standards.

Dahinter steckt auch ein tiefes Misstrauen gegenüber der künstlichen Intelligenz. Aber ist dieses Misstrauen rational? Jeder, der ein Auto durch eine Straße lenkt, bedeutet ein potentielles Risiko für die Verkehrsteilnehmer um ihn herum. Selbst bei noch so umsichtigem Fahren kann es zu einem plötzlichen unvorhersehbaren Ereignis kommen. Ein spielendes Kind, das auf die Straße läuft. Ein Radfahrer, der umstürzt. Wir vertrauen darauf, dass wir instinktiv und reaktionsschnell die richtige Fahrentscheidung treffen. Selbstfahrende Fahrzeuge treffen hingegen Entscheidungen auf der Grundlage von Daten, die von einer Vielzahl von hochpräzisen Sensoren, Kameras und Radaren erhoben werden. 

Das Misstrauen gegenüber künstlicher Intelligenz am Steuer speist sich aber auch aus validen Fragen. Wollen wir Fragen über Leben und Tod in die Hände von Software-Programmierern geben?  Wie können Programmierer sicherstellen, dass sie Lösungen für jedes denkbare und undenkbare Gefahren-Szenario entwickelt haben?  Wie sollte ein autonomes Fahrzeug programmiert werden, um im Falle eines  unvermeidbaren Unfalls sozial optimale Entscheidungen zu treffen? Soll es die Fahrzeuginsassen um jeden Preis schützen, oder soll es das Risiko für andere Verkehrsteilnehmer minimieren?

Die Antworten auf diese ethischen Fragen sind auch deshalb bedeutsam, weil sie große Auswirkungen auf die Akzeptanz selbstfahrender Autos in der Gesellschaft haben. Würden wir ein Fahrzeug kaufen, wenn wir wüssten, dass es so programmiert ist, dass es in einen Baum steuern würde, um plötzlich und unvermittelt auf der Straße auftauchende Fußgänger zu schützen?

Wir stehen noch ganz am Anfang der Entwicklung. Aber selbstfahrende Fahrzeuge werden zur Realität und vieleicht in nicht allzu ferner Zukunft zur Norm. Es ist die Verantwortung der beteiligten Industrien, die Gesellschaft darauf vorzubereiten. Ängste ernst zu nehmen, aufzuklären - transparent, offen, mit Ehrlichkeit in Bezug auf die Vorteile und in Bezug auf die möglichen Risiken.

Und es ist ihre Verantwortung, selbstfahrende Fahrzeuge konstant  weiter zu entwickeln - zu immer intelligenteren und sichereren Fahrzeugen, bei denen die Risiken minimiert und da, wo möglich, ganz ausgeschlossen werden.
Technologie kennt keine Ethik. Es liegt an uns, was wir aus ihr machen. Es ist gut und richtig, sich bei neuen innovativen Technologien mit ethischen Fragestellungen auseinanderzusetzen. Es nicht zu tun, wäre so wie mit verbundenen  Augen Auto zu fahren. Aber technologische Innovation wie künstliche Intelligenz ist kein Selbstzweck. Sie dient dem Fortschrittgewinn im Dienst der Menschen, einer besserenZukunft.

Wenn wir ethische Bedenken wie in der „Dilemma-Frage“ die Oberhand gewinnen lassen, verhindert das keinen einzigen Verkehrstoten. Die Weiterentwicklung von autonomem Fahren schon. Je baldiger wir das akzeptieren, je schneller können unsere Straßen ein sichererer Ort werden.

FAQ