Blog.Telekom

Andreas Kadelke

3 Kommentare

Algorithmen und Ethik: „Das berührt die Grundfesten unserer Demokratie“

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen
Netzgeschichten-Algorithmen-und-Ethik

Es gibt ja Diskussionen, von denen wird man innerlich richtig durchgerüttelt. Unser telegraphen_lunch zum Thema "Können Algorithmen ethisch handeln?" war für mich so eine (und ich hatte den Eindruck für viele Gäste im Publikum auch). Nach einer intensiven Debatte über künstliche Intelligenz, selbstlernende Algorithmen und Ethik stand für mich fest: Da kommt etwas mit Riesenschritten auf uns zu, das unsere Gesellschaft - oder jedenfalls große Teile - auf links ziehen wird. Selbst wenn wir vieles davon im täglichen Leben gar nicht unmittelbar mitbekommen werden.

Auch wer sich noch nicht intensiv mit dem Thema auseinandergesetzt hat, ist vielleicht schon mit der Diskussion über selbstfahrende Autos in Berührung gekommen. Wie soll sich ein solches autonom fahrendes Auto verhalten, wenn es in eine Situation kommt, in der ein Unfall unausweichlich wird? "Links die Oma, rechts das Kind. Wer wird geopfert?", diese provokative Frage stellte Tobias Miethaner vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI). Zwar sei schon jetzt klar, dass die Verkehrssicherheit durch selbstfahrende Autos erhöht werde. Doch in der öffentlichen Debatte helfe diese Erkenntnis nicht, solange Fragen wie die oben gestellte nicht gelöst seien. "Menschen haben ein Unwohlsein, wenn Maschinen solche Entscheidungen treffen", sagte Miethaner. Auch die öffentliche Hand könne solche Fragen nicht im Alleingang beantworten. Darum habe das Ministerium eine Ethikkommission eingesetzt, die Leitlinien für die Programmierung automatisierter Fahrsysteme entwickeln soll.

Reinhard Karger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) führte den Begriff der "Zeitdehnung" in die Diskussion ein. Gemeint war damit der (kurze) Zeitraum, den Menschen im Vorfeld einer unausweichlichen Katastrophe haben, um über ihre Reaktion zu entscheiden. Hochleistungsfähige Maschinen könnten diese Zeit möglicherweise besser für die Entscheidung nutzen als Menschen - und so womöglich auch zu einem besseren Ergebnis kommen. "Die Zivilgesellschaft muss sich damit beschäftigen", forderte Karger. "Wir brauchen jetzt ein Ergebnis." Das heiße nicht zwangsläufig, dass man Maschinen die Entscheidung überlasse. Man könne auch Zufallsgeneratoren in die Maschinen einbauen. Aber: "Das muss die Gesellschaft lösen."

"Gesellschaft muss entscheiden, ob sie das will"

Für Matthias Spielkamp von der Initiative AlgorithmWatch ist es wichtig, dass wir Transparenz über solche Entscheidungen herstellen. Schon heute gebe es eine Vielzahl von Systemen, die in unserem Alltag eine Rolle spielen. Facebook beispielsweise könne mit seinen Algorithmen und dem, was es uns anzeigt (oder auch nicht), unsere Entscheidungen beeinflussen. Aber wie soll Facebook, ein privates Wirtschaftsunternehmen, damit umgehen? Ein anderes Beispiel, das Spielkamp nannte, ist das so genannte Predictive Policing, also vorausschauende Polizeiarbeit auf Basis von Big-Data-Analysen. Anhand von zurückliegenden Delikten kann die Polizei ihre Arbeit für die Zukunft besser anpassen. Beispielsweise indem sie in Stadtteilen mit vermehrten Einbrüchen häufiger Streife fährt. Auch hier der Appell des Experten: "Die Gesellschaft muss entscheiden, ob sie so etwas will."

"Wir müssen ins Bewusstsein der Öffentlichkeit bringen, dass das Thema die Grundfesten unserer Demokratie berührt", forderte Reinhard Karger.

Gesprächsrunde beim tlunch

Beispiel Gesundheitssystem: Auch dort werde die Einführung Künstlicher Intelligenzen massive Auswirkungen haben, so die Experten. Etwa dann, wenn eine Maschine entscheide, wer das letzte freie Bett auf der Intensivstation im Krankenhaus bekomme. Schon heute müssten solche Entscheidungen getroffen werden, sagte Matthias Spielkamp - aber eben von Menschen. "Wenn wir diese Entscheidungen auf Maschinen übertragen, kann es sein, dass die Entscheidungen besser ausfallen", so Spielkamp. Dann aber müsse der hippokratische Eid auch auf die Maschinen übertragen werden. Oder auf deren Programmierer, schlug eine Besucherin der Diskussion vor.

Hier allerdings widersprach Reinhard Karger. Er plädierte dafür, die Informatiker ihren Job machen zu lassen. Die ethische Bewertung ihrer Arbeit sollten dann andere Experten in der Kette übernehmen. Andernfalls führe das schnell zur Überforderung der Informatiker.

"Enormes Verbesserungspotenzial"

"Solche Systeme", glaubt Matthias Spielkamp, "bieten enormes Verbesserungspotenzial." Gerade bei Dingen, die Menschen nicht machen wollen, aber doch tun müssen. Ein in der Diskussion genanntes Beispiel hierfür waren die Aufräumarbeiten im havarierten Atomreaktor von Fukushima. Solche diffizilen Arbeiten könnten künftig auch (von Algorithmen gesteuerte) Roboter in Teamarbeit erledigen.

Trotz vieler positiver Beispiele plädierte Matthias Spielkamp dafür, auch die Gefahren öffentlich zu diskutieren. Denn: „Wenn wir das nicht tun, wird es irgendwann ein böses Erwachen geben."

Wer sich die hochspannende Diskussion anschauen möchte, dem empfehle ich den Archivstream, der unten im Beitrag eingebettet ist. Das ist gut investierte Zeit.

Viel mehr Stoff zum Thema Digitale Verantwortung mit interessanten Experten-Interviews und überraschenden Einsichten haben wir außerdem in einem Online-Special zusammengetragen. Ganz aktuell kommt ein kurzes Interview mit Ranga Yogeshwar über Algorithmen und Vorurteile dazu.

In den Netzgeschichten (Video ist auch oben eingebunden) beschäftigen wir uns ebenfalls mit dem Thema Algorithmen und Ethik und lassen die Experten des telegraphen_lunch zu Wort kommen.

telegraphen_lounge-Koennen-algorithmen-etisch-handeln
FAQ

Diese Website verwendet Cookies, um Ihnen den bestmöglichen Service zu gewährleisten. Durch die Nutzung der Website {js_accept}akzeptieren{js_accept} Sie die Verwendung von Cookies. Weitere Informationen finden Sie hier.