Archiv

Archiv

Blog.Telekom

Verena Fulde

0 Kommentare

Vertraust du einem Algorithmus? (Teil 2)

Im ersten Teil meines Blog habe ich gezeigt, dass Künstliche Intelligenz (KI) schon ganz schön kreativ und damit ja quasi menschlich ist. Aber sind kreative – und damit ja irgendwie menschliche – Computer positiv oder negativ? Vielleicht hilft der Vergleich mit einem Menschen. Wann vertrauen wir einem Menschen? Wenn wir seine  Ansichten und Werte kennen und ihn als verlässlich erlebt haben. Wenn wir uns also seiner Intentionen und Absichten sicher sind.
Wie lässt sich das auf das Verhältnis Mensch-Maschine übertragen?

ThinkstockPhotos-525207743

Roboter mit Schmetterling

Zum einen gilt, dass Computer per se nicht besser oder schlechter sind als wir. Denn sie können ja nur das verarbeiten, was sie sehen bzw. agieren auf Basis der Daten, mit denen sie gefüttert, also sozialisiert, werden.  Sehr gut wurde das am Beispiel vom Chat-Bot „Tay“ von Microsoft deutlich. Es gelang Usern, diese anfangs freundliche künstliche Intelligenz binnen weniger Stunden zu einem Rassisten zu machen. Einfach indem sie ihr rassistische Nachrichten schickten.  Wir sind also selber mit verantwortlich für das, was wir schaffen.

Weitere wichtige Aspekte für die Akzeptanz von KI sind meines Erachtens Vertrauen und Transparenz. Um Vertrauen gegenüber der Maschine entstehen zu lassen, wird es wichtig sein, dass die Entscheidungen, die die KI trifft, transparent und nachvollziehbar sind. Mit Deep Learning werden Künstliche Intelligenzen zu Computern, die selbst lernen und sich so selber programmieren. Das macht sie quasi zu einer Art „Black Box“. Niemand – nicht einmal ihre Programmierer – können vollständig nachvollziehen, wie die Maschinen zu ihren Entscheidungen kommen.

Dieser Zustand wird zunehmend kritisiert. In der Fachzeitschrift Technologie Review forderte kürzlich zum Beispiel Tommi Jaakkola, Professor MIT am Massachusetts Institute of Technology (MIT), “Ob es sich um eine Investition, eine medizinische oder vielleicht eine militärische Entscheidung handelt, Wir wollen uns nicht einfach auf eine 'Black Box'-Methode verlassen.“

Bei einem Spiel wollen wir vielleicht nur aus bloßen Interesse heraus wissen, warum dieses Vorgehen vorgeschlagen wurde. Aber spätestens wenn es um Dinge geht, die uns ganz persönlich betreffen und die Auswirkungen auf unsere Leben haben, haben wir nicht sogar ein Anrecht darauf zu erfahren, warum Ergebnisse entstanden sind? Wenn mir beispielsweise eine bestimmte medizinische Behandlung verweigert würde, dann möchte ich nachvollziehen können, warum die andere Methode besser für meine Heilungschancen sein soll.

Die EU sieht das in Teilen ähnlich und hat in der im kommenden Jahr wirksam werdenden Datenschutzgrundverordnung (Regulation EU 2016/679) in Artikel 22 das Recht der Bürger auf Anfechtung einer allein auf Algorithmen beruhenden Entscheidung verankert. Ein erster Schritt in die richtige Richtung. Auch wenn deren Umsetzung noch einige Herausforderungen mit sich bringen wird. Denn man kann nicht einfach in die KI schauen und die Antwort dort säuberlich aufgeschrieben finden.

Aber auch von Seiten, von denen  man es zunächst vielleicht nicht erwartet, kommt Unterstützung: Das US-Amerikanische Militär, namentlich dessen Forschungsarm, die DARPA (Defense Advanced Research Projects Agency), hat im vergangenen Jahr ein Programm für eine neue Künstliche Intelligenz (XAI, Explainable AI) gestartet, die ihre Entscheidungen erklären soll. Es bewegt sich also etwas in die richtige Richtung für ein besseres Verhältnis von Mensch und Maschine.

Es bleibt also spannend!

Verena Fulde

Verena Fulde

Pressesprecherin und Telekom Bloggerin

Digitale-Verantwortung-Frau-Roboter_HuB

Digitale Verantwortung

Experten diskutieren über die Zukunft der Digitalisierung.

FAQ