Konzern

Sind Algorithmen objektiv? Eine Illusion.

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen

Melinda Lohmann ist Assistenzprofessorin für Wirtschaftsrecht, Schwerpunkt Informationsrecht an der Universität St. Gallen.  Wir sprachen mit ihr darüber, ob Entscheidungen von Algorithmen objektiver sind als die von Menschen. Und wir sprachen darüber, welche Bedeutung Transparenz im Umgang mit KI hat und ob wir spezielle, rechtliche Rahmenbedingungen brauchen.

Video-Interview mit Prof. Melinda Lohmann.

Frau Lohmann, dürfte ich Sie bitten, folgende Sätze zu vervollständigen? Meine größte Hoffnung bei künstlicher Intelligenz ist ...

Melinda Lohmann: ... dass sie uns dabei hilft, die drängenden Probleme der Menschheit zu lösen. Ich denke an den Gesundheitsbereich oder an den Bereich Straßenverkehr, wo jährlich 1,3 Millionen Menschen in Folge von Verkehrsunfällen sterben. Und wenn man bedenkt, dass 90 Prozent dieser Unfälle auf menschliches Versagen zurückgehen, dann haben wir ein enormes Innovationspotential in dieser Hinsicht. 

Und die größte Angst?

Lohmann: Die größte Angst... Wenn man die Bedenken rund um eine Superintelligenz ernst nimmt, also die Vorstellung, dass wir übertrumpft werden von einer ganz intelligenten künstlichen Intelligenz, dann ist es ein bedrohliches Szenario, was wir ernst nehmen sollten. Kurz bis mittelfristig macht mir Sorgen, dass wir gewisse soziale Ungleichheiten verstärken durch algorithmische Entscheidungssysteme, die von Menschen gemacht sind und mit Daten agieren, die diese Vorurteile enthalten. 

Künstliche Intelligenz basiert auf Algorithmen. Sind die Entscheidungen, die von Algorithmen getroffen werden fairer, als die von Menschen?

Lohmann: Ja, das ist eine wichtige Frage. Ich glaube, wir unterliegen da einer Illusion, einer Objektivitätsillusion. Wir denken, weil es aus einer Maschine kommt, einem System, ist es objektiv. Das stimmt natürlich so nicht. Diese Systeme sind von Menschen gemacht, die wiederum selber ihre Vorurteile haben, und ihre Limitationen. Und die Systeme verwenden Daten, die ebenfalls schon gewisse Vorurteile enthalten können. Deswegen denke ich, muss man aufpassen, wenn man sich eben dieser Objektivitätsillusion zu fest hingibt. Aber ich glaube, wenn man gewisse Weichen stellt, dann könnten wir Systeme entwickeln, die wirklich objektiver sind. Auf jeden Fall objektiver als wir Menschen es sind. 

Merken wir überhaupt, wenn ein Algorithmus entscheidet? Und vor diesem Hintergrund: Was halten Sie von einer Kennzeichnungspflicht in Richtung "Hier arbeitet künstliche Intelligenz" oder "Diese Entscheidung wurde mit KI gefällt."?

Lohmann: Das finde ich eine sehr gute Idee, sehr begrüßenswert, weil ich glaube, es ist wichtig, dass gerade Konsumenten wissen, wenn sie mit einer künstlichen Intelligenz interagieren und ich denke auch zur Steigerung des Vertrauens wäre das eine sinnvolle Maßnahme. Auf jeden Fall. 

Künstliche Intelligenz kommt in immer mehr Bereichen unseres täglichen Lebens zum Einsatz. Wer haftet eigentlich, wenn der Roboter falsch lernt oder falsche Entscheidungen trifft? Brauchen wir so etwas wie ein Roboterrecht?

Lohmann: Ja, das ist eine spannende Forschungsfrage, die mich sehr beschäftigt und es kommt ganz auf den Kontext an. Was wichtig ist, ist zu bedenken, dass wir immer einen Rechtsrahmen haben. Also eine neue Technologie entsteht ja nicht in einem rechtlichen Vakuum, sondern der geltende Rechtsrahmen ist zu berücksichtigen. Und beispielsweise bei selbstfahrenden Fahrzeugen haben wir ein ziemlich sinnvolles Haftungsregime mit einer verschuldungsunabhängigen Haftung in den meisten europäischen Ländern. Da, denke ich, gibt es nur punktuellen Anpassungsbedarf. Aber gerade, Sie haben es erwähnt, lernfähige Systeme, die vielleicht in einem Setting zum Einsatz kommen, wo nicht ein solches Haftungssystem besteht, da braucht es neue Regeln und da ist man auch dabei schon auf europäischer Ebene sich Gedanken zu machen, wie ein solcher Rechtsrahmen aussehen könnte. 

Wer weiß heute eigentlich, was Roboter in zehn Jahren können? Brauchen wir da jetzt schon rechtliche Rahmenbedingungen?

Lohmann: Ja, das ist die grundlegende Frage. Wenn wir Juristen uns mit technischen Phänomenen befassen, dann hinken wir immer hinterher. Die Technik ist immer zehn Schritte voraus. Deswegen macht es Sinn, sich schon proaktiv Gedanken zu machen, zu diesen Fragen. Gleichzeitig dürfen wir nicht in einen blinden Aktionismus verfallen. Es macht keinen Sinn, jetzt schon zu regulieren und übermäßig zu regulieren, weil wir einfach gewisse Entwicklungen noch nicht abschätzen können. Aber es ist auf jeden Fall wichtig, dass wir dran bleiben.

Ganz herzlichen Dank für das Gespräch.

Lohmann: Danke Ihnen.

Das Bild der Justitia illustriert die Frage: Sind Algorithmen objektiv?

Sind Algorithmen objektiv?

Sind die Entscheidungen von Algorithmen objektiver als die von Menschen? Assistenzprofessorin Melinda Lohmann meint „Nein“. 

FAQ