Archiv

Archiv

Konzern

Wie bringt man einer künstlichen Intelligenz Ethik bei?

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen

Was antworten Google, Facebook & Co auf diese Frage und was können wir daraus lernen?

Den Ungeduldigen, die überlegen, ob sie wirklich den ganzen Blog lesen sollen, hier die Kurzfassung: Ethik und künstliche Intelligenz (KI) sind zentrales Thema auf allen Ebenen und für alle Unternehmen. Fragen Sie nur mal Facebook nach Cambridge Analytica oder Google nach ihren Erfahrungen mit Google Duplex.

Ein Beitrag von Manuela Mackert, bis Juli 2021 Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements der Deutschen Telekom AG.

Manuela Mackert, bis Juli 2021 Chief Compliance Officer (CCO) Deutsche Telekom AG

Manuela Mackert, bis Juli 2021 Chief Compliance Officer (CCO) Deutsche Telekom AG.

Es steht außer Frage, dass künstliche Intelligenz enormes positives Potential hat. Gleichzeitig stellt sie große Anforderungen an Programmierer und den ethisch korrekten Einsatz. So haben nicht nur wir bei der Telekom erkannt, dass KI ethische Leitplanken benötigt.

Daher bin ich dorthin gefahren, wo die großen Player sitzen: Ins Silicon Valley in den USA und ins Silicon Wadi in Israel.

In letzter Zeit steht das Thema einer ethischen KI verstärkt in der Aufmerksamkeit der Digital-Industrie, der Politik und den Medien. Denn im Grunde läuft alles darauf hinaus, wie wir unseren Kunden mit KI ein gutes Service-und Produkt-Erlebnis bieten und gleichzeitig nicht sein Vertrauen verspielen und die Sicherheit seiner Daten gewährleisten. Daher sind Leitlinien so wichtig. Als eines der ersten Unternehmen haben wir uns selbst-bindende Leitlinien gegeben und zur Diskussion gestellt.

Bei der Erarbeitung der Leitlinien haben mein Team und ich bewusst schon in einem frühen Stadium auf einen Austausch mit anderen Unternehmen und Organisationen gesetzt. Denn wir maßen uns nicht an, den „Stein der Weisen“ alleine entwickeln zu können oder gar bereits gefunden zu haben.

Wie denken die großen Player über Ethik und KI?

Besuch bei Amazon: Ein beeindruckendes Gebäude.

Der erste Termin war bei Amazon. Ein beindruckendes Gebäude – Innen wie außen!

Wir wollten wissen, wie die großen Spieler in diesem Feld, die Googles, Facebooks, Microsofts und Amazons aber auch Organisationen wie Open AI, das „Partnership on AI“ oder auch Universitäten und Startups über Ethik und KI denken. Welchen Stellenwert räumen sie diesem Thema ein und wie begegnen sie den Herausforderungen? 

Vor der Reise in die USA und nach Israel habe ich mich durchaus gefragt, wie offen diese Unternehmen unseren Fragestellungen gegenüberstehen und wie ehrlich der Austausch sein würde. Zu meiner Begeisterung wurde ich positiv überrascht.

Alle unsere Wunsch-Termine kamen zustande, überall haben uns hochrangige Vertreter die Türen geöffnet, denn das Thema hat „Management Attention“, wie man so schön Neudeutsch sagt. Ist also nicht mehr nur eine Thematik für die Programmierer, sondern auch für die Konzernlenker. 

Wir hatten intensive Gespräche und einen offenen, konstruktiven und ehrlichen Austausch, den wir fortsetzen werden. Hier einige Beispiele:

Es gab eine große Übereinstimmung darüber, dass ein ethisch korrekter Umgang mit KI nicht nur „nice to have“, sondern entscheidend für das Vertrauen der Kunden in das Unternehmen und seine Produkte ist. 

Besonders spannend und aufschlussreich fand ich den Austausch mit den Entwicklern von Microsofts Sprachassistenten Cortana und dem Chatbot Tay in Israel. Man erinnere sich, Tay wurde binnen kurzer Zeit von den Nutzern auf Twitter zu einem Rassisten umtrainiert. Microsoft musste ihn dann schnell vom Netz nehmen. Dieses Beispiel zeigt eindrucksvoll, wie schnell ein Imageschaden möglich ist und wie viel wir noch im Umgang mit und beim Einsatz vom KI lernen müssen.

Microsoft hat daraus gelernt, dass sich -  wie bei den Menschen – das Verhalten nicht 100prozentig voraussagen lässt. Daher haben sie eine Art Sicherheitsschalter entwickelt. Dieser sorgt dafür, dass der Bot sofort deaktiviert wird, wenn er in die Irre läuft und beispielsweise unangebrachte Ausdrücke verwendet.  

Bei diesem klar umrissenen Fall ist die Definition der Aufgabe eines Sicherheitsschalters noch recht einfach. Das ist nicht immer der Fall, so wird vielfach diskutiert, wo solche Kontrollpunkte platziert werden können. Und auch wir müssen intern diese Stellen definieren.

Auch hat Microsoft mit Aether (ein Kunstwort zusammengesetzt aus "AI and ethics in engineering and research”) übergreifende Rahmenbedingungen für die Durchsetzung einer ethischen KI entwickelt. Diesem Gremium sitzen mit Harry Shum und Brad Smith, die Chefs der KI-Forschung und der Rechtsabteilung vor.

„Die letzte Meile bleibt immer menschlich"

Manuela Mackert und Amit Keren vor dem Besuch bei Google.

Amit Keren vom Partnering-Bereich der Telekom aus dem Office in Israel und ich. Er hat uns viele Türen geöffnet und einen Großteil der Termine vereinbart.

Und Google hat mehrere Tausend Mitarbeiter in Sachen Fairness bei Machine Learning geschult. Facebook entwickelt eine ‘Fairness Flow’-Software, um KI-Systeme im Hinblick auf Diversität und Vorurteile zu überprüfen, Daneben suchen sie Austausch und Feedback auch außerhalb des Unternehmens, wie sie am besten mit der digitalen Ethik umgehen.

Fast alle Unternehmen denken über den Einsatz eines „safety ethics teams“ nach. Das bedeutet, dass den Entscheidungen der KI nicht blind vertraut werden darf, sondern der Mensch immer noch die letzte Entscheidung haben und die Verantwortung tragen muss. Das ist ein Punkt, den wir bei der Telekom auch umsetzen wollen. Und mit Claudia Nemats Worten ausgedrückt: „Die letzte Meile bleibt immer menschlich.“

Ein besonders schönes Ergebnis - das ich so nicht erwartet hätte - ist, dass auch andere von uns lernen wollen und uns als Ansprechpartner auf Augenhöhe in Europa sehen. Die Stanford Universität zum Beispiel will sich verstärkt dem Thema der digitalen Ethik widmen und hat uns um Unterstützung in der Bereitstellung von Dilemma Cases im Umgang mit intelligenten Technologien gebeten.

Und um die Fragestellungen rund um die KI gemeinsam weiter in das öffentliche Bewusstsein zu rücken, wollen wir Mitglied bei „Partnership on AI“ werden und, wenn uns dies seitens der Organisation zugetraut wird, einen europäischen Arm aufbauen. Da freue ich mich schon sehr drauf.

Ihre Manuela Mackert

Digitale Verantwortung

KI-Leitlinien

Die Telekom gibt sich Leitlinien zum Einsatz von künstlicher Intelligenz (KI).

FAQ