Konzern

Manuela Mackert

0 Kommentare

Digitale Ethik: Klare Verantwortung für Unternehmen

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen

Ein Beitrag von Manuela Mackert, Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements der Deutschen Telekom AG.

Manuela Mackert, Chief Compliance Officer (CCO) Deutsche Telekom AG

Manuela Mackert, Chief Compliance Officer (CCO) Deutsche Telekom AG

Verantwortung und Ethik in der künstlichen Intelligenz müssen von Beginn an mitgedacht und daher ‚einprogrammiert‘ und durch den Menschen kontrolliert werden.

Das Ziel einer jeden technologischen Entwicklung sollte sein, nicht nur Prozesse zu optimieren und ökonomische Effizienz zu erzielen, sondern auch die Lebenssituation der Menschen zu verbessern und ihre Autonomie zu wahren. Das gilt auch und insbesondere für die künstliche Intelligenz (KI). Darin nehmen nicht nur Algorithmen und die großen Algorithmischen Familien, die sogenannten Neuronalen Netze, sondern auch Daten und Übertragungswege eine zentrale Stellung ein. 

Zudem müssen die Menschen ein inhaltliches Verständnis für die möglichen Wirkweisen der neuen intelligenten Systeme entwickeln, denn ohne Wissen keine digitale (Daten-) Souveränität.

Künstliche Intelligenz hat den Sprung in die Realität geschafft – und beeinflusst schon heute unser Leben immer stärker. Sei es beim Navigieren, bei Kaufentscheidungen oder bei Online-Spielen. Damit unser europäisches Wertesystem, (europäische Menschenrechts-Charta), und unsere ethischen Standards mit diesen Entwicklungen mithalten können, müssen diese EIN Teil und somit Bestandteil aller selbstlernenden Algorithmen und entscheidungsunterstützenden Systeme sein. Und dies bereits bei der Entwicklung.

KI verbindet und erweitert den Handlungsspielraum aller. Das heißt: wir konsumieren nicht mehr nur Inhalte, sondern gestalten diese durch unser Tun und Handeln aktiv mit. Damit einhergehend trägt jeder einzelne die Verantwortung für sein Verhalten und seine Haltung in der digitalen Welt. Durch den verstärkten Einsatz von Algorithmen in den sozialen Medien reicht es nicht mehr aus, den nur Umgang mit den Medien zu kennen, sondern es ist auch ein Muss die Technologie dahinter zu verstehen. Wenn die Digitalisierung dem Wohl der Gesellschaft dienen soll, müssen wir diese Kompetenzen durch ein breites Bildungsangebot für alle, vom Kindergartenkind bis hin – und verstärkt dort! – zu den Senioren, weiter und intensiver fördern. Ohne Wissen – keine digitale Souveränität: wer eine Technologie nicht versteht, kann nicht selbstbestimmt mit ihr umgehen.

Diese Überlegungen haben wir bei der Deutschen Telekom zum Anlass genommen und uns im Frühjahr 2018, als eines der ersten Unternehmen weltweit, selbstbindende Leitlinien zur Digitalen Ethik im Umgang mit der Künstlichen Intelligenz gegeben (Selbstverpflichtung). Digitale Ethik soll uns als Navigationsinstrument helfen, die Werte der analogen Welt in die digitale Welt zu transportieren. Um Handlungssicherheit im alltäglichen Leben zu erhalten, benötigen wir einen Handlungsrahmen, in dem wir uns bewegen können. Unsere Leitlinien basieren auf dem Geschäftsmodell der Deutschen Telekom und es war uns wichtig, die Leitlinien so zu definieren, dass sie konkret in die Arbeit von Entwicklern, Programmierern und Ingenieuren sowie den Projektleitern eingebunden werden können. Digitale Ethik ist für uns kein Mainstream oder ein Marketingaspekt. Wir haben ein ureigenes, unternehmerisches Interesse daran, dass unsere Produkte und Services vertrauenswürdig sind. Deshalb gestalten und verfolgen wir die Implementierung der Leitlinien im Konzern aktiv mit. 

Dabei ist es wichtig, dass die Programmierer und Entwickler, die diese Technologien bereitstellen, dies verantwortungsvoll und in einem vorgegeben Handlungsrahmen tun. Selbstlernende Algorithmen und entscheidungsunterstützende Systeme benötigen definierte und vom Entwickler eingepflegte Handlungsspielräume, in denen sie Entscheidungen treffen dürfen. Unser Anspruch ist, dass die Entwickler nachvollziehen können müssen, wie und warum das von ihnen verantwortete KI-System zu einer bestimmten Erkenntnis oder Entscheidung gekommen ist. Der Mensch ist und bleibt in der Verantwortung. Droht die Gefahr, dass sie das nicht mehr können, muss das System gestoppt werden können – wir brauchen einen Not-Ausschalter für alle KI-Systeme. Egal, ob die KI Tumorgewebe beim Menschen oder notwendige Wartungsarbeiten bei Netzen erkennen soll. Unsere KI Leitlinien legen beispielsweise fest, dass definiert sein muss, wer die Verantwortung für welches KI System hat, aus heutiger Sicht der Experten ein nahezu unmögliches Unterfangen in der Praxis. Wir als Unternehmen stellen uns aber dieser Herausforderung, um die Verantwortlichkeiten im Rahmen der Entwicklung und Nutzung von KI bewusst transparent dazustellen.

Wichtig ist in diesem Zusammenhang auch, die gesamte Organisation mitzunehmen: Dazu haben wir beispielsweise ein eLearning Digitale Ethik entwickelt, uns an der KI-Roadshow (national wie international) beteiligt und in- wie extern zahlreiche Vorträge zu Digitaler Ethik in der KI gehalten. Wir haben und werden Face to Face Trainings mit Data Scientists durchführen und diese sukzessive, um neue Erkenntnisse erweitern. KI ist am Ende ‚nur‘ eine Software, die von einem Menschen entwickelt wurde. Wesentlich ist es für uns daher, beim Menschen, bei unseren Beschäftigten anzusetzen, um festzulegen, was wir als menschenzentrierte Technologie verstehen. 

Um die Einhaltung unserer KI Leitlinien auch im operativen Business sicherzustellen, haben wir eine Professionsethik für unsere Entwickler (Programmierer, Software Designer und Data Scientsts) erarbeitet. Diese ‚atmet‘, gibt also die Möglichkeit, je nach Anwendungsbereich des KI Systems angepasst zu werden mit den konkreten Anforderungen, aber der ethische und wertebasierte Rahmen bleibt immer gleich. Ferner wurden die Anforderungen an eine Digitale Ethik als ein Prüfschritt in unser Privacy and Security Assessment aufgenommen, wie auch ein internes Prüfsiegel für KI Projekte der DT entwickelt. Bei allen Themen beraten und unterstützen wir KI Projekte direkt persönlich oder auf Basis von Prüfungsmatrizen. Des Weiteren haben wir unsere KI Leitlinien in den Lieferanten Code of Conduct implementiert, um auch die Lieferkette mit zu betrachten, da man KI Produkte und Services nie losgelöst betrachten kann. Dass bedeutet, dass unsere KI-Lieferanten sich verpflichten, die Anforderungen aus unseren KI-Leitlinien ebenfalls einzuhalten. 

Durch unsere operative Umsetzungsstärke, gekennzeichnet unter anderem durch unser Business beziehungsweise Technologie Verständnis, und unsere frühzeitige Veröffentlichung unserer KI Leitlinien haben wir auf nationaler und internationaler Ebene einen Trend gesetzt. Unsere Expertise wird von Wirtschaftsverbänden und politischen Organisationen nachgefragt und wir bringen uns mit unserer Fachexpertise im Sinne unseres Unternehmens aktiv mit ein. 

Darüber hinaus brauchen wir einen interdisziplinären aktiven Diskurs mit der Zivilgesellschaft, anderen Unternehmen, politischen Entscheidungsträgern und Bildungseinrichtungen, um die Anliegen und Bedürfnisse besser zu verstehen. Das haben wir zum Anlass genommen und im März dieses Jahres das Forum für Digitale Ethik eröffnet. Hier wollen wir die Gesellschaftsmitwirkend in die Gestaltung der zukünftigen Welt im Umgang mit KI durch Wissensaustausch im Sinne eines Technologieverständnisses sowie gesellschaftspolitische Auseinandersetzung einbeziehen und voneinander teilhabend lernen. Unsere Leitlinie „Share und enlighten“ sehen wir als Verpflichtung für eine regelmäßige Kommunikation unter anderem durch Konferenzen, Vorträge auf Konferenzen, Experteninterviews und vielem mehr. Wir leben unsere digitale Verantwortung, indem wir unser Wissen teilen und die Möglichkeiten der neuen Technologie und einer vertrauensvollen Technologie-Kultur aufzeigen, ohne ihre Risiken zu vernachlässigen. Diese müssen verantwortungsvoll transparent gemacht werden, so dass wir selbstbestimmt entscheiden können, wie wir mit den intelligenten Technologien, wie KI, umgehen wollen.

Manuela Mackert

Manuela Mackert

Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements

Wir stellen den Menschen an erste Stelle – wir sehen aber auch Vorteile in einer Mensch-Maschine-Interaktion.

Leitlinien für Künstliche Intelligenz

Künstliche Intelligenz (KI) braucht einen Rahmen. Mit unseren neun selbst-bindenden Leitlinien haben wir diesen Rahmen definiert.

FAQ