Konzern

Thomas Kremer

0 Kommentare

KI im Cyberwar

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen

Ein Beitrag von Thomas Kremer, Vorstandsmitglied Deutsche Telekom AG.

Im Netz kämpfen heute kriminelle Hacker (black hats) gegen Security-Experten (white hats). Und beide setzen immer häufiger künstliche Intelligenz ein, um ihre Ziele zu erreichen. Der Science Fiction Klassiker „Transformers“ hat also in gewisser Hinsicht diese Gegenwart antizipiert: Friedliebende „Autobots“ kämpfen gegen machthungrige „Decepticons“. Beides eigenständig denkende Maschinen, also künstliche Intelligenz.  Der reale Kampf findet aber – anders als im Film – nicht in einer Großstadtkulisse statt, sondern im Cyberspace. Und ob es auch in der Realität ein „Happy End“ geben wird, hängt von vielen Faktoren ab.

Dr. Thomas Kremer, Vorstandsmitglied Datenschutz, Recht und Compliance.

Dr. Thomas Kremer, Vorstandsmitglied Deutsche Telekom AG, Datenschutz, Recht und Compliance.

Künstliche Intelligenz (KI) ist ein weites Feld. Bei Cyberangriffen und -abwehr ist maschinelles Lernen das entscheidende Stichwort. Algorithmen lernen anhand von großen Datensätzen, Muster zu erkennen und sich entsprechend anzupassen. Dazu ein Beispiel: Sie mussten bei einer Passwortabfrage sicherlich auch schon einmal beweisen, dass Sie ein Mensch sind. Diese 2-Faktor-Authentifizierung soll die Sicherheit erhöhen. Bei sogenannten Captchas gilt es zum Beispiel, aus einem wilden Muster Buchstaben und Zahlen zu erkennen. Oder anklicken, wo im Bild Autos zu sehen sind. Manchmal lassen mich Captchas ganz schön verzweifeln. Aber irgendwann klappt es und man hat das gute Gefühl, doch als menschlich erkannt zu werden. Aber so ganz eindeutig ist das Captcha Resultat heutzutage auch nicht mehr. Füttert man die künstliche Intelligenz mit dem Verhalten von Nutzern der Captchas, lernt ein KI-Bot mit der Zeit, selbst die Zeichen oder Bilder zu erkennen und für sich zu nutzen.

Mustererkennung nutzen Angreifer auch, um Schwachstellen in IT-Systemen zu finden. Sie analysieren dazu veröffentlichte Schwachstellen, lernen, welche Merkmale diese auszeichnen und nutzen dieses Wissen dann, um bisher unerkannte Schwachstellen in anzuwendenden IT-Systemen zu finden. Intelligent wird auch die Malware. die gegen die Lücke eingesetzt wird. Smart Malware erkennt, wenn sie in dem angegriffenen System entdeckt wird und kann sich daraufhin tarnen und ihr Angriffsmuster ändern. Sie lernt also aus dem System, das sie angreift.

Bösartige Social Bots können Identitäten eines Nutzers kopieren und sich in sozialen Netzwerken wie der Nutzer selbst verhalten. Einerseits können so Hacker noch gezielter und sehr erfolgreich Phishing einsetzen. Andererseits können Social Bots zum Beispiel im Wahlkampf ganz gezielt Falschmeldungen verbreiten und so demokratische Prozesse manipulieren.

Es gibt Hoffnung

Das sind erschreckende Szenarien, aber auch nur eine Seite der Medaille. Genauso kann künstliche Intelligenz dabei helfen, Cyberangriffe abzuwehren. Security-Experten haben dabei einen entscheidenden Vorteil gegenüber den Hackern – das ABC der KI: Algorithmen, Big Data, Computing Power. Damit die Algorithmen lernen können, brauchen sie die richtigen Daten und genügend Rechenleistung. Deswegen ist es so wichtig – ich wiederhole es immer wieder – dass Cybersicherheitsexperten Netzwerke bilden. Netzwerke aus Unternehmen, Behörden und Institutionen, in denen Daten über erfolgreiche Angriffe ausgetauscht werden, um daraus zu lernen. Und zwar international und auf Augenhöhe. Cybercrime hält sich nicht an Landesgrenzen.

Das Ziel im Kampf gegen Hacker ist jedoch nicht nur die Abwehr. Wir möchten „vor die Lage kommen“, wie meine Experten aus unserem Cyber Defense Center es nennen. Das bedeutet, wir möchten geplante Angriffe erkennen, bevor sie stattfinden. Vorhersagen treffen. Und auch dabei setzen wir bei der Deutschen Telekom auf künstliche Intelligenz. 
Mit dem „Fraud and Security Analytics System“ analysieren wir Netzdaten, um dem Missbrauch von Telefonie vorzubeugen und Cyber Angriffe zu erkennen. Analysiert werden Daten, die wir aus unserem Telekom-Netz erhalten und für unseren Geschäftsbetrieb ohnehin erheben müssen. Zum Beispiel Verbindungsdaten für die Kundenrechnungen. Bis zu einer Milliarde Datensätze kommen so täglich zustande, die wir in unser Analysesystem unter Einhaltung höchster Datenschutzstandards einspeisen. Die Algorithmen erkennen Muster und Anomalien. In Kooperation mit den Telekom Laboratories (T-Labs) und unserem langjährigen Forschungspartner von der israelischen Ben-Gurion-Universität entwickeln wir mit Hilfe von KI neue Algorithmen, die uns in die Lage versetzen, Missbrauch und Cyberangriffe schneller zu erkennen oder sogar vorhersagen zu können. So können wir Gegenmaßnahmen einleiten bevor der Angriff tatsächlich stattfindet. Darin liegt eine große Chance für mehr Sicherheit in der digitalisierten Welt.

Wir brauchen Spielregeln für Künstliche Intelligenz

Künstliche Intelligenz steckt noch in den Kinderschuhen. Die genannten Beispiele sind erst der Anfang. Gerade deshalb müssen wir uns jetzt mit den Spielregeln beschäftigen. Für mich ein ganz zentraler Punkt dabei: Es braucht einen klaren rechtlichen Rahmen. Denn eine besondere rechtliche Herausforderung selbstlernender Systeme wird darin bestehen, die Frage der Verantwortung zu klären. Wer ist für Entscheidungen oder Fehlentscheidungen verantwortlich? Je autonomer ein System agiert, desto schwieriger wird es, Betreiber, Hersteller oder Nutzer eine eindeutige Verantwortung zuzuschreiben.

Durch den Einsatz von KI, können Cyberangreifer noch zielgenauer und effizienter vorgehen. Daher reicht die heutige regulatorische Fokussierung auf Betreiber kritischer IT-Infrastrukturen etwa im Informations- und Telekommunikationstechnik-, Gesundheits- oder Energiebereich nicht mehr aus. Im Internet der Dinge werden zunehmend KI-basierte IT-Systeme genutzt, deren Kritikalität auch ad-hoc entstehen kann. Zum Beispiel beim autonomen Fahren. Wird hier gehackt, kann schnell ein Verkehrschaos und damit Gefahr für die Verkehrsteilnehmer entstehen. Daraus erwächst eine zunehmende Verantwortung für Hard- und Softwarehersteller wie das Schließen und Melden von Sicherheitslücken und das Ergreifen von präventiven technischen Schutzmaßnahmen.

Entscheidungen von KI basieren auf Daten. Es muss sichergestellt sein, dass diese Basisdaten nicht manipuliert werden. Eine hohe Datenqualität ist die Voraussetzung für integre Entscheidungen der KI. Es muss aber vom Gesetzgeber auch sichergestellt sein, dass die verfügbaren Daten ausgewertet werden dürfen. Die Europäische Datenschutz-Grundverordnung bildet hierfür einen guten Rahmen. Es darf aber nicht passieren, dass die Errungenschaften des europäischen Datenschutzrechts mit Regelungen wie der ePrivacy Verordnung für einige Marktteilnehmer wieder beschnitten werden. Das führt nicht zu mehr, sondern zu weniger Sicherheit.

Nicht zuletzt braucht es einen ethischen Umgang mit künstlicher Intelligenz. Daher freut es mich, dass die Basis der KI-Strategie der Bundesregierung der europäische Wertekanon sein soll. Doch auch wir als Unternehmen sind hier gefragt. Wir müssen uns bei der Entwicklung und dem Einsatz von KI an ethische Regeln halten. Daher haben wir uns als Deutsche Telekom Leitlinien für den Umgang mit künstlicher Intelligenz gegeben. Ich hoffe, dass viele Unternehmen hier nachziehen, anstatt auf den Gesetzgeber zu warten.

Laptop, Handy und Kaffeetasse auf dem Tisch

Management zur Sache

Das Management äußert sich zu wichtigen Themen.

FAQ

Diese Website verwendet Cookies, um Ihnen den bestmöglichen Service zu gewährleisten. Durch die Nutzung der Website {js_accept}akzeptieren{js_accept} Sie die Verwendung von Cookies. Weitere Informationen finden Sie hier.