Archiv

Archiv

Konzern

Lisa Machnig

0 Kommentare

Mit Künstlicher Intelligenz gegen Hass im Netz?

Algorithmen, die vor Fake News oder Straftatbeständen warnen. Zukunftsmusik oder Realität? Wir haben mit Expert*innen darüber gesprochen, was KI gegen Hass im Netz leisten kann.

210601-mit-KI-gegen-hass-im-netz

Neuronale Netze sind eine Form Maschinellen Lernens. Sie funktionieren ähnlich wie Nervenzellenverbindungen in unserem Gehirn.

Fishing for (Anti-)Compliments: Neuronale Netze fangen Hassbotschaften ein

Die Telekom forscht seit mehreren Jahren auf dem Gebiet innovativer Technologietrends wie KI. Laut Tanja Hagemann, Datenwissenschaftlerin bei den Telekom Innovation Laboratories, kurz T-Labs, gebe es mehrere Ansätze, um mit KI gegen Hass im Netz vorzugehen: „Im ersten Schritt geht es dabei um die Erkennung von Hass in geschriebener oder gesprochener Sprache bzw. auch in Bildform. Der nächste Schritt ist dann darauf aufbauend eine automatisierte Reaktion auf diese Hassbotschaften.“ Wie das funktioniert? Mit neuronalen Netzen.

Neuronale Netze sind eine Form Maschinellen Lernens. Sie funktionieren ähnlich wie Nervenzellenverbindungen in unserem Gehirn. Anstelle von Neuronen und Synapsen kommunizieren Datenknoten und gewichtete Verbindungen. Erhält ein neuronales Netz Daten in Form von gesprochener oder geschriebener Sprache, passt es seine Verbindungen an und lernt, die Informationen einzuordnen – und die Daten gegebenenfalls als Hassbotschaft zu identifizieren.

Diskriminierungsfrei lernen

Man nehme ein entsprechendes System, füttere es mit Daten und schon hat man eine Super-Anti-Hate-Speech-Intelligenz. Ganz so simpel ist es nicht. Denn, ob eine Nachricht als „beleidigend“ bewertet wird, variiert von Mensch zu Mensch. Und wenn wir schon eine diskriminierende Nachricht nicht eindeutig erkennen können, wird dies auch KI nicht gelingen.

Bei den T-Labs wird seit längerem mit Partnern aus Wissenschaft und Startup-Welt zu der Frage geforscht, wie in Zukunft die Vertrauenswürdigkeit von KI-Systemen gewährleistet werden kann. Hierzu zählt beispielsweise die Erklärbarkeit von neuronalen Netzen, aber auch die Frage, welche Verfahren dafür sorgen, dass eine KI diskriminierungsfrei ist. „Da die Modelle nur das verstehen können, was sie zuvor in Daten beobachtet haben, reproduzieren sie unter Umständen eine sehr eingeschränkte Sichtweise oder Meinung. Daher ist es essentiell, dass bei der Entwicklung von KI-Modellen zunächst Awareness dafür geschaffen wird, welche Werte von einem Modell berücksichtigt werden müssen“, erklärt Tanja Hagemann.

Viele Herausforderungen, die es zu meistern gilt – und denen sich einige Projekte bereits stellen. Zwei Praxisbeispiele, die KI nutzen, um gegen Hass im Netz vorzugehen.

KI-Case am Fraunhofer-Institut: Vor Fake News warnen 

Prof. Dr. Ulrich Schade am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE, beschäftigt sich mit „Natural Language Processing“ (NLP). Dabei wird natürliche Sprache erfasst und mittels Regeln und Algorithmen computerbasiert verarbeitet. Konkret arbeitet Prof. Schade an einem Tool, das vor Fake News warnen soll. „Das Tool selbst führt zwar keinen Faktencheck durch, aber es kann anhand von sprachlichen Eigenschaften, wie Wortwahl, Vorkommen spezifischer Fehler usw., sowie anhand von Metadaten, beispielsweise wann oder wie oft etwas gepostet wird, abschätzen, ob es sich um Fake News handeln könnte.“

Hierfür wird überwachtes Maschinelles Lernen genutzt. „‚Überwacht‘ bedeutet, dass das Tool auf der Grundlage sehr vieler Beispiele lernt, die Unterscheidung – Fake oder korrekte Nachricht – zu treffen. Man benötigt also vorab Beispiele für ‚Fake‘ und Beispiele für korrekte Nachrichten. Aus diesen Beispielen entnimmt und lernt das Tool Merkmale, die für die jeweilige Klassifikation als Indizien genutzt werden können“, erklärt Prof. Schade.

Könnte ein solches Tool auch bei Hate Speech helfen? Ja, sagt Prof. Schade. „Eigentlich entwickeln wir Klassifikatoren, die eine Anzahl von Texten betrachten und die einzelnen Texte in unterschiedliche Klassen aufteilen. Eine solche Klassifizierung ist ‚Fake‘ vs. ‚Nachricht‘, eine andere ist ‚Kommentar mit Hate Speech‘ vs. ‚Kommentar ohne Hate Speech‘.“

KI-Case am Max-Planck-Institut: Strafbarkeit automatisch prüfen 

Dr. Frederike Zufall, Rechtswissenschaftlerin am Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern, entwickelt ein Modell, dass Kurzkommentare auf ihre Strafbarkeit überprüft. „Das Idealziel wäre es, dass unser Modell am Ende eine Vorhersage über einen neuen unbekannten Kommentar dahingehend machen kann, ob dieser einen Straftatbestand, wie etwa die Volksverhetzung nach § 130 Abs. 1 StGB, erfüllt.“

Dieses System nutzt ebenfalls überwachtes Maschinelles Lernen. Die Krux: „Es ist nahezu unmöglich, dass das Modell aus der Vielfalt an möglichen Äußerungen, die diesen Straftatbestand erfüllen könnten, ein Pattern generalisiert, mit dem es verlässliche Vorhersagen treffen kann“, so Dr. Frederike Zufall. Die Lösung? Unterentscheidungen. Aus dem großen Ganzen werden viele Einzelteile. Eine Unterentscheidung wäre etwa die Bewertung, ob ein Kommentar sich gegen eine bestimmte Personengruppe richtet. Jede Unterentscheidung wird vom System eingeordnet und beeinflusst die Gesamtentscheidung.

Ob Fake News, Straftatbestände oder Hasskommentare – algorithmische Datenverarbeitung hat einen großen Vorteil: sie ist schnell. Wird KI Menschen also auf absehbare Zeit im Kampf gegen Hatespeech ersetzen?

gegen-hass-im-netz-01

Gegen Hass im Netz

Die Telekom kämpft für ein Netz ohne Hass, in dem alle respektvoll miteinander umgehen.

FAQ