1. Sie befinden sich hier:
  2. Landesmedienzentrum
  3. Aktuelles
  4. Aktuelle Meldungen
  5. Wie Künstliche Intelligenz Hate Speech im Netz erkennen kann

Wie Künstliche Intelligenz Hate Speech im Netz erkennen kann

Marlene Feller
Man sieht Programmiercodes und Computerchips. Darüber eine Glühbirne, die ein Gehirn hat, das ebenfalls aus Computerchips besteht

Eine neue Sprachtechnologie kann Hate Speech und Fake News mithilfe von Künstlicher Intelligenz automatisiert erkennen. | Olemedia via GettyImages

Sind Hate Speech und Fake News auf sozialen Plattformen vielleicht bald Geschichte?

Hass und Hetze verbreiten sich immer mehr in sozialen Netzwerken, Foren und Messenger-Diensten. Das zeigen die Ergebnisse der Hate Speech Forsa-Studie 2022 der Landesanstalt für Medien NRW. Insbesondere auf sozialen Plattformen nehmen immer mehr Menschen beleidigende und diffamierende Kommentare und Postings wahr. Was wäre aber, wenn Künstliche Intelligenz (KI) dabei unterstützen könnte, Hasskommentare im Netz ausfindig zu machen und sie herauszufiltern? Genau daran forscht das Team vom Projekt „DeTox“ (Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz). Die Forschenden haben eine Sprachtechnologie entwickelt, die mithilfe von KI Hate Speech und Fake News automatisiert erkennen kann. Könnte das die Lösung gegen Hassrede in sozialen Netzwerken sein? Welche Chancen bietet die neue Technologie und wo stößt sie an ihre Grenzen?

Wie die Sprachtechnologie funktioniert und Online-Hetze erkennen kann

Das Forschungsteam hat als Grundlage für die Untersuchung 2.500 deutschsprachige Kommentare analysiert, die eine Meldestelle für Hasskommentare zur Verfügung gestellt hatte. In allen Kommentaren wurden Menschen aufgrund von Nationalität, Hautfarbe, ethnischer oder religiöser Zugehörigkeit, sexueller Orientierung, Weltanschauung, Behinderung, politischer Einstellung, sozialem Status oder äußerer Erscheinung beleidigt. Zusätzlich haben die Forschenden auf der Plattform Twitter mithilfe sogenannter Crawler selbst 10.000 Kommentare gesammelt, klassifiziert und analysiert.

In einem zweiten Schritt haben drei Personen aus dem Forschungsteam jeden einzelnen Hasskommentar als solchen bewertet und diese Bewertung an die KI weiter gegeben. Daraufhin hat die KI alle Beispiele nach möglichen Zusammenhängen untersucht. Das Ergebnis: Die Kommentare wiesen alle gewisse Gemeinsamkeiten auf. Bei Hassnachrichten waren das beispielsweise bestimmte Wörter, mehrere Ausrufezeichen hintereinander oder Rechtschreibfehler. Auch Fake News erkannte das Programm an der Art der Sprache. Hinweise dafür waren auffällig viele Personalpronomen oder Emojis.

Die Grenzen der Technologie

Die KI kann durch Training toxische und agressive Inhalte in Kommentaren mit der Zeit immer präziser erkennen, stößt aber trotzdem an ihre Grenzen: Eine große Herausforderung für den Algorithmus sind Sarkasmus und Ironie. Kommentare mit ironischem Inhalt sind für Menschen oft leicht zu erkennen, die KI ist Stand jetzt noch überfordert und kann diese nicht korrekt zuordnen. Außerdem kann sie momentan nur Textbeiträge analysieren, jedoch keine Bilder oder Videos. Forschende gehen aktuell also nicht davon aus, dass Künstliche Intelligenz und Algorithmen Inhalte aus dem Netz selbstständig herausfiltern können. Und selbst wenn das der Fall wäre, würden wir auf ein ganz anderes Problem stoßen: Was geschieht dann mit der Meinungsfreiheit?

„Die Meinungsfreiheit ist ein hohes Gut, daher würde ich die Filterung niemals komplett automatisiert Maschinen überlassen“,

so die Informationswissenschaftlerin Melanie Siegel von der Hochschule Darmstadt. Entscheidet die KI allein, welche Inhalte herausgefiltert werden, wird die Meinungsfreiheit gefährdet. Deswegen sei die Software des DeTox-Forschungsteams eher als Hilfestellung für Mitarbeitende an Meldestellen gedacht, um die tagtägliche Masse an Daten bereits vorzusortieren.

Aus Hate Speech und Fake News automatisch erkennen – Projekt DeTox arbeitet mit KI-Methoden, 01.11.2021

 

Man sieht eine weibliche Lehrkraft, die zwei Schülerinnen im Unterricht etwas auf dem Tablet zeigt.

Die Lösung, um Hate Speech erst gar nicht aufkommen zu lassen: Aufklären und bereits früh Prävention betreiben. | Stígur Már Karlsson via GettyImages

Die Lösung gegen Hate Speech: Aufklärung und Prävention

Fest steht also: Künstliche Intelligenz kann Hate Speech und Fake News im Netz erkennen, aber bei Kommentaren, die Ironie und Sarkasmus enthalten stößt die Sprachtechnologie derzeit noch an ihre Grenzen. Außerdem würde die Meinungsfreiheit immens eingeschränkt werden, wenn das Filtern von Kommentaren allein einer Maschine überlassen wird. Wie können wir also selbst – ohne Hilfe von Technologien – gegen Hassrede im Netz angehen? Die Lösung: Das Probem an der Wurzel packen. Aufklären, wie Hate Speech entsteht und funktioniert, über die Ursachen und Folgen sprechen und letztendlich Prävention betreiben.

Hate Speech im Netz – Alles Wichtige auf einen Blick

Unterrichtsmaterialien zum Thema Hate Speech

Kampagne „Bitte Was?“ des LMZ gegen Fake und Hass

Marlene Feller

Diese Seite teilen: