Sebastian_Stoll


 

                 Reportage                                       Portrait                             Report                                Vita                                      Impressum 

Home




  Report



Fon:






Mail:







                                                                     


Die Maschine, die alles mitliest

Eine spezielle Software könnte in Zukunft dabei
helfen, Hass-Postings aus Kommentarspalten
herauszufiltern

Der Freitag , 08.12.2016


Ab wann Hass kann man jetzt messen. Schreibt ein Mensch in einer Online-Diskussion wie hier auf der Facebook-Seite der AfD: „Die Menschen zweiter Klasse mit eigenen Lobbys, Interessenverbänden und Politikerunterstützung sind Transatlantiker, Antifanten, Homosexuelle, Schmierfinken der Mainstreampresse und linksgrünversiffte Gutmenschen“, handelt es sich dabei mit einer Wahrscheinlichkeit von 67,13 Prozent um ein Hass-Posting. Sogar bei 80,83 Prozent liegt die Wahrscheinlichkeit bei dem in holprigem Deutsch verfassten Beitrag: „Die Grünen gehören abgeschafft. Nachdem sie ein leben lang Deitschland geschadet haben können sie sich satt zurück lehnen und fein von der Alterssicherung leben für sie diese Schmarotzer keinen Cent je eingezahlt haben.“

Solche Prozentrechnungen muten seltsam an? Kann sein, aber es ist ein Anfang: „Hate Mining“ heißt das Projekt, das Wirtschaftsinformatiker der Universität Münster jetzt in die Welt gesetzt haben. Dahinter steckt der Versuch, mit Algorithmen die Emotionen von Menschen zu messen; oder genauer: ihren Hass – um ihn dann auszusortieren. Weil es so viel davon gibt, weil er überall ist. „Wir haben eine unbefriedigende Ist-Situation. Nämlich, dass Debatten im Netz einfach nicht mehr möglich sind“, sagt Sebastian Köffer vom Hate-Mining-Team.


So viele Pluralformen


Noch ist das Programm in der Entwicklungsphase – zu Testzwecken kann aber bereits heute jeder, der will, auf der Internetseite des Projektes einen beliebigen Text in eine Maske eingeben und sich Hass in Prozenten errechnen lassen. Zum Einsatz kommen soll Hate Mining einmal im halbautomatisierten Verfahren in Online-Redaktionen, um dort überlastete Social-Media-Redakteure zu unterstützen. Die Maschine sortiert nach Prozenten, der Mensch entscheidet – so ist es gedacht. Bei Yahoo wird derzeit ein ganz ähnliches Programm für die Arbeit mit den eigenen Kommentarspalten erprobt.


Gebrauchsfertig sind all diese Analysemethoden noch nicht. Bei den Hate Minern in Münster beschränkt man sich derzeit auf die Untersuchung von Kommentaren, die im weitesten Sinne zur Flüchtlingskrise zu zählen sind – beziehungsweise der rechtsextremen Narrative, die sich in deren Fahrwasser durchgesetzt haben. Einfach deshalb, weil es derzeit noch zu viel Aufwand bedeuten würde, den Blickwinkel weiter zu fassen. „Die deutsche Sprache ist schwer zu analysieren, etwa, weil sie so viele Pluralformen hat“, sagt Sebastian Köffer

370.000 Kommentare haben die Forscher gesammelt und aus ihnen Schlüsselbegriffe extrahiert, die ihrer Ansicht nach auf einen Hasskommentar hindeuten – oder aber im Gegenteil auf, wie sie es nennen, „Nicht-Hass“. Am Ende steht ein Wörterbuch mit 60.000 Begriffen, in dem jeder einen Punktewert hat: „Lügen“ oder „Verbrecher“ liegt bei einem Hass-Wert von ungefähr 1, „Demokratie“ oder „Integration“ bei rund -0,75. Gibt man nun einen Kommentar mit mindestens 200 Zeichen in die Maske ein, errechnet die Software anhand der vorkommenden Worte einen Gesamtwert und teilt dann mit, für wie hoch sie die Wahrscheinlichkeit eines Hasskommentars hält. Worte ergeben Punkte, Punkte ergeben Wahrscheinlichkeiten.

Ähnliche Verfahren werden nicht nur dann angewendet, wenn es darum geht, Hass zu identifizieren. „Ich habe in meinem Experiment auf dieselbe Art gearbeitet“, sagt Hernani Marques. Er ist Mitglied im Chaos Computer Club Zürich und hat sich für seine Masterarbeit im Fach Computerlinguistik einfach mal eine Weile selbst überwacht. Genauer gesagt: Marques wollte wissen, ob er schlicht aufgrund seines Surfverhaltens für einen Geheimdienst als terrorverdächtig gelten könnte.


Geheimdienste überwachen das Surfverhalten von Menschen mittels sogenannter Selektoren – bestimmte Begriffe oder Wortpaare, deren Vorkommen einen Nutzer oder eine Internetseite verdächtig machen. Um welche Begriffe es sich handelt, ist stets streng geheim; für Hernani Marques nicht in Erfahrung zu bringen.


Also versuchte er, sich in einen Geheimdienst hineinzudenken, und legte seine eigenen Selektoren fest. Er konnotierte etwa „Kapitalismus“ oder „Solidarität“ mit Linksextremismus – „Flüchtlingsflut“ und „Schweizer“ mit Rechtsextremismus. Anschließend surfte er so selbstverständlich wie möglich im Internet, zehn Tage lang. Und sein eigener kleiner Spitzel wies derweil jeder aufgerufenen Seite einen Punktewert zu. Am Ende stufte das Programm ein Drittel der besuchten Seiten als verdächtig ein. „Das ist sehr gefährlich. Auf diese Weise können Leute als einer bestimmten Strömung zugehörig klassifiziert werden, ohne dass sie dieser tatsächlich angehören“, sagt Marques.


Es gibt eine Zahl, die nahelegt, dass Marques mit seinem Experiment nicht weit von der Wirklichkeit entfernt gewesen sein kann: Über 25.000 Mal haben nach Angaben des Parlamentarischen Kontrollgremiums im Jahr 2014 die Filterprogramme des BND aufgrund terrorverdächtiger Begriffe in SMS- und E-Mail-Nachrichten Alarm geschlagen. Nur 65 Fälle waren tatsächlich bedeutsam, nicht einmal 0,26 Prozent.


All das muss man wissen, wenn man über Hass im Netz redet und über Programme, die ihn identifizieren sollen. Man landet da ganz schnell bei Techniken, wie sie Geheimdienste seit Jahren einsetzen.


Und doch gibt es beträchtliche Unterschiede. Zunächst mal einen ganz pragmatischen, nämlich bei der zu erwartenden Treffergenauigkeit: Ein Merkmal von Terroristen ist, dass sie relativ selten sind. Wer nach ihnen sucht, muss zwangsläufig in Kauf nehmen, häufig Unschuldige zu verdächtigen. Hate Speech dagegen ist Volkssport. Dass beispielsweise ein Kommentar, in dem Worte vorkommen wie „Neger“, „linksgrünversifft“ und „Migrantenkriminalität“, mit einer recht hohen Wahrscheinlichkeit einen herabsetzenden und diskriminierenden Inhalt enthält – dem würden die meisten Menschen wohl auch ohne systematische Analyse zustimmen. Anders gesagt: Wo viel Hass ist, kann auch viel gefunden werden.


Zudem werden durch das Hate Mining immer nur einzelne Kommentare untersucht, nicht der Mensch, der sie abgegeben hat. So ist es angelegt. Auch das ein Unterschied zur geheimdienstlichen Terroristensuche. Vor allem aber analysiert die Maschine keine privaten Äußerungen, sondern nur solche, die sich im öffentlich zugänglichen Raum einer Kommentarspalte befinden. Auch das kann man durchaus kritisch sehen, aber es ist trotzdem ein anderer Maßstab.


Die Weisheit der Vielen


Und dennoch: Schränkt man mit so einer Software nicht die Freiheit der Rede ein? Schon möglich, aber gilt das nicht in viel größerem Maße für die entgrenzte Hass-Sprache selbst? Ist sie es nicht, die jeden Diskurs dominiert – und damit anderen Menschen das ihr zugrunde liegende brutale Denken und Handeln aufzwingt? Eine Welt, in der Menschen zum US-Präsidenten gewählt werden, die andere Menschen in sozialen Medien als „geisteskranke, dumme Verlierer“ beschimpfen, leidet wohl nicht zu allervorderst unter dem Problem einer überregulierten Sprache.


Nur: Was ist eigentlich Hass? Was einen Menschen zum Terroristen macht, zum Mörder oder Betrüger, das kann man im Strafgesetzbuch nachlesen. Aber was ist ein Hasser? Beim Hate Mining setzt man auf die Weisheit der Vielen: Bevor man sie fertig gebaut hat, wurde die Maschine angelernt. Über soziale Netzwerke trommelten die Macher möglichst viele Menschen zusammen, die für den Algorithmus eine Vielzahl von Kommentaren bewerten sollten – auf der Grundlage der Hass-Definition des Ministerkomitees des Europarates, die unter diesem Begriff unter anderem alle Ausdrucksformen versteht, „die Rassismus, Fremdenfeindlichkeit, Antisemitismus oder andere Formen von Intoleranz“ verbreiten. Am Ende waren knapp 3.000 Kommentare rund 12.000 Mal bewertet worden. Das ist das Gewissen der Maschine. Jedenfalls das ihrer ersten Version.


Es ist klar, dass das nicht reicht. Bewertet haben zu wenige Nutzer, die möglicherweise auch aus einem recht ähnlichen Milieu kommen. Nur: Es wird niemals reichen. Ob 3.000 Menschen bewerten, 300.000 oder 30 Millionen: Die Gruppe derjenigen, die laut „Zensur“ schreien, wird es immer geben. Die Frage ist nur: Können wir sie dann noch hören? Und wie finden wir das?
Übersicht