Tech News

Technik & Digital

Wie markensicher ist Twitter unter Elon Musk?


In letzter Zeit wurde viel über die Rate von Hassreden auf Twitter diskutiert und darüber, ob unter Elon Musk mehr hasserfüllte Inhalte in der App geteilt werden.

Angesichts der Tatsache, dass Elon die Wiedereinstellung von Zehntausenden zuvor gesperrter Benutzer überwacht und mit seinen eigenen Tweets die Stimmung gegen die Regierung und das Establishment geschürt hat, ist es sinnvoll, dass solche Vorfälle zunehmen würden, während Musk auch eine Offenerer Sprachansatzdas so konzipiert ist, dass mehr Arten von Kommentaren und Inhalten in der App aktiv bleiben, anstatt solche zu entfernen.

Wenn man diese Elemente abwägt, hätte Hassreden, sollte man meinen, zugenommen – doch laut Twitter ist sie tatsächlich zurückgegangen.

Wie markensicher ist Twitter unter Elon Musk?

Aber Analysen von Drittanbietern deuten auf das Gegenteil hin, wobei Hassreden auf „Twitter 2.0“ Berichten zufolge zunehmen.

Was ist also richtig und warum unterscheiden sich diese Berichte so stark – und sollten Sie als Werbetreibender befürchten, dass Ihre Anzeigen neben Hassreden in der App angezeigt werden?

Die Unterschiede bei der Berichterstattung sind wahrscheinlich auf unterschiedliche Berichtsmethoden zurückzuführen.

In einem Analysebericht eines Drittanbieters, der vom Center for Countering Digital Hate (CCDH) im Dezember durchgeführt wurde und herausfand, dass Beleidigungen gegen Schwarze und Transgender seit der Übernahme durch Musk um etwa 60 % zugenommen hatten, heißt es:

Die Zahlen decken alle Erwähnungen einer bestimmten Beleidigung oder ihres Pluraläquivalents in englischsprachigen Tweets weltweit ab und beinhalten Retweets und Zitat-Retweets.“

Es basiert also nur auf den Erwähnungen von Schlüsselbegriffen und den Raten, in denen jeder dieser Begriffe in der App aufgetreten ist. Dies ist ein fairer Indikator für die Messung der relativen Häufigkeit solcher Fälle, aber die eigene Analyse von Twitter, die vom Partner Sprinklr durchgeführt wurde (veröffentlicht im letzten Monat), verfolgt einen differenzierteren Ansatz.

Das Toxizitätsmodell von Sprinklr analysiert Daten und kategorisiert Inhalte als „giftig“, wenn sie verwendet werden, um eine Person zu erniedrigen, eine geschützte Kategorie anzugreifen oder Randgruppen zu entmenschlichen. Durch die Integration von Faktoren wie wiedergewonnener Sprache und Kontext konnte unser Modell auch falsch positive und negative Ergebnisse eliminieren. Das Modell verwendet KI, um die Absicht und den Kontext rund um die markierten Keywords zu bestimmen, damit Marken verstehen, was wirklich toxisch ist.

Sprinklr misst also nicht nur Schlüsselbegriffe, sondern auch, wie sie tatsächlich verwendet werden, was angeblich eine genauere Methode ist, um solche Aktivitäten zu verfolgen.

Einige abfällige Begriffe können beispielsweise in einem Kontext verwendet werden, der nicht anstößig ist – was laut Sprinklr tatsächlich die Mehrheit ist.

„Der Prozentsatz der als toxisch identifizierten Tweets im Datensatz mit anstößigen Schlüsselwörtern lag im analysierten Zeitraum im Bereich von etwa 15 %. Obwohl jeder Tweet ein identifiziertes Schimpfwort enthält, werden sie hauptsächlich in ungiftigen Kontexten wie zurückgeforderter Sprache oder beiläufigen Begrüßungen verwendet.“

Studie zu Hate Speech auf Twitter

Das gibt einen Einblick, warum Twitter sagt, dass Hassreden tatsächlich zurückgegangen sind, denn mit einer fortschrittlicheren Berichterstattung, die den Kontext berücksichtigt und nicht nur Erwähnungen, sind die Gesamtraten von Hassreden, wie sie gemessen werden, rückläufig, auch wenn Wie einige Berichte andeuten, nehmen die Erwähnungen zu.

Das erklärt jedoch nicht alle Analysen von Drittanbietern da draußen. Im März veröffentlichte das Institute for Strategic Dialogue (ISD) einen eigenen Bericht, der zeigte „ein großer und anhaltender Anstieg antisemitischer Posts auf Twitter seit der Übernahme des Unternehmens durch Elon Musk.‘

Studie zu Hate Speech auf Twitter

Und im Gegensatz zum CCDH-Bericht spiegeln die Daten von ISD Nuancen wider, ähnlich wie beim Sprinklr-Prozess.

„Dies ist eine Forschungsherausforderung, die uns dazu zwingt, weit über das bloße Zählen der Häufigkeit bestimmter Wörter oder Sätze hinauszugehen und stattdessen maschinelles Lernen und die Verarbeitung natürlicher Sprache zu verwenden, um Modelle und Arbeitsabläufe zu trainieren, die in der Lage sind, komplexe und facettenreiche Formen von Sprache und Bedeutung zu handhaben und Ausdruck.“

Wie Sie anhand der Ergebnisse von ISD sehen können, hostet Twitter innerhalb bestimmter Parameter mehr Hassreden. ISD hat auch festgestellt, dass Twitter jetzt mehr Inhalte entfernt, also handelt es. Aber es gibt auch mehr Aktivitäten, die sich speziell auf antisemitische Tweets beziehen, aber selbst in einem begrenzteren Umfang innerhalb des breiteren Hassreden-Elements ist das offensichtlich ein großes Problem.

Was ist also richtig und in welcher Beziehung steht das zu Ihren Werbeaktionen?

Vieles davon hängt weitgehend von Ihrer Perspektive ab und davon, wie viel Vertrauen Sie in das Team von Twitter setzen, um dieses Element zu bekämpfen. Twitter sagt, dass Hassreden insgesamt zurückgegangen sind, aber es gibt keine Transparenz darüber, wie es zu diesen Zahlen gekommen ist, während Berichte von Drittanbietern, die bestimmte Elemente messen, sagen, dass sie mit unterschiedlichen Methoden gestiegen sind.

Twitter bietet jetzt mehr Anzeigenplatzierungskontrollen und Maßnahmen zur Markeneignung, um Werbetreibenden mehr Gewissheit zu geben, dass ihre Werbeaktionen nicht neben Hassreden angezeigt werden. Dies ist jedoch ein Schlüsselfaktor dafür, warum sich viele Twitter-Werbetreibende von der App zurückgezogen haben und dies auch weiterhin tun.

Sollte das ein Problem für Ihre Beförderungen sein? Das Verständnis der Unterschiede in der Berichterstattung beim Anzeigen solcher Daten ist der Schlüssel zur Kontextualisierung dieses Elements.





Source link