Twitter: Safety Mode wird getestet

Twitter: Safety Mode wird getestet

 

Twitter führt eine Funktion ein, von der es sich erhofft, dass sie dazu beiträgt, gegen Missbrauch und Trolling vorzugehen, die beide zu großen Problemen für die Plattform geworden sind.

Der Sicherheitsmodus kennzeichnet Konten, die hasserfüllte Äußerungen verwenden oder Menschen mit unaufgeforderten Kommentaren bombardieren, und sperrt sie für sieben Tage.

Die Funktion funktioniert automatisch, sobald sie aktiviert ist, und nimmt den Nutzern die Arbeit ab, sich mit unerwünschten Tweets zu befassen.

Sie wird zunächst mit einer kleinen Gruppe von Nutzern getestet.

Die Funktion kann in den Einstellungen aktiviert werden, und das System bewertet sowohl den Inhalt des Tweets als auch die Beziehung zwischen dem Verfasser des Tweets und dem Antwortenden. Konten, denen der Nutzer folgt oder mit denen er häufig interagiert, werden nicht automatisch blockiert.

Katy Minshall, Leiterin von Twitter UK Public Policy, sagte: „Wir haben zwar Fortschritte dabei gemacht, den Nutzern mehr Kontrolle über ihre Sicherheitserfahrungen auf Twitter zu geben, aber es gibt immer noch mehr zu tun.

„Wir führen den Sicherheitsmodus ein, eine Funktion, mit der man automatisch störende Interaktionen auf Twitter reduzieren kann, was wiederum die Gesundheit der öffentlichen Konversation verbessert“.

Wie andere Social-Media-Plattformen setzt auch Twitter auf eine Kombination aus automatischer und menschlicher Moderation.

Twitter hat zwar nie offiziell bekannt gegeben, wie viele menschliche Moderatoren es einsetzt, aber ein Bericht der New Yorker Wirtschaftshochschule NYU Stern aus dem Jahr 2020 geht davon aus, dass das Unternehmen etwa 1.500 Mitarbeiter beschäftigt, um die 199 Millionen täglichen Twitter-Nutzer weltweit zu bewältigen.

Eine kürzlich von Facts Against Hate im Auftrag der finnischen Regierung durchgeführte Studie über Hassreden ergab, dass Twitter in Bezug auf Hassreden „der schlimmste der Tech-Giganten“ ist.

Die Antwort, so Studienautorin Dr. Mari-Sanna Paukkeri, ist der Einsatz von Systemen der künstlichen Intelligenz, die von Menschen trainiert wurden.

„Es gibt so viele verschiedene Möglichkeiten, schlimme Dinge zu sagen, und es ist eine Wissenschaft für sich, Werkzeuge zu entwickeln, die diese erkennen können“, sagte sie.

Es reiche nicht aus, einfach nur bestimmte Wörter oder Phrasen hervorzuheben, eine Technik, auf die sich viele soziale Netzwerke stützen, fügte sie hinzu.

Neben der Bekämpfung des Missbrauchs auf der Plattform ist Twitter auch entschlossener geworden, gegen Fehlinformationen vorzugehen. Im August ging das Unternehmen eine Partnerschaft mit Reuters und Associated Press ein, um irreführende Informationen zu entlarven und ihre Verbreitung zu stoppen.

Zuvor wurde Birdwatch eingeführt, ein Community-Moderationssystem, das es Freiwilligen ermöglicht, Tweets zu kennzeichnen, die sie für unrichtig halten.

 

Hintergrund

 

Twitter hat die Erprobung eines neuen „Sicherheitsmodus“ angekündigt, mit dem missbräuchliche Nutzer automatisch blockiert werden können, und gleichzeitig „Super Follows“ eingeführt, die es ausgewählten Nutzern ermöglichen, von ihren Followern eine Abonnementgebühr für bestimmte Inhalte zu verlangen.

 

Fazit

 

Der Sicherheitsmodus ist ein weiterer Schritt zur Eindämmung des Missbrauchs auf der Plattform, der nach wie vor ein großes Problem für Twitter darstellt, und folgt auf andere kürzlich eingeführte Funktionen wie das Ausblenden von Antworten, die Begrenzung der Personen, die auf ihre Beiträge antworten können, und die Anzeige einer Warnung vor dem Tweeten einer potenziell schädlichen Antwort. Mit der Funktion „Super Follows“ will Twitter engagierten Urhebern mehr Möglichkeiten bieten, ihre Inhalte zu monetarisieren, um sie auf der Plattform zu halten, zumal der Kampf um Urheber mit anderen Social-Media-Plattformen immer härter wird.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert