35% aller Twitter-Accounts in den USA sind Bots, 20% in Europa


Twitter Bots

Das Web Excellence Forum (WebXF) e.V., eine Unternehmensinitiative zur Bewertung digitaler Kommunikation, weist, passend zur US Wahl, auf die Fragwürdigkeit digitaler Daten hin und rät Unternehmen, Social Media-Daten immer mit Ergebnisse aus anderen Medienkanälen zu vergleichen, um sich vor Täuschungen zu schützen.

WebXF-Unternehmen vergleichen kontinuierlich die Leistung von Content Marketing-Kampagnen nach einem Standardverfahren. Im Rahmen aktueller Messungen hat WebXF zusätzlich den Einfluss von Maschinenprogrammen auf die digitale Kommunikation anhand einer Stichprobe untersucht.

„Posts, Shares und andere Beiträge werden auch in den sozialen Kommunikationskanälen immer häufiger nicht mehr von Menschen, sondern von automatischen Programmen erzeugt, die menschliche Aktivität nur vortäuschen. Wir wollten wissen: Worüber machen unsere Daten eigentlich eine Aussage? Wie groß ist diese Matrix aus scheinbarer digitaler Realität? Haben wir es nun auch in Social Media mit Betrug in Dimensionen zu tun, die wir auch aus Online- und E-Mail- Werbung kennen?“ erklärt Alexander Romantschuk, Leiter Digitale Kommunikation bei B. Braun in Melsungen und Vorstand des Web Excellence Forums (www.webxf.org).

Zu diesem Zweck hat WebXF eine nicht repräsentative, aber ausreichend aussagekräftige Kurzanalyse durchgeführt. Untersucht wurde die Twitter-Kommunikation zu zwei meinungsstarken Themen, die für die 26 WebXF-Unternehmen aus DAX und MDAX relevant sind:

1. #TeslaCrash, die Kommunikation zu den tödlichen Unfällen mit dem Autopiloten des gleichnamigen Herstellers.

2. #CETA bzw. #TTIP, die Diskussionen rund um die Freihandelsabkommen.

Untersucht wurde eine Stichprobe aus allen Profilen, die Stellungnahmen zu diesen beiden Themen auf Twitter weiterverbreitet haben (Retweets). Im Fall #TeslaCrash waren diese Retweets für nicht weniger als 120.000 Erwähnungen des Themas (Mentions) verantwortlich.

Aus den Stichproben zu beiden Themen wurden 500 Mentions zufällig ausgewählt und eingehend auf die Frage „Bot or Not?“ untersucht. Als Bot wurden alle Twitter-Accounts eingestuft, deren Profilinformationen (Text oder Bild) explizite Hinweise auf Maschinenaktivität lieferten und die gleichzeitig über 30 Tage mehr als 30 Tweets täglich absetzten.

Die Ergebnisse der Untersuchung:

  1. Der Anteil der Bots an der Tesla-„Diskussion“ betrug 35%.
    Das heißt: Mehr als ein Drittel der Profile, die sich an der vornehmlich in den USA stattfindenden Diskussion „beteiligten“, waren Maschinen und nicht Menschen.
  2. Der Anteil der Bots an der CETA/TTIP-„Diskussion“, die vornehmlich in Europa stattfand, betrug 20%.
  3. Software-Werkzeuge, die Bots verlässlich erkennen und ihren Einfluss aus der Bewertung von Social Media-Kommunikation eliminieren, sind am Markt noch nicht verfügbar. Keines der verwendeten Tools erwies sich als ausreichend zuverlässig. Das scheint auch für die Filterwerkzeuge zu gelten, die Hersteller von Social Media Monitoring-Plattformen betreiben – ähnlich den Spamfiltern, die E-Mail-Dienste, wie z.B. GMX einsetzen.

Die Ergebnisse der Stichprobe legen nahe, dass die vermeintlich exakten Daten zu Reichweite, Verlauf und Buzz von Kommunikation auf Twitter durch vorgetäuschte Kommunikation massiv aufgebläht sind. Diese durch Maschinen erzeugte Inflation scheint umso höher, je stärker US- amerikanische Profile an Diskussionen auf Twitter beteiligt sind. Nach Invasion von Bots bei E-Mail (Spam) und in der Online-Werbung (Fraud), hat die systematische maschinelle Täuschung nun auch Social Media erreicht.

WebXF rät daher allen Verantwortlichen in Kommunikation und Marketing, Social Media-Daten ausschließlich vergleichend mit Daten aus anderen Medienkanälen zu betrachten. Diese kanalübergreifende Sicht, wie sie z.B. auch der WebXF-Auswertungsstandard Content.ONE unterstützt, macht vorsätzliche Störungen (Angriffe) in einzelnen digitalen Kanälen leichter erkennbar.

„Bei der Vielzahl an Daten und Kennzahlen gilt mehr denn je, dass Daten erst sprechen, wenn man über sie spricht. Benchmarks in Form von Zeitreihen oder Vergleichen mit anderen Kanälen und Marktteilnehmern sind hierfür der ideale Ausgangspunkt. Ergebnisse digitaler Kommunikation müssen immer wieder aufs Neue auf ihre Plausibilität überprüft werden. Und zwar von Menschen, nicht von Maschinen. Das gilt für Kommunikationsverantwortliche in Unternehmen genauso wie für Journalisten,“ rät Dr. Christian Bachem, Mitgründer des Web Excellence Forums.

„Die Ergebnisse überraschen uns nicht, sind aber dennoch sehr ernüchternd“ sagt Michael Heine, Mitgründer des Web Excellence Forums, „Das Potenzial via Twitter tatsächlich mit Menschen gesellschaftliche Diskussionen zu führen, ist viel kleiner als gedacht. Dagegen legt der hohe Anteil an Bots den Schluss nahe, dass nicht-humane Tweets offensichtlich eine gute Möglichkeit sind, Journalisten und andere humane Multiplikatoren zu beeinflussen, die den Buzz in ihrer Social Media-Echokammer mit der Realität verwechseln.“

Contentmanager.de Newsletter.
Bleiben Sie informiert. Wöchentlich. Kostenlos.

Bildquellen

  • twitter-bots: unsplash.com - freestocks.org
Previous So finden Sie die passende Plattform-Lösung
Next pirobase imperia stellt Major Release mit Preview Editing vor

No Comment

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

1 × zwei =