Eine Gefahr für Nutzer sozialer Netzwerke: Social Bots. Grafik: Kerstin Meinert via Videoscribe

Invasion der Meinungsmaschinen

Immer mehr programmierte Trolle finden ihren Weg in die Sozialen Netzwerke. Social Bots geben vor, echte Nutzer mit einer echten Meinung zu sein. Das geht technisch so weit, dass sie kaum noch von den wirklichen Nutzern zu unterscheiden sind und daher gezielt zur Meinungsmache im Netz eingesetzt werden. //Von Kerstin Meinert und Kurdistan Nesrat Alo

18.11.2016// Social Bots finden sich immer zahlreicher auf Plattformen wie Twitter und Facebook. Wie zuletzt waren die kleinen Programme auch im Umfeld der Präsidentschaftswahlen 2016 in den USA zu finden. Social Bots sind hier zu künstlichen Wahlkampfhelfern aufgestiegen. Eine Studie der Universität Oxford zeigt, dass während der ersten TV-Debatte viermal mehr Tweets von automatisierten Accounts zugunsten des Präsidentschaftskandidaten Donald Trump abgesetzt wurden, als für seine Konkurrentin Hillary Clinton. Aber auch schon bei der Präsidentschaftswahl 2012 in Mexiko waren Bots als sogenannte "Peñabot" unterwegs. Diese verhalfen dem damaligen Präsidentschaftskandidaten Enrique Peña Nieto erfolgreich zum Wahlsieg. Selbst in Deutschland wird, im Zusammenhang mit dem Bundestagswahlkampf 2017, der Einsatz von Social Bots immer mehr zum Thema. "Darüber hinaus gibt es bereits heute Entwickler, die ein Geschäftsmodell aus der Entwicklung von Social Bots gemacht haben. Dadurch können politische Parteien und Unternehmen sehr einfach eine fast beliebige Anzahl der kleinen Meinungsmaschinen einkaufen und gezielt im Web platzieren", so Ingo Scholtes, Informatiker und Dozent am "Chair of Systems Design" an der Eidgenössischen Technischen Hochschule Zürich (ETH).

In Zukunft gezielt Emotionen und Hass streuen

Während sich Social Bots hinter vermeintlich realen Profilen verstecken, versuchen sie immer häufiger in aktuelle Diskussionen einzugreifen und diese künstlich mit politisch eingefärbten Kommentaren anzustoßen. "Die Gefahr besteht, dass solche Techniken genutzt werden, um in Zukunft gezielt Emotionen und Hass zu streuen, um damit beispielsweise politische Debatten zu vergiften. Erste Beobachtungen in dieser Richtung gab es kürzlich auch in Deutschland, in denen mutmaßliche Bots automatisch und in großer Anzahl fremdenfeindliche Kommentare auf den Seiten politischer Parteien platzierten", sagt Ingo Scholtes, "Während man früher auf viele Menschen angewiesen war, die solche Fake-Accounts erstellten und steuerten, ist es nun möglich geworden, dies mit Hilfe von automatischen Bots viel schneller und preiswerter zu erledigen."

Automatisches Verständnis natürlicher Sprache erleichtert das Versteckspiel

Durch die fortschreitende Technik, insbesondere im automatischen Verständnis natürlicher Sprache, können Social Bots plausibel erscheinende Unterhaltungen führen. Ingo Scholtes, der ebenso als Juniorfellow der Gesellschaft der Informatik, den Vorsitz in dessen neugegründeten Arbeitskreis "Computational Social Sience" inne hat, führt fort: "Ein Beispiel hierfür ist der gefälschte Twitter-Account der ehemaligen argentinischen Präsidentin Cristina Kirchner. Mit diesem hatten sich Bürger monatelang unterhalten, bis schließlich ein Journalist und Programmierer enthüllte, dass es sich dabei um einen Bot handelte. Offensichtlich hatte keiner der User dies bemerkt."

Trends werden verzerrt, Nachrichten verfälscht

Social Bots können so auf Twitter einzelne Hashtags pushen. Eine ganze Armee von Bots könnte zeitgleich Nachrichten mit einem bestimmten Hashtag posten und diesen somit zum Trending-Hashtag machen. Der sollte für gewöhnlich darüber informieren, was die Nutzer zurzeit interessiert. Anhand dieses Trends treffen andere Nutzer, aber auch Medien und Politiker, ihre Entscheidungen. Eine Unterart der Social Bots, die so genannten Social Hoaxes, kommen auch immer häufiger vor. Dabei geht es darum, mit anderen Medieninhalten eine falsche Realität zu simulieren. So werden Falschmeldungen in Soziale Netzwerke gepostet und diese teilweise mit Videos belegt. Solche erfundenen Nachrichten werden genutzt, um so beispielsweise Unternehmen ökonomisch zu schaden.

 

YouTube

Mehr Informationen zum Datenschutz von YouTube

Video laden

Aufklärung zum Schutz

Doch was kann man gegen die Gefahr der aufgesetzten Meinungsmache im Internet machen? Dieser Frage geht das Projekt Social Media Forensics des Forschungskollegs der Universität Siegen auf den Grund. Das Projekt Social Media Foresics (SoMeFo), gefördert vom Bundesministerium für Bildung und Forschung, hat das Ziel, Nutzer von Sozialen Netzwerken soweit über die Gefahren durch Social Bots aufzuklären, dass diese selbst in der Lage sind, Manipulationen aufzudecken. "Ich denke, Aufklärung ist der beste Schutz", sagt Andree Thieltges, Sozialwissenschaftler und Projektkoordinator des SoMeFo-Projekts, "Wir begreifen uns als die Wenigen, die diese Gefährdung auf die Agenda setzen." Einen Überblick über die Forschungsergebnisse des Projekts bietet der Blog Political Data Science. Gegen Social Bots ist momentan kein Kraut gewachsen. Das gesamte Gefüge ist so dynamisch, dass sie sich ständig weiter entwickeln. "Zu sagen, man baue einen dauerhaft wirksamen Schutz, ist utopisch", so Andree Thieltges.

Falsches Abbild der Gesellschaft

Eine besondere Gefahr sieht Andree Thieltges dabei in der Berichterstattung, in der Ausschnitte von Hass-Kommentaren aus Twitter oder Facebook als Hilfsmittel genutzt werden. "Da wird im schlimmsten Fall einer Meinung ein Forum geboten, die sie sonst in dem Maße überhaupt nicht hätte. Das wird wirklich gefährlich, wenn Falschinformationen die netzwerkinterne Ebene verlassen und auf die netzwerkexterne Ebene geraten." Weiter führt Andree Thieltges an: "Man muss tatsächlich stets mit offenen Augen durch das Netz gehen und kann sich nicht mehr auf die vorgefundene Quantität von Meinungen verlassen. Falls einem irgendetwas eigenartig vorkommt oder man merkt, hier muss etwas faul sein, sollte man Inhalte kritisch bewerten."

 


 Die Autoren:

Video: Kurdistan Nerat Alo

Text: Kerstin Meinert

 

 

Kommentar hinterlassen

Mit Absenden des Formulars erkären Sie sich mit der Speicherung und Verarbeitung der darin eingegebenen personenbezogenen Daten einverstanden. Weitere Hinweise dazu finden Sie in unserer Datenschutzerklärung.