Wie kürzlich bekannt wurde, hat Facebook – angeblich zur Unterstützung einer psychologischen Studie zu den Auswirkungen von Social-Media-Postings auf das Posting-Verhalten des einzelnen Nutzers – die sog. Newsfeeds (d.h. die Statusmeldungen) von gut 310.000 Facebook-Nutzern manipuliert.
Der Inhalt im Überblick
Datenschutz vs. Facebook
Bereits mehrfach, zuletzt in unserem Beitrag zur Nutzung von Gesichtserkennungssoftware auf Facebook, haben wir berichtet, dass sich der US-amerikanische Konzern nur selten um Fragen des Datenschutzes schert und für die Sicherung seiner Marktposition nicht selten ohne mit der Wimper zu zucken über die Interessen seiner Nutzer hinweggeht.
Dieses Mal wurden also die sog. Statusmeldungen heimlich durch Facebook manipuliert.
Die Facebook Statusmeldungen
Über die Statusmeldungen in Facebook, die jeder Nutzer sieht, wenn er sich in seinen Account einloggt oder die Facebook-App startet, wird der Nutzer regelmäßig darüber informiert, was seine Freunde auf Facebook gerade posten, wie es ihnen geht und was sie „liken“ oder empfehlen. Dabei erwartet der Nutzer, entsprechend seiner Account-Einstellungen, normalerweise eine ungefilterte Darstellung aller Statusmeldungen.
Die Studie
Ein Forschungsteam um den Facebook-Mitarbeiter Adam Kramer (Facebook Corp. Data Science/Marktforschung), wollte im Rahmen dieser Studie nachweisen, dass sich der Inhalt von Social-Media-Meldungen auf den Gemütszustand der Nutzer auswirken kann. Hierzu wurden bereits im Januar 2012 ca. 310.000 Facebook-Nutzerprofile von englischsprachigen Nutzern über einen Zeitraum von einer Woche in der Art manipuliert/gefiltert, dass ca. 155.000 von ihnen in den Statusmeldungen nur solche Meldungen angezeigt wurde, die überwiegend positive Inhalte enthielten, wogegen der anderen Hälfte Statusmeldungen eingeblendet wurden, die eher negative Inhalte hatten. Das Ergebnis dieser Studie veröffentlichten die Wissenschaftler Anfang Juni in der Fachzeitschrift Proceedings of the National Academy of Science.
So sahen sich die Forscher in folgender These bestätigt, wie spiegel-online einen Facebook-Mitarbeiter zitiert:
Die Zahl der Postings der Mitglieder mit manipulierter Timeline sank um 3,3 Prozent. Wer weniger negative Meldungen zu sehen bekam, schrieb mehr positive Inhalte (+0,06 Prozent) und weniger negative (-0,07 Prozent). Auch weniger positive Postings beeinflussten die User, wenn auch weniger stark: Die Betroffenen produzierten mehr Inhalte mit negativer (+0,04 Prozent) und weniger mit positiver Stimmung (-0,01 Prozent).
Zwar räumten die Verantwortlichen ein, dass die Auswirkungen recht marginal seien, aber die Ergebnisse zeigten doch deutlich, dass sich Nutzer in ihrem Nutzerverhalten emotional durch die Statusmeldungen anderer beeinflussen lassen. Angesichts der Zahl an Facebook-Nutzern eine sicherlich nicht zu vernachlässigende Größe.
War das legal?
Die für die Studie Verantwortlichen stützen ihr Handeln auf die Facebook-Nutzungsbedingungen, die jeder Facebook-Nutzer im Rahmen seines Registrierungsprozesses akzeptieren muss und welche Facebook gerne einmal einseitig abändert. In der aktuellen Fassung wird Facebook ausdrücklich ermächtigt, Inhalte des Nutzers zu analysieren und für Suchen und Messungen zu indexieren.
Mit diesem Vorbehalt setzt sich Facebook mit Sicherheit über die Vorgaben des deutschen Datenschutzrechts hinweg, wonach personenbezogene Daten eines Nutzers nur genutzt werden dürfen, wenn dies durch Gesetz, hier vor Allem §§ 12,13 TMG, oder Einwilligung erlaubt ist.
Da Facebook seinen Sitz allerdings in den USA bzw. Irland hat, stellt sich jedoch ohnehin die Frage, inwieweit deutsches Recht überhaupt zum Tragen käme. Dieses Streitthema ist seid langem bekannt, wird allerdings von den Nutzern kaum noch thematisiert.
Entrüstung bei den Betroffenen!
Für Entrüstung der Nutzer sorgte nun (immerhin!) der Umstand, dass diese nicht über die vorgenommenen Manipulationen an ihrem Nutzer-Account informiert wurden und ihnen ein bewusst verfälschtes Bild von ihrem Freundeskreis dargestellt wurde.
Wie manipulativ ist Facebook?
Was viele Nutzer nicht wissen – oder verdrängen – ist, dass Facebook bereits seit Jahren versucht, das Nutzerverhalten durch gezielte Informationen zu beeinflussen.
So wiesen Spiegel-online und die Süddeutsche Zeitung auf eine Anmerkung der für diese Studie mitverantwortliche Psychologie-Professorin der Universität Princeton, Susan Fiske, hin, wonach
Facebook den Newsfeed seiner Nutzer doch sowieso die ganze Zeit über manipuliere.
So versucht neben Google auch Facebook durch Analyse des Nutzerverhaltens seinen Algorithmus zum Einbinden von Werbeinhalten etc. stetig weiter zu verbessern. Dieser nicht weiter durch Facebook dargestellte Algorithmus, filtert die Facebook-Timeline danach, welche Postings angezeigt werden, und welche nicht. Facebook hatte hierzu bereits im letzten Jahr die Schaffung von Transparenz angekündigt, ist diese allerdings bisher schuldig geblieben.
Hierzu zitiert Spiegel-Online die Facebook-Unternehmenssprecherin Tina Kulow:
Je nachdem, wie stark generell mit Beiträgen einer Quelle oder bestimmten Freunden interagiert wird, werden den Menschen für sie relevante Inhalte angezeigt.
Also:
Je mehr man mit einer Person zu tun hat, desto wahrscheinlicher ist, dass deren Meldung in der eigenen Timeline gepostet wird.
Ferner behauptet Spiegel-Online in seinem Online-Beitrag, Facebook steuert über manipulierte Timeline Emotionen seiner Nutzer, dass Facebook bereits zweimal das Nutzerverhalten von Nutzern in den USA beeinflusst habe, indem bei den Kongresswahlen 2010 und bei den Präsidentschaftswahlen 2012 eine gezielte Nutzerbeeinflussung durch den „Ich habe gewählt“-Button erfolgt sei.
Fazit
Neben dem Ergebnis, dass Menschen durch Berichte in Sozialen Netzen beeinflussbar sind, sollte jeder für sich feststellen, dass eine freie Informationsbeschaffung auch im Zeitalter des Internet und der weltweiten Vernetzung nicht garantiert ist. Zu intransparent sind die durch Internetriesen wie Facebook oder auch Google verwendeten Algorhythmen und zu leicht lassen sich Manipulationen mit Hilfe dieser Dienste umsetzen, ohne dass der Nutzer hiervon Kenntnis hat (Wie das aktuelle Beispiel zeigt!).
Wissen ist Macht!
Dies gilt sicherlich auch hier. Blindes Vertrauen ist an dieser Stelle fehl am Platz.