Bereits im Sommer wurde hier im Blog über die möglichen Auswirkungen von Big Data im Zusammenhang mit den (Bundestags-)Wahlen berichtet. In diesem Artikel wurde auch auf das Projekt „Datenspende: Google und die Bundestagswahl 2017“ von AlgorithmWatch verwiesen, zu welchem nun wie versprochen der Zwischenbericht vorgestellt werden soll.
Der Inhalt im Überblick
Ziel des Projektes
AlgorithmWatch ist eine Initiative der Forscher Lorena Jaume-Palasí, Lorenz Matzat, Matthias Spielkamp und Prof. Dr. Katharina Anna Zweig und wird unterstützt durch die Landesmedienanstalten von Hessen, Bayern, Baden-Württemberg, Rheinland-Pfalz, Saarland und Sachsen. Mit dem Projekt möchte das Team unter anderem rausfinden, wie der Suchmaschinen-Gigant Google tickt und wie hoch etwa der Anteil von personalisierten Suchergebnissen ist.
„Tatsächlich wissen wir sehr wenig darüber, wie sie Informationen gewichten und anzeigen.“
Die Theorie der Filter Bubble
Mit ins Rollen brachte dieses Projekt die Theorie über die Filter Bubble. 2011 sorgte nämlich der Amerikaner Eli Pariser für Aufregung, als er anhand eines Beispiels aus seinem Freundeskreis zeigte, wie unterschiedlich die Suchergebnisse zweier Nutzer bei der Suche nach dem gleichen Begriff sein können. Zum Thema „Ägypten“ wurden zum einen verschiedene Reisetipps angezeigt und zum anderen alles um die politische Krise des Landes. Pariser warnt in seinem Buch („The Filter Bubble: What The Internet Is Hiding From You“) daher vor der Gefahr, dass die Menschen nicht mehr mit anderen Sichtweisen als ihrer eigenen konfrontiert werden
Der Zwischenbericht
Die Datensammlung soll noch bis nach der Bundestagswahl laufen, doch die Forscher haben bereits einen Zwischenbericht veröffentlicht, der vielleicht etwas überraschen mag. Rund 3 Mio. Datensätze wurden bereits ausgewertet und es kam heraus:
- Bei den Suchergebnissen ist nur wenig Raum für eine Personalisierung.
- Die Suchergebnisse nach konkreten Politikern erzeugen kaum Abweichungen
- Bei Suchen nach Parteien gibt es eine höhere Varianz, was zumeist an einer Regionalisierung der Treffer liegt (es werden vermehrt Links zu den passenden Ortsverbänden angezeigt)
- Es spielt auch keine entscheidende Rolle, ob der Nutzer mit seinem Google-Konto eingeloggt ist oder nicht
- Teilweise stark abweichende Cluster sind eher klein und weisen bei genauerem Hinsehen keine inhaltlichen Auffälligkeiten politischer Natur auf
Also: Filterblase bei Google? Fehlanzeige!
Als übergeordnetes Ergebnis für sich selbst ziehen die Forscher schon jetzt das Fazit, dass es
„der Gesellschaft gelingen kann, Algorithmen, die in Öffentlichkeit eingreifen und das Potenzial zur eigenmächtigen und dem Eigeninteresse der dahinterstehenden Firmen folgenden Beeinflussung der Gesellschaft haben, nachhaltig zu überwachen.“
War es das also mit dem Phänomen Filterblase?
Ganz kurz: Nein. Das Forscherteam zieht selbst das Resümee, dass der Suchmaschinenmarkt für die Meinungsbildung nur einen sehr geringen Anteil darstellt. Es gibt stattdessen Anhaltspunkte dafür, dass sich Filterblasen viel mehr in sozialen Netzwerken bilden. Dort
„treffen „Freundevorschlagalgorithmen“ auf „Weiterleitung von Inhalten“ […] Durch Algorithmen wird so auf der einen Seite der Freundeskreis verdichtet (und damit Echokammern gebildet) und auf der anderen Seite der Nachrichtenstrom selektiert.“
Welchen Umfang und welchen konkreten Einfluss die Filterblasen an dieser Stelle haben, lässt sich nur leider derzeit nicht mit wissenschaftlichen Methoden überprüfen. Bei Google ließ sich die Analyse der Daten durch ein Plugin, welches die Nutzer in ihrem Browser installiert haben, durchführen. Eine entsprechende Technik für eine Datenspende der Nutzer aus ihren sozialen Netzwerken gibt es derzeit allerdings nicht.
Nicht nur vor dem datenschutzrechtlichen Aspekt des Profilings im Internet ist dies eine interessante Fragestellung. Insbesondere wenn Nutzerdaten so weitgehend genutzt werden, dass sie erheblichen Einfluss auf die (politische) Meinungsbildung der Bürger haben können, ist mehr Transparenz zu fordern.