Tristan Harris, ehemaliger Entwickler bei Google warnt davor, wie Google, Facebook & Co. suchterzeugende Technologie nutzen, um unsere Aufmerksamkeit zu erregen. Dabei werden wir immer gläserner. Ein Thema, das nicht nur datenschutzrechtlich interessant ist. Unser ganzer Alltag wird dadurch geprägt.
Der Inhalt im Überblick
Der Spielautomat in der Hosentasche
„Der Mensch hat steinzeitliche Gefühle, mittelalterliche Institutionen und eine gottgleiche Technik.“
Sucht erzeugen
Ist es Ihnen schon einmal vorgekommen, dass Sie auf YouTube ein Video anschauen wollen und am Ende zwei Stunden auf der Plattform verbracht haben? Nun das ist kein Wunder, sondern liegt höchstwahrscheinlich daran, dass Googles Supercomputer und Algorithmen direkt auf Ihr Gehirn gerichtet waren, um anhand Ihrer personenbezogenen Daten vorherzusagen, welche Videos sie an der Stange halten.
Zudem setzen die Anbieter unzählige kleine Mechanismen ein, um uns immer wieder zur Interaktion zu bringen. Wer kennt es nicht, das Aufblinken oder Klingeln, wenn eine neue Nachricht eingetroffen ist. Wir sind ständig sogenannten Mikrounterbrechungen ausgesetzt. So wird es immer schwieriger, sich auf etwas zu konzentrieren.
Das ist verständlich, schließlich haben die Anbieter mit ihrem auf Werbung gestützen Geschäftsmodell ein Interesse daran, dass wir möglichst viel Zeit mit ihren Diensten verbringen. Die dafür eingesetzten Techniken sind häufig suchterzeugend. Die Liste der empfohlenen Videos funktioniert wie ein Spielautomat, bei dem man immer noch die ein Video anschauen will. Der nicht endende Newsfeed bei Facebook und Twitter ist wie ein Glas, das sich auf magische Weise immer wieder füllt.
Hilflos ausgeliefert
Tristan Harris sieht dabei als zentralen Punkt die Asymmetrie der Macht zwischen den Tech-Konzernen und den Nutzern. Diese Macht werde zwar kaschiert, indem dem Nutzer suggeriert wird, dass er Entscheidungen selbstständig trifft, aber das sei nicht der Fall. So werden z.B. 70 % der Videos auf YouTube aufgrund der Empfehlungsalgorithmen angeschaut.
Unternehmen entwickeln dabei immer raffiniertere Technologien, um unsere Aufmerksamkeit zu erregen. Dabei ist es entscheidend, immer besser vorherzusagen, wie Nutzer ticken und was sie interessiert. Dank künstlicher Intelligenz gelingt das immer besser. So können bereits anhand der Mausbewegung Aussagen zu den Charaktereigenschaften eines Nutzers gemacht werden. Facebook soll seinen Kunden sogenannte Loyalitätsvorhersagen anbieten. So können sich Unternehmen warnen lassen, wenn ein Kunde kurz davor ist, zu einer anderen Marke zu wechseln, z.B. wenn eine Mutter Anzeichen zeigt, dass sie zukünftig nicht mehr die Windeln von Pampers kauft.
Tristan Harris vergleicht die Tech-Konzerne daher mit Berufsgeheimnisträgern wie Ärzte, Rechtsanwälte oder Psychologen, denen wir vertrauliche Informationen offenbaren. Mit dem Unterschied, dass die erfassten Daten viel umfassender sind und die Konzerne ihre Erkenntnisse dann fleißig an Werbekunden verkaufen. Man stelle sich Facebook also als Seelsorger vor, der sein Geld damit macht, die Bekenntnisse seiner ca. 2 Mrd. Nutzer vorherzusagen, damit sie immer schön weitere Details über sich preisgeben, damit er diese dann an Werbekunden weiterverkaufen kann.
Gesellschaftliche Auswirkung
Auch die zunehmende Polarisierung der Gesellschaft ist nicht etwa allein in der menschlichen Natur mit Hang zur Stammesbildung begründet. Vielmehr haben die großen Tech-Konzerne in dem Wettrennen um unsere Aufmerksamkeit Interesse daran, Nutzer mit „krassen“ Inhalten auf ihren Seiten zu halten. So sagten in einer Umfrage unter White Nationalists (vergleichbar mit der Neonazi-Szene) in den USA 50 % der Befragten, dass ihnen durch Videos auf YouTube „die Augen geöffnet wurden“. In einer Studie zu Twitter hat man herausgefunden, dass Tweets mit Wörtern, die moralische Empörung ausdrücken, mit einer um 20 % erhöhten Wahrscheinlichkeit retweeted wurden.
Tristan Harris vergleicht in einem Interview vor dem US-Senat (Min. 13:45) YouTube mit einer Landkarte, in der es „Crazy Town“ gebe sowie eine ruhige Stadt. Egal wo man nun als Nutzer auf die Landkarte gesetzt wird, würden die Empfehlungsalgorithmen, die als Wegweiser fungieren, die Nutzer tendenziell Richtung Crazy Town schicken, weil polarisierende Inhalte die Nutzer länger auf der Plattform halten. So kommt es dazu, dass untergewichtigen Mädchen, Videos zur Magersucht gezeigt werden oder Nutzern bei der Suche nach Videos zur Mondlandung, Videos mit passenden Verschwörungstheorien.
Verantwortung übernehmen
Der Netscape-Mitgründer Marc Andreessen beschrieb in einem Essay „Why is software eating the world“, dass jeder Bereich unserer Gesellschaft von Software erfasst werden wird, weil Software jeden Bereich effizienter machen kann. Das Problem dabei ist, dass die Software-Unternehmen dabei aber keine Verantwortung für die gesellschaftlichen Auswirkungen übernehmen. Während jede Zeitung sich für falsche Inhalte verantworten muss, werden Plattformen wie Twitter oder YouTube, die ihren Nutzern massenhaft Inhalte mit polarisierenden Effekten empfehlen, in keiner Weise für Ihre Handlungen verantwortlich gemacht.
Mit seiner Non-Profit-Organisation Center for Humane Technology kämpft Tristan Harris für eine Zukunft, in der Technologie-Unternehmen Software zum Nutzen und zur Verbindung von Menschen entwicklen und nicht zur permanenten Ablenkung und Polarisierung der Gesellschaft. Bis es soweit ist, hilft aber wohl nur ein bewussterer Umgang oder gleich Digital Detox.
Und herzlichen Glückwunsch, wenn Sie bis hierhin gekommen sind, haben Sie wahrscheinlich schon vielen Ablenkungen widerstanden.