Psycho-Experiment

Facebook verteidigt Studie über soziale Ansteckung

Facebook hat für eine Studie über soziale Ansteckung die Nachrichten-Feeds von Nutzern manipuliert. Es wurden gezielt negative oder positive Einträge ausgeblendet, um die Auswirkungen zu überprüfen. Das Experiment sorgt derzeit für große Aufregung.

Facebook

Washington/Menlo Park (AFP/dpa/red) - Eine Studie über soziale Ansteckung, für die der Facebook-Nachrichteneingang von fast 700.000 Nutzern manipuliert worden ist, sorgt im Internet für Aufruhr. Als "super verstörend", "gruselig" und "böse" wurde das Experiment am Sonntag auf Twitter kritisiert. Die Forscher selbst gaben sich gelassen, weil Facebook schließlich permanent beeinflusse, welche Nachrichten von "Freunden" im sogenannten News Feed der Mitglieder einlaufen.

Nachrichten beeinflussen Nutzer-Gefühle

Für die Studie von Wissenschaftlern aus New York und San Francisco war 2012 eine Woche lang gesteuert worden, ob die (nicht eingeweihten) Testpersonen überwiegend positive oder negative Einträge von Freunden in ihrem News-Feed vorfanden. Dabei fanden die Forscher heraus, das diejenigen, die überwiegend positive Kommentare serviert bekamen, selbst häufiger positive Statusangaben online stellten. Die gleiche Rückkopplung gab es bei negativen Inhalten.

Die Ergebnisse bewiesen, "dass die auf Facebook gezeigten Gefühle unsere eigenen Gefühle beeinflussen", was eine "massive Sozialansteckung über soziale Netzwerke" experimentell belege, schrieben die Autoren in den Proceedings of the National Academy of Sciences. Angesichts der enormen Zahl an Facebook-Nutzern - laut Konzernangaben liegt sie bei mehr als einer Milliarde - gewinnt der an sich wenig spektakuläre Befund an Brisanz.

Facebook verteidigt das Experiment

Facebook hat das heftig kritisierte Psycho-Experiment verteidigt. Für das Online-Netzwerk sei es wichtig, zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte Facebook in der Nacht zu Montag. "Wir überlegen vorsichtig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren."

Einer der Autoren der Studie erläuterte in einem Facebook-Eintrag, man habe die Sorge überprüfen wollen, dass Menschen sich ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer veranlassen könnten, Facebook zu meiden, schrieb Adam Kramer. "Wir haben unsere Motive in dem Papier nicht klargemacht", räumte er ein.

Offenbar kein Regel-Verstoß

Die Manipulation der News Feeds war offenbar kein Verstoß gegen die Regeln, denen jeder Facebook-Nutzer bei der Anmeldung bei dem Netzwerk zustimmen muss. Dennoch räumte Susan Fiske von der Universität Princeton, die die Veröffentlichung des Studienergebnisses redigierte, im Interview mit dem Online-Magazin "The Atlantic" ein Unwohlsein ein. Sie habe daher die Studienautoren kontaktiert. Diese hätten darauf verwiesen, dass ihnen die Studie von den zuständigen Gremien genehmigt worden sei, "da Facebook offenbar die News Feeds der Leute permanent manipuliert". "Es ist Zeit, den Facebook-Account zu schließen", kommentierte ein Nutzer auf Twitter.

Quelle: AFP, DPA

Top