Menschen interagieren zunehmend in sozialen Medien, in denen Algorithmen den Fluss der sozialen Informationen steuern, die sie sehen. Algorithmen bestimmen zum Teil, welche Nachrichten, Personen und Ideen die Nutzer sozialer Medien zu sehen bekommen.
Auf Social-Media-Plattformen sind die Algorithmen in erster Linie darauf ausgelegt, Informationen zu verstärken, die das Engagement aufrechterhalten, d. h. sie sorgen dafür, dass die Menschen auf Inhalte klicken und zu den Plattformen zurückkehren. Mein Team und ich haben Hinweise darauf gefunden, dass ein Nebeneffekt dieses Designs darin besteht, dass Algorithmen Informationen verstärken, von denen Menschen eher lernen. Wir nennen diese Informationen PRIME, für prestigeträchtige, gruppeninterne, moralische und emotionale Informationen.
In unserer evolutionären Vergangenheit war die Tendenz, von PRIME-Informationen zu lernen, sehr vorteilhaft: Von angesehenen Personen zu lernen ist effizient, weil diese Personen erfolgreich sind und ihr Verhalten kopiert werden kann. Es ist wichtig, auf Menschen zu achten, die moralische Normen verletzen, denn ihre Bestrafung hilft der Gemeinschaft, die Zusammenarbeit aufrechtzuerhalten.
Aber was passiert, wenn PRIME-Informationen durch Algorithmen verstärkt werden und einige Menschen diese algorithmische Verstärkung ausnutzen, um für sich zu werben? Prestige wird zu einem schlechten Signal für Erfolg, weil Menschen in sozialen Medien Prestige vortäuschen können. Newsfeeds werden mit negativen und moralisierenden Informationen überflutet, was zu Konflikten statt zu Zusammenarbeit führt.
Das Zusammenspiel von menschlicher Psychologie und algorithmischer Verstärkung führt zu Dysfunktionalität, da soziales Lernen Kooperation und Problemlösung unterstützt, während Social-Media-Algorithmen darauf ausgelegt sind, das Engagement zu erhöhen. Diese Diskrepanz bezeichnen wir als funktionale Fehlanpassung.
Warum ist das wichtig?
Eine der wichtigsten Folgen der funktionalen Fehlanpassung beim algorithmusvermittelten sozialen Lernen ist, dass Menschen beginnen, ihre soziale Welt falsch wahrzunehmen. Jüngste Forschungsergebnisse deuten beispielsweise darauf hin, dass Menschen, wenn Algorithmen selektiv extremere politische Ansichten verstärken, anfangen zu glauben, dass ihre politische In-Group und Out-Group stärker voneinander getrennt sind, als dies tatsächlich der Fall ist. Eine solche falsche Polarisierung könnte eine wichtige Quelle für größere politische Konflikte sein.
Ein funktionales Ungleichgewicht kann auch zu einer stärkeren Verbreitung von Fehlinformationen führen. Eine neuere Studie legt nahe, dass Personen, die politische Fehlinformationen verbreiten, moralische und emotionale Informationen nutzen – z. B. Beiträge, die moralische Empörung hervorrufen -, um Menschen dazu zu bringen, diese häufiger zu teilen. Wenn Algorithmen moralische und emotionale Informationen verstärken, werden auch Fehlinformationen verstärkt.
Weitere Forschungsarbeiten
Im Allgemeinen steckt die Forschung zu diesem Thema noch in den Kinderschuhen, aber es gibt neue Studien, die die Schlüsselkomponenten des algorithmusvermittelten sozialen Lernens untersuchen. Einige Studien haben gezeigt, dass Algorithmen in sozialen Medien PRIME-Informationen deutlich verstärken.
Ob diese Verstärkung zu einer Offline-Polarisierung führt, ist derzeit sehr umstritten. Ein kürzlich durchgeführtes Experiment zeigte, dass der Newsfeed von Meta die Polarisierung verstärkt. Ein anderes Experiment, das in Zusammenarbeit mit Meta durchgeführt wurde, ergab jedoch keine Hinweise darauf, dass der algorithmische Newsfeed von Facebook die Polarisierung verstärkt.
Wir brauchen mehr Forschung, um die Ergebnisse zu verstehen, die entstehen, wenn Menschen und Algorithmen in den Feedbackschleifen des sozialen Lernens interagieren. Social-Media-Unternehmen verfügen über die meisten der benötigten Daten, und ich bin der Meinung, dass sie akademischen Forschern Zugang zu diesen Daten gewähren sollten, unter Berücksichtigung ethischer Fragen wie dem Datenschutz.
Wie geht es weiter?
Eine wichtige Frage ist, was getan werden kann, damit Algorithmen menschliches soziales Lernen fördern, anstatt Verzerrungen im sozialen Lernen auszunutzen. Mein Forschungsteam arbeitet an neuen Algorithmen, die das Engagement erhöhen und gleichzeitig PRIME-Informationen bestrafen. Wir argumentieren, dass dies die Nutzeraktivität aufrechterhalten kann, die Social-Media-Plattformen anstreben, und gleichzeitig die soziale Wahrnehmung der Menschen genauer macht.