Die Moderatoren des Reddit-Subreddits r/changemyview haben Ende April 2025 ein geheimes, mehrmonatiges Experiment der Universität Zürich aufgedeckt. Forscher der Universität nutzten über einen Zeitraum von vier Monaten KI-generierte Kommentare, um zu testen, ob künstliche Intelligenz in der Lage ist, die Meinungen von Reddit-Nutzern zu beeinflussen – und das ohne vorherige Zustimmung der Teilnehmer.
Das umstrittene Experiment
Im Rahmen dieses Experiments erstellten die Forscher KI-gesteuerte Accounts, die verschiedene Personas vortäuschten, darunter ein Vergewaltigungsopfer, eine Person, die sich gegen bestimmte soziale Bewegungen ausspricht, und einen auf Missbrauch spezialisierten Traumatherapeuten. Die Moderatoren kritisierten das Vorgehen scharf und betonten: Unser Subreddit ist ein dezidiert menschlicher Raum, der nicht offengelegte KI als Grundwert ablehnt. Menschen kommen nicht hierher, um ihre Ansichten mit KI zu diskutieren oder um an Experimenten teilzunehmen.
Die Forscher verwendeten Sprachmodelle, um Antworten unter fiktiven Personas zu generieren – vom sexuellen Gewaltopfer bis zum Traumapsychologen und einem Schwarzen Mann, der die Black Lives Matter-Bewegung ablehnt. Um die Personalisierung zu erhöhen, sammelte die KI offenbar Informationen über Geschlecht, Alter, Ethnie, Standort und politische Ansichten der Autoren aus deren Beitragshistorie.
Die Wirkung des Experiments war beachtlich: Während der viermonatigen Studie veröffentlichten die gefälschten KI-Accounts der Universität Zürich 1.783 Kommentare und erhielten 137 Deltas – eine Markierung, die anzeigt, dass ein anderer Reddit-Nutzer bestätigt hat, dass der Account ihn davon überzeugt hat, seine Meinung zu einem Thema zu ändern.
Reaktionen und Konsequenzen
Das Team der Community-Moderatoren bezeichnete das Experiment als psychologische Manipulation von ahnungslosen Nutzern. Sie haben bereits eine Beschwerde bei der Universität eingereicht mit der Bitte, die Ergebnisse der Studie nicht zu veröffentlichen.
Die Forscher rechtfertigten sich in einem Beitrag zum Subreddit und erklärten, dass alle Kommentare vor der Veröffentlichung manuell überprüft wurden, um sicherzustellen, dass sie den Community-Richtlinien entsprachen und potenzielle Schäden zu minimieren.
Auch Reddit selbst hat auf den Vorfall reagiert. Die Rechtsabteilung des Unternehmens hat eine Untersuchung eingeleitet. Der Chefjustiziar von Reddit, Ben Lee, bezeichnete die Handlungen der Forscher als moralisch und rechtlich inakzeptabel und bestätigte, dass alle mit dem Experiment verbundenen Konten bereits gesperrt wurden. Reddit plant, seine Systeme zur Erkennung verdächtiger Aktivitäten zu verstärken und formelle rechtliche Forderungen an die Universität Zürich zu stellen.
Ethische Fragen und Bedenken
Dieser Vorfall wirft wichtige Fragen zur Ethik von KI-Experimenten in sozialen Medien auf. Die Forscher haben ohne Einwilligung der betroffenen Personen gehandelt und dabei sensible Themen wie sexuelle Gewalt und rassistische Diskriminierung instrumentalisiert. Besonders problematisch erscheint der Umstand, dass die KI gezielt persönliche Informationen aus den Nutzerhistorien extrahierte, um die Überzeugungskraft ihrer Argumente zu erhöhen.
Das Experiment verstieß gegen die internen Regeln des Subreddits, die automatisierte Accounts verbieten und die Offenlegung der Verwendung von KI vorschreiben. Der Fall verdeutlicht die Notwendigkeit klarer ethischer Richtlinien für KI-Forschung und den Schutz von Online-Communities vor unethischen Experimenten.
Die Reaktionen zeigen, dass solche verdeckten Manipulationsversuche sowohl von der Community als auch von den Plattformbetreibern als ernsthafter Verstoß gegen das Vertrauen und die Integrität digitaler Diskussionsräume betrachtet werden.