The Swiss voice in the world since 1935

Wie eine Fake-News-Studie auf Reddit ethische Grenzen überschritt

Ein Mann mit einem T-Shirt mit Aufschrift "Fake News"
Bei der Fake-News-Studie auf Reddit wurden die Teilnehmenden nicht im Voraus informiert. EPA / Etienne Laurent

Eine umstrittene Fake-News-Studie, die von Schweizer Forschenden auf der Social-Media-Plattform Reddit durchgeführt wurde, hat die ethischen Fallstricke und Herausforderungen bei der Durchführung von solchen Gesellschaftsstudien aufgezeigt.

Eine mit der Universität Zürich verbundene Gruppe von Forschenden testete heimlich die Fähigkeit der künstlichen Intelligenz (KI), indem sie versuchte, in einer Subreddit-Gruppe mit Fehlinformationen die öffentliche Meinung zu manipulieren.

Mehrere Monate lang reizten die Forschenden die ethischen Grenzen der Beobachtung von sozialem Verhalten bis zum Äussersten aus. Sie verwendeten grosse Sprachmodelle wie ChatGPT (LLM), um Meinungen zu einer Vielzahl von Themen zu erfinden – vom Besitz gefährlicher Hunde bis hin zu steigenden Wohnkosten, dem Nahen Osten und Initiativen zur Förderung der Gleichstellung und Diversität.

Die KI-Bots versteckten sich hinter fiktiven Pseudonymen, während sie in der Subreddit-Gruppe «r/changemyview» an Debatten teilnahmen.

Die Mitglieder der Gruppe argumentierten dann für oder gegen die von der KI zusammengestellten Meinungen, ohne zu wissen, dass sie Teil eines Forschungsprojekts waren. Erst nach Abschluss des Projekts schenkten die Forschenden ihnen reinen Wein ein.

Die Enthüllung löste einen Sturm der Kritik auf Reddit, in der Forschungsgemeinschaft sowie in den internationalen Medien aus.

Zunächst verteidigten die Forschenden, die aus Angst vor Repressalien ihre Identität nicht preisgeben wollen, ihr Vorgehen. Sie begründeten dies mit der «hohen gesellschaftlichen Bedeutung dieses Themas».

Diese macht es ihrer Meinung nach «unabdingbar, eine Studie dieser Art durchzuführen, auch wenn dies bedeutet, die Regeln des Kanals zu missachten». Zu diesen Regeln gehört ein Verbot von KI-Bots.

Später entschuldigten sie sich umfassend und tiefgreifend: «Die enttäuschten und frustrierten Reaktionen der Community haben uns dazu gebracht, die Unannehmlichkeiten zu bedauern, welche die Studie verursacht haben könnte», hiess es.

Mehr
Newsletter Wissenschaft

Mehr

Alles zum Thema «Wissenschaft»

Schweizer Forschung im internationalen Kontext: Unser Newsletter bringt relevante Entwicklungen in kompakter Form. Bleiben Sie neugierig!

Mehr Alles zum Thema «Wissenschaft»

«Schlechte Wissenschaft ist schlechte Ethik»

«Es geht hier nicht nur um Forschung, die mit Täuschung verbunden ist», sagt Professor Dominique Sprumont, Präsident der Waadtländer Forschungsethikkommission.

«Es geht um die vorsätzliche Verletzung der Regeln einer Gemeinschaft von Menschen, die auf der Grundlage dieser Regeln Vertrauen in ihr Netzwerk aufbauen. Ausserdem ist die wissenschaftliche Qualität des Projekts mehr als zweifelhaft. Schlechte Wissenschaft ist schlechte Ethik.»

Das Schweizer Team sah sich mit einem Problem konfrontiert, mit dem viele Forschende vertraut sind: Wie viele Informationen sollten den Teilnehmenden vorenthalten werden, um die Studie realistisch zu gestalten?

Laut Gillian Murphy und Ciara M. Greene vom University College Cork und dem University College Dublin in Irland, die eigene Fake-News-Forschung betrieben und die Ergebnisse anderer Studien untersucht haben, standen frühere Fake-News-Forschungen vor demselben Rätsel.

Manchmal verschleiern Forschende den genauen Zweck der Studie zu Beginn und informieren die Teilnehmenden erst nach Abschluss der Studie, wie sie in einem 2023 in der Zeitschrift Science Direct veröffentlichten Artikel schreiben.

Ein Beispiel hierfür ist, zu Beginn anzugeben, dass es bei der Studie um den Nachrichtenkonsum im Allgemeinen und nicht speziell um Fake News geht.

Mehr

Debatte
Gastgeber/Gastgeberin Sara Ibrahim

Wird uns künstliche Intelligenz künftig helfen oder schaden?

Computer sind zunehmend in der Lage, komplexe Entscheidungen zu treffen – sollen wir sie lassen?

3 Likes
65 Kommentare
Diskussion anzeigen

Die Grenzen der Täuschung

«Bei einigen Forschungsarbeiten über Fake News wäre es unmöglich, zu untersuchen, wie die Teilnehmenden auf natürliche Weise auf Fake News reagieren, ohne diese Art der Täuschung anzuwenden. Denn die Verdachtsmomente, Motivationen und Verhaltensweisen der Teilnehmenden können sich ändern, wenn sie wissen, dass die ihnen gezeigten Informationen irreführend sein könnten», schreiben die Autorinnen und Autoren.

Sie weisen jedoch auch darauf hin, dass es Grenzen der Täuschung gibt. Forschende haben die moralische Pflicht, die Menschenrechte und die Privatsphäre der Versuchsteilnehmenden zu respektieren.

Sie müssen diese von Anfang an über die Forschung informieren und deren ausdrückliche Zustimmung zur Verwendung ihrer Daten einholen. Zudem müssen sie Massnahmen ergreifen, um die Menschen zu schützen.

2014 wurde Facebook von Forschenden, Anwältinnen und Politikern kritisiert, weil das Unternehmen heimlich Tausende von Newsfeeds manipuliert hatte, um zu testen, welchen Einfluss negative oder positive Beiträge von Freunden auf die Stimmung der Nutzenden haben.

Die Social-Media-Plattform erklärte, das Experiment sei wichtig gewesen, um die emotionalen Auswirkungen ihres Newsfeed-Diensts auf die Nutzenden zu testen. Später räumte Facebook jedoch ein, bei der Studie falsch vorgegangen zu sein.

Wer trägt die Verantwortung?

Auch die Schweizer Fake-News-Studie auf Reddit wurde kritisiert, da die Teilnehmenden nicht im Voraus darüber informiert worden waren, dass sie an einem Forschungsprojekt teilnehmen.

Zudem hat die Studie Verwirrung darüber gestiftet, wer dafür verantwortlich ist. Das Projekt wurde von einem an der Universität Zürich angestellten Forscher konzipiert und im April letzten Jahres als einer von vier Tests der Ethikkommission der Philosophisch-Sozialwissenschaftlichen Fakultät vorgestellt – als einziger der vier, bei dem KI-Bots zum Einsatz kamen.

Die Ethikkommission stufte die Reddit-Studie damals als «aussergewöhnlich anspruchsvoll» ein, wie die Universität mitteilte. Sie empfahl den Forschenden, die Teilnehmerinnen und Teilnehmer «so gut wie möglich» zu informieren und die Regeln von Reddit vollständig einzuhalten.

Laut der Universität habe der leitende Forscher die Universität jedoch im September letzten Jahres verlassen und die Studie erst danach begonnen.

Die Verantwortung für das Projekt und dessen Veröffentlichung liege daher bei den Forschenden selbst und nicht bei der Universität.

«Zum Zeitpunkt der Durchführung des Reddit-Projekts waren weder Forschende noch Studierende der Universität Zürich am Projekt beteiligt», heisst es.

Die vorläufigen Ergebnisse des Forschungsteams wurden zunächst veröffentlicht, später aber wieder offline genommen.

+ Die Schweiz hat keine Eile bei der KI-Regulierung

Strengeres Prüfverfahren

Dominika Blonski, die Datenschutzbeauftragte des Kantons Zürich, hat zwar noch keine formelle Untersuchung der Angelegenheit eingeleitet, ihr Amt ist sich der Kontroverse jedoch bewusst.

«Wir wissen nicht, ob die Forschung von der Universität Zürich oder ihrer Fakultät durchgeführt wurde oder von einzelnen Forschenden auf eigene Initiative», sagt sie gegenüber Swissinfo.

Zunächst muss Blonski klären, ob gegen die Universität oder gegen einzelne Personen ermittelt werden soll. Sie zeigt sich jedoch besorgt über Hinweise in Medienberichten, die auf mögliche Verletzungen von Datenschutzgesetzen hindeuten, besonders im Zusammenhang mit dem offensichtlichen Profiling einiger Reddit-Nutzenden.

Die Universität muss sich auch mit nicht näher bezeichneten «formalen rechtlichen Forderungen» von Reddit auseinandersetzen und untersucht den Vorfall derzeit intern.

«Angesichts dieser Ereignisse beabsichtigt die Ethikkommission der Fakultät für Geistes- und Sozialwissenschaften, in Zukunft ein strengeres Prüfverfahren anzuwenden und sich besonders bei experimentellen Studien mit den Communities auf den Plattformen abzustimmen», so eine Sprecherin der Universität.

Übertragung aus dem Englischen: Christian Raaflaub

Illustration: Artificial Intelligence, Künstliche Intelligenz

Mehr

Die Maschine und die Moral

Die Schweiz, eine der führenden Nationen im Bereich Künstliche Intelligenz, steht vor ethischen Herausforderungen.

Mehr Die Maschine und die Moral
Mit der Schweiz verbunden

Beliebte Artikel

Meistdiskutiert

In Übereinstimmung mit den JTI-Standards

Mehr: JTI-Zertifizierung von SWI swissinfo.ch

Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!

Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft