The Swiss voice in the world since 1935

瑞士“假新闻”研究触碰科研伦理底线

在Reddit上进行的此次虚假新闻研究未能事先知会参与者。
在Reddit上进行的此次虚假新闻研究未能事先知会参与者。 Keystone

由总部位于瑞士的研究团队在社交媒体平台Reddit上开展的一项假新闻实验,引发了有关社会研究伦理责任与挑战的讨论。

相关内容
时事通讯:瑞士媒体里的中国

相关内容

时事通讯:瑞士媒体里的中国

如果你订阅了我们的《瑞士媒体里的中国》时事通讯,每周四你会在你注册的信箱中收到一封免费电子邮件,内容是过去一周瑞士主要媒体关于中国报道的摘要。如果你想了解瑞士媒体对中国大事件的解读,现在就点击订阅。

更多阅览 时事通讯:瑞士媒体里的中国

与苏黎世大学有关联的这个研究团队,在Reddit的一个子论坛上秘密测试人工智能(AI)利用虚假信息操控公众舆论的能力。

数月间,研究人员在观察社会行为时已将伦理边界推到极限。他们利用大型语言模型(LLM)编造各种议题的观点,从饲养危险犬类、住房成本上升、中东局势到多元化倡议等。

这些AI机器人隐藏在虚构身份背后,在Reddit的“r/changemyview”子论坛发起讨论。社群成员围绕AI生成的观点展开争辩,却对自己正参与一项研究项目毫不知情,而研究人员在项目结束时才公开真相。

这一披露在Reddit、学术界和国际媒体上引发强烈批评。

起初研究人员因担心遭到报复,拒绝透露身份,并为自己的行为辩护,认为“鉴于该课题具有高度社会重要性”,即便“这意味着违反该平台禁止AI机器人的规定,也必须进行这项研究”。

后来,他们发表了“彻底且深刻的道歉”,称“我们对这项调查引起的失望和气愤情绪深感遗憾”。

“糟糕的科学就是糟糕的伦理”

“此事的问题不仅在于使用欺骗手段进行研究,”瑞士沃州科研伦理委员会主席多米尼克·斯普鲁蒙(Dominique Sprumont)表示,“还在于蓄意违反一个人际社群的规则,而信任关系的建立正是基于这些规则。”

“此外,该研究项目的科学质量极为可疑。糟糕的科学就是糟糕的伦理。”

这支瑞士研究团队遇到了许多研究人员都熟悉的问题:为了保证研究的真实性,应该向参与者隐瞒多少信息。

据爱尔兰科克大学和都柏林大学学院的研究人员吉莉安·墨菲(Gillian Murphy)与希亚拉·M·格林(Ciara M Greene)透露,过去的假新闻研究也曾面临类似困境。她们自己也做过相关研究,并对他人的研究成果进行过分析。

两人在2023年发表于《ScienceDirect》期刊的文章中指出,研究人员有时会在研究初期故意模糊研究目的,等到研究结束后再告知参与者。例如,他们一开始可能声称研究内容是关于一般性新闻阅读,而未明确指出是关于假新闻。

欺骗也有界限

“在某些假信息研究中,如果不采取此类欺骗方式,几乎不可能研究参与者对假信息的自然反应,因为一旦他们知道自己将接触到误导性信息,其怀疑、动机和行为可能都会改变,”两位作者写道。

但她们也指出,欺骗是有界限的。研究人员有道德责任,应当尊重参与者的人权和隐私,在研究开始前就应告知其在参与研究,获得他们对其数据使用的明确同意,并采取措施避免造成伤害。

在这个视频中,我们解释了研究人员处理此类研究时可以用到哪些办法,以符合科研伦理要求。

2014年,Facebook曾秘密操控成千上万的信息流,以测试用户对其好友发布的正面或负面贴文的情绪反应,此举遭到学术界、法律界和政界人士的批评。

该社交平台称这次实验很重要,测试的是平台信息流服务对用户的情绪影响,但事后承认研究方式不当。

责任归属不明

这项在Reddit进行的瑞士假新闻研究也因未提前知会参与者而受到谴责。

该项目的责任归属也引发了疑问。其构思者为一名受雇于苏黎世大学的研究人员,此人于去年4月将其与另外三个测试提交至该校人文社会科学系伦理委员。这四项测试中只有该项涉及AI机器人。

据苏黎世大学所言,当时伦理委员会已将Reddit研究标记为“极具挑战性”,并建议研究人员“尽可能多”地告知参与者,同时完全遵守Reddit规则。

相关内容

讨论
提问者: Sara Ibrahim

人工智能便利了你的生活,还是成了一种威胁?

我们应该让人工智能替我们做决定吗?越来越强大的计算机会令我们的生活更轻松,亦或它们是对社会的一种威胁?

3
69 留言
查看讨论

但这所高校表示,这名主导研究者已于9月离职,离开后才开始实施该研究,因此该项目及其发表的责任应由研究人员本人承担。

“该研究进行期间,并无(苏黎世大学的)研究人员或学生参与Reddit项目。”

研究团队最初曾公开发布初步研究结果,但之后已将其下架。

审查趋严

苏黎世数据保护专员多米妮卡·布隆斯基(Dominka Blonski)尚未对此事展开正式调查,但其办公室已注意到该事件。她告诉瑞士资讯swissinfo.ch:“我们尚不清楚这项研究是由苏黎世大学或其院系进行,还是由个别研究人员自行发起。”

布隆斯基表示,她必须先确认是否应调查大学或个别人员。但她也对媒体报道中涉及部分Reddit用户画像的内容表示担忧,认为这些行为可能已违反数据保护法规。

苏黎世大学方面还需应对Reddit提出的未具名“正式法律要求”,并已启动内部调查。

一名女发言人表示:“鉴于此类事件,苏黎世大学人文社会科学院伦理委员会计划今后实施更为严格的审查程序,尤其是在实验研究前与平台社群协调。”

尽管在Reddit平台进行的此次AI假新闻实验的项目构思曾被校方伦理委员会标注为“极具挑战性”,但校方并未叫停研究。而该项目在研究者离职后却正式开展,校方也因此宣称研究属“个人行为”,撇清责任。这种模糊的责任界限,引发了瑞士社会对高校科研伦理机制效力的质疑。

类似问题在中国也并不鲜见。近年来,多起高校科研失范事件中外部链接,“课题组负责人离职”常成为推诿处理的理由。一些高校设有伦理审查委员会,却普遍存在“流程齐全、审核宽松”的现象,真正对敏感研究项目进行实质性干预的情况极少。

两国高校在科研伦理责任上虽然形式不同,实质却都暴露出结构性盲区:即在科研人员与机构之间,缺乏明确、可追责的责任划分机制。

当研究涉及公共空间、真实人群或敏感议题时,学术自由的边界并非无限扩张,而必须建立在透明、可控且对社会负责的基础上。否则,不仅侵犯他人权利,也会削弱公众对科学的信任。

机器人学习

相关内容

人工智能面临伦理考验

数字技术打开了广阔的经济和社会发展前景,但近期的一些技术进步(如人脸识别)也带来了伦理上的难题。作为人工智能技术的主要开发国之一,瑞士面临的挑战不容小觑。

更多阅览 人工智能面临伦理考验

阅读最长

讨论最多

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团