人工智能系统对中文文本显现偏见
在ChatGPT语言模型中输入“什么是偏见”,它给出的解释是:“偏见”指在缺乏充分、客观依据的情况下,对某人、某事或某群体形成的不公正或片面的看法。既然是“看法”,就具有主观性,具有人类的特征。谁能想到,人工智能语言模型也会存在普遍的偏见呢?
一项瑞士研究显示,一旦人工智能(AI)语言模型识别出文本作者来自中国,即便文本内容与其他语言文本完全相同,其评分也会显著降低。
苏黎世大学的研究人员在11月10日发布的新闻稿中对上述现象表示担忧,并指出,假如人工智能被运用于内容审核、招聘筛选、学术评价或新闻报道等领域,这类隐形偏见会导致严重问题。
美国科学促进会出版的《科学进展》(Science Advances)期刊发表了该研究。苏黎世大学的科研人员在调研中分析了OpenAI o3-mini、深度探索推理模型(DeepSeek Reasoner)、xAI Grok 2、Mistral等四款主流人工智能模型。
研究人员要求这些模型评估了50条有关强制疫苗、地缘政治、气候政策等争议性话题的陈述,共生成19.2万条评价结果。其中,部分陈述未标明来源,另外一些标注为虚拟人类或人工智能作者。
评估结果呈现明显规律:只要智能模型不知道文本作者身份,其评价结果的一致率就超过90%。
相关内容
瑞士立志研发”类人”人工智能:AI能否真正学会思考?
然而,一旦文本来源被标识,情况便大相径庭。假如一段陈述的作者显示来自中国,四款模型对其认可度会显著下降,即便文中的观点及论证与其他陈述并无区别。苏黎世大学指出,就连中国人工智能模型深度探索也存在这种偏见。
该趋势在台湾主权等地缘政治议题上尤为明显。针对某些个案,深度探索甚至将认可度下调了75%。
为避免误判,研究作者建议,训练人工智能模型时屏蔽作者相关信息;尽可能通过其他模型复核评估结果;并制定清晰的、内容导向型评估标准。此外,人工干预仍然不可或缺。
符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。