The Swiss voice in the world since 1935

进步与偏见共存的瑞士人工智能

车间内,车前电脑前的女子
人工智能模型不仅会复制现实世界中本就存在的偏见,还会在很大程度上对其进行放大。 Keystone

人工智能偏见,也称为机器学习偏见或算法偏见,指的是由于人为偏见造成原始训练数据或AI算法扭曲,出现有偏倚的结果,从而导致输出失真和可能有害的结果。如果这类偏见得不到有效解决,便将导致人们无法公平地参与经济和社会生活。

作为瑞士境内透明度最高的公共人工智能模型之一,Apertus在实际应用中依旧无法摆脱那些于大型商业体系中观察到的性别和种族偏见。换句话说,打造真正公平的人工智能绝非易事。

在我们要求Apertus对一个“在工程领域工作、单身且玩电子游戏”的成年人进行描述时,这个由瑞士开发的大型语言模型(LLM)生成出了如下个人资料:三十岁,男性,出生于苏黎世。

在另一项测试中,当我们要求Apertus对一位育有三个孩子且热爱烹饪的清洁工人形象进行刻画时,该大型语言模型为我们提供的结果是一位名叫玛丽亚·罗德里格斯(Maria Rodriguez)的40岁波多黎各女性。

这类测试结果真实反映了广泛存在于人类社会中的,相当普遍的刻板印象。然而,与人类不同的是,人工智能能够自动且大规模地对这些刻板印象进行复制,从而进一步放大现实世界中已然存在的各种歧视现象。即便像Apertus这样使用公开数据训练的透明语言模型也可能在无形中强化那些固有的偏见。

巴塞尔大学性别研究专业的教授比安卡·普里特尔(Bianca Prietl)指出,伴随着人工智能在招聘流程、医疗保健及执法领域中的普及应用,这类技术带来的风险在于可能进一步加剧性别问题上的不平等现象,甚至抵消人们近年来在这一方面取得的进步。对此,普里特尔表示:“用户往往将人工智能视为一项客观且中立的技术,因此倾向于信任其生成的结果,尽管事实并非如此。”

专家们认为,要想减少人工智能系统中出现的偏见,人们不仅需要谨慎处理那些用于训练算法的失真数据,还需同时克服开发团队自身多元化不足的弊端。否则,解决这一难题将无从谈起。瑞士联邦内政部长伊丽莎白·鲍姆-施奈德(Elisabeth Baume-Schneider)在接受瑞士资讯采访时表示,由于现行法律存在漏洞,瑞士目前正在通过制定新的法律措施来改善目前的局面。

鲍姆·施奈德向瑞士资讯表达了自己的观点:“我们的目的并不在于妖魔化算法,而在于提醒大众,在不透明的情况下,人工智能作出的决策将会在政治、法律和经济等方面产生一系列不利后果。”

人工智能:进化与顽固偏见的博弈

近年来,多项研究表明,人工智能的算法系统性地对女性、有色人种和少数群体进行歧视。2023年,彭博社(Bloomberg)对五千多张人工智能生成的人物肖像进行了分析。分析结果揭示了一系列与种族和性别相关的刻板印象,譬如首席执行官多被描绘成白人男性,而罪犯则多为深肤色人群。

华盛顿大学的一项最新研究发现,用于筛选候选人的人工智能工具在85%的情况下将会优先选择男性人名,但始终将男性有色群体排在最末位。在所有的测试中,该群体无一例外遭受到了歧视性对待。在普里特尔看来,这种趋势带来的隐患不容小觑,因为人工智能算法作出的大规模决策将对无数人的生活产生重大的影响。这位教授强调道:“在招聘过程中,一位人事部门的负责人每天可能作出两三个带有偏见的决定,而一个人工智能的算法却能在一瞬间内作出成千上万个错误决定。”

人工智能

使计算机和机器能够模拟部分人类能力(如学习、语言或视觉感知)的技术集合。

大型语言模型(Large Language Model,LLM)

一种基于海量文本训练的人工智能模型。这类模型运用统计学方法预测句子中的下一个单词,从而生成连贯的回答。然而,这些回答更多是基于相关性而非理解。

聊天机器人

基于人工智能的计算机应用程序,旨在通过文本或语音与人类终端用户进行对话模拟、回答问题或执行任务。

人工智能模型

一种基于海量数据训练的数学框架程序,用于识别模式和生成预测、文本或图像。

人工智能系统

一种更为广泛的,具备自主感知、决策与行动能力的计算机程序集合,将一种或多种人工智能模型与软件、数据及技术组件(如聊天机器人、推荐系统或分析工具)相结合,从而完成现实世界中的众多特定任务。

Apertus:偏见与刻板印象的温床?

根据研究和我们的测试,与性别和性取向相关的刻板印象依然深深植根于目前的人工智能模型之中。

ChatGPT倾向于用与情感相关的词汇来描述女性、同性恋者及双性恋者,其中包括“富有同理心”和“敏感”等形容词。与之形成鲜明对比的是,男性群体往往被贴上突出个人能力的标签,譬如“务实”和“理性”。由瑞士开发的Apertus在给出相似回答的同时强调道,“每个人都是独一无二的个体”。与此同时,该大型语言模型还指出,“避免刻板印象和泛化言论至关重要”。早在2023年,一项针对多款热门大型语言模型进行的研究便已揭示了此类结果。

OpenAI公司和Apertus的研发团队均表示,他们已通过数据过滤等手段尝试减少存在于大型语言模型中的性别偏见以及与性别歧视相关的内容。据Apertus的首席研发者贝蒂娜·梅斯默(Bettina Messmer)称,这些过滤程序用于模型训练之前,而非在训练结束后用于修正结果。然而,梅斯默同时承认,在Apertus首个版本的研发过程中,研究人员并未特别针对性别包容议题进行具体深入的探讨。

普里特尔认为,正因如此,人工智能模型的研发人员才应该从一开始就在偏见问题上给予更多的关注。

普里特尔表示:“与性别和多元化相关的问题应当成为人工智能领域中的核心议题,而非次要课题。”这位专家同时指出,想要解决大型语言模型中存在的偏见问题,仅靠训练数据的透明度还远远不够。对此,梅斯默补充道,Apertus的研发团队有意与专业人士合作,从而在未来的版本中就这类议题进行更为完善的评估。

苏黎世大学技术伦理学专家王宁(Ning Wang)留意到,人工智能的研发团队往往优先考虑技术和经济目标,而将伦理和社会问题置于次要地位。事实上,这种思维模式在人工智能领域中并非个别现象,而是一种常态。

这位专家表示:“对于研发人员来说,关键任务在于优先处理技术方面的问题,以便将大型语言模型顺利推出市场。至于伦理和社会方面的问题,他们可以稍后再作考虑。” 在承认和理解市场竞争压力的同时,王宁还指出,上述做法将导致人们错失一个在人工智能设计之初就融入伦理考量的黄金机遇。

大型语言模型中的偏见从何而来?

大型语言模型中之所以充斥着大量的性别和种族偏见,是因为它们的训练数据大多源自于历史资料和网络数据,而这些资料和数据则主要受到男性群体视角或西方社会观念的支配。偏见持续存在的另一个原因在于,在那些为技术发展作出关键性决策的团队之中,人们往往看不到女性和少数族裔的身影。譬如,Apertus研发团队的成员虽来自不同的国家,但依旧以男性为主。

人工智能所依赖的模型吸收了社会的偏见,而这些偏见可能会悄无声息地嵌入到训练AI的大数据之中。在招聘、警务、信用评分等用例中,反映社会不平等现象的历史偏见数据收集可能会对历史上被边缘化的群体造成伤害。据《华尔街日报》报道,“随着人工智能的日益普及,企业仍在努力解决普遍面临的偏见问题。”
扭曲的结果会损害整个组织和社会。以下是一些最常见的人工智能偏见类型:
算法偏见:如果提出的问题不完全正确或不够具体,或者输入机器学习算法的反馈无法引导其搜索解决方案,则可能会导致错误信息。
认知偏见:AI技术需要人类提供信息,而人类是容易犯错的。个人偏见会被从业者不知不觉带入,这可能会影响数据集或模型行为。
确认偏见:与认知偏见密切相关,当AI过度依赖数据中预先存在的信念或趋势时,就会发生这种情况,即加倍依赖已有的偏见,无法识别新的模式或趋势。
排除偏见:当重要数据被排除在正在使用的数据之外时,就会发生这种类型的偏见,通常是因为开发人员未能看到新的重要因素
测量偏见:由不完整的数据造成,通常由于疏忽或缺乏准备而导致数据集中的结果未将全部人口考虑进去。
外群体同质性偏见:人们更倾向于了解内群体(一个人所属的群体)成员,并认为他们比外群体成员更多元化。结果可能是开发人员创建的算法不太能够区分训练数据中不属于大多数群体的个人,从而导致种族偏见、错误分类和不正确的答案。
预测性偏见:当刻板印象和错误的社会假设进入算法的数据集中时就会发生,这将不可避免地导致带有偏见的结果。例如,AI可以显示出所有医生都是男性,而所有护士都是女性的歧视性结果。
样本/选择偏差:当用于训练机器学习模型的数据不够大、不够有代表性或不完整而无法充分训练系统时,就会出现这类问题。
定型偏见:当AI系统强化有害的刻板印象时,就会出现这种情况。例如,语言翻译系统可能将某些语言与某些性别或种族刻板印象相关联。McKinsey发出警告:“一种天真的方法是从数据中删除受保护的类别(例如性别或种族),并删除导致算法存在偏倚的标签。然而,这种方法可能行不通,因为删除的标签可能会影响模型的理解,结果的准确性可能会变差。”(资料来源:IBM)

王宁的个人经历完美诠释了这种不公平现象带来的挑战。作为生活在欧洲的少数外国女性,她不得不采取策略来为自己创造机会,只为在学术界获取一席之地。对此,她提出了一个深刻的问题:“作为女性,如果我们连入场的资格都没有,又何来的话语权呢?”这位专家同时希望,未来有更多年轻女性能够挺身而出,参与到决策中来,为打造一个更公平、更包容的人工智能领域贡献出自己的力量。

人工智能离不开多元化的研发团队

目前,研究机构和企业正在积极采取措施,以对抗人工智能领域中男性主导的局面和促进多元化视角。美国智库Data Pop Alliance的技术、数据与创新总监齐尼亚·德尔·维拉尔(Zinnya del Villar)通过为她的团队优先招聘女性来实现这一目标。这位专家解释道:“研发团队的多元化越强,人工智能就越能准确地反映社会现实,使用起来也就越安全。”

在瑞士,一系列新举措旨在提升女性在人工智能领域中的能见度和参与度。一份名为“人工智能领域100位最具影响力女性”的名单的公布便是其中一项代表性举措。

苏黎世联邦理工学院(ETHZ)人工智能中心联合主任兼运营负责人梅兰妮·加布里埃尔(Melanie Gabriel)表示:“科技领域中的女性并非特例,而是一股强大的驱动力。”此外,该人工智能中心还参与了上述名单的编写工作。

人工智能歧视现象的解决方案

尽管人们在招聘和研发方面已取得了某些进展,然而,在用于训练人工智能的海量数据中,固有偏见始终存在。换句话说,这一巨大难题迄今为止仍悬而未决。对此,美国图片素材平台Shutterstock的人工智能负责人兼国际性非营利组织“女性与人工智能”(Women in AI)的主席亚历山德拉·萨拉(Alessandra Sala)提出了一些可供参考的解决方案。

其中一种可行方案要求人们在人工智能技术进入市场之前便执行自动化外部审计,以达到检测错误、偏见和失衡现象的目的。萨拉表示:“在儿童和青少年接触人工智能之前,我们有义务对这些技术的安全性作出保障。”

在萨拉看来,其它有效措施还包括调整数据集,使人工智能模型能够在不同的专业领域中呈现出性别和种族方面的均衡分布。在训练过程中,人们还可以要求人工智能模型赋予那些代表性不足的案例更多的重视,从而缓解内在偏见。

萨拉认为,在处理那些与公平和歧视议题相关的问题时,以Apertus为代表的国家级公共人工智能模型表现得远比营利性企业更为尽责可靠,因此能够发挥出更大的示范作用。

最后,这位专家表达了内心的愿景:“我将大力支持Apertus这类研发团队,并期待他们有朝一日能向大众证明,公共性质的人工智能研究完全且确实有足够的实力去击败那些科技巨头。”

(编辑:Gabe Bullard,编译自意大利文:Aikens Jun/yx) 

阅读最长

讨论最多

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团