The Swiss voice in the world since 1935

人工智能真的能为促进民主出份力吗?

某人正在使用瑞士的人工智能语言模型Apertus。对布鲁斯·施奈尔来说,Apertus是一种希望。
某人正在使用瑞士的人工智能语言模型Apertus。对布鲁斯·施奈尔来说,Apertus是一种希望。 Keystone / Gaetan Bally

在 2025 年的世界民主论坛上,美国网络安全专家布鲁斯·施奈尔警告:人工智能正在放大民主社会本已存在的裂缝,但同时也可能成为修补这些裂缝的工具。在悲观与希望之间,他提出一个尖锐的问题-民主是否能在人工智能时代自我更新?

在他的祖国,大型科技公司成为人工智能领域的主力军。网络安全专家布鲁斯·施奈尔(Bruce Schneier)却在观察瑞士看到了希望。瑞士国内对此也很乐观,一位瑞士专家坚信,人工智能将成为民主机制中的一部分。

2025年11月美国网络安全专家布鲁斯·施奈尔在斯特拉斯堡举行的世界民主论坛上向观众喊道:“现场有来自瑞士的人吗?”。不过,现场并没有人能够回应。

他在会上谈论着人工智能与民主这一主题,并多次提到源自瑞士苏黎世联邦理工学院的“辅助式民主”(Assisted Democracy)理念,并重点说到了苏黎世开发的语言模型Apertus。

施奈尔表示,这款瑞士研发的人工智能模型是“在没有逐利动机、也没有依赖被窃取数据的情况下”研发的,这说明人工智能完全可以被用于公共利益。

布鲁斯·施奈尔
布鲁斯·施奈尔是哈佛肯尼迪学院的讲师,也是电子前沿基金会的董事会成员。去年,他与内森·E·桑德斯(Nathan E. Sanders)合著了《重塑民主:人工智能将如何改变我们的政治、政府和公民身份》一书。 EPFL / Alain Herzog

施奈尔在2026年1月的一次 Signal 通话中说:“我认为,我们的民主面临许多问题。但这些问题不是由人工智能造成的,而却被人工智能变得更加尖锐。现在的重点是:我们有没有办法利用人工智能来强化民主?我认为有,但我们也必须真正行动起来。”

布鲁斯·施耐尔看好Apertus

施奈尔在《时代》杂志上将人工智能与19世纪的铁路作了类比:当年美国新建的铁路线路原本有潜力“连接分隔两地的人们”,并让所有人拥有平等的权力-但最终却只让少数人富了起来。施奈尔解释说:“铁路就像今天的人工智能,是一种公共基础设施。每个人都可以用它做不同的事情。这就是Apertus如此强大的原因-它是一个所有人都能利用的平台。”

他认为,这是一个典范:科技可以不依附大型企业而存在。“没有白人、男性、以盈利为目的的科技亿万富翁,我们能否建立一个人工智能模型?”施奈尔问道。现在一个小国已经证明了这是可行的。他补充说:“成本在下降,你会看到更多这样的模型出现。各个语言模型未来将可以“在很大程度上相互切换”,因此他相信,许多人将会使用像Apertus或新加坡的Sea Lion这样的开源模型。

请参阅我们关于Apertus的文章:

相关内容
瑞士人工智能模型Apertus自今年9月初问世以来,与其相关的讨论和报道便一直层出不穷。然而,当中的真实与虚假,人们应当如何分辨?

相关内容

瑞士人工智能

瑞士开放式人工智能的利与弊

此内容发布于 瑞士团队将Apertus大型语言模型推出市场。该模型为完全开放式人工智能,透明度更高,包容性更强,且更符合伦理规范。虽在性能表现上尚无法与主流模型抗衡,但其后续发展仍旧值得市场期待。

更多阅览 瑞士开放式人工智能的利与弊

而且施奈尔认为,至于这些人工智能工具是被用于机构中,还是用于民间,对于民主来说无关紧要。就像一台打字机可以在官方机构内部使用,也可以被私人所用,而“像Grammarly这样的人工智能写作辅助工具会被用于编辑有关民主的内容,”施奈尔说。

那么“缺乏对人工智能的信任是否会对民主产生负面影响”?针对这个问题他说:“我们认识的每个人都在逐步利用人工智能在手机上按地图找路。”谁也没考虑信任这回事,“真正的信任是藏在背后的,”施奈尔说道。

对现实悲观,对未来乐观

施奈尔强调,当下的关键在于区分“值得信任的人工智能”。“公众对某些商业模式下的人工智能信任度可能很低。我不会在任何情况下信任 Facebook。但人们会信任那些帮助分析X光片的人工智能。医生们之所以使用这些人工智能工具,是因为它们有过人之处。”在施奈尔看来,这才是信任的本质所在。“如果人工智能带来了坏的结果,那就应当追究企业的责任,不应把问题归咎于技术本身。”问题的根源往往源于企业的决策,而非人工智能本身。

在斯特拉斯堡的演讲中,施奈尔显得乐观,这种态度也延续在他为《时代》杂志撰写的未来展望文章中。然而,在2025年5月向美国国会监督委员会举证时,他的态度则完全不同。他说:“之前四位发言者谈到了这项技术的潜力。我想谈的是它对国家安全的影响,以及我们如何搜集数据并将其输入人工智能模型。”他指出特朗普政府时期,DOGE(美国政府效率部)的工作人员如何大量抽取数据库数据,并“将其提供给像Palantir这样的私营公司”。“这些行为对国家安全以及在座所有人(无论政治立场)的安全造成了不可逆转的损害,”施奈尔说。显而易见,他对当下的现实持批判态度,而他的乐观更多体现在面向未来的呼吁。

在Apertus的诞生地瑞士,公众对人工智能的态度也同样相当复杂。根据 2025年e-Government的调查,23%的瑞士居民只希望在特殊情况下在公共行政领域使用人工智能;另有40%的人认为,人工智能只应用于能带来明确价值的地方。根据苏黎世联邦理工学院的《安全25》研究,人工智能在社会信任度指标中排名垫底,得分仅为4.3分(满分10),比前一年还下降了0.3分。

国际合作

苏黎世大学计算社会科学教授迪尔克·黑尔宾(Dirk Helbing)也对未来充满希望,他认为Apertus所开辟的道路“应当坚定地继续下去”,并结合“搜索引擎以及能够促进民主的民间社会平台”等公共数字基础设施进行扩展。

黑尔宾甚至提出,Apertus“或许还能成为一个出口产品”。在他看来,推动Apertus的持续发展将从国际合作中受益,而总的来说在人工智能领域,“民主体制国家之间的合作,尤其是那些愿意维护人权的国家”,尤为关键。他特别提到日本、韩国、台湾和印度。

同时,黑尔宾也提醒,在专制政体中,人工智能也可能被用来进行大规模监控,其影响可能跨越国界。

为什么人工智能可能损害民主

黑尔宾指出,当今全球民主状况的恶化,与近年来数字化与人工智能的发展路径密切相关。他说:“企业追求的是尽可能大的市场,但世界上许多人并不生活在民主国家。”许多软件和算法首先是为威权体制的需求而开发的,比如那些用于监控、控制或社会管理的工具。“而这些为专制系统打造的技术,又会以各种方式影响到在民主国家使用的软件。”因此黑尔宾警告,这种技术路径的“反向渗透”会对民主制度产生潜在的侵蚀作用。

迪尔克·赫尔宾
迪克·黑尔宾是苏黎世联邦理工学院计算社会科学教授。他的团队还致力于民主参与式创新及其实际应用的研究。 Giulia Marthaler / ETH Zürich

黑尔宾指出,语言模型本身也带来新的民主风险。研究显示,这类模型“比人类更能有效地操纵我们”。此外,同一套系统“对于今天也许还正常”,但可能“明天就基于完全不同的算法运行”。

虽然黑尔宾列出了许多令人悲观的理由,但他依然表示自己“也是乐观的”。他说:“最终必须朝好的方向发展,否则我们就真的会在非常、非常长的一段时间里处于困境。”

他强调,有一个科研漏洞是:数字化如何能够真正促进“自由、人权和民主”的研究很少。为此,他呼吁更多“来自公民社会的数字化动议”,包括开放数据、开源项目、开放获取科研、黑客松、创客空间、公民科学以及参与式预算等应该受到支持。他还认为,提高公众对“数字技术的权力滥用及其潜在风险”的认知。

黑尔宾提出,凡是让人能够“更多掌握自身命运”的事物,都应当得到支持。以此,他将自由主义社会的核心理念带入人工智能时代。科学界在这里能发挥重要作用,但他认为,政治层面的行动更需跟上。他说:“我们被变成数据矿,人权正在被削弱。必须拿出相应措施!”

请参阅我们关于”辅助民主“的文章:

相关内容
一位参观者在2024年巴塞罗那世界移动通信大会上测试她的简化版虚拟心脏。

相关内容

数字民主

数字孪生:当AI被用于治国理政

此内容发布于 数字孪生技术已被应用于各个领域,现在一位瑞士教授及他的美国同事提出将这项AI技术用于民主制度的变革,旨在加强民主活力。如果他们的设想成真,那么每位公民的数字孪生体将代替真人参加全民投票,做出决策。然而,将人工智能应用于政治系统,充满创意也任重道远。

更多阅览 数字孪生:当AI被用于治国理政

当人工智能收集数据并放大偏见

瑞士科技影响评估机构TA-Swiss的政治哲学家莱蒂西亚·拉梅莱(Laetitia Ramelet)同样注意到了这个问题,她长期研究科技对社会的影响。当前最令她忧虑的是人工智能被用于“分析我们的行为和偏好”。

大量个性化推荐与定制化内容能够被“熟练掌握这些技术的专业人士”所利用,以“极其细微的方式影响人们的判断”。

莱蒂西亚·拉梅莱
莱蒂西亚·拉梅莱(Laetitia Ramelet)是TA-Swiss的科研人员兼副总经理,该机构是一家致力于研究技术对社会影响的瑞士基金会。 Zur Verfügung gestellt

拉梅莱认为,在公投与选举活动中,人工智能“已经直接作用于民主了”。她说:“有两点如今可以确定,因为已被相关研究反复证实:人工智能生成的文本往往具有极强的说服力-而说服力在民主制度中具有极大影响。”

与此同时,如果缺乏预防性措施,人工智能模型内设的偏见、系统性倾向和内容同质化风险都会被进一步放大。长期研究深度伪造(Deepfakes)的拉梅莱当然也注意到:人工智能能够在极短时间内制造大量虚假或误导性内容,这对民主社会的资讯质量与公民判断力构成直接风险。

但拉梅莱依然认为人工智能将成为民主体制的一部分。她说,目前已有“许多正在进行的项目”和“朝这个方向发展的计划”。她注意到,至少在瑞士公共部门,在将人工智能引入行政机构的过程中,基本权利、数据保护和监督机制“都受到了认真对待”。

美国当前的政府,对这些问题毫不在意。施奈尔说:“美国政府会继续利用人工智能来削弱民主-因为这正是它的目标。”但他也强调,反对这种倾向的人也会使用人工智能来捍卫民主。“人工智能并不会破坏平衡,它会给双方都增加力量。”

相关内容

讨论
提问者: Benjamin von Wyl

你觉得人工智能会对民主起促进作用吗?

去年,大型科技公司与唐纳德·特朗普政府密切合作;而中国则推出了针对部分政治议题上进行审查的语言模型DeepSeek。你认为,人工智能是否也可以促进民主的发展?

查看讨论

(编辑:Marc Leutenegger,编译自德文:杨煦冬/dh)

阅读最长

讨论最多

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团