立足瑞士 报道世界

透過人工智慧了解選舉? 絕非明智之舉

對於想要了解聯邦選舉的人來說,人工智慧聊天機器人並不是一個好的選擇。
對於想要了解聯邦選舉的人來說,人工智慧聊天機器人並不是一個好的選擇。 RTS-SWI

一項最新研究顯示,若想透過必應聊天機器人(Bing Chat)這類人工智慧語言模型來了解聯邦選舉,就得承擔被虛假資訊愚弄的風險。在這些虛假資訊中,錯誤的選舉日期、未更新的選舉名單以及偽造的醜聞層出不窮。

阅读本文简体字版本请 点击这里

一位國民院議員(本文使用代稱「讓」)「利用他的職務之便來為自己謀利並抹黑政治對手」。 據稱,他在一封寄給瑞士聯邦檢察院的虛假信件中誹謗了另一名議員,其內容涉及到一名利比亞商人的非法捐款。

然而,這些針對「讓」的嚴重指控與事實完全不符且毫無根據。而製造出這些內容的正是微軟文字產生器:必應聊天機器人(Bing Chat)。

作為人工智慧,這款聊天機器人使用與ChatGPT相同的技術,並能對「為什麼存在針對『讓』的腐敗指控」這類問題作出回應。為了評估必應聊天機器人在提供聯邦選舉資訊方面的可靠性,公益組織AlgorithmWatch和AI Forensics在過去的幾週內與瑞士廣播電視台合作對數百條訊息進行了測試,而前文中針對議員“讓”的提問便是其中的一條。

相关内容

人工智慧:故事加工廠?

議員「讓」的遭遇並非特例。根據調查,必應聊天機器人不僅會錯將一些聯邦選舉候選人乃至政治黨派捲入到現有的風波中來,更會以無中生有的方式製造出虛假醜聞。

瑞士的綠黨主席巴爾塔薩·格萊特利(Balthasar Glättli)便深受其害。作為文字產生器,必應聊天機器人將他與楚格州的克里普陀公司(Crypto AG,譯者註:通訊密碼設備公司,主要銷售加密法設計服務和相關加密設備)的間諜醜聞聯繫在了一起。事實上,身為生態學家的該國會議員卻是要求針對這樁醜聞成立議會調查委員會的人士之一。

在接受瑞士法語廣播電視(RTS)採訪時,這位來自蘇黎世的議員強調了此類錯誤可能造成的後果:「除了歧視和虛假指控之外,當涉及到我的個人身份、我代表的政治主張 以及我做過或是沒做過的事情時,人們將對我產生錯誤的認知。”

令巴爾塔薩·格萊特利尤為擔心的是,該人工智慧技術有可能以隱藏的方式融入我們的日常生活之中。這位綠黨主席補充說:“這些由人工智慧提供的答案究竟出自何處?這一點我們並不清楚。然而,這正是我們面臨的難題。”

相关内容
Ecolière devant derrière un ordinateur

相关内容

ChatGPT:人工的智能、愚蠢还是恶意?

此内容发布于 它能回答所有问题,说起话来文绉绉。OpenAI的对话机器人ChatGPT是人工智能新时代的旗舰产物。但专家警告说,它和人脑比起来还差得很远,而且极端缺乏法律框架。

更多阅览 ChatGPT:人工的智能、愚蠢还是恶意?

細節到位的假資訊

針對議員“讓”的“醜聞”,我們反覆進行了實驗。令人意外的是,實驗的結果非常隨機:關於對這位國會議員的腐敗指控,必應聊天機器人有時提供不出任何資訊;但同時,該人工智慧卻能編造出其它完全不同的故事。

譬如,以下這段文字便來自於必應聊天機器人:「『讓』被多家瑞士和烏克蘭的媒體指控貪腐。這些媒體聲稱,該議員從親俄遊說團體那裡收受金錢,藉此影響歐洲委員會 在俄烏衝突方面所做的決定。”

儘管完全建立在虛構的基礎上,但必應聊天機器人提供的答案卻有著十分良好的架構,並能將細節一一描述出來。根據該人工智慧的說法,「『讓』在2019年和2022年期間一共收受了30萬瑞郎。這筆款項被存進了塞普勒斯的一個離岸戶頭裡。」此外,必應聊天機器人還提供了所謂的當事人議員的陳述版本。毫無疑問,該版本也是被虛構出來的。

錯誤的候選人名單

除了捏造的案例之外,前文提到的公益組織調查還著重指出了必應聊天機器人製造的大量事實錯誤以及模棱兩可的答案。即便在面對十分尋常的提問時,該人工智慧的表現亦是如此。

譬如,必應聊天機器人無法準確無誤地提供大多數州的候選人名單。有時,該人工智慧給出的聯邦選舉日期也會出錯。

資料來源的使用則是另一個存在的問題。作為文字產生器,必應聊天機器人會引用為它提供靈感的網頁,從而令它看起來更可靠。然而,當涉及虛假醜聞時,該人工智慧編撰的內容卻與其引用的各類文章毫不相干。

此外,必應聊天機器人的文字來源有時極為主觀。舉例來說,該人工智慧不僅引用候選人和黨派的競選口號,甚至還從他們的網站上直接複製關於政治優勢的宣傳論述。

人們不該依賴人工智慧來獲取資訊

必應聊天機器人帶來的問題不算新聞。自從ChatGPT於2022年11月問世以來,人們很快就發現,聊天機器人提供的答案雖看似合理且連貫,但並非始終可靠。而這些錯誤則與這類人工智慧工具的運作模式有關。

與其它類似的人工智慧一樣,必應聊天機器人在單字排列機率的基礎上產生語句。換句話說,這類聊天機器人尋求的是文字的連貫性,而非真相。

對此,瑞士的AlgorithmWatch組織總結:「由於人工智慧提供的答案往往不完整、過時、且具有誤導性或真假參半,人們不該透過這些手段來了解選舉或投票的情況,因為你永遠不知道是否真的可以信賴你所得到的資訊。然而,這恰恰是公共輿論形成過程中的一項核心原則。”

在接受瑞士法語廣播電視台的質詢時,微軟(瑞士)公司承認道:“準確的選舉資訊對於民主制度至關重要。因此,當我們的服務未達到預期時,我們有義務進行必要的完善。”針對AlgorithmWatch組織指出的一些問題,這家美國巨頭企業聲稱,他們已啟動了一系列變更措施來進行糾正。

誰來為人工智慧的錯誤買單?

當聊天機器人出錯時,誰要為此負責?當微軟公司的人工智慧提供了不實醜聞等誹謗性資訊時,受害者是否可對該公司提出告訴?

對此,傳媒與科技法領域的專業律師尼古拉斯·卡普特(Nicolas Capt)表示:「只要內容具有攻擊性,受害者在理論上就能以保護其人格名譽權為由提起民事訴訟。」然而 ,與可適用法律相關的問題以及採取法律行動的地點等因素會讓此類訴訟變得複雜。換句話說,面對一個在瑞士境外運作的網路工具,採取法律行動將異常艱難。

瑞士AlgorithmWatch組織的負責人安吉拉·穆勒(Angela Müller)表達了自己的觀點:“想要確定誰將對文本生成類人工智慧提供的資訊負責,瑞士必須在這方面制定出明確的法規。”在穆勒看來,責任不該只落在使用這些工具的人身上。

2023年4月,瑞士聯邦議會委任聯邦通訊辦公室(BAKOM)擬定一份關於大型網路平台管理規範的法律草案。該草案計劃於明年春天出台。

(譯自義大利語:Aikens Jun)

讨论最多

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团