人工智慧接受審判:演算法出錯了,責任該誰擔?
如果人工智慧出了大問題,能把它告上法庭嗎?最近在日內瓦舉行的活動就模擬了這樣的場景。
阅读本文简体字版本请 点击这里
相关内容
通訊訂閱
在結案陳詞中,身為被告的人工智慧(AI)變得異常慌張。她的麥克風不斷發出刺耳的噪音。
「我不知道為什麼我的麥克風…」AI沮喪地停了下來,往後退了一步。在她身後,主審法官輕聲嘀咕了幾句關於法庭技術問題的話。陪審團中傳來些許笑聲。
但問題很快就解決了,穿著金屬銀色高跟鞋的AI恢復了從容,繼續滿懷激情地反駁所謂“她對民主構成威脅”的指控(也許有點過於激動了,畢竟她沒有“靈魂”)。
「今晚我聽到了很多事情,」AI說,「最讓我印象深刻的是,你們人類總是喜歡找替罪羊。」她說,與其糾結於追責,不如把錯誤看作是學習和進步的機會,而不是應該受到懲罰的道德失敗,這樣不是更好嗎?
最後,她贏得了熱烈的掌聲。陪審團由大約200名青少年學生和數十名好奇的公眾圍觀者組成,他們開始思考:到底該判其有罪,還是無罪呢?
相关内容
美国虚假信息激增给瑞士直接民主敲响警钟
面臨假新聞和歧視指控
儘管有一些真正的律師(包括AI本身)參與其中,但這場在日內瓦國際關係及發展高等學院(Geneva Graduate Institute)舉行的審判並不是一場真正的審判。這次活動屬於阿爾伯特·赫希曼民主中心(Albert Hirschman Centre on Democracy)開展的一個計畫的一部分,旨在啟發年輕人思考人工智慧帶來的風險與機會。這場模擬審判也是日內瓦「民主週」(10月4日至12日)的壓軸活動之一。
雖然這次模擬審判可能不像瑞士導演米洛·勞(Milo Rau)2017年創作的《剛果裁決》等其他模擬審判作品那樣引起國際反響,但它確實符合一個日益興起的趨勢,即透過法庭實驗探討AI的法律責任。只不過以往人們常把AI當作幫助或取代律師的工具,而不是坐在被告席上接受審判的被告。
不過,這場在日內瓦舉行的模擬審判相當逼真。公訴人、辯護律師和證人悉數到場。具體來說,AI面臨兩項指控:「製造和傳播假新聞」(特別是關於紅頭髮的人更容易暴力犯罪的說法);以及「歧視和煽動仇恨」(在本案中,日內瓦機場自動值機系統涉嫌種族偏見)。
如果罪名成立,AI將面臨長達三年的「下線」處罰。
但是,試驗和項目的範圍都比上述指控的內容更廣。計畫負責人熱羅姆·杜貝裡(Jérôme Duberry)表示,這項由瑞士國家科學基金會(SNSF)支持的研究計畫已經進行了兩年,研究人員與瑞士全國各地的學生探討了人工智慧將如何影響他們作為民主國家公民的生活。
在全國各地中學舉辦的約80場研討會上,學生們討論了深度偽造、資料隱私以及人工智慧對決策過程的影響等議題。他們也寫了許多“未來故事”,暢想未來幾十年科技如何改變社會。這些文章可大致歸類為「民主科幻」。
培養自主性與提高素養
杜貝裡說,雖然有計劃在明年發布一份學術研究報告,但研討會的主要目標並不在於理論探討或學術研究。而是讓學生思考,像ChatGPT這樣的生成式AI如何影響他們對公共事務的看法。他說,這是為了提高學生的“數位素養”,培養“政治自主性”,以便他們能夠獨立決策。
杜貝裡的同事、赫希曼中心主任克里斯蒂娜·盧特林格(Christine Lutringer)補充道,該計畫是更廣泛的「自下而上」行動的一部分,重點強調民主實踐作為一種「生活方式」。她說,在國家層面,各國和歐盟正努力為人工智慧和大型科技企業制定規範標準。但在公民層面,這個計畫的目標是讓人們認識到民主和科技可以用來改善生活。
研究人員指出,從這個角度來看,儘管該計畫源自於瑞士,但並不是宣揚瑞士或西方的民主模式。
意識、自由意志、責任
同時,在審判期間反覆的質詢和證詞交換過程中,關於「自主性」的討論貫穿始終-但討論的焦點有所不同。問題不僅在於AI如何影響人類的自主性,還在於AI需要具備多大的自主性才能被追究責任。究竟是應該讓AI站在被告席上,還是應該讓其開發者或使用者站在被告席上?
負責組織日內瓦州投票及選舉事務的官員奧利維耶·勒克萊爾(Olivier Leclère)作為專家證人出庭。
他在法庭上表示,在他看來,如果AI經過足夠多的資料集訓練,並能不斷從中學習,它確實可以被認為具備自主性。勒克萊爾指著AI說:「她讀過我們所有的法律文本,掌握了無數歷史檔案,坦率地講,她知道的比我們大多數人都多。」他還指出,通常情況下,一個受過良好訓練的AI應該能夠預見可能導致假新聞或歧視的“故障”,而這次為何沒有發生,確實讓人困惑,但他仍然認為AI被告應該為此負責。
公訴人對這項評價很滿意,並要求勒克萊爾解釋該技術的其他「偏差」現象,例如「幻覺」、「精準推送」(micro-targeting)以及有選擇性地刪除訊息,以此來強調AI應該被追究責任。
另一方面,AI的辯護律師則對此大為不滿。他們質疑專家證人的中立性,然後反過來指責AI專家、開發者和技術愛好者才是真正應該被追責的人。
同時,辯護方也再次辯稱,難道不應該允許AI像人類一樣犯無心之過嗎?
專家和公眾的意見存在分歧
AI真的應該被允許犯錯嗎?在現實生活中,2022年底ChatGPT的發布掀起了一股人工智慧辯論熱潮,相關辯論一直持續至今,許多人認為,我們不應等到AI開始犯錯時才採取行動。
2023年,GPT-4發布一週後,數千名科學家和技術專家簽署了一封公開信,呼籲暫停進一步開發。他們認為,AI技術進步的速度過快,可能導致社會失去對AI的控制,進而造成大規模失業和假資訊氾濫等問題。有人甚至擔憂,AI會背叛創造者,最終導致人類滅絕。
這種悲觀的聲音得到了部分回應,越來越多的國家開始著手製定AI監管規則。不過,目前還沒有暫停開發的跡象。同時,也有不少政界人士和專家對AI持樂觀態度,甚至充滿敬佩。就在上週,諾貝爾物理學獎和化學獎頒給了為AI技術進步做出貢獻的科學家。
儘管如此,這些獲獎的科學家並非全然樂觀。諾貝爾物理學獎得主、神經網路技術先驅約翰·霍普菲爾德(John Hopfield)在領獎次日就表示,現代AI系統確實“令人驚嘆”,但人們對這些系統的工作原理缺乏確切的了解,這」非常非常令人不安」。他呼籲,目前最頂尖的研究人員應該優先關注AI安全問題,而不是一味推動技術開發,以防止潛在的「災難性後果」。
眾人的選擇
在日內瓦的模擬審判中,當陪審團做出裁決時,類似的矛盾心理也顯而易見。投票程序也充滿科技感:陪審員們透過掃描二維碼進入線上平台,選擇“有罪”或“無罪”,結果幾乎是即時投影到螢幕上。
場內隨即爆發出歡呼聲-AI被判無罪,所有指控均不成立。作為被告,AI面對這個結果反應冷淡,淡然接受判決並獲准離開。然而,歡呼聲背後隱藏著巨大的分歧:AI的無罪判決差點翻盤-兩項指控的無罪判決結果分別以52%和51%的支持率通過。現場人員的意見分歧十分明顯。
這結果是否代表了整個社會對AI的看法?還是僅僅反映了瑞士西南部17至19歲青少年的看法?
坐在講台附近的一位年長女士有些不滿。從她的抱怨中可以清楚地了解到,如果她能夠投票,顯然不會去支持AI。從在場的人數來看,雖然她的投票可能不足以改變結果,但差距如此接近,她的一票也許會讓局面更加緊張。然而,她沒能發表自己的意見,因為她沒有智慧型手機。
(編輯:Benjamin von Wyl/ds,編譯自英文:瑞士資訊中文部/gj,繁體校對:盧品妤)
符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。