Navigation

“人工智慧解決不了我們的所有問題”

人工智慧有可能讓我們變得更聰明,因為它的運作方式與我們截然不同。 Keystone

人工智慧會取代人類這一理論一直受到關注,而新冠疫情一爆發,就在短短的幾週內給全球經濟帶來了重創,這也讓我們看到,人工智慧對社會產生的影響,它真的像有人警告的那樣,會威脅到人類的就業市場?

此内容发布于 2021年02月03日 - 09:00
Markus Christen, Higgs.ch

阅读本文简体字版本请 点击这里

End of insertion

現在的情形並不是人工智慧控制的機器人或者軟體直接取代了人類的工作,實際情況是為了減少病毒的傳播,目前很多人被禁止去工作。就算人工智慧會導致職場變革,也不會以迅雷不及掩耳之勢到來。

但在某種意義上,新冠疫情還是讓我們感受到,人工智慧的廣泛使用,對社會的轉型可能帶來一定影響:比如收入結構上的改變帶來社會負荷,最後國家不得不出手干預。然而,人工智慧真的會為人們的工作和生活帶來如此重大的改變嗎?

作者

Markus Christen是蘇黎世大學數字社會倡議委員會(Digital Society Initiative外部链接)主席,也是數位倫理實驗室的負責人。目前,他正在研究人工智慧和網路安全的倫理問題、自主系統與人類的互動,以及電腦遊戲在倫理教育中的應用。他是TA-瑞士人工智慧研究的三位首席研究員之一。

End of insertion

仔細分析近年來圍繞人工智慧展開的辯論,會感到非常混亂,但至少能總結出三個基本結論:

首先,人工智慧作為資訊技術的焦點常常被寄予厚望或被視為威脅;其次,使用人工智慧不會讓我們從那些一直存在的生活本質問題中解脫出來;第三,有效利用人工智慧的起點,不是技術的發展,而是這一基礎科技與我們人類之間的互動。

擔心失去控制

讓我們從第一個結論開始分析:任何一種技術都不會像資訊處理技術這樣,能激發出烏托邦和其他怪誕的想像。原因可能是我們人類越來越多地將自己的特質(有意識地)與處理資訊的能力綁在一起。而當機器進入這個領域時,人類顯得超級無助並進入失控模式。

但是,那種面對”人類會失去控制權,而未來社會將由機器主宰“的擔心,純粹是多餘的。因為人工智慧是人創造的,人類根據自己的需求設計人工智慧,因為機器能更好的勝任某些工作。

就算在全自動領域,人工智慧係統也無法自行完成,因為人類會定期測試系統是否在做著它該做的事情,其中​​重要的一點是:人工智慧如果出現了“危險”舉動,一定不是技術本身的問題,而是操控它的人造成的。

針對人工智慧的批判性態度更多的與烏托邦思潮有關:人工智慧控制論在公眾中廣泛傳播,這背後隱藏的是,與”我們人類時而會做出非理性判斷和偏見“形成鮮明對比的“理性、客觀和公平判斷的理想主義”思想。

然而,拋開所有關於數據品質和偏差等這些複雜問題不談,以海量數據為基礎的人工智慧係統所做出的純理性決定,是否真的適合於人類,目前還值得懷疑。

例如,如果未來按照這種“理性標準”,只有人工智慧係統能決定,是否發放一項貸款,也會失去“多樣性”,而這將成為一個問題。因為人類的判斷失誤對於整個社會系統來說不一定是壞事。

法律的不同解釋

這便引出對上面提到的第二點結論的思考:人工智慧雖然看似客觀,但它無法解決許多與人類決策相關的本質問題。這一點可以用一個眾所周知的例子來說明:2016年,美國Northpointe公司研發的被美國法院用於評估被告犯罪可能性的一款案件管理和決策支持工具Compas出了一檔子事。

該人工智慧係統為美國法官提供一些即將被提前釋放的罪犯重新犯罪的風險評估。一個名為ProPublica的調查性新聞組織調查了該系統的運作過程,並得出結論:該系統做出的預測帶有種族歧視傾向。

Compas系統輸送的數據顯示,非裔美國人的重新犯罪率幾乎是白人的兩倍-儘管膚色被明確排除在該評估的標準之外。但是,ProPublica最初做出的“軟體開發者在編寫計算程式時不夠謹慎,甚至隱含種族歧視”的判斷-後來被否定了。

研究人員最後得出結論,預測系統背後存在一個本質問題,那就是對於“公正”的解釋有所不同。古哲學家亞里士多德早就說過:“正義存在不同的類型”。

如果將這些都具備合理性的“不同解釋”注入到計算程式中,它們有可能相互排斥,但是去掉任何一種形式的不公平都有可能自動導致另一種形式的不公平。

這裡,我們不能迴避的一個本質問題是:“針對某個案子應該使用哪一種”公平“。由此可見,我們必須接受這樣的事實:人工智慧可以給出一個貌似客觀的答案,但卻無法回答我們提出的本質問題。

人與機器的互動

然而,這並不是說,因為被賦予厚望或者被視為威脅,人工智慧就是一種被高估的技術。人工智慧係統中的"深度學習"(deep learning)模式,讓我們人類找到了解決難題的新出路,人工智慧有可能讓我們變得更聰明,因為它的運作方式與我們截然不同,可以處理大量數據,這是我們人類無法做到的。

這樣的運作程序或許能夠讓我們注意到偏見和系統性錯誤的存在;它讓我們有機會反省自己。人工智慧不會剝奪我們的決定權,但它可以提供一種形式的參考。

這是一件好事,特別是涉及到艱難的決策時。然而,最重要的一點仍然是,人與機器之間必須保持互動。進一步理解和優化這種互動應該是未來研究人員的工作目標。

文章只反映作者觀點,不代表swissinfo.ch編輯部的觀點。

本文於2020年4月15日發表在瑞士獨立知識雜誌《Higgs.ch》上。 SWI瑞士資訊swissinfo.ch陸續轉載該雜誌的文章。

End of insertion

(譯自德文:楊煦冬)

这篇文章下方的评论区已失效。您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

分享此故事

加入对话

开设一个SWI帐户,您就有机会在我们的网站上发表评论和留言。

请在此登陆注册