The Swiss voice in the world since 1935

瑞士開放式人工智慧的利與弊

瑞士人工智慧模式Apertus自今年9月初問世以來,與其相關的討論和報導就一直層出不窮。然而,當中的真實與虛假,人們該如何分辨?
瑞士人工智慧模式Apertus自今年9月初問世以來,與其相關的討論和報導就一直層出不窮。然而,當中的真實與虛假,人們該如何分辨? Keystone / Gaetan Bally

從二十世紀中葉起步至今,人工智慧迅速改變我們的世界。最近,瑞士聯邦理工學院發布了一款名為Apertus的大規模人工智慧新模型。對此,外界的反應可謂褒貶不一。在受到一部分人追捧的同時,該模型的問世也遭到了反對一方的抨擊。同時,與這項新技術相關的議題也在市場上迅速流傳開來。本文將針對那些流傳最為廣泛的觀點展開深入的探討與分析。

阅读本文简体字版本请 点击这里

相关内容
電子報:瑞士媒體裡的中國

相关内容

電子報:瑞士媒體裡的中國

瑞士媒體對於中國新聞的觀點及分析摘要。瑞士媒體對於中國都在報導哪些主題?這個電子報讓你對此一目了然。訂閱電子報,讓你在做決策時多一個維度的考量。

更多阅览 電子報:瑞士媒體裡的中國

經過數週的等待,蘇黎世聯邦理工學院(ETH Zürich)和洛桑聯邦理工學院(EPFL)終於在最近將名為Apertus的國家級大型語言模型(LLM)推向了市場。由於模型的全部組件均對外界公開,開發團隊將其定義為一款「完全開放式」的人工智慧。此外,鑑於其極高的透明度和多樣性,該模型還被譽為「生成式人工智慧領域的里程碑」。然而,關於Apertus這款人工智慧模型的功能與弊端卻存在著許多說法。其中,哪些觀點屬實?哪些又是誤傳?

為了回答這個問題,在對這款最新的人工智慧模型進行測試的同時,瑞士資訊也邀請了其開發團隊及其他人工智慧專家對以下觀點進行真偽區分並揭秘分析該模型的主要優勢與不足之處。

Apertus是瑞士版的ChatGPT:非事實

不同於OpenAI的ChatGPT,Apertus的設計初衷並非為了個人用途。恰恰相反,作為一款基礎類人工智慧模型,瑞士開發Apertus的意圖在於讓其與各類應用及服務程序完成適配,而商業和科研則將成為該模型的重點投放領域。舉例來說,Apertus不僅可用於電子商務,在醫療領域,人們也可利用該模型實現多語言資訊的擷取。 

負責Apertus技術開發工作的蘇黎世聯邦理工學院研究員伊馬諾爾·施拉格(Imanol Schlag)表示:「大眾市場並非我們的首要目標客戶群。」

正因如此,Apertus既沒有推出太多面向私人用戶的功能,也沒有推出一套專屬的行動應用程式。

位於盧加諾的瑞士國家超級電腦中心(CSCS)擁有一台用於管理Apertus人工智慧模型的超級電腦。該中心的助理主任瑪麗亞·格拉齊亞·朱弗雷達(Maria Grazia Giuffreda)解釋道:「我們的設計意願從來不是開發一套瑞士版的ChatGPT。」

為了讓大眾有機會體驗這款新型人工智慧模型,非政府組織Public AI在其官方網站上向網路使用者開放了Apertus的部分聊天功能。

>>點這裡了解瑞士人工智慧領域的所有最新動態:

相关内容
2025年,瑞士将出台一些新规,其中包括对大量使用人工智能算法的社交平台实施更严格的规定。

相关内容

瑞士人工智能

2025年瑞士人工智能领域将有大动作

此内容发布于 2025年,瑞士将在人工智能(AI)监管法规、医疗和制药等领域的“瑞士版ChatGPT”,以及自动驾驶汽车落地等方面迈出重要步伐,这不仅将为自身塑造人工智能发展的新格局,也为全球提供一份值得借鉴的样本

更多阅览 2025年瑞士人工智能领域将有大动作

Apertus無法與市場上的主流大型語言模型抗衡:事實

通常情況下,大型語言模型的學習能力可透過參數量此指標反映出來。作為目前已知功能最強大的完全開源大型語言模型,Apertus的最大版本擁有700億個參數。儘管如此,該人工智慧仍無法與GPT-4、Gemini或Claude這類專有模型相提並論。事實上,上述這些大型語言模型不僅依靠更龐大的資料集完成訓練,背後也同時擁有強大運算能力的支援。與Apertus相比,GPT-3擁有的參數高達1750億個,而其後續版本的特定參數數量並未公開。

對此,巴黎綜合理工學院(École polytechnique)的教授埃爾·馬迪·埃爾·馬姆迪(El Mahdi El Mhamdi)表示:「將Apertus與美國科技巨頭企業開發的人工智能模型進行對比,就如同將一個瓦萊州的小農戶與一家超大型牛肉生產商拿來比較一般毫無意義。」

對此,巴黎綜合理工學院(École polytechnique)的教授埃爾·馬迪·埃爾·馬姆迪(El Mahdi El Mhamdi)表示:「將Apertus與美國科技巨頭企業開發的人工智能模型進行對比,就如同將一個瓦萊州的小農戶與一家超大型牛肉生產商拿來比較一般毫無意義。」

然而,規模較小的人工智慧模型不僅可能更有效率且更適合中小企業使用,在能源消耗方面,也可能更經濟實惠。針對這一點,洛桑聯邦理工學院和瑞士意大利語區大學(Università della Svizzera italiana)的研究員梅特·伊斯邁伊茲扎達(Mete Ismayilzada)補充道:「人們越來越意識到,數據的質量遠比其數量重要得多。」

同時,部分學界人士對瑞士開發的新人工智慧模型持懷疑態度。蘇黎世大學的名譽教授布魯諾·弗雷(Bruno Frey)透露,Apertus模型向他提供了錯誤的科學基礎。在這位專家看來,「這些數據的說服力明顯不足。」另一邊,數學家澤維爾·孔特塞(Xavier Comtesse) 也在領英發文指出,該人工智慧模型會產生大量看似準確實則錯誤的結果。這現像在人工智慧領域也被稱為人工幻覺。

施拉格為Apertus的性能表現進行了辯護。該專家指出,作為一個大型語言模型,Apertus最小的版本也擁有80億個參數。此參數數量不僅已超越了Mistral、Meta以及阿里巴巴等科技公司開發的類似產品,同時也領先於所有其它公共機構所使用的人工智慧語言模型。

>>以下影片將為您詳細介紹人工智慧領域的專業術語:

相关内容
人工智能词解

相关内容

瑞士人工智能

人工智能词解

此内容发布于 与人工智能相关的术语有很多,它们究竟是什么意思?这个短视频我们给你简单讲解一下,从中了解什么是自然语言处理和通用人工智能。

更多阅览 人工智能词解

相較於其它人工智慧模型,Apertus秉持倫理規範且透明公開:事實

自2024年歐洲人工智慧法案生效以來,Apertus是第一個在滿足法案關鍵要求的前提下被設計開發的大規模人工智慧模型。這些關鍵性的法律要求囊括了透明度、資料可追溯性以及對智慧財產權及隱私的尊重。作為大型語言模型,Apertus的設計架構、權重(決定神經網路運作的數值參數)以及訓練指令均向公眾開放,而用於模型訓練的資料集則均出自於公開且合法的來源,但並不包括受版權保護的作品或拒絕加入訓練資料集的網站。

與之相反的是,科技巨頭們長期以來一直在未經同意的情況下使用數十億用戶的數據,而受版權保護的數據甚至未能倖免。埃爾·馬迪·埃爾·馬姆迪指出,這些數據往往透過利用發展中國家隱蔽且廉價的人力勞動蒐集而來。該專家表示:「數據濫用在主流現代化人工智慧供應鏈中幾乎已成常態,而對於其惡劣程度,我們仍未獲得清醒的認知。」

2019冠狀病毒病大流行過後,ChatGPT和DALL-E等生成式人工智慧平台得到了廣泛應用,大大改變了人類數位生活的各個層面。透過自然語言生成和大語言模型,生成式人工智慧已成為高效的生產力工具。然而,隨著人工智慧系統越來越多地納入數位化平台,一系列重大危害也隨之浮現。

人工智慧生成或介導的內容往往非常逼真,難以辨別,且傳播迅速。如果此類內容傳遞虛假或誤導性的訊息,則可能會加劇信任赤字。然而事實上,大語言模式的設計初衷並非傳遞真相。相反,大語言模型並不能保證內容的準確性或真實性,僅根據訓練資料的模式產生看似合理的答案。由於許多使用者對此特點缺乏了解,這些模型往往將準確與不準確資訊混雜在一起,從而破壞了資訊的完整性。

此外,數位化平台和生成式人工智慧是傳播虛假和誤導性資訊的絕佳組合,因為大多數數位化平台的演算法優先考慮內容的用戶互動性,而非準確度。隨著人工智慧生成內容的增加,這些內容可能會成為歪曲事實的媒介,進一步加速虛假資訊的傳播。儘管事實查核技術已有進展,但數位化平台和人工智慧演算法仍缺乏可靠的機制來定期確認材料的合法性。此外,不同平台和轄區的事實查核程序存在差異。這意味著即便發現了不準確的內容,也可能需要數小時甚至數天才能修正。

如果繼續以目前的方式核查數位化資料,錯誤資訊和虛假資訊的傳播可能愈演愈烈,從而引發更多關於真實性、偏見、資訊隱私等方面的擔憂。傳播錯誤訊息和假訊息也會危及民主制度和基本人權。

《世界人權宣言》第十九條規定,「人人有權享有主張和發表意見的自由」,但這種自由絕不能被濫用或扭曲,傷及他人或社區。然而,人工智慧產生的內容越來越多地用於傳播仇恨言論、仇外心理以及歧視性言論,目標受眾往往是難民、少數族裔等弱勢民眾。 2019年,總部位於阿姆斯特丹的網路安全公司Deeptrace進行了一項研究,結果顯示96%的深度換臉影片均為非自願,並且包含色情內容。此外,人工智慧生成內容還可能淪為人口販運的幫兇,誘騙受害者落入剝削的深淵,尤其是婦女和兒童。

技術方面也存在嚴峻的人權挑戰。人工智慧學習演算法主要依賴從各大數位和社群媒體平台收集來的大量數據,而這些數據通常是由人類上傳或透過人類互動產生的。由於資料量龐大,幾乎不可能徹查乃至瀏覽每則資訊。人工智慧模型利用這些數據識別趨勢、產生預測並合成內容,但智慧模型評估數據的細膩度遠不及人類。這可能導致有害的偏見和錯誤訊息的傳播,進而侵犯人權。

隨著社會越來越依賴數位化平台和服務,解決這些問題,特別是與人權相關的問題,變得越來越緊迫。

從技術角度來看,為了讓人工智慧產生的內容準確可靠,開發人員應該在一開始就做好詳盡的測試,以便在開發階段發現偏見、錯誤和漏洞。數據、演算法和決策的透明度對於建立信任和消除人工智慧對資訊完整性的負面影響至關重要,因為使用多樣化的數據集有助於避免有害的偏見,產生更客觀公正的內容。正如《聯合國資訊完整性全球原則》的建議,科技公司應授權使用者就信任和安全、隱私權政策和資料使用等各個方面提供意見和回饋,承認使用者的隱私權,同時也應該改善使用者選擇與控制,提高與不同供應商的一系列服務的兼容性。

在人權方面,司法當局和人權組織應該在尊重個人隱私和尊嚴的同時積極支持人工智慧的發展和應用。作為上述倡議的一部分,應該執行更強有力的資料保護法規,保護人們免受冒犯性的資料收集,並阻止人工智慧系統未經許可使用個人資料。人權監督機構必須將人工智慧倫理納入現有的人權框架,確保人工智慧的應用尊重個人隱私、言論自由和不歧視等個人權利。

數位化平台的所有者應該對共享的內容負責,特別是在人工智慧放大虛假資訊的背景下,應該開發更先進的內容監控系統,快速識別、刪除或標記人工智慧產生的錯誤資訊。數位化平台還可以透過進一步公開演算法和資料收集方法,確保人們了解平台是如何選擇和推廣內容的。

資料來源:聯合國

正因如此,對於那些希望以符合倫理且遵守法律要求的方式開發人工智慧應用的企業、研究機構及公共機構而言,Apertus被賦予了極為特別的意義。對此,施拉格解釋道:「透過這款模型,我們成功地向公眾示範瞭如何在不侵犯他人智慧財產權的情況下以負責任的方式訓練生成式人工智慧。」

Apertus支持的語言超過1800種:誤導觀點

人工智慧開發者付出了巨大努力,訓練Apertus掌握了多種語言。據稱,該模型支援的語言超過1800種,其中包括各類少數族群的語言以及常被主流大型語言模型忽略的各種方言,譬如列托羅曼語(瑞士另一種國家語言)和瑞士德語(方言)。正因為大多數人工智慧模型將重點放在使用更廣泛的語言上,Apertus的這項變革型突破便顯得特別可貴。

然而,我們並不能輕易地在辨識一門語言與準確使用這門語言之間劃上等號。尤其在那些不常見的慣用語方面,Apertus可能會犯下重大的錯誤。

這一點在我們的測試中得到了驗證。有時,Apertus會用義大利文產生笨拙或錯誤的語句。而在使用列托羅曼語翻譯祖父一詞時,這個人工智慧模型也表現出了明顯的失誤。

身為Apertus的開發負責人,施拉格承認道,此人工智慧模型的對話能力仍有待提升。然而,該專家也同時強調,根據最新的技術報告,在執行某些指令時,譬如在將德語譯成列托羅曼語時,Apertus的表現已超越了其它語言模型。

這項優勢並未獲得所有人的讚賞。瑞士新創公司Giotto.ai的執行長阿爾多·波德斯塔(Aldo Podestà)對此提出了質疑:「如果一款人工智慧模型的平均性能表現遠遠遜色於其它同類模型,更達不到頂級模型的高度,那麼,精準掌握列托羅曼語的意義又在哪裡呢?」儘管這家新創公司對Apertus專案表示支持,但同時也指出了該模型的侷限性。

身為洛桑聯邦理工學院全球健康與人道主義援助智能技術實驗室的負責人,瑪麗-安妮·哈特利(Mary-Anne Hartley)教授在Apertus語言模型議題上持有不同的觀點:「使用小眾語言的人群亦有在技術領域中獲得一席之地的權利,而這也正是Apertus眼下努力的方向。」事實上,那些侷限與不足不過只是一時的障礙,而打造一款更具包容性和更符合倫理規範的人工智能模型才是Apertus開發團隊的終極目標。

Apertus僅為瑞士開發:非事實

儘管Apertus由瑞士科研機構在瑞士境內開發完成,但它絕非僅適用於瑞士本土應用程式的人工智慧模型。需要強調的是,用於訓練Apertus的大部分資料集取自國際性資料來源,但其中不包括德語與列托羅曼語資料以及那些與瑞士整體價值體系相關的內容。這些內容明確規定了人工智慧必須遵循的一系列原則,譬如中立原則和語言多元化原則。伊馬諾爾·施拉格補充說:「除此之外,我們的模型並未涵蓋任何特別的瑞士元素。」

同時,Apertus的開發團隊也期待其他國家也對這項人工智慧專案產生興趣,並為這項專案的後續發展提供相應的基礎設施、科學研究人才以及各項資源。對此,瑞士國家超級計算中心的朱弗雷達表示:「我們的目標是在歐洲乃至全球範圍內持續開發Apertus人工智慧模型並擴大其影響力。」

由於未連接到互聯網,Apertus無法進行即時更新:誤導性觀點

目前,所有大型語言模型都不具備即時更新的功能。在訓練階段結束之後,這些人工智慧模型都將保持靜止狀態。即使在它們被整合到ChatGPT這類能夠存取互聯網的產品中時,情況也不會改變。要對一款人工智慧模型進行修改與修正,唯一的途徑就是重新對其實施訓練。然而,由於這項操作產生的成本過高,只有那些資源雄厚的企業才有機會頻繁地更新它們的模型。施拉格解釋道:「這是目前人工智慧技術領域的一大短板。」

眼下,Apertus開發團隊將藉助兩千萬瑞郎的聯邦撥款和瑞士Alps超級電腦來籌備下一輪的模型訓練。 Alps超級電腦完全由水力發電供能,可在人工智慧開發的過程中節省大量的資源。然而,從長遠來看,新的資金來源不可或缺。施拉格表示:「我衷心希望Apertus可以盡快迎來更多的投資。要知道,這項技術的發展對我們的數位主權至關重要。」

(編輯:Gabe Bullard,編譯自義大利文:Aikens Jun /xy繁體校稿盧品妤)

相关内容

讨论
提问者: Sara Ibrahim

人工智能便利了你的生活,还是成了一种威胁?

我们应该让人工智能替我们做决定吗?越来越强大的计算机会令我们的生活更轻松,亦或它们是对社会的一种威胁?

4
72 留言
查看讨论

阅读最长

讨论最多

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团