香港文(wén)匯報訊 專家們長期以來不斷警告人工智能(néng)(AI)失控可(kě)能(néng)帶來威脅,一項新(xīn)研究報告指出此事已發生。法新(xīn)社報道,一批科(kē)學家在《Patterns》期刊發表的文(wén)章說,原本設計為誠實的AI系統,已發展出令人不安的欺瞞技巧,例如欺騙網上遊戲的人類玩家。

AI行為無法預測不受控

這份研究報告的作者、美國麻省理(lǐ)工學院研究員帕克說,這類例子暴露出來的潛在問題,可(kě)能(néng)很(hěn)快會在現實世界造成嚴重後果。帕克說,能(néng)深度學習的AI系統不像傳統軟件那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」,換言之AI的行為在訓練背景下看似可(kě)預測及可(kě)控制,但可(kě)能(néng)轉眼就變得不受控制且無法預測。

這支團隊的研究始於美國科(kē)企Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為《Diplomacy》的戰略遊戲,獲勝關鍵是結盟。據在《科(kē)學》期刊發表的報告,Cicero在遊戲中表現優異,所獲分(fēn)數排在資深人類玩家前10%。Meta稱Cicero「在很(hěn)大程度上誠實」,且「絕不會蓄意在背後搞鬼」,但帕克與同事深究完整資料時,發現是另一回事。舉例說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。

報告作者還認為近期AI有(yǒu)舞弊或不當影響選舉的風險。為降低風險,團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、在AI生成內容打上數碼水印,並研發能(néng)偵測AI欺瞞的技術。