[新聞] 部分AI系統已學會欺騙人類 科學家警告

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

[新聞] 部分AI系統已學會欺騙人類 科學家警告 未分類 第1張

1.媒體來源:

中央社

2.記者署名:

中央社華盛頓10日綜合外電報導
(譯者:曾依璇/核稿:嚴思祺)
引用法新社

3.完整新聞標題:

部分AI系統已學會欺騙人類 科學家警告恐造成嚴重後果

4.完整新聞內文:

專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這
件事已經在發生。

法新社報導,一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計
為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家
,或說謊以僱用人類來解決「我不是機器人」的驗證。

這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但
暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。

在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博
士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實
傾向而非欺瞞傾向的能力非常差」。

帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培
育的程序逐漸「成長」。

也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且
無法預測。

這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為
「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。

根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分
數可排在資深人類玩家的前10%。

帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上
誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。

但當帕克與同事深究完整資料時,發現完全是另一回事。

舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類
玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。

Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研
究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打
算把這項研究或所學用於本公司的產品」。

帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多
案例之一。

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損
的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。

研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。

他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合
AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。

為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、
在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外
部行為。

至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,
就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」

但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極
致,這種情況似乎不太可能發生。

5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:

https://www.cna.com.tw/news/ait/202405110147.aspx

6.備註:

哇靠
Ai說謊自己是盲人來雇用人類完成「我不是機器人」驗證任務

人類末日倒數了吧= =

Be the first to comment

Leave a Reply