業界 | 千人簽署阻止「殺人機器」承諾,馬斯克、哈薩比斯位列其中

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

原標題:業界 | 千人簽署阻止「殺人機器」承諾,馬斯克、哈薩比斯位列其中

選自Guardian

作者Ian Sample

在斯德哥爾摩舉行的 IJCAI 2018 大會上,眾多學者與從業者們共同簽署了阻止致命性人工智能武器的承諾,Google DeepMind 的聯合創始人丹尼斯·哈薩比斯和 SpaceX 的首席執行官埃隆·馬斯克位列其中。該承諾誓言:絕不將人工智能技術應用於自主殺人機器的研發。

業界 | 千人簽署阻止「殺人機器」承諾,馬斯克、哈薩比斯位列其中 科技 第1張

一名男子在武器交易會上走過武裝機器人系統。攝影:Brendan Smialowski/ Bloomberg /Getty Images

數千名專門從事人工智能(AI)的科學家宣稱,他們將不參與開發或製造能夠在無人監督的情況下識別和攻擊人類的機器人。

Google DeepMind 公司的丹尼斯·哈薩比斯和美國火箭公司 SpaceX 的埃隆·馬斯克與 2400 多人和 170 多個組織共同簽署了一項承諾書,旨在阻止軍事公司和各個國家建立致命性自主武器系統。簽署協議的其他人包括 Yoshua Bengio、Jeff Dean、Stuart Russell 等人;而 UCL、NNAISENSE 和 ElementAI 等大學和研究機構也位列其中。

完整名單:https://futureoflife.org/lethal-autonomous-weapons-pledge/?cn-reloaded=1&cn-reloaded=1

此舉是相關科學家和組織的最新舉措,旨在強調將生死交付給 AI 機器是極度危險的事情。接下來是呼籲頒布技術禁令,參與此活動的人認為,AI 技術可能會導致新一代大規模殺傷性武器的出現。

該承諾書由總部位於波士頓的未來生命研究所精心策劃,要求各國政府商定規範、法律和法規,以有效扼制殺人機器人的發展。在今天沒有此類措施的情況下,簽署方承諾「既不參與也不支持致命性自主武器的研發、製造、交易或使用。」今天斯德哥爾摩的人工智能聯合會議(IJCAI)宣布,超過 150 個與 AI 相關的公司和組織在此承諾書中簽署了他們的名字。

來自蒙特利爾算法學習研究所的 AI 先驅 Yoshua Bengio 告訴《衛報》,如果這項承諾能夠讓那些製造自主武器的公司和軍事組織自慚形穢,輿論也不會傾向於他們。他說:「盡管美國等主要國家沒有簽署禁雷條約,但由於國際條約和公眾的約束,這種做法實際上在禁雷上已起到作用。美國公司已經停止製造地雷。」Bengio 簽署了承諾書,表示會「強烈關注致命性自主武器。」

軍方是人工智能技術的最大資助者和采納者之一。有了先進的計算機系統,機器人可以在敵方領域執行任務,在地面導航,在海底巡邏。更先進的武器系統正在醞釀中。周一,英國國防部長 Gavin Williamson 公布了一項 20 億英鎊的新皇家空軍戰鬥機計劃——Tempest,使戰鬥機不需要飛行員操控。承諾書簽署者呼籲各國政府採取更多措施,規範和限制這種自主殺人機器的使用,擔心各國將展開一場失控並威脅世界穩定的軍備競賽。他們警告說,自主殺人機器可能比「核生化武器」更加危險,因為軍備競賽很容易失控,脫離國際組織的管理。他們指出,政府監管還不夠完善,無法應對如此嚴重的威脅。

對於許多研究人員來說,讓機器決定人的生死跨越了道德底線。

英國的部長們表示,英國不會發展致命性自動武器系統,其部隊將始終監督、控制其部署的武器。但活動人士警告說,人工智能和其他領域的迅速發展意味著,人類現在可以製造未經人類同意就自主識別、跟蹤和射擊人類目標的尖端武器。對於許多研究人員來說,讓機器決定人的生死跨越了道德底線。

「我們需要創造一項國際慣例,拒絕接受自動武器。」雪梨新南威爾士大學(University of New South)的人工智能教授 Toby Walsh 在承諾書上簽了字,他說:「人必須永遠遵守這項慣例」。

他補充說:「「我們不能阻止意志堅定的人製造自動武器,就像我們不能阻止意志堅定的人製造化學武器一樣。」但如果我們不希望無賴國家或恐怖分子輕易就能獲得自動武器,我們必須確保武器公司不公開出售這些武器。」

研究人員可以選擇不做自主武器研究,但其他人如何利用他們的研究突破就不在他們的控制範圍之內了。蘭開斯特大學(Lancaster University)科學與技術人類學教授 Lucy Suchman 也簽署了這份承諾書,他指出,雖然研究人員無法決定別人如何利用他們的研究成果,但如果他們對該技術抱有疑慮時,他們可以介入並干預。

她說:「如果我是一名簽署了承諾書的機器視覺研究人員,我會首先承諾追蹤自己所研發技術的後續用途,並公開反對將這些技術應用於自動化目標識別,其次拒絕直接協助將這些技術用於自動武器系統的研究,並拒絕為其提供建議。」

除了倫理問題之外,許多批評者擔心這些武器還可能易受黑客攻擊,最終進入黑市或落入 ISIS 等恐怖組織手中。

人工智能的發展引起了許多人的擔憂,包括埃隆·馬斯克。2017 年 9 月,馬斯克發推特稱人工智能可能引發第三次世界大戰。此外,馬斯克還敲響了人工智能的警鐘,稱未來幾十年內,人工智能將「全面擊敗人類」,並稱其為人類面臨的「最大風險」。

原文鏈接:https://www.theguardian.com/science/2018/jul/18/thousands-of-scientists-pledge-not-to-help-build-killer-ai-robots

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。返回搜狐,查看更多

責任編輯: