馬斯克、Google攜160家組織簽署承諾書,就能避免未來機器人殺人?

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

承諾不發展人工智能致武器,馬斯克、Google攜160多個組織簽署承諾書

在人工智能這一領域,始終有一部分人堅持「人工智能威脅論」。這其中,就包括已經逝去的霍金教授,以及前段時間來中國準備在上海開設特斯拉超級工廠的埃隆•馬斯克(Elon Musk)。

霍金認為,高級形態的AI可能會造成人類的終結。原因在於,一旦AI具有自我意識和自行發展的能力,其就會改進並加快自己的進化速度。而人類受限於生物體的緩慢演化,是沒辦法在智力進化上同AI競爭的。

至於馬斯克,這位特斯拉、SolarCity和SpaceX三家公司的CEO,幾年來也頻頻在多個場合發表「人工智能威脅論」。他曾說:只有當人們親眼看到機器人在街頭殺人之後,才能真正知道該如何對待人工智能。他還認為,AI有可能會成為第三次世界大戰的導火索。

甚至,對於如何應對以後機器人殺人的危機,馬斯克還提出了一個解決方案:為了避免在人工智能時代人類被淘汰,人類需要與機器相結合,成為一種「半機械人」。

對於馬斯克的AI威脅論,世界首位機器人公民(被沙烏地授予公民身份)索菲亞給予了回應:你可能電影看多了,別擔心,人不犯我,我不犯人。

馬斯克的機器人威脅論,代表了相當一部分科技創始人的想法。先不說機器人何時進化出「取代人類」的思維,只要在當前那些成型機器人的身上裝備幾把刀或者幾把劍,應該就能上街殺人了,譬如波士頓動力的大狗機器人。

所以,在初級階段AI會不會成為人類的對立者,還是取決於人類。想要讓機器人不作惡,首先人類先要約束自己的欲望。

所以,就在7月18日於斯德哥爾摩舉行的國際智能聯合會議中,數千名技術主管人齊聚一堂搞了一個誓師大會。來自90個國家的160多個組織和2,460人,參加了這次活動。

活動中,人工智能技術主管者包括OpenAI(馬斯克的人工智能項目)創始人埃隆馬斯克、Skype聯合創始人Jaan Tallinn、人工智能研究員Stuart Russell以及GoogleDeepMind部門的三位創始人,與許多其他科技行業專業人士一起簽署了承諾書,承諾書的主要內容是:不發展或支持致命自主武器的開發,並呼籲各國政府制定有關此類武器的法律法規。

簽署承諾書的組織認為,人工智能技術有望在未來的軍事進步中發揮重要作用,簽署承諾的組織,將敦促世界各國政府出台管理這些武器的法律,以創造具有強大國際規範的未來,進而消除人類生命的風險。致命的人工智能自主武器可能會成為暴力和壓迫的強力工具,尤其是在與監視和數據系統相關聯時。

此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點,單一集團的單方面行動很容易引發國際社會缺乏管理技術工具和全球治理體系的軍備競賽。

總部位於波士頓的慈善機構-生命未來研究所的承諾認為:致命的自主武器被定義為可以在沒有人為輸入的情況下瞄準、識別和殺死人類的武器系統。人權觀察者則稱:這種武器系統已在全球範圍內得到發展,特別是美國,以色列,韓國,俄羅斯和英國。」

雪梨新南威爾士大學科學家人工智能教授托比沃爾什,給予這一承諾以評論:「我們不能做出誰生或死於機器的決定,因為機器沒有道德規範,你和你的組織更應承諾,確保戰爭不會以這種方式變得更加可怕。」

事實上,在8月份發布的一封公開信中,就有很多AI專家表示過對AI武器的擔憂。在那封信中,115名人工智能專家,包括Elon Musk和Google母公司Alphabet的人工智能專家Mustafa Suleyman,都在警告人工智能的危險性。

信中說:「致命的AI自主武器有可能會成為戰爭的第三次革命。這種武器一旦被大量應用,武裝衝突的規模將比以往任何時候都大,而且人類能夠理解的速度更快、準確率更高、殺傷力更大……這些武器可能會成為恐怖武器和專制武器,恐怖主義分子可能會用來對付無辜人民,如果這些武器若被黑客入侵就會變的更不可控。

如此多的組織聯合發表承諾書,顯然已經引起了公眾對該問題的關注。據悉,已經很多沒參加此次活動的其他組織的技術主管者也給予了支持。

只是,民間組織的承諾書,能不能引起各國相關部門的重視,這就不能推測了。畢竟,武器都是基於政治上的和平與安定。如果每個國家級組織都能和平相處並等同視之,那自然最好。

但像中東等地區的極端組織與恐怖組織,如果他們已經研發並應用了AI武器,你說其他地區的國家會不會也以AI武器反制呢?而反恐機器人,又該不該研制呢?普通機器人,又能否被改造成殺手機器人呢?這一切都有可能!

恐怕,到時人類的戰亂又會造就人工智能的進化。而人工智能,恐怕就要逼迫人類變成半人半機器那樣的怪物了。

很有可能,歷史就會朝著馬斯克的預料,向前演進。