人工智能武器將徹底挑戰人類倫理與道德底線 我們該如何積極應對

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

當前,人工智能技術發展又進入了一個新的波峰,引起了科技、軍事、哲學等領域專家的廣泛熱議。有人鼓吹「人工智能造福論」;有人則告誡「人工智能威脅論」。因此,恐怖谷理論和墨菲定理再次被人們反復提起。人工智能介入軍事領域,一旦具備決策能力的人工智能武器出現,將徹底挑戰人類倫理與道德底線。人類對此該如何從倫理的角度展開思考呢?

基於倫理的人工智能與戰爭演變

基於倫理談人工智能與戰爭演變,重點是從人與科技的角度,即「人與武器」的關係演變來分析。從冷兵器、熱兵器到機械化、信息化和智能化,「人與武器」的關係可以分為以下五個階段:第一階段:「人+0」。戰爭的萌芽時期,是人與人赤手空拳的直接搏鬥,人的有效武器就是自己的手腳。第二階段:「人+手動武器」。從戰爭出現至20世紀以前的時期。如需要人工駕駛的坦克飛機等。第三階段:「人+自動武器」。包括自動武器和半自動武器等。第四階段:「人+有限自主武器」。這一時期屬於「弱人工智能」時代。包括精確制導炸彈、無人飛機等均屬於有限自主武器。第五階段:「人+絕對自主武器」。進入「強人工智能」時代,自主武器能夠在無人干預或操控的情況下搜尋、識別並使用致命武力攻擊包括人類在內的目標。

在第一至第四階段,人都是武器的絕對控制者,武器是人的體能、技能和智能的延伸,是為人服務的。但是到第五階段,「機器人」可能成為一個新的物種,能夠自我進化、自我繁衍。這種情況下,「自然人」很有可能會與「機器人」發生矛盾衝突,「機器人」將很可能不願意再接受「自然人」的控制。就像電影《終結者》中所描述的那樣,「自然人」與「機器人」之間將爆發生死大戰。可以說「機器人」首先替代「自然人」的崗位,最終可能取代「自然人」的地位。由技術性替代逐漸演變為決策性替代。這將是對人類倫理道德的最大和最嚴重考驗。

智能化武器帶來的隱憂

人工智能的發展對戰爭倫理的影響是多方面的,本文主要從開戰正義、交戰正義和終戰正義等戰爭正義性的三個維度,分析智能化武器對戰爭倫理的影響。

(一)智能化武器與開戰正義。所謂「開戰正義」,主要是討論訴諸戰爭的權利問題,亦即對戰爭性質正義與否的辨析。智能化武器對於「開戰正義」的衝擊,主要體現在正當理由、合法權威以及最後手段三個方面。

1.智能空間的主權與侵略難以界定。智能空間(包括網路空間、認知空間等)究竟是歸屬各國的主權範圍,還是世界共享的全球公域?從技術角度而言,萬物互聯是智能化時代最重要的特徵,智能空間無疑具有全球公域的特徵。然而,從國家安全的視角來看,智能空間安全已成為國家安全的重要方面。伴隨國家主權從領土、領空擴展到信息網路等智能化邊疆,圍繞智能空間主權與全球公域的爭議仍將延續。

2.智能化戰爭實施主體大大增加。在智能化時代,有資格發動戰爭的主體將大大增加,非國家行為體和實力弱小的一方也可以較為容易地發動智能化攻擊。非國家行為體的崛起包括技術雄厚的大公司、恐怖組織等,都可以發展或者獲得智能武器,並且很容易地對目標國家實施遠距離攻擊。

3.智能化武器使戰爭門檻降低。智能化武器可使戰爭盡可能地做到「零傷亡」和「軟殺傷」,而當戰爭真的「零傷亡」,而且對手又缺乏有效的威懾手段時,恰恰可能會導致發動戰爭的門檻降低。再者,智能化武器將降低軍事行動成本,這將會使戰爭製造者更少顧忌發動戰爭的經濟成本,從而導致小型戰爭更加容易爆發。另外,智能化武器具備高敏度偵察能力和快速反應打擊能力,率先發動攻擊會迅速摧毀對手的反擊能力,使得「先發制人」的誘惑急劇增加。

(二)智能化武器與交戰正義。「交戰正義」,又稱戰爭行為正義,具體是指戰爭進行過程中參戰各方必須遵循的倫理規則。其中,「區別性」原則和「相稱性」原則構成了戰爭行為倫理的核心內容。可以預見,機器人成建制規模化運用後,未來戰爭將演變成「人VS人」或「人機VS人機」「機器VS人」或「機器VS機器」等多種方式,甚至是演變成「機器人代理戰爭」。人們對於智能化武器系統遵守國際人道法的區分原則、比例原則和預防原則的能力存在若干擔憂。

1.附帶殺傷和血腥濫殺。戰爭法規定:衝突各方必須避免不必要的破壞並避免給對方帶來不必要的傷痛;必須善待平民、受傷與無作戰能力和被俘的軍人。網路武器在實際應用中也存在極大的不可控性,無法區分軍事設施與民用設施。機器人雖然有人工智能,但卻沒有憐憫或悔恨等情感,即使殺人也沒有任何的愧疚感。因此,戰爭的目的變為單純的屠殺,有可能演變為《戰爭論》中所提出的「絕對戰爭」。

2.認知錯覺和麻木心態。心理學研究表明,由於自身體驗不到死亡的恐懼和痛苦,個體在虛擬世界里往往更加大膽,更具暴力傾向。以無人機作戰為例,由於無人機作戰的控制完全依靠遠程聲頻反饋和計算機視頻來做到,因而存在以遊戲心態對待殺戮的風險。它會在一定程度上減少實施殺戮行為的心理和道德障礙,故而更易滋生違背軍人倫理的行為。這將導致軍事打擊決策可能越來越輕率,打擊行為也越來越頻繁。

3.機器是否有權力決定人類生死?從《國際人道法》角度來說,自主殺人機器人不但會增加意外傷亡率,而且有可能將人類置於機器統治的恐怖中。有人認為人工智能技術往往是針對戰術武器而言的,但筆者認為智能化的戰術武器一樣可以產生戰略效果。

4.技術實力不對稱優勢下的濫用。隨著智能化技術發展的不平衡,在戰爭中,一方處於「零傷亡」的絕對安全狀態,另一方處於「看不見、找不到、打不著」的欲戰不能的絕對不安全狀態。無人智能化戰爭的不對稱打擊,極大地挑戰了維系相稱性原則的均衡性。技術上的極端不均衡,導致相稱性原則的執行也就變得難以為繼。

(三)智能化武器與終戰正義。現代意義上的「戰後正義」主要體現在三個方面:即清算戰爭罪行、確保戰敗國的政治自由以及承擔戰後重建義務。清算戰爭罪行、厘清戰爭責任是「戰後正義」的首要體現。在傳統的正義戰爭理論中,雖然也存在責任分配困境,但戰爭的相關責任方是比較明確的。但在智能化戰爭中,戰爭責任的認定將面臨前所未有的困難。

1.責任主體的爭議。相對於傳統戰爭中人類作為唯一的責任主體,高度智能化的無人裝備能否承擔戰爭責任?一旦智能無人裝備取代人類成為未來戰爭的決策者,人道原則的執行可能面臨諸多挑戰。譬如在技術方面,自主無人智能武器系統本身存在不穩定性和巨大的風險性。控制系統故障、黑客網路攻擊等都會影響其執行符合人道主義規約的決策;另外,自主無人智能武器作出符合人道規約的作戰決策尚面臨難以克服的技術瓶頸。

2.責任分配的困境。對於因無人智能作戰引發的非正義軍事行為,其責任的追究可能涉及操控者、軍火商、工程師、採購員、戰地指揮員、相關維護人員乃至智能武器本身,涵蓋其研制、生產、裝備與應用的整個過程,其追責難度將大大提升。未來,做到「人—機」一體化的「半機械人」可能成為無人機的實際操控者,一旦人腦與無人裝備的自治系統並駕齊驅,戰爭責任的分配必將陷入更大的困境。

「確保科技富有人性」

智能化武器為人類帶來的倫理衝擊,甚至可能導致人類文明史的終結。對此,我們應該未雨綢繆,早做準備,趨利避害。

(一)戰爭決定因素仍然是人。人類創 新髮展智能化武器目的在於減少傷亡,而不是讓其挑戰人類自我的主導地位。未來智能化戰爭中,無論戰鬥機器人系統如何高度智能化,人作為戰爭的主導因素始終沒有改變,改變的只是人與戰鬥機器人的戰場協作方式。高度智能化需要科學家和社會學家共同來做到,單純從技術發展的視角來分析判斷未來智能化的發展是不全面的,還必須從人類社會倫理的視角來約束指導智能化的發展。

(二)基於實力的非對稱制衡仍然有效。戰爭仍然是流血的政治,是實力的比拼。因此,要想維護國家安全,贏得戰爭勝利,仍然必須努力增強自身綜合實力。在人工智能革命推動下,軍事技術將呈現大範圍、群體性突破的「井噴」態勢,這為一些實力相對薄弱的國家以較小代價、巧妙方式克制軍事強國軍事冒險提供了更多選擇。

(三)人工智能有可能制止戰爭。人工智能的發展在為人類帶來福利的同時,也會帶來威脅。物理學家霍金曾與多位科技界名人發表聯署公開信,表示人工智能對於人類的威脅將更甚於核武器。核武器出現後,正是人們忌憚於其強大的破壞力,反而進一步遏制了戰爭,尤其是核大國之間的直接對抗。因此,人工智能的發展抑或能夠遏制戰爭。未來人類社會呈現出萬物互聯的鮮明特徵,人類社會將是軍民融合、多域融合、跨國融合,牽一發而動全身,反而更能夠制止戰爭的爆發。

(四)人工智能發展任重道遠。人工智能的發展仍然存在許多障礙,有些甚至被認為是不可逾越的障礙。譬如人工智能發展中一直存在的莫拉維克悖論、新知識悖論、啟發式悖論三大悖論,也說明了人工智能的發展將會面臨諸多技術障礙。另外,還存在一系列的制度障礙、法律障礙、規範障礙等。譬如很多科學家已經在呼籲政府快速採取措施,實施有效監管。有科學家提出,為了讓機器人具有「道德觀念」,研究人員可以在編程時寫入一些類似於阿西莫夫(Isaac Asimov)「機器人三大定律」一樣的特定指令,防止它們成為害群之馬。一些專家、學者等正在通過國際組織施加越來越多的規範壓力,反對自主性武器的瞄準決策功能,這些壓力已經讓自主性武器系統發展成為了潛在的政治敏感話題。

總之,阻止人工智能威脅的發生不只是工程師、科學家的責任,而是所有人的責任。蘋果CEO庫克的觀點非常值得深思:「我並不擔心機器人會像人一樣思考,但我擔心的是,人像機器一樣思考。」「科技本身沒有好壞之分,也沒有意向。但是,確保科技富有人性,是我們每個人的共同責任。」

(作者單位:國防科技大學)

原標題:智能化戰爭的倫理審視

來源:中國社會科學網-中國社會科學報

作者:趙雲 張煌