獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

本周最大新——蘋果於推出了一款萬眾矚目、死人、一眼男友手機就會解iPhone X

獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?-雪花新聞

《經濟學人》策劃的本期封面專題叫《Nowhere to hide》,說的就是日益發達的人臉識別技術會為我們的生活帶來哪些改變。

秉持雜誌一貫憂國憂民憂世界的畫風,本期內容給出了我們一些值得注意和思考的警示,私以為說得挺有道理的。

朗小迪把本文做了本土化的摘編、翻譯和解讀,譯文與原文細節不完全一致,原文請點擊文末鏈接。

獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?-雪花新聞

問題一:隱私

《經濟學人》指出,人臉和其他生物數據(比如說指紋)的一個巨大區別是,人臉是可以進行遠距離采集的,任何一個人在遠處拍一張照,把照片放在人臉識別的軟件里,理論上就歐了。

此外,很少有人會意識到,自己的臉是隱私,因為人臉是公開的。往往,我們會把隱私和私密劃等號,現在看來,這樣的等號得拆了

當然,草根民營企業是很難有能力把人的臉部圖像和個人身份聯繫在一起的,但是政府可以啊。還記得你 16 歲時在公安系統留下的醜照麼。

獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?-雪花新聞

當人臉只是一張美照或醜照時,問題還不大,但現在人臉可以用作支付或開鎖工具時,你是不是應該開始慌了。

之前朋友圈瘋傳過一些小遊戲,套路一般是:用戶將自己的正面照上傳至一個平台,平台會自動P一張帶場景的、好看版的照片反饋給用戶。

比如「八一」建軍節, 上傳自己的正面照就可以看到自己穿軍裝的樣子;開學期間,可以給自己P上軍訓服或學生裝,等等。

這樣的遊戲……答應我,下次不玩了好麼。

問題二:公平

人臉不僅僅是一個 name-tag,它呈現出很多機器可以識別的信息。這當然有很多好處,比如一些原本難以通過醫者識別的疾病,可以更早地通過算法分析人臉、由機器診斷得出結論;再比如機器可以捕捉自閉症的一些表情,這樣我們就知道他們在想什麼了。

硬幣的另一面是,技術也會加劇偏見和不平等。史丹佛大學近期發布的一份報告發現,機器能比人更準確地識別一個人是否為同性戀:機器識別的準確率是81%,人工識別的準確率僅為 61%。在一些同性戀還被認為是犯罪的國家,這一技術的存在……還是有點嚇人的。

更本質的一個不平等是——從機器學習的本質考慮,所有的臉部識別系統不可避免地玩的是一個概率遊戲,但是,在白人偏多而少數族裔偏少的數據情況下(特指美國情況),訓練出的結果一定是白人情境下算法表現更優的。這一類bias,在一些嘗試將機器評估結果引入法院判決中的情況里,已經出現了。

問題三:人際關係基礎

都說,人是其社會關係的總和。能準確讀出臉部表情,會很深很遠滴影響人與人之間的關係建立基礎。

Dissembling helps grease the wheels of dailylife. 試想,如果你的妻子/丈夫能識破你每次對話中的不耐煩;你的老板可以識別你工作場合中的每次炸毛,那婚姻和工作的關係確實會更真實,但也會更不和諧。

那所有社會關係的基礎就會變,會從信任變為精準的 「算計」。這樣的關係可能是更理性的,但也會是更帶有「功利性」(transactional)的吧。

這麼多問題 怎麼整?

在民主政體中,至少立法可以平衡一下技術本會帶來的不平等。

比如說,通過人臉識別不是可以知道一個人是不是聰明,是不是同性戀嗎?那我們通過立法,不讓雇主在招聘中用這樣的技術,就可以部分避免因技術帶來的不公正。

再比如,有的良心企業也表現出超高級超道德的姿態,真的好棒棒!比如號稱「不作惡」 的Google就曾經公開表示,不會將人臉信息和個人身份作匹配。Google就是怕這個資源將來落入非民主國家手中,這會被怎麼用就不知道了。

但是,要想通過這樣小小的努力,就想逆轉技術發展在人類社會發展浪潮中將起的作用,就太天真了

,並非所有企業都 「不作惡」。亞馬遜和微軟都提供人臉識別的雲平台服務,人臉識別甚至是 Facebook 的核心戰略之一;

二來,公共領域方面,政府不會想放棄這塊利益的——這是通過行政力量輕而易舉做到的巨大、真實、全樣本的數據庫呢。

FinTech 圈無奇不有。想爆料,想嘮嗑,想轉載與被轉載,請聯繫Sherry Zhang (微信:zhangxian494011),請備註姓名、機構。

獨家編譯 |《經濟學人》警示:人臉識別會給我們帶來哪些傷害?-雪花新聞