想要AI招聘做到真正公平,難度可能有點大

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

本文來自公眾號:智能相對論(aixdlun)

作者:雷宇

亞馬遜AI招聘工具被曝歧視女性,官方宣布解散團隊,這事就完了嗎?

這不禁讓我想起,1911年辛亥革命後,上海外灘公園外立著的一塊寫有幾行字的告示牌——「華人與狗不得入內」被拆除,上海人民稍微松了一口氣。

但歧視不會缺席,也不會遲到。

直到今天,職場對女性的歧視依然嚴重,雖然少有用人單位明目張膽的聲張只招男性不找女性,但招聘女性時設置的門檻卻無不寫著歧視,除了考察工作能力,還要考量婚姻狀況,家庭狀況、生育狀態等等。並且,這些問題在入職前,這些你一直以為的隱私的都會被赤裸裸的直接提問。

更讓人感到無力的是,隨著人工智能技術的進步,這種職場歧視似乎在不斷加深。這兩天,亞馬遜AI招聘工具被曝性別歧視,該系統會給予包含「女性」這個詞的簡歷以低星評級。即使技術人員修改程序使得系統在特定術語上秉持中立的原則,但是接下機器還會有什麼新的歧視,無人知曉。

數據是社會的產物,技術中立是不可能的

技術中立是不可能中立的,這輩子都不可能。

你以為的技術中立是什麼?不含偏見,不偏不倚,人人都能平等的享受科技帶來的便捷。

這是企業的宣傳語但不是事實。任何一種技術的發明一定免不了沾滿了有血有肉的人的「色彩」,它由人塑造,受當下的社會環境影響,是社會的產物。而人工智能技術,它由數據驅動,由於數據具有一定的社會屬性,所以數據里的歧視,會完整的反射到了人工智能招聘機器上甚至會被成倍放大。

果殼網文章《當AI學會性別歧視》里提到一個案例,有一位研究人員的研究內容是辨認場景複雜生活照,她發現,男人被認成女人的圖片有一些共同點——都是站在廚房里,或者在做家務。

想要AI招聘做到真正公平,難度可能有點大 職場 第2張

這並不是哪里出現了問題,而是機器從大數據里得到的認知就是女人和某些特定的元素有關,比如廚房,比如家務。看來不管哪個國家,女性都多於家庭聯繫在一起。

波伏娃說,一個人不是生來就是女人,她是變成女人的。

我們毫無知覺的變成了女人,又不自覺的向女性身份看齊表示認同。機器仿佛是《皇帝的新衣》里那個天真小孩,敏銳的察覺我們身為女人所帶有的標籤(主動或被動),最後以一種近乎殘酷的方式呈現出來。就像人們常常覺得男生比女生更適合理科一樣,人們固有的觀念是男性比女性更適合主管崗位,男性比女性更擅於決策等等。在Google的廣告服務中,男性會比女性看到更多的高薪招聘廣告,這些既定的事實使得女性的職場天花板愈加明顯。

樂觀一點說,隨著社會的進步,職場對女性的歧視將會慢慢改變,悲觀一點,……還是不說了吧。在實際的機器訓練中,數據驅動的技術如果能全面反映數據本身的內在聯繫,人們無疑會認可這門技術,但是如果這門技術反應的內在聯繫是人們不希望它反應的呢?這些明晃晃、大剌剌、冷冰冰的職場歧視,一句所謂的技術中立,就能解釋嗎?

正如劍橋大學教授魯恩•奈如普(Rune Nyrup)所言,「沒有事實上的技術中立。對機器來說,中立的就是占統治地位的。」

在AI招聘上,有公平算法嗎?

關於人工智能歧視的問題已經發生多起,比如Google的圖片軟件曾錯將黑人標記為「大猩猩」,微軟的Tay 僅僅上線一天, 就變成了一個集反猶太人、性別歧視、種族歧視等於一身的「不良少女」等等。那麼在未來,人工智能招聘是否可以做到真正的公平呢?

實際上AI可應用於招聘的很多環節,比如篩選簡歷,視頻面試,聊天面試等。篩選簡歷是一個大工程,少則幾十份,多則幾百份。曾有一個做HR的朋友說,有時候簡歷實在太多就分成兩半,另一半直接扔垃圾桶……因此,這種重復且瑣碎的活最適合人工智能來幹。但人工智能篩選簡歷需要將公平量化,使公平被翻譯成可操作性的算法。

而利用人工智能聊天機器人,不管是視頻聊天還是其他形式的聊天,機器人都需要具備一定的分析能力,比如分析求職者的語調、眼神和回答的表情,來判斷求職者是否對工作富有熱情。但這同樣需要公平算法,畢竟智能相對論(aixdlun)分析師雷宇的瞇瞇眼被人認定為打瞌睡也不是一兩次了。

那麼公平可以被量化嗎?

2011年《科學》雜誌上的一項研究顯示,情緒可以被數據化,來自世界上不同文化背景的人們每天、每周的心情都遵循著相似的模式。這項研究建立在兩年多來對84個國家240萬人的5.09億條微博的數據分析上。

但是公平比情緒要抽象得多,而且如果人工智能需要研究公平算法,誰來決定公平的考量因素呢?這似乎陷入了一個死循環。

我們很難將公平量化,也就不說公平算法了。現階段的人工智能招聘官一般用在低水平入門級別的工作招聘中,而稍微要求高一點的招聘,AI最多能起輔助作用,也就是科大訊飛所說的「人機耦合」。

歧視無處不在,子子孫孫無窮盡也

在發生人工智能招聘歧視之後,亞馬遜拒絕對於該招聘引擎或面臨的挑戰作出評論,並表示自己一直致力於保證公司的員工多樣性和平等。

但智能相對論想要提醒大家的是,亞馬遜也致力於成為「地球上最以消費者為中心的公司「,但有研究發現,亞馬遜的購物推薦系統卻一直偏袒其自己及其合作夥伴的商品,即使其他賣家的商品的價格更低。而在購物比價服務中,亞馬遜隱瞞了其自己以及其合作夥伴的商品的運費,導致消費者不能得到一個公正的比價結果。

商家為了自身利益最大化,會有無數歧視的手段和理由。同樣,職場中的女性,會被無數看似正當的理由歧視,未婚未孕?企業方擔心你休婚假產假,未婚已孕?企業方擔心你生小孩要耽誤一年,其中最可怕的就是大齡未婚的女青年了……

100多年過去了,上海已經儼然成了一個像模像樣的大都市,但也成了這個時代歧視外地人的典型。

這樣看上海的我,又何嘗不是歧視呢。

特別聲明:本文為合作媒體授權DoNews專欄轉載,文章版權歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉載請聯繫原作者及原出處獲取授權。

想要AI招聘做到真正公平,難度可能有點大 職場 第3張