Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

蕭簫 發自 凹非寺

量子位 報導 | 公眾號 QbitAI

還記得去年12月, Jeff Dean在網上成為「千夫所指」嗎?

當時Google一名員工 Timnit Gebru準備發表一篇AI倫理論文,結果雙方內部評審上存在著嚴重分歧,Jeff Dean就把她開除了。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第1張

這篇論文指出了大語言模型訓練時,造成的碳排放量和能源消耗量過於巨大,還談到了GoogleBERT在AI倫理上的負面影響。

不到幾天,已有1400名Google員工和1900名AI學術圈人士對Google的行為表示訓斥,一向口碑不錯的Jeff Dean,也因此成了眾矢之的。

現在,Jeff Dean終於「有理有據」了——

他親自下場,對Gebru的論文進行了指正,表明她統計碳排放量和能源消耗的方法「 不合理」,並將結果寫成了一篇新的論文。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第2張

最近,Google聯合加州大學伯克利分校,撰寫了一篇新論文,仔細研究了AI模型對環境的影響,並得出結果表明:

AI模型,不會顯著增加碳排放。

AI模型,不會顯著增加碳排放。

論文指出,Gebru的論文對AI模型產生的碳排放量 估算不合理

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第3張

「如果數據中心、處理器和模型選擇得當,甚至能將碳排放量降低為原來的百分之一。」

「此前評估方法不嚴謹」

Jeff Dean的這篇論文,同樣選擇了NLP模型進行研究。

這項研究,將模型的碳排放量定義成 多變量函數, (每個變量都對結果有影響)這些變量包括:

算法選擇、實現算法的程序、運行程序所需的處理器數量、處理器的速度和功率、數據中心供電和冷卻的效率以及供能來源 (如可再生能源、天然氣或煤炭)。

算法選擇、實現算法的程序、運行程序所需的處理器數量、處理器的速度和功率、數據中心供電和冷卻的效率以及供能來源 (如可再生能源、天然氣或煤炭)。

也就是說,碳排放與 很多因素都有關係。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第4張

而此前的研究,對模型的評估方法有誤,尤其是對基於NAS的模型訓練方法理解有誤。

以基於NAS方法的Transformer為例,研究者們經過重新評估後,發現碳排放量可以降為原來的 八十八分之一

研究者們還表示,採用新公式估計機器學習模型的碳排放量的話,淨排放量可以降低10倍。

採用新公式,研究者們重新估計了5個大語言模型的能源使用量和二氧化碳排放量:

  • T5,Google預訓練語言模型,86MW,47噸
  • Meena,Google的26億參數對話機器人,232MW,96噸
  • GShard,Google語言翻譯框架,24MW,4.3噸
  • Switch Transformer,Google路由算法,179MW,59噸
  • GPT-3,OpenAI大語言模型,1287MW,552噸

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第5張

不過,即使Google的碳排放量,真是Jeff Dean這篇論文統計的結果,這些模型訓練導致的二氧化碳排放總量也已經超過200噸。

甚至OpenAI的一個 GPT-3模型,就已經達到了這個數值。

這相當於 43輛車、或是 24個家庭在一年內的碳排放量。

論文還表示,Google會繼續不斷提高模型質量、改進方法,來降低訓練對環境造成的影響。

例如,Google對Transformer改進後的Evolved Transformer模型,每秒所用的浮點計算降低了 1.6倍,訓練時間也減少了1.1~1.3倍。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第6張

除此之外,稀疏激活 (讓資訊編碼中更多元素為0或趨近於0)也同樣能降低模型能耗,甚至最多能降低55倍的能源消耗、減少約130倍的淨碳排放量。

這篇論文,還引用了發表在 Science上的一篇論文:

即使算力已經被增加到原來的 550%,但全球數據中心的能源消耗僅比2010年增長了6%。

即使算力已經被增加到原來的 550%,但全球數據中心的能源消耗僅比2010年增長了6%。

論文最後給出的建議如下:

需要大量計算資源的機器學習模型,在實際應用中,應該明確「能源消耗」和「二氧化碳排放量」的具體數值,這兩者都應該成為評估模型的關鍵指標。

需要大量計算資源的機器學習模型,在實際應用中,應該明確「能源消耗」和「二氧化碳排放量」的具體數值,這兩者都應該成為評估模型的關鍵指標。

所以,Jeff Dean忽然參與到碳排放量研究中,到底是怎麼回事?

與Google利益相沖突

事實上,這篇論文是對此前Timnit Gebru合著的一篇論文的「指正」。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第7張

Gebru那篇論文的標題,名為「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」 (隨機鸚鵡的危險:語言模型會太大嗎?)

論文提出,自然語言模型存在 「四大風險」

  • 環境和經濟成本巨大
  • 海量數據與模型的不可解釋性
  • 存在研究機會成本
  • 語言AI可能欺騙人類

論文表明,使用神經網路結構搜索方法(NAS)的語言模型,會產生相當於 284噸的二氧化碳,相當於5輛汽車在其壽命內的碳排放量。

論文還以Google的NLP模型BERT為例,指出它會在AI倫理上會產生一系列負面影響:

它排放的1823磅二氧化碳量,相當於紐約到舊金山航班往返的碳排放量。

它排放的1823磅二氧化碳量,相當於紐約到舊金山航班往返的碳排放量。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第8張

這篇論文被認為顯然 不符合Google的商業利益。

Google此前開發過許多AI模型,包括雲翻譯和NLP語言對話模型等,而Google雲業務,還在2021年Q1收入增長了46%,達到 40.4億美元。

論文被送到Google相幹部門審核,但過了兩個月,卻一直沒有得到反饋。

2020年12月,Gebru忽然被 解雇

Jeff Dean表示,Gebru的論文存在著一些 漏洞,隻提到了BERT,卻沒有考慮到後來的模型能提高效率、以及此前的研究已經解決了部分倫理問題。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第9張

而開除原因,則是因為「她要求提供這篇論文的審核人員名單,否則將離職。」

Jeff Dean表示,Google無法滿足她的要求。

這件事一直發酵到現在,Jeff Dean也正式給出了論文,「學術地」回應了這件事情。

和挖礦相比如何?

據Venturebeat報導,此前研究表明,用於訓練NLP和其他AI模型的計算機數量,在6年內增長了 30萬倍,比摩爾定律還要快。

MIT的一項研究人員認為,這表明深度學習正在接近它的「計算極限」。

不過,商業巨頭們也不是完全沒有行動。

OpenAI的前老板馬斯克,最近還懸賞了 1億美元,來開展碳清除技術比賽,比賽將持續到2025年。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第10張

這場主辦方是XPRIZE的比賽,鼓勵研究碳清除技術,來清除大氣和海洋中的二氧化碳,以對付全球氣候變暖的事實。

但這項技術,目前還 不具備商業可行性。

據路透社表示,光是去除一噸碳,就需要花費超過 300美元的成本,而全世界一年排放的溫室氣體,相當於約500億噸二氧化碳。

那麼,產生的這些碳排放量,和挖礦相比如何呢?

據Nature上的一項研究顯示,到2024年,中國的比特幣挖礦產業可能產生多達 1.305億噸的碳排放量,相當於全球每年飛行產生的碳排放量的14%。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第11張

具體到年份的話,到2024年,全球挖礦產生的能量將達到每年 350.11TWh(1太瓦時=10^9×千瓦時)。

Jeff Dean被迫發論文自證:解雇黑人員工純屬學術原因 科技 第12張

而據Venturebeat的報導,訓練機器學習模型耗費的能量,每年估計也將達到 200TWh

對比一下的話,一個美國家庭平均每年消耗的能量僅僅是0.00001TWh。

看來, 挖礦造成的環境污染,確實要比機器學習模型更嚴重……

論文地址:

https://arxiv.org/abs/2104.10350

本文系網易新聞•網易號特色內容激勵計劃簽約帳號【量子位】原創內容,未經帳號授權,禁止隨意轉載。

加入AI社群,拓展你的AI行業人脈

量子位「AI社群」招募中!歡迎AI從業者、關註AI行業的小夥伴們掃碼加入,與 50000+名好友共同關註人工智慧 行業發展&技術進展

量子位 QbitAI · 頭條號簽約作者

վ’ᴗ’ ի 追蹤AI技術和產品新動態

一鍵三連「分享」、「點讚」和「在看」

科技前沿進展日日相見~

About 尋夢園
尋夢園是台灣最大的聊天室及交友社群網站。 致力於發展能夠讓會員們彼此互動、盡情分享自我的平台。 擁有數百間不同的聊天室 ,讓您隨時隨地都能找到志同道合的好友!