Google開源EfficientNets:ImageNet切確率創記錄,效力晉升10倍

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

曉查 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

最近,Google基於AutoML開發了EfficientNets,這是一種新的模型縮放方法。它在ImageNet測試中做到了84.1%的準確率,再次刷新了紀錄。

雖然準確率只比之前最好的Gpipe提高了0.1%,但是模型更小更快,參數的數量和FLOPS都大大減少,效率提升了10倍

開發EfficientNets是來自Google大腦的工程師Mingxing Tan和首席科學家Quoc V. Le,他們的文章《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》已經被ICML 2019收錄,並在GitHub上開源了模型

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

做到方法

傳統提高CNN準確率的方法有:增加網路的深度或寬度,例如通過增加層數將ResNet-18可擴展到ResNet-200,或者是提高輸入圖片分辨率來訓練和評估網路。

雖然這些方法確實提高了準確率,但是通常需要繁瑣的手動調整,而且經常不能獲得最優的性能。

最近Google提出了一種復合縮放(compound scaling)的方法,與縮放神經網路的傳統方法不同,Google的方法使用一組固定的縮放系數統一縮放每個維度。

做到復合縮放的首先是執行網格搜尋,以在固定資源約束下找到基線網路(baseline model)的不同縮放維度之間的關係,確定每個維度的縮放比例系數。然後將這些系數將應用於基線網路,擴展到所需的目標模型大小或計算力。

模型縮放的有效性也在很大程度上依賴於基線網路。因此,為了進一步提高性能,Google還使用AutoML MNAS框架優化了模型的準確率和效率,執行神經架構搜尋來開發新的基線網路。

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

性能表現

EfficientNet模型做到了比現有CNN更高的精度和更高的效率,將參數數量和FLOPS降低了一個數量級。

特別需要指出的是,EfficientNet-B7在ImageNet上做到了目前最先進的測試結果,準確度為84.4%(top-1)和97.1%(top-5),同時比現有最好的Gpipe小了8.4倍,推理速度快6.1倍。

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

在同等算力的條件下,EfficientNet也有更好的表現。與ResNet-50相比,EfficientNet-B4的準確率為82.6%,比ResNet-50的76.3%高出6.3個百分點。

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

EfficientNets不僅在ImageNet上表現良好,遷移到其他數據集上也有優秀的表現。為了評估這一點,Google在8個廣泛使用的遷移學習數據集上測試了EfficientNets,其中5個做到了最先進的準確度。它在CIFAR-100上準確度為91.7%,在Flowers上為98.8%,同時參數減少了21倍。

谷歌開源EfficientNets:ImageNet準確率創紀錄,效率提高10倍

傳送門

博客地址:

https://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html

開源地址:

https://arxiv.org/abs/1905.11946

— 完 —

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

量子位 QbitAI · 頭條號簽約作者

վ’ᴗ’ ի 追蹤AI技術和產品新動態

About 尋夢園
尋夢園是台灣最大的聊天室及交友社群網站。 致力於發展能夠讓會員們彼此互動、盡情分享自我的平台。 擁有數百間不同的聊天室 ,讓您隨時隨地都能找到志同道合的好友!