尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️
曉查 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
最近,Google基於AutoML開發了EfficientNets,這是一種新的模型縮放方法。它在ImageNet測試中做到了84.1%的準確率,再次刷新了紀錄。
雖然準確率只比之前最好的Gpipe提高了0.1%,但是模型更小更快,參數的數量和FLOPS都大大減少,效率提升了10倍!
開發EfficientNets是來自Google大腦的工程師Mingxing Tan和首席科學家Quoc V. Le,他們的文章《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》已經被ICML 2019收錄,並在GitHub上開源了模型。
做到方法
傳統提高CNN準確率的方法有:增加網路的深度或寬度,例如通過增加層數將ResNet-18可擴展到ResNet-200,或者是提高輸入圖片分辨率來訓練和評估網路。
雖然這些方法確實提高了準確率,但是通常需要繁瑣的手動調整,而且經常不能獲得最優的性能。
最近Google提出了一種復合縮放(compound scaling)的方法,與縮放神經網路的傳統方法不同,Google的方法使用一組固定的縮放系數統一縮放每個維度。
做到復合縮放的首先是執行網格搜尋,以在固定資源約束下找到基線網路(baseline model)的不同縮放維度之間的關係,確定每個維度的縮放比例系數。然後將這些系數將應用於基線網路,擴展到所需的目標模型大小或計算力。
模型縮放的有效性也在很大程度上依賴於基線網路。因此,為了進一步提高性能,Google還使用AutoML MNAS框架優化了模型的準確率和效率,執行神經架構搜尋來開發新的基線網路。
性能表現
EfficientNet模型做到了比現有CNN更高的精度和更高的效率,將參數數量和FLOPS降低了一個數量級。
特別需要指出的是,EfficientNet-B7在ImageNet上做到了目前最先進的測試結果,準確度為84.4%(top-1)和97.1%(top-5),同時比現有最好的Gpipe小了8.4倍,推理速度快6.1倍。
在同等算力的條件下,EfficientNet也有更好的表現。與ResNet-50相比,EfficientNet-B4的準確率為82.6%,比ResNet-50的76.3%高出6.3個百分點。
EfficientNets不僅在ImageNet上表現良好,遷移到其他數據集上也有優秀的表現。為了評估這一點,Google在8個廣泛使用的遷移學習數據集上測試了EfficientNets,其中5個做到了最先進的準確度。它在CIFAR-100上準確度為91.7%,在Flowers上為98.8%,同時參數減少了21倍。
傳送門
博客地址:
https://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html
開源地址:
https://arxiv.org/abs/1905.11946
— 完 —
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
量子位 QbitAI · 頭條號簽約作者
վ’ᴗ’ ի 追蹤AI技術和產品新動態