加入極市專業CV交流羣,與  1 0000+來自港科大、北大、清華、中科院、CMU、騰訊、百度  等名校名企視覺開發者互動交流!

同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊彙總,行業技術交流。關注  極市平臺  公衆號  , 回覆  加羣, 立刻申請入羣~

標題&作者團隊

導語:愷明大神出品,必屬精品。Facebook的研究員從一個新奇的角度對神經網絡的表示與設計進行探索,提出了一種新穎的相關圖表示方式。它有助於對現有網絡架構進行更深層次的分析與性能評價。這種相關圖的表示方式、實驗發現等確實挺有意思,也與現有網絡結構設計有一定相通之處,故推薦各位同學。

Abstract

神經網絡通用被表示成圖的形式(即神經元之間通過邊進行鏈接),儘管這種表示方式得到了廣泛應用,但關於神經網絡結構與性能之間的關係卻鮮少有所瞭解。

作者系統的研究了神經網絡的圖結構是如何影響其性能的,爲達成該目的,作者開發了一種新穎的稱之爲 relational graph (相關圖)的圖表示方式,神經網絡的層沿圖像結構進行多次信息交互。基於這種圖表示方式,作者發現了這樣幾點有意思發現:

  • 相關圖的靶點(sweet spot)可以促使神經網絡的性能極大提升;

  • 神經網絡的性能與聚類係數、平均路徑長度成平滑函數關係;

  • 該發現具有跨數據集、跨任務一致性;

  • 優秀的神經網絡結構與真實生物神經網絡具有驚人的相似性。

  • 該文爲神經網絡架構設計與理解提供了一種新方向。

Introduction

神經網絡可以通過計算圖方式進行表示,神經元可以表示爲節點,不同層神經網絡之間的連接可以通過有向邊表示。這種圖表示方式說明了神經網絡如何進行信息傳遞。

已有研究表明:神經網絡的性能嚴重依賴於網絡架構。但是網絡架構與性能之間的關聯性卻鮮少有所研究,而這對於NAS尤爲重要。從這個角度出發,有這樣幾個開放性的問題: (1) 網絡架構與其性能之間是否存在系統性的聯繫?(2) 具有優秀性能的神經網絡具有什麼樣的結構形式?(3)這種結構形式跨數據集、跨任務的泛化性能如何?(4)是否存在一種有效的方式可以確認給定網絡具有優秀性能?

構建這樣一種關聯性同時具有科學與使用價值,因其有助於設計更高效、更高精度額網絡架構,同時有助於新硬件架構的設計,理解神經網絡的圖結構有助於促進深度學習的前進。

然而,由於如何將神經網絡映射爲圖形式並不清晰明瞭,進而構建這樣一種關聯性是非常困難的。計算圖方式一種自然的選擇,但其存在這樣兩個侷限性:(1)泛化性能缺失;(2)生物神經元與神經網絡的聯繫缺失(生物神經網絡不能通過簡單的有向無環圖表示)。

爲系統的研究神經網絡的圖結構與性能之間的關聯性,作者設計了一種稱之爲相關圖的神經網絡圖表示方式。關鍵聚焦於 信息交互 ,而非交單的有向數據流。下圖a給出了示意圖,神經元之間進行多次信息交互,進而可以確保新的表示方式具有更豐富多樣性的網絡表示。

作者同時還設計了一種稱之爲"WS-flex"的圖生成器,它有助於神經網絡設計空間的系統探索。基於神經科學的發現,作者通過聚類係數與平均路徑長度描述神經網絡,這種網絡架構具有靈活性與通用性,可以將其轉換爲多層感知器與卷積神經網絡(見上圖c和d)。

基於圖像分類數據集CIFAR10與ImageNet,作者針對網絡結構與性能之間的關聯性進行了系統研究並得到了這樣幾點發現:

  • 相關圖的靶點(sweet spot)可以促使神經網絡的性能極大提升;

  • 神經網絡的性能與聚類係數、平均路徑長度成平滑函數關係;

  • 該發現具有跨數據集、跨任務一致性;

  • 相關圖的靶點可以進行高效辨別,僅需要少量的相關圖與少量訓練;

  • 優秀的神經網絡結構與真實生物神經網絡具有驚人的相似性。

Relational Graph

爲更好的探索神經網絡的圖結構,我們首先介紹一下相關圖的概念,並說明相關圖的可以靈活的表示不同的神經網絡架構。

Message Exchange over Graph

首先從圖的結果對神經網絡進行回顧,定義圖,其中表示圖的節點,表示節點之間的邊,同時每個節點具有一個節點特徵。當神經元之間存在信息交互時,我們稱上述圖定義爲相關圖。信息交互通過信息函數(輸入爲節點特徵,輸出爲信息)與匯聚函數(輸入爲信息集合,輸出爲節點特徵)進行定義。在每一輪信息交互過程中,每個節點向其近鄰節點發送信息,並對收到的信息進行匯聚。每個信息通過信息函數進行變換並在每個節點通過匯聚函數進行集成。假設進行了R輪信息交互,那麼第r次的信息交互可以描述爲:

其中表示近鄰節點集合,注:每個節點都與自身存在連接邊。上式提供了一種廣義的信息交互。下表給出了不同結構的相關圖的表示配置。

下圖示出了具有4層64維的多層感知器的相關圖表示示意圖。

Fixed-width MLPs as Relational Graph

多層感知器由多個多層神經元構成,每個神經元進行輸入的加權求和,同時後接激活層。假設MLP的第r層以作爲輸入,作爲輸出,那麼神經元的計算可以描述爲:

我們來考慮一種極端情況(輸入與輸出具有相同的維度),此時的多層感知器可以描述爲完整相關圖( complete relational graph ),它的每個節點與其他所有節點相關聯。定長全連接MLP具有忒書的信息交互定義,。定長MLP是更廣義模型下的一種特例,此時信息函數、匯聚函數以及相關圖結構具有可變性。基於上述信息交互定義,此時有:

General Neural Networks as Relational Graph

前述公式描述奠定了定長MLP表示爲相關圖的基礎,在這部分內容中,我們將進一步討論如何將其擴展爲更廣義的神經網絡。

  • Variable-width MLP. 變長MLP是一種更通用的形式,無論在MLP中還是在CNN中,特徵維度通常是變長的。作者提出通過Concat方式將特徵擴展爲特徵向量,同時將信息函數擴展爲矩陣形式,此時的變換過程描述爲:

同時允許(1) 不同層的相同階段具有不同的維度;(2) 同一層內,不同節點具有不同的維度。這種更廣義的定義可以得到更靈活的圖表示。

  • CNN as relational graph. 我們進一步將相關圖應用到CNN,它的輸入爲張量,信息函數同樣進行類似擴展,此時的變換過程可以描述爲:

前述Table1給出了更詳細的節點特徵、信息函數以及匯聚函數在不同網絡中的表現形式。

Exploring Relational Graph

在該部分內容中,我們將描述如何設計與探索相關圖空間以更好的研究神經網絡結構與其性能之間的關聯性。需要從三個維度進行考慮:

  • Graph Measures;

  • Graph Generators;

  • Control Computational Budget

Selection of Graph Measure

給定複雜的圖結構, GraphMeasures 將用於對圖屬性進行描述。該文主要聚焦於一個全局圖度量(average path length)與一個局部圖度量(clustering coefficient)。注:這兩個度量方式已被廣泛應用與神經科學領域。更詳細定義如下:

  • Average path length measure the average shortest path distance between any pairs of nodes;

  • clustering coefficient measure the proportion of edges between the nodes within a given node's neighborhood, divided by the number of edges that could possibly exist between them, averaged over all the nodes.

Design of Graph Generators

給定所選擇的圖度量方式後,我們期望生成大量的滿足圖度量空間的相關圖,此時需要一個圖生成器。然而,傳統的圖生成器僅僅能生成有限類別的圖,而基於學習的方法則主要用於模仿樣板圖。

上圖左說明了現有圖生成技術的侷限性:僅能生成特定類型的圖。爲此作者提出了一種新的圖生成器WS-flex,它可以生成更廣義的圖結果(考考上圖右)。關於WS-flex圖像生成器的描述見下圖,爲避免誤導各位同學,直接將原文搬移過來:

WS-flex可以生成更多樣性的相關圖,也就是說它幾乎可以覆蓋所有經典圖生成方法所生成的圖,見上示意圖。它通過鬆弛節點的約束性得生成WS模型。特別的,WS-flex可以通過節點參數n、平均自由度k以及重置概率p進行描述。而圖中的邊數量可以通過決定。WS-flex首先常見了一個包含節點連接的圖,然後隨機挑選e與n節點並進行連接,最後所有邊以概率p重置。作者採用WS-flex生成器在相應空間進行均勻平滑採樣,最終得到了3942個圖,見Figure1c。

Controlling Computational Budget

爲更好的對不同圖表示的神經網絡進行比較,我們需要確保所有的網絡具有相同的複雜度,從而確保了其性能差異僅源自結構的差異。作者提出採用FLOPS作爲度量準則,首先計算baseline網絡的FLOPS,然後將其作爲參考調節不同的網絡以匹配該複雜度(容差0.5%)。

Experimental Setup

在CIFAR10實驗過程中,作者採用具有5層512隱層神經元的MLP作爲baseline,輸入爲3072維,每個MLP層具有ReLU激活與BatchNorm。Batch=128,合計訓練200epoch,初始學習率爲0.1,學習率衰減機制爲cosine。採用不同種子點訓練5次取平均。

在ImageNet實驗過程中,採用了三種類型的ResNet(ResNet34,ResNet34-sep,ResNet50)、EfficientNet-B0以及簡單的類似VGG的8層CNN。所有模型分別訓練100epoch,學習率方面同前,ResNet的Batch=256,EfficientNet-B0的batch=512。採用了不同種子點訓練三次取平均。

下圖給出了不同實驗結果的系統性效果圖,acf則給出了圖度量的熱圖與性能的示意圖。

總而言之,上圖f示出了現有圖結構優於完整圖baseline,而最佳相關圖在CIFAR10上以1.4%指標優於完整圖baseline,在ImageNet上0.5%~1.2%的指標優於完整圖baseline。

與此同時,我們可以看到:具有優異性能的相關圖傾向於聚焦於靶點附近(見上圖f)。可以通過這樣幾個步驟尋找該靶點:

  • 將上圖a中的3942圖下采樣爲52個粗粒度的區域,每個區域記錄了對應區域圖的性能;

  • 記錄具有最佳平均性能的粗粒度區域;

  • 與此同時記錄下與最佳平均性能相關的其他區域;

  • 覆蓋上述區域的最小面積框即爲靶點。CIFAR10數據集上的對於5層MLP而言,它的靶點區域爲。

如上圖bd所示,模型性能與圖度量準則之間存在二階多項式關係,呈現平滑U型相關性。

接下來,我們再來分析一下相關圖跨跨數據集方面的一致性。從上圖f可以看到:靶點位置具有跨網絡結構一致性。

全文到此結束,更多實驗結果建議去查看原文。作者在文中進行了大量的消融實驗、關聯性討論、實現探討以及神經網絡與GNN的關聯性。爲避免誤導各位同學,這裏就不對實驗部分進行過多介紹,前面主要針對核心實驗結果進行了說明。更多的實驗分析建議各位同學去查看原文,以更好的理解作者想要表達的意思,上文僅爲筆者的一點點記錄,難免有理解錯誤之處,還望擔待。

Conclusion

該文提出了一種新的視角: 採用相關圖表達分析理解神經網絡 。該文爲爲傳統計算架構到圖架構研究提供了一種信息過渡。與此同時,其他科學領域的的優秀圖結構與方法可以爲深度神經網絡的理解與設計提供幫助,該文所提方法有助於深度學習網絡架構的理解與設計,爲未來高效而輕量的網絡設計提供了一種引導。

作者檔案

Happy,一個愛“胡思亂想”的AI行者

個人公衆號:AIWalker

歡迎大家聯繫極市小編(微信ID:fengcall19)加入極市原創作者行列

推薦閱讀

添加極市小助手微信 (ID : cv-mart) ,備註: 研究方向-姓名-學校/公司-城市 (如:目標檢測-小極-北大-深圳),即可申請加入 極市技術交流羣 ,更有 每月大咖直播分享、真實項目需求對接、求職內推、算法競賽、 乾貨資訊彙總、行業技術交流 一起來讓思想之光照的更遠吧~

△長按添加極市小助手

△長按關注極市平臺,獲取 最新CV乾貨

覺得有用麻煩給個在看啦~   

相關文章