chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DeepMind如何用神經網絡自動構建啟發(fā)式算法

dhVf_AcousticSi ? 來源:機器之心 ? 作者:機器之心 ? 2021-08-25 15:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

混合整數規(guī)劃(MIP)是一類 NP 困難問題,來自 DeepMind、谷歌的一項研究表明,用神經網絡機器學習方法可以解決混合整數規(guī)劃問題。

混合整數規(guī)劃(Mixed Integer Program, MIP)是一類 NP 困難問題,旨在最小化受限于線性約束的線性目標,其中部分或所有變量被約束為整數值?;旌险麛狄?guī)劃的形式如下:

MIP 已經在產能規(guī)劃、資源分配和裝箱等一系列問題中得到廣泛應用。人們在研究和工程上的大量努力也研發(fā)出了 SCIP、CPLEX、Gurobi 和 Xpress 等實用的求解器。這些求解器使用復雜的啟發(fā)式算法來指導求解 MIP 的搜索過程,并且給定應用上求解器的性能主要依賴于啟發(fā)式算法適配應用的程度。

在本文中,來自 DeepMind、谷歌的研究者展示了機器學習可以用于從 MIP 實例數據集自動構建有效的啟發(fā)式算法。

在實踐中經常會出現這樣的用例,即應用程序需要用不同的問題參數解決同一高級語義問題的大量實例。

文中此類「同質」數據集的示例包括:(1)優(yōu)化電網中發(fā)電廠的選擇以滿足需求,其中電網拓撲保持不變,而需求、可再生能源發(fā)電等則因情況而異(2)解決了谷歌在生產系統(tǒng)中的一個包裝問題,在這個系統(tǒng)中,要包裝的「items」和「bins」的語義基本保持不變,但它們的尺寸在不同的實例之間有所波動。

然而,現有的 MIP 求解器無法自動構造啟發(fā)式來利用這種結構。在具有挑戰(zhàn)性的應用程序中,用戶可能依賴專家設計的啟發(fā)式,或者以放棄潛在的大型性能改進為代價。而機器學習提供了在不需要特定于應用程序專業(yè)知識的情況下進行大規(guī)模改進的可能性。

論文地址:https://arxiv.org/pdf/2012.13349.pdf

該研究證明,機器學習可以構建針對給定數據集的啟發(fā)式算法,其性能顯著優(yōu)于 MIP 求解器中使用的經典算法,特別是具有 SOTA 性能的非商業(yè)求解器 SCIP 7.0.1。

該研究將機器學習應用于 MIP 求解器的兩個關鍵子任務:(1)輸出對滿足約束的所有變量的賦值(如果存在此類賦值)(2)證明變量賦值與最優(yōu)賦值之間的目標值差距邊界。這兩個任務決定了該方法的主要組件,即:Neural Diving、 Neural Branching。

該研究在不同的數據集上進行了評估,這些數據集包含來自實際應用的大規(guī)模 MIP,包括來自谷歌生產系統(tǒng)和 MIPLIB 的兩組數據。來自所有數據集的大多數 MIP 組合集在解算后都有 10^3-10^6 個變量和約束,這明顯大于早期的工作。

一旦在給定的數據集上訓練 Neural Diving 和 Neural Branching 模型,它們就被集成到 SCIP 中,以形成專門針對該數據集的「神經求解器」?;€是 SCIP,其重點參數通過網格搜索在每個數據集上進行調整,稱之為 Tuned SCIP。

將神經求解器和 Tuned SCIP 與原始對偶間隙(primal-dual gap)在一組實例上的平均值進行比較,圖 2 所示,神經求解器在相同的運行時間內提供了更好的間隙,或者在更短的時間內提供了相同的間隙,在五個數據集中進行評估,有四個數據集的 MIP 最大,而第五個數據集的性能與 Tuned SCIP 性能相匹配。據了解,這是第一次使用機器學習在大規(guī)模真實應用數據集和 MIPLIB 上得到如此大的改進。

MIP 表示與神經網絡架構

該研究描述了 MIP 如何表示為神經網絡的輸入,并用來學習 Neural Diving、Neural Branching 模型的架構。該研究使用的深度學習架構為一種圖神經網絡,特別是圖卷積網絡 (GCN)。

將 MIP 表示為神經網絡的輸入

該研究使用 MIP 的二部圖表示,方程(1)可用于定義二部圖,其中圖中的一組 n 個節(jié)點對應于被優(yōu)化的 n 個變量,另一組 m 個節(jié)點對應于 m 個約束。

神經網絡架構

下面介紹一下 Neural Diving 、 Neural Branching 所使用的網絡架構中共同的方面。

給定一個 MIP 的二部圖表示,該研究使用 GCN 來學習 Neural Diving 、Neural Branching 模型。設 GCN 的輸入為圖,其中 V 為節(jié)點集合、ε為邊集合、A 為圖鄰接矩陣。對于 MIP 二部圖,V 是 n 個變量節(jié)點和 m 個約束節(jié)點的并集,大小 N := |V| = n + m。一個單層 GCN 用來學習計算輸入圖中每個節(jié)點的 H 維連續(xù)向量表示,稱為節(jié)點嵌入。

在 MIP 和 GCN 體系架構中二部圖表示的兩個關鍵性質是:(1)網絡輸出對變量和約束的排列是不變的(2)可以使用同一組參數應用于不同大小的 MIP。

這兩個性質很重要,因為變量和約束可能沒有任何規(guī)范順序,而且同一應用程序中的不同實例可能具有不同數量的變量和約束。

架構改進

該研究對上述體系架構進行了改進,這些改進提高了網絡的性能,主要體現在以下方面:

該研究修改了 MIP 二部圖的鄰接矩陣 A ,以包含來自 MIP 約束矩陣 A 的系數,而不在是表示邊緣存在的二進制值;

該研究通過連接來自第 l 層的節(jié)點嵌入來擴展第 l + 1 層的節(jié)點嵌入;該研究在每一層的輸出處應用 layer norm,使得 Z^ (l+1) =dcdd346e-fe6b-11eb-9bcf-12bb97331649.png

此外,該研究還探索了可以用來替代的架構,這些架構對節(jié)點和邊使用嵌入,并使用單獨的 MLP 來計算。當在每一層中使用具有高維邊嵌入的此類網絡時,它們的內存使用量可能會比 GCN 高得多,因為 GCN 只需要鄰接矩陣,可能不適合 GPU 內存,除非以精度為代價減少層數。GCN 更適合擴展到大規(guī)模 MIP。

數據集

表 1 中總結了數據集的詳細信息,除 MIPLIB 之外的所有數據集都是特定于應用程序的,即它們只包含來自單個應用程序的實例。

除了 MIPLIB 之外的所有數據集,該研究將實例隨機拆分為 70%、15% 和 15% 的不相交子集來定義訓練集、驗證集和測試集。對于 MIPLIB,該研究使用來自 MIPLIB 2017 基準集的實例作為測試集。

在刪除與 MIPLIB 2017 基準集的重疊實例后,分別使用 MIPLIB 2017 Collection Set 和 MIPLIB 2010 set 作為訓練集和驗證集。對每個數據集來說,訓練集用于學習該數據集的模型,驗證集用于調整學習超參數和 SCIP 的元參數,測試集用于報告評估結果。

評估

首先該研究單獨評估了 Neural Diving、 Neural Branching,后續(xù)又進行了聯合評估。不管在哪種情況下,該研究都評估了與訓練集分離的 MIP 測試集,以衡量模型對未見實例的泛化能力。并使用 gap plot 和 survival plot 呈現結果。

校準時間(Calibrated time):所有數據集和比較任務所需的評估工作量需要 160000 多個 MIP 解算,以及近一百萬個 CPU 和 GPU 小時。為了滿足計算需求,該研究使用了一個共享的、異構的計算集群。

為了提高準確性,對于每個求解任務,該研究定期在同一臺機器上的不同線程上解決一個小的校準 MIP。該研究還使用在同一臺機器上解決任務時的校準 MIP 求解數的估計來測量時間,然后使用參考機器上的校準 MIP 求解時間將這個量轉換為時間值。

Neural Diving

在本節(jié)中,研究者用本文方法來學習 diving-style 原始啟發(fā)式的方法,該算法從給定的實例分布為 MIP 生成高質量的賦值。思想是訓練一個生成模型,對 MIP 的整數變量進行賦值,從這些整數變量中可以抽樣部分賦值。該研究使用 SCIP 獲得高質量的賦值(不一定是最優(yōu)的)作為 MIP 訓練集的目標標簽。

一旦在這些數據上進行了訓練,該模型就可以預測來自同一問題分布的未見實例上的整數變量值。模型預測中所表示的不確定性被用于定義對原始 MIP 的部分賦值,該初始 MIP 固定了很大一部分整型變量。這些非常小的 sub-MIP 可以使用 SCIP 快速解決,產生高質量的可行賦值。

解決方案預測作為條件生成模型

考慮一個整數程序(即,所有變量都是整數),其參數為 M = (A, b, c)(見方程 1),并在一組整數變量 x 上有一個非空可行集。假設最小化,該研究使用目標函數定義 x 上的一個能量函數:

ddc5c242-fe6b-11eb-9bcf-12bb97331649.png

注意,所有變量都使用了相同的 MLP

模型預測與經典求解器相結合

該研究使用 SelectiveNet 方法訓練了一個額外的二元分類器,可以用來判斷哪些變量需要預測,哪些不需要預測,并優(yōu)化變量之間的「coverage」,將其定義為預測變量數與未預測變量數之比。

通過分配或收緊大部分變量的邊界,該研究顯著地減少了問題的規(guī)模,并熱啟動 SCIP,以在更短的時間內找到高質量的解決方案。

這種方法還提供了實際的計算優(yōu)勢:預測抽樣和解搜索是完全并行的。研究者可以重復和獨立地從模型中提取不同的樣本,并且樣本的每個部分賦值都可以獨立地求解。

結果

該研究在訓練集上為每個數據集訓練一個 GNN,并在驗證集上調整超參數。 原始間隙(primal gap)與基線 SCIP 的平均結果。

與 SCIP 相比,該研究在并行和順序運行方面,在所有數據集上以更短的時間產生更好的原始邊界。研究者認為該方法的優(yōu)勢是能迅速找到好的解決方案,但有時它不能找到最優(yōu)或接近最優(yōu)的解決方案。這可以從圖 7 的 survival plot 中看出,Neural Diving 方法在較短的時間限制下勝出,但在 Electric Grid Optimization 和 MIPLIB 數據集上不如 SCIP。

該研究在兩個數據集上(Google Production Packing 、 NN Verification,如圖 8、9 所示)引入了兩個額外的結果,并且將 Neural Diving、Gurobi 求解器進行結合:該研究以同樣的方式分配變量,但使用 Gurobi 而不是 SCIP 來解決剩下的問題。

除了在上表 1 中的數據集上評估 Neural Diving 之外,研究者還通過修改自身方法來求解 MIPLIB 2017 Collection Set 中的開放實例。這些實例是 MIPLIB 2017 Collection Set 能夠提供的 hardest 的問題。

Neural Branching

分支定界(branch-and-bound)過程在每次迭代時需要做出兩個決策,即擴展哪個葉節(jié)點以及在哪個變量上分支。研究者專注于后一個決策。變量選擇決策的質量對求解 MIP 時分支定界所采取的步驟數量具有重大影響。通過模擬節(jié)點高效但計算昂貴的 expert 的行動,他們使用深度神經網絡來學習變量選擇策略。

通過將昂貴 expert 的策略提煉到神經網絡中,研究者尋求保持大致相同的決策質量,但大大減少了做出決策所需時間。給定樹節(jié)點的決策完全是該節(jié)點的本地決策,因此學習策略只需要將節(jié)點的表示而不是整個樹作為輸入,由此實現更強的可擴展性。

為了證明 expert 數據生成的可擴展性得到了提升,研究者將 ADMM expert 與 Gasse 等人于 2019 年使用的 expert,即 Google Production Packing 和 MIPLIB 上的 Vanilla Full Strong Branching (VFSB)進行了比較。

模仿學習是給定 expert 行為示例的情況時尋求學習 expert 策略的算法的統(tǒng)稱。研究者在本文中將模仿學習表述為一個監(jiān)督學習問題,并考慮了三種變體:克隆 expert 策略、隨機移動的蒸餾和 DAgger。

在實驗中,研究者將他們選擇的三種模仿學習變體作為超參數對每個數據集進行調整。他們使用這三種變體為每個數據集生成了數據和訓練策略,并選定了三小時內在驗證集實例上取得最低平均對偶間隙(dual gap)的策略,接著在測試集上對選定的策略進行評估以得出相關結果。

結果

研究者在優(yōu)化雙重約束的任務上對學得的分支策略進行評估。下圖 展示了 Neural Branching 與 Tuned SCIP 的平均對偶間隙曲線圖:

df06253e-fe6b-11eb-9bcf-12bb97331649.jpg

將一個數據集的目標最優(yōu)間隙應用于每個測試集 MIP 實例的對偶間隙時計算得出的生存曲線。研究者確認了上圖 得出的結論,即在除 Google Production Planning 和 MIPLIB 之外的所有數據集上,Neural Branching 能夠在所有時間期限內持續(xù)地求解出更高分數的測試實例。

聯合評估

研究者將 Neural Branching 和 Neural Diving 結合成了單個求解器,這種做法使得在 Tuned SCIP 上實現了顯著加速。他們通過 PySCIPOpt 包提供的接口使用并將學得的啟發(fā)式方法集成到 SCIP 中。

此外,研究者考慮了四種結合 Neural Branching 和 Neural Diving 的可能方法,具體如下:

單獨的 Tuned SCIP;

Neural Branching+Neural Diving(序列)使用神經啟發(fā)式方法;

Neural Branching 僅使用學得的 branching 策略;

Tuned SCIP+Neural Diving(序列)僅使用連續(xù)版本的 Neural Diving。

作為運行時間函數的平均原始對偶間隙曲線,神經求解器在四個數據集上顯著優(yōu)于 Tuned SCIP。

具體來講,在 NN Verification 數據集上,神經求解器在大的時間期限內平均原始對偶間隙比 Tuned SCIP 好 5 個數量級以上;在 Google Production Packing 數據集上,Neural Branching 和 Neural Diving(序列)更快地實現更低的間隙,在比 Tuned SCIP 時間少 5 倍多的情況下達到了 0.1 的間隙,但 Tuned SCIP 最后趕上了;在 Electric Grid Optimization 數據集上,神經求解器以更高的運行時間實現了低一半的間隙;在 MIPLIB 數據集上,Tuned SCIP+Neural Diving(序列)組合以更高的運行時間實現了 1.5 倍的間

研究者進一步確認了觀察結果,同樣在四個數據集上,神經求解器在給定時間期限內求解測試集問題時能夠取得比 Tuned SCIP 更高的分數。因此,這些結果表明學習可以顯著提升 SCIP 等強大求解器的性能。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • MIP
    MIP
    +關注

    關注

    0

    文章

    38

    瀏覽量

    14292
  • 數據集
    +關注

    關注

    4

    文章

    1224

    瀏覽量

    25446
  • 求解器
    +關注

    關注

    0

    文章

    81

    瀏覽量

    4757
  • GCN
    GCN
    +關注

    關注

    0

    文章

    5

    瀏覽量

    2403

原文標題:DeepMind用神經網絡自動構建啟發(fā)式算法,求解MIP問題

文章出處:【微信號:AcousticSignal,微信公眾號:聲學信號處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    的診斷誤差。仿真結果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡專家系統(tǒng)在電機故障診斷中的應用.pdf【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    BP神經網絡與卷積神經網絡的比較

    BP神經網絡與卷積神經網絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經網絡 : BP神經網絡是一種多層的前饋神經網絡
    的頭像 發(fā)表于 02-12 15:53 ?665次閱讀

    BP神經網絡的優(yōu)缺點分析

    自學習能力 : BP神經網絡能夠通過訓練數據自動調整網絡參數,實現對輸入數據的分類、回歸等任務,無需人工進行復雜的特征工程。 泛化能力強 : BP神經網絡通過訓練數據學習到的特征表示
    的頭像 發(fā)表于 02-12 15:36 ?919次閱讀

    什么是BP神經網絡的反向傳播算法

    BP神經網絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經網絡的有效方法。以下是關于BP神經網絡的反向傳播
    的頭像 發(fā)表于 02-12 15:18 ?766次閱讀

    BP神經網絡與深度學習的關系

    ),是一種多層前饋神經網絡,它通過反向傳播算法進行訓練。BP神經網絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網絡權重,目的是最小化
    的頭像 發(fā)表于 02-12 15:15 ?855次閱讀

    深度學習入門:簡單神經網絡構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡神經網絡由多個神經元組成,
    的頭像 發(fā)表于 01-23 13:52 ?528次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經網絡的原理和多種神經網絡架構方法,供各位老師選擇。 01 人工神經網絡 ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1188次閱讀
    人工<b class='flag-5'>神經網絡</b>的原理和多種<b class='flag-5'>神經網絡</b>架構方法

    卷積神經網絡與傳統(tǒng)神經網絡的比較

    在深度學習領域,神經網絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經網絡(CNNs)和傳統(tǒng)神經網絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)神經網絡
    的頭像 發(fā)表于 11-15 14:53 ?1868次閱讀

    卷積神經網絡的基本原理與算法

    ),是深度學習的代表算法之一。 一、基本原理 卷積運算 卷積運算是卷積神經網絡的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是一個小的矩陣,用于在輸入圖像上滑動,提取局部特征。 滑動窗口:將卷積核在輸入圖像上滑動,每次滑動一個像素點。 計算卷積:將卷積核與輸入圖像
    的頭像 發(fā)表于 11-15 14:47 ?1776次閱讀

    RNN模型與傳統(tǒng)神經網絡的區(qū)別

    神經網絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經網絡的類型也在不斷增加,其中循環(huán)神經網絡(RNN)和傳統(tǒng)神經網絡(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    Moku人工神經網絡101

    Moku3.3版更新在Moku:Pro平臺新增了全新的儀器功能【神經網絡】,使用戶能夠在Moku設備上部署實時機器學習算法,進行快速、靈活的信號分析、去噪、傳感器調節(jié)校準、閉環(huán)反饋等應用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?663次閱讀
    Moku人工<b class='flag-5'>神經網絡</b>101

    【飛凌嵌入式OK3576-C開發(fā)板體驗】RKNN神經網絡算法開發(fā)環(huán)境搭建

    download_model.sh 腳本,該腳本 將下載一個可用的 YOLOv5 ONNX 模型,并存放在當前 model 目錄下,參考命令如下: 安裝COCO數據集,在深度神經網絡算法中,模型的訓練離不開大量的數據集,數據集用于
    發(fā)表于 10-10 09:28

    matlab 神經網絡 數學建模數值分析

    matlab神經網絡 數學建模數值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    如何構建多層神經網絡

    構建多層神經網絡(MLP, Multi-Layer Perceptron)模型是一個在機器學習和深度學習領域廣泛使用的技術,尤其在處理分類和回歸問題時。在本文中,我們將深入探討如何從頭開始構建一個多層
    的頭像 發(fā)表于 07-19 17:19 ?1565次閱讀