chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度理解神經網絡黑盒子:可驗證性和可解釋性

mK5P_AItists ? 來源:YXQ ? 2019-08-15 09:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來,人工智能尤其是在機器學習領域中,取得了非常巨大的成就,看似其未來更加光明。然而這些系統(tǒng)仍舊不夠完美,尤其是被應用到一些因為些許錯誤就能夠導致人命傷害或億萬財產損失的行業(yè)中時,這將會存在巨大的風險。

這需要我們人為對這些系統(tǒng)進行保障,其中包括可驗證性、可靠性、魯棒性、可審計性、可解釋性和無偏性,對此,斯坦福 AI 實驗室對近年來關于 AI 安全、可靠性的研究進展進行了總結,并以文章的形式發(fā)布在博客上。

概述

為了能在一些關鍵應用中使用先進的 AI 系統(tǒng),比如:商用飛機防撞、金融交易或大規(guī)模發(fā)電廠、化工廠控制等應用;我們必須保證這些系統(tǒng)具有可驗證性(以正確的方式對一系列輸入進行驗證)、可靠性(即使是新的未見過的輸入,表現(xiàn)能夠與預期相符)、魯棒性(在應用時不易受噪音或特定輸入干擾)、可審計性(當做出任何給定的決定時,可檢查其內部狀態(tài))、可解釋性(有條理的,可以確保產生決策的數據、場景和假設都是能夠被解釋清楚的)以及無偏性(不會對某類行為表現(xiàn)出無意識的偏好)。

毫無疑問,這對 AI 系統(tǒng)提出了一系列極為嚴苛的要求。不過可喜的是,世界上已經有一批來自斯坦福人工智能實驗室和斯坦福研究社區(qū)的優(yōu)秀 AI 研究人員(其中包括 Clark Barrett, David Dill, Chelsea Finn, Mykel Kochenderfer, Anshul Kundaje, Percy Liang, Tengyu Ma, Subhasish Mitra, Marco Pavone, Omer Reingold, Dorsa Sadigh 以及 James Zou)正在努力解決這個問題。

本文將介紹一些致力于實現(xiàn)安全可靠的 AI 技術的研究案例。我們將從中看到新技術如何理解神經網絡的黑盒子、如何找到和消除偏見,以及如何確保自動化系統(tǒng)的安全性。

理解神經網絡的黑盒子:可驗證性和可解釋性

雖然神經網絡在近年來 AI 領域取得的成就中發(fā)揮了關鍵作用,但它們依舊只是有限可解釋性的黑盒函數近似器。即便是試圖將有限訓練數據泛化到未見過的輸入,它們在小的干擾下也可能失敗,更何況這種做法還會導致難以驗證算法的魯棒性。

讓我們看看當前研究工作的兩個案例,它們讓研究者可以檢驗神經網絡的內部運作。第一個是關于可驗證性,第二個則是關于可解釋性。

深度神經網絡的可驗證性

我們希望確保神經網絡能夠適用于所有可能的情況,但可驗證性在實驗方面超出了現(xiàn)有工具力所能及的范圍。目前,專用工具只能處理非常小的網絡,例如具有 10-20 個隱藏節(jié)點的單個隱藏層。Katz 等人在論文「Reluplex: An efficient SMT solver for verifying deep neural networks」(論文地址:https://arxiv.org/abs/1702.01135)中提出了 Reluplex,一種用于神經網絡錯誤檢測的新算法。Reluplex 將線性編程技術與 SMT(可滿足性模塊理論)求解技術相結合,其中神經網絡被編碼為線性算術約束。核心觀點就是避免數學邏輯永遠不會發(fā)生的測試路徑,這允許測試比以前更大的數量級的神經網絡,例如,每個具有 8 層和 300 個節(jié)點的全連接神經網絡。

Reluplex 可以在一系列輸入上證明神經網絡的屬性。它可以測量對抗魯棒性,換言之,即測量可以產生虛假結果的最小或閾值對抗性信號。見 Raghunathan 等人的《針對對抗性實例的認證防御》(https://openreview.net/pdf?id=Bys4ob-Rb),這是另一個評估對抗魯棒性的案例。

Reluplex 案例研究:無人機防撞

Reluplex 曾被用來測試 ACAS Xu (https://arxiv.org/abs/1810.04240)早期原型的神經網絡,是一種用于無人機的機載防撞系統(tǒng)。如圖所示,該系統(tǒng)考慮了兩架無人機:一架是由 ACAS Xu 軟件控制的你自己的無人機「Ownship」,另一架是我們進行觀察的無人機「Intruder」。其目標是引導「Ownship」避免與「Intruder」發(fā)生碰撞。

在第一種情況下,要求研究人員展示,如果「Intruder」從左側接近,那么系統(tǒng)將建議「Ownship」向右急轉彎。研究人員使用一定的計算資源在 1.5 小時內證明了該網絡在每種情況下都能正常運行。另一個更為復雜的情況是 「Intruder」 和 「Ownship」 處于不同海拔高度的情況,此外 「Ownship」 在這之前還接收到了關于緩慢左轉的建議。這說明了在這種系統(tǒng)中可能出現(xiàn)的復雜性。在這種情況下,網絡應該建議 COC(沒有沖突,即保持當前路線)或緩慢左轉。研究人員使用適度的計算資源在 11 個小時內找到了一個反例,后來又在不同的網絡中糾正了該反例。

理解模型預測

我們能解釋為什么神經網絡會做出具體的預測嗎?這是 Koh 和 Liang 在論文「 Understanding black-box predictions via influence functions」(https://arxiv.org/pdf/1703.04730.pdf)中提出的問題。當深度學習模型用于決定獲得金融貸款或健康保險的對象以及一些其他應用程序時,這一點非常重要。當人工智能系統(tǒng)易于理解時,他們可能會做出更好的決策,從而改進模型的開發(fā),得出更重大的發(fā)現(xiàn),深化我們對 AI 的信任,以及實現(xiàn)更好的發(fā)展。因此,研究人員的方法是對給定預測結果最相關訓練節(jié)點的確定。他們的關鍵點是使用「影響函數」,通過數學來回答這個問題:「如果我們沒有訓練節(jié)點,模型的預測會如何變化?」

在上圖中,如果這只白狗的像素點正是使得該神經網絡將其識別為狗,那么系統(tǒng)就非常合理。換句話說,如果海浪的像素點被識別輸出為「狗」,則該系統(tǒng)易錯率就很高 ——僅具有海浪的其他圖像可能被錯誤地歸類為「狗」。通過正確識別白狗的像素影響比海浪像素更高,我們的系統(tǒng)在處理噪聲時就會表現(xiàn)得更可靠。

尋找和消除偏差

人工智能系統(tǒng)反映出社會偏差一點都不讓人驚訝。Zou 和 Schiebinger 在論文「Design AI so that it’s fair 」(https://www.nature.com/articles/d41586-018-05707-8)中指出偏差可能有兩個來源,即訓練數據和算法。訓練數據中的偏差可能是由于某些群體在數據庫中占比過高或過低,解決方案是調查如何策劃訓練數據。而算法可以放大偏差,因為典型的機器學習程序是試圖最大化整個訓練數據的整體預測精度,因此解決方案是研究偏差的傳播和放大方式。

幾何捕獲語義

Bolukbasi 等人在論文「Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings」(https://arxiv.org/pdf/1607.06520.pdf)中,使用單詞配對來檢查偏差。例如,考慮這個問題,男人對應王,那么女人對應什么?任何五歲的孩子都可以回答這個問題,男人是王,那么女人就是女王。研究人員使用 Google 新聞語料庫的 Word2Vec 模型回答了單詞配對問題。每個單詞都映射到高維空間中的一個點。單詞之間的關系由連接這些單詞的向量表示。

單詞嵌入高維空間的二維投影,其中連接女人與女王的向量

與連接男人與王的向量的長度和方向相同

谷歌新聞語料庫很龐大,其中許多文章的作者都是專業(yè)記者,因此我們理想的期望是使用這些數據訓練的模型沒有偏差。然而經過片刻的反思,我們意識到這個模型可能會反映社會的偏差,因為它畢竟是對我們社會產生的數據進行的訓練,這正是我們接下來討論的。

讓我們來看看另一個詞配對:「他」對應的是「兄弟」,那「她」對應著的是什么?同樣,任何五歲的孩子都可以回答說「他」對應「兄弟」,那么「她」對應「姐妹」。我們有一個良好的開端,但正如你在下圖中看到的那樣,事情開始急速轉折。一些單詞配對表現(xiàn)出偏差(「他」對應的是「醫(yī)生」,那「她」則對應「護士」;「他」對應的是「計算機程序員」,那「她」則對應「家庭主婦」),另外有一些更是奇怪得徹頭徹尾(「她」對應著「懷孕」,而「他」竟然對應著「腎結石」)。

研究人員發(fā)現(xiàn),通過消除性別刻板印象,例如接待員和女性之間的聯(lián)系,同時保留所期望的聯(lián)系,比如女王和女性之間的關聯(lián),可以減少性別偏差。為了做到這一點,他們根據定義區(qū)分了與性別相關的性別特定詞,如兄弟,姐妹,商人和女商人,以及其余的性別中性詞。在幾何學上,他們確定了兩個正交維度,即性別特定詞與性別中性詞間的差別。他們的消除偏差算法通過折疊性別中立的方向去除性別中性詞和性別的關聯(lián)。谷歌,推特,臉書,微軟和其他公司都在使用這種消除方式。

在沒有人群統(tǒng)計的情況下實現(xiàn)公平

Hashimoto 等人在論文「Fairness without demographics in repeated loss minimization」(https://arxiv.org/pdf/1806.08010.pdf)中想搞清楚是否即使我們沒有人群統(tǒng)計信息也有可能開發(fā)公平的系統(tǒng)。其主要問題是少數群體在最小化平均訓練損失方面的代表性較低。由于成本或隱私原因,分組標簽可能不可用,或者受保護的群體可能無法被識別或被知道。當前的方法,即經驗風險最小化,會隨著時間的推移進一步縮小輸入數據中的少數群體,而使問題變得更糟。這些研究人員的目標是即使在沒有人口統(tǒng)計標簽的情況下,保護所有群體,甚至是少數群體。所以他們的解決方案是一種基于「分布式穩(wěn)健優(yōu)化」的方法,可以最大限度地減少所有群體的損失。

分布式穩(wěn)健優(yōu)化的目的是控制所有組的最壞情況風險。直觀地說,這種方法是加大高損失樣本的比重。相對于整個樣本而言,加大高損失的樣本比重能對具有較少高損失樣本的模型做相應的調整,使得某些分組就不再有不成比例的高誤差了。即少數群體相關的數據點將默認為遭受高損失的數據點,因此這種方法可以幫助避免這種情況。

確保安全的自治系統(tǒng)

機器人,無人機和自動駕駛車輛需要算法來進行安全學習、規(guī)劃和操控。當系統(tǒng)探索周圍環(huán)境時,他們必須處理它們的行為所造成的結果、動態(tài)環(huán)境和未知人類交互所存在的不確定性。在以下兩個例子中,研究人員將自主機器人和人類建模為一個系統(tǒng)。

人機交互的數據驅動概率建模

Marco Pavone 教授的研究(論文:「Multimodal Probabilistic Model-Based Planning for Human-Robot Interaction」,https://arxiv.org/pdf/1710.09483.pdf),旨在開發(fā)一個決策和控制堆棧,用于在有多種不同行動方案的環(huán)境中進行安全的人機交互。在這案例中,研究人員考慮在進出高速公路的匝道上進行交織區(qū)交通流測試。他們的方法是首先從車輛交互樣本的數據集中學習未來人類行為的多模態(tài)概率分布,然后通過從人類對指定機器人動作序列的回應中進行大規(guī)模并行采樣來構建實時的機器人策略。該框架不對人類動機做出任何假設,這使得它可以對各種人類駕駛行為進行建模。

值得注意的是,該模型包括高級別隨機決策和低級別安全保護控制??紤]到人類有時可能會無視機器人預測,該框架增加了一個低級別的跟蹤控制器,當安全受到威脅時,該控制器將隨機規(guī)劃者所需軌跡轉化為安全保護控制模式。

安全學習人的內在狀態(tài)

Dorsa Sadigh (相關工作論文:「Planning for cars that coordinate with people: leveraging effects on human actions for planning and active information gathering over human internal state」,http://iliad.stanford.edu/pdfs/publications/sadigh2018planning.pdf)和 Mykel Kochenderfer 正在研究通過訓練自動駕駛汽車來了解人類駕駛員的內在狀態(tài)。他們將自主車輛和人類之間的相互作用建模為動力系統(tǒng)來實現(xiàn)這一點。當然,這項研究中,自動駕駛汽車的動作采用直接控制的方式,但這些動作會影響人類的行為,因此也可以間接控制人類的行為。

想象一下,你正試圖在擁擠的高速公路上變道。在觀察其他駕駛員的反應時,你可能會從當前車道緩慢進入新車道。如果另一個駕駛員減速并打開一個間隙,那么你繼續(xù)換道,但如果另一個駕駛員加速并阻擋你,那么你將返回你的車道并稍后再試。曾經常用的方法大體是通過讓機器人最大化其自身獎勵函數,但現(xiàn)在這個獎勵函數可以直接取決于人類做出的響應。由于司機對其他司機的行為做出回應,我們有機會進行積極的信息收集。

未來

在不久的將來,我們將享受安全可靠的人工智能系統(tǒng),這些系統(tǒng)具有可驗證性、可審計性、可解釋性、無偏差性和魯棒性。正如斯坦福大學人工智能實驗室以及其他實驗室的研究正在提供創(chuàng)新的技術解決方案,使得這些美好的期愿成為可能。

但光靠技術解決方案還不夠,成功還需要對這些解決方案謹慎的實施,并引入社會意識,以確定我們希望在這些系統(tǒng)中加入哪些參數。最近,我們看到以人為本的人工智能方法的興起,考慮了人為因素和社會影響,這讓我們看到:即使對于文化迥異的用戶和各種意外情況,這些方法都將賦予人工智能系統(tǒng)以安全、可靠和合理的工作方式!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103635
  • 黑盒子
    +關注

    關注

    0

    文章

    5

    瀏覽量

    8864

原文標題:AI 在安全、可靠性方面到底取得了哪些進展?斯坦福 AI 實驗室進行了總結

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    的診斷誤差。仿真結果驗證了該算法的有效。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡專家系統(tǒng)在電機故障診斷中的應用.pdf【免責聲明】本文系網絡轉載,版權歸原作
    發(fā)表于 06-16 22:09

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網絡結構 近日,中國科學院西安光機所空間光學技術研究室在計算成像可解釋性深度學習重建方法研究取得創(chuàng)新進展。相關研究成果發(fā)表于計算機視覺與圖形學領域國際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?223次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b><b class='flag-5'>深度</b>學習重建方法取得進展

    NVIDIA實現(xiàn)神經網絡渲染技術的突破增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經網絡渲染技術的突破增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版中增加神經網絡著色技術,讓開
    的頭像 發(fā)表于 04-07 11:33 ?446次閱讀

    BP神經網絡與卷積神經網絡的比較

    BP神經網絡與卷積神經網絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經網絡 : BP神經網絡是一種多層的前饋神經網絡
    的頭像 發(fā)表于 02-12 15:53 ?672次閱讀

    如何優(yōu)化BP神經網絡的學習率

    優(yōu)化BP神經網絡的學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經網絡學習率的方法: 一、理解學習率的重要 學習率決定了模型參數在每次迭代時更新的幅度。過大的學習率可
    的頭像 發(fā)表于 02-12 15:51 ?941次閱讀

    BP神經網絡深度學習的關系

    BP神經網絡深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經網絡的基本概念 BP神經網絡,即反向傳播神經網絡(Ba
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    小白學解釋性AI:從機器學習到大模型

    科學AI需要可解釋性人工智能的崛起,尤其是深度學習的發(fā)展,在眾多領域帶來了令人矚目的進步。然而,伴隨這些進步而來的是一個關鍵問題——“黑箱”問題。許多人工智能模型,特別是復雜的模型,如神經
    的頭像 發(fā)表于 02-10 12:12 ?630次閱讀
    小白學<b class='flag-5'>解釋性</b>AI:從機器學習到大模型

    深度學習入門:簡單神經網絡的構建與實現(xiàn)

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個神經元組成,
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經網絡的原理和多種神經網絡架構方法,供各位老師選擇。 01 人工神經網絡 ? 人工神經網絡模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1196次閱讀
    人工<b class='flag-5'>神經網絡</b>的原理和多種<b class='flag-5'>神經網絡</b>架構方法

    卷積神經網絡在自然語言處理中的應用

    自然語言處理是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,卷積神經網絡(CNNs)作為一種強大的模型,在圖像識別和語音處理等領域取
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    卷積神經網絡與傳統(tǒng)神經網絡的比較

    深度學習領域,神經網絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經網絡(CNNs)和傳統(tǒng)神經網絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    深度學習中的卷積神經網絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經網絡作為深度學習的一個分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積神經網絡
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    LSTM神經網絡在語音識別中的應用實例

    語音識別技術是人工智能領域的一個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發(fā)展,特別是長短期記憶(LSTM)神經網絡的引入,語音識別的準確和效率得到了顯著提升。
    的頭像 發(fā)表于 11-13 10:03 ?1853次閱讀

    數據智能系列講座第3期—交流式學習:神經網絡的精細與或邏輯與人類認知的對齊

    類認知的對齊報告簡介雖然近年來神經網絡可解釋性研究得到了廣泛的關注,但是神經網絡中精細決策邏輯尚未得到有效的解釋,學界對神經網絡的評測依然
    的頭像 發(fā)表于 09-25 08:06 ?429次閱讀
    數據智能系列講座第3期—交流式學習:<b class='flag-5'>神經網絡</b>的精細與或邏輯與人類認知的對齊

    FPGA在深度神經網絡中的應用

    隨著人工智能技術的飛速發(fā)展,深度神經網絡(Deep Neural Network, DNN)作為其核心算法之一,在圖像識別、語音識別、自然語言處理等領域取得了顯著成果。然而,傳統(tǒng)的深度神經網絡
    的頭像 發(fā)表于 07-24 10:42 ?1206次閱讀