chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何為深度學(xué)習(xí)模型設(shè)計(jì)審計(jì)方案

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-04-19 14:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)您購(gòu)買最后一輛車時(shí),您是否檢查了制造商的安全等級(jí)或質(zhì)量保證。也許,像大多數(shù)消費(fèi)者一樣,你只是去試駕看看這輛車是否提供了你想要的所有特性和功能,從舒適的座椅到電子控制。

審計(jì)和質(zhì)量保證是許多行業(yè)的規(guī)范??紤]汽車制造業(yè),在汽車生產(chǎn)之前,在安全性、舒適性、網(wǎng)絡(luò)化等方面進(jìn)行嚴(yán)格的測(cè)試,然后再將其部署到最終用戶。基于此,我們提出了一個(gè)問(wèn)題:“我們?nèi)绾螢?a target="_blank">深度學(xué)習(xí)模型設(shè)計(jì)一個(gè)類似動(dòng)機(jī)的審計(jì)方案?”

人工智能在現(xiàn)實(shí)世界的應(yīng)用中獲得了廣泛的成功。當(dāng)前的人工智能模型尤其是深度神經(jīng)網(wǎng)絡(luò),不需要對(duì)所需行為類型的精確說(shuō)明。相反,它們需要大量的數(shù)據(jù)集用于培訓(xùn),或者需要設(shè)計(jì)一個(gè)必須隨時(shí)間優(yōu)化的獎(jiǎng)勵(lì)函數(shù)。

雖然這種形式的隱式監(jiān)督提供了靈活性,但它通常會(huì)導(dǎo)致算法針對(duì)人類設(shè)計(jì)者不希望的行為進(jìn)行優(yōu)化。在許多情況下,它還會(huì)導(dǎo)致災(zāi)難性后果和安全關(guān)鍵應(yīng)用程序的故障,如自動(dòng)駕駛和醫(yī)療保健。

由于這些模型很容易失敗,特別是在域轉(zhuǎn)移的情況下,因此在部署之前知道它們 MIG ht 失敗的時(shí)間非常重要。隨著深度學(xué)習(xí)研究越來(lái)越與現(xiàn)實(shí)世界的應(yīng)用相結(jié)合,我們必須提出正式審核深度學(xué)習(xí)模型的方案。

語(yǔ)義一致的單元測(cè)試

審計(jì)中最大的挑戰(zhàn)之一是理解如何獲得對(duì)最終用戶直接有用的人類可解釋規(guī)范。我們通過(guò)一系列語(yǔ)義一致的單元測(cè)試解決了這個(gè)問(wèn)題。每個(gè)單元測(cè)試驗(yàn)證輸入空間中受控和語(yǔ)義對(duì)齊的變化(例如,在人臉識(shí)別中,相對(duì)于相機(jī)的角度)是否滿足預(yù)定義規(guī)范(例如,精度超過(guò) 95% )。

我們通過(guò)直接驗(yàn)證生成模型的可解釋潛在空間中的語(yǔ)義對(duì)齊變化來(lái)執(zhí)行這些單元測(cè)試。我們的框架 AuditAI 彌補(bǔ)了軟件系統(tǒng)可解釋形式驗(yàn)證和深度神經(jīng)網(wǎng)絡(luò)可伸縮性之間的差距。

poYBAGJeW7qANnIvAAIkWVLAtyc083.png

圖 1 。 AI 從項(xiàng)目到部署的一般機(jī)器學(xué)習(xí)過(guò)程。

考慮一個(gè)典型的機(jī)器學(xué)習(xí)生產(chǎn)流水線三方:部署模型的最終用戶、驗(yàn)證者和模型設(shè)計(jì)器。驗(yàn)證器在驗(yàn)證設(shè)計(jì)者的模型是否滿足最終用戶的需求方面起著關(guān)鍵作用。例如,單元測(cè)試 1 可以驗(yàn)證當(dāng)人臉角度在d度范圍內(nèi)時(shí),給定的人臉?lè)诸惸P褪欠癖3?95% 以上的準(zhǔn)確性。單元測(cè)試 2 可以檢查模型在何種照明條件下的準(zhǔn)確度超過(guò) 86% 。驗(yàn)證之后,最終用戶可以使用驗(yàn)證過(guò)的規(guī)范來(lái)確定在部署期間是否使用經(jīng)過(guò)培訓(xùn)的 DL 模型。

poYBAGJeW7uABoGRAAIk_OkoKyU044.png

圖 2 。 Deep networks 接受認(rèn)證培訓(xùn),以確??赡軡M足單元測(cè)試。

經(jīng)驗(yàn)證的部署

為了驗(yàn)證深層網(wǎng)絡(luò)的語(yǔ)義一致性,我們使用生成模型將其連接起來(lái),這樣它們共享相同的潛在空間和將輸入投射到潛在代碼的相同編碼器。除了驗(yàn)證單元測(cè)試是否滿足要求外,我們還可以執(zhí)行認(rèn)證培訓(xùn),以確保單元測(cè)試可能首先滿足要求。該框架具有吸引人的理論性質(zhì),我們?cè)诒疚闹姓故玖巳绾伪WC驗(yàn)證者能夠生成驗(yàn)證是真是假的證明。有關(guān)更多信息,請(qǐng)參閱語(yǔ)義規(guī)范[LINK]下的審核 AI 模型以驗(yàn)證部署。

與 AuditAI 相比,基于像素的擾動(dòng)的神經(jīng)網(wǎng)絡(luò)驗(yàn)證和認(rèn)證訓(xùn)練涵蓋的潛在空間語(yǔ)義變化范圍要小得多。為了進(jìn)行定量比較,對(duì)于相同的驗(yàn)證誤差,我們將像素綁定到潛在空間,并將其與 AuditAI 的潛在空間綁定進(jìn)行比較。我們表明,在相同的驗(yàn)證誤差下, AuditAI 可以容忍比基于像素的對(duì)應(yīng)項(xiàng)(通過(guò) L2 范數(shù)測(cè)量)大 20% 左右的潛在變化。對(duì)于實(shí)現(xiàn)和實(shí)驗(yàn),我們使用 NVIDIA V100 GPU s 和 Python 以及 PyTorch 庫(kù)。

我們展示了與潛在空間中受控變化相對(duì)應(yīng)的生成輸出的定性結(jié)果。頂行顯示 AuditAI 的可視化,底行顯示 ImageNet 上 hen 類圖像、肺炎胸部 X 射線圖像和不同微笑程度的人臉的像素?cái)_動(dòng)可視化。從可視化中可以明顯看出,更廣泛的潛在變化對(duì)應(yīng)于生成的輸出中更廣泛的語(yǔ)義變化。

今后的工作

在本文中,我們開發(fā)了一個(gè)深度學(xué)習(xí)( DL )模型審計(jì)框架。越來(lái)越多的人開始關(guān)注 DL 模型中的固有偏見,這些模型部署在廣泛的環(huán)境中,并且有多篇關(guān)于部署前審核 DL 模型的必要性的新聞文章。我們的框架將這個(gè)審計(jì)問(wèn)題形式化,我們認(rèn)為這是在部署期間提高 DL 模型的安全性和道德使用的一個(gè)步驟。

AuditAI 的局限性之一是其可解釋性受到內(nèi)置生成模型的限制。雖然在生成模型方面已經(jīng)取得了令人振奮的進(jìn)展,但我們認(rèn)為,在培訓(xùn)和部署過(guò)程中,整合領(lǐng)域?qū)I(yè)知識(shí)以減少潛在的數(shù)據(jù)集偏差和人為錯(cuò)誤非常重要。

目前, AuditAI 沒(méi)有將人類領(lǐng)域?qū)<抑苯蛹傻綄徲?jì)管道中。它間接地使用領(lǐng)域?qū)I(yè)知識(shí)來(lái)管理用于創(chuàng)建生成模型的數(shù)據(jù)集。納入前者將是今后工作的一個(gè)重要

關(guān)于作者

Homanga Bharadhwaj 是卡內(nèi)基梅隆大學(xué)計(jì)算機(jī)科學(xué)學(xué)院機(jī)器人研究所的博士生。他以前是多倫多大學(xué)和向量研究所的 MSC 學(xué)生,也是 IIT 坎普爾的一名本科生。這篇文章所涉及的工作是在 Homanga 在 NVIDIA 實(shí)習(xí)研究期間完成的。

Animesh Garg 是多倫多大學(xué)計(jì)算機(jī)科學(xué)助理教授 CVK3 NVIDIA 的資深研究科學(xué)家,也是向量研究所的一名教員。他在加州大學(xué)伯克利分校獲得博士學(xué)位,是斯坦福人工智能實(shí)驗(yàn)室的博士后。他致力于廣義自治的算法基礎(chǔ),使基于人工智能的機(jī)器人能夠與人類一起工作。他的工作在機(jī)器人學(xué)和機(jī)器學(xué)習(xí)領(lǐng)域獲得了多項(xiàng)研究獎(jiǎng)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5600

    瀏覽量

    109818
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124426
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化
    的頭像 發(fā)表于 01-31 09:34 ?664次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?212次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測(cè)頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過(guò)Keras實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實(shí)現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場(chǎng)需求的模型,進(jìn)一步提升檢測(cè)的準(zhǔn)確性和現(xiàn)場(chǎng)的適應(yīng)性。 應(yīng)用范圍
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)
    發(fā)表于 12-03 13:50

    中軟國(guó)際審計(jì)模型創(chuàng)新驅(qū)動(dòng)智領(lǐng)未來(lái)

    此前,9月18日-20日,以“躍升行業(yè)智能化”為主題的華為全聯(lián)接大會(huì)2025在上海隆重舉行。在大會(huì)開放演講環(huán)節(jié),中軟國(guó)際華為技術(shù)與解決方案集團(tuán)審計(jì)解決方案經(jīng)理于勖之發(fā)表了題為《審計(jì)
    的頭像 發(fā)表于 09-28 12:35 ?1140次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4205次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    思必馳空調(diào)大模型解決方案

    這不是幻想,是基于思必馳空調(diào)大模型解決方案發(fā)生的真實(shí)體驗(yàn),該方案深度融合了思必馳自研的全鏈路智能語(yǔ)音交互技術(shù)與對(duì)話式語(yǔ)言大模型DFM,它不僅
    的頭像 發(fā)表于 07-31 17:46 ?957次閱讀

    寧暢與與百度文心大模型展開深度技術(shù)合作

    近日,百度正式開源文心大模型4.5系列模型。作為文心開源合作伙伴,寧暢在模型開源首日即實(shí)現(xiàn)即刻部署,做到“開源即接入、發(fā)布即可用”。據(jù)悉,文心4.5開源系列全部基于飛槳深度
    的頭像 發(fā)表于 07-07 16:26 ?884次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這一問(wèn)題,本文將探討大
    發(fā)表于 07-03 19:43

    龍芯中科與文心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 文心大模型 文心4.5系列模型均使用飛槳深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 16:53 ?1367次閱讀

    兆芯率先展開文心系列模型深度技術(shù)合作

    對(duì)文心系列大模型的快速適配、無(wú)縫銜接。 ? 文心大模型 ? 文心4.5系列開源模型共10款,均使用飛漿深度學(xué)習(xí)框架進(jìn)行高效訓(xùn)練、推理和部署。
    的頭像 發(fā)表于 07-01 10:49 ?983次閱讀

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1148次閱讀

    模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬(wàn)級(jí)別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?858次閱讀
    大<b class='flag-5'>模型</b>時(shí)代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>框架

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫(kù),它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1218次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!