chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何為深度學(xué)習(xí)模型設(shè)計審計方案

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-19 14:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)您購買最后一輛車時,您是否檢查了制造商的安全等級或質(zhì)量保證。也許,像大多數(shù)消費(fèi)者一樣,你只是去試駕看看這輛車是否提供了你想要的所有特性和功能,從舒適的座椅到電子控制。

審計和質(zhì)量保證是許多行業(yè)的規(guī)范??紤]汽車制造業(yè),在汽車生產(chǎn)之前,在安全性、舒適性、網(wǎng)絡(luò)化等方面進(jìn)行嚴(yán)格的測試,然后再將其部署到最終用戶?;诖?,我們提出了一個問題:“我們?nèi)绾螢?a target="_blank">深度學(xué)習(xí)模型設(shè)計一個類似動機(jī)的審計方案?”

人工智能在現(xiàn)實世界的應(yīng)用中獲得了廣泛的成功。當(dāng)前的人工智能模型尤其是深度神經(jīng)網(wǎng)絡(luò),不需要對所需行為類型的精確說明。相反,它們需要大量的數(shù)據(jù)集用于培訓(xùn),或者需要設(shè)計一個必須隨時間優(yōu)化的獎勵函數(shù)。

雖然這種形式的隱式監(jiān)督提供了靈活性,但它通常會導(dǎo)致算法針對人類設(shè)計者不希望的行為進(jìn)行優(yōu)化。在許多情況下,它還會導(dǎo)致災(zāi)難性后果和安全關(guān)鍵應(yīng)用程序的故障,如自動駕駛和醫(yī)療保健。

由于這些模型很容易失敗,特別是在域轉(zhuǎn)移的情況下,因此在部署之前知道它們 MIG ht 失敗的時間非常重要。隨著深度學(xué)習(xí)研究越來越與現(xiàn)實世界的應(yīng)用相結(jié)合,我們必須提出正式審核深度學(xué)習(xí)模型的方案。

語義一致的單元測試

審計中最大的挑戰(zhàn)之一是理解如何獲得對最終用戶直接有用的人類可解釋規(guī)范。我們通過一系列語義一致的單元測試解決了這個問題。每個單元測試驗證輸入空間中受控和語義對齊的變化(例如,在人臉識別中,相對于相機(jī)的角度)是否滿足預(yù)定義規(guī)范(例如,精度超過 95% )。

我們通過直接驗證生成模型的可解釋潛在空間中的語義對齊變化來執(zhí)行這些單元測試。我們的框架 AuditAI 彌補(bǔ)了軟件系統(tǒng)可解釋形式驗證和深度神經(jīng)網(wǎng)絡(luò)可伸縮性之間的差距。

poYBAGJeW7qANnIvAAIkWVLAtyc083.png

圖 1 。 AI 從項目到部署的一般機(jī)器學(xué)習(xí)過程。

考慮一個典型的機(jī)器學(xué)習(xí)生產(chǎn)流水線三方:部署模型的最終用戶、驗證者和模型設(shè)計器。驗證器在驗證設(shè)計者的模型是否滿足最終用戶的需求方面起著關(guān)鍵作用。例如,單元測試 1 可以驗證當(dāng)人臉角度在d度范圍內(nèi)時,給定的人臉分類模型是否保持 95% 以上的準(zhǔn)確性。單元測試 2 可以檢查模型在何種照明條件下的準(zhǔn)確度超過 86% 。驗證之后,最終用戶可以使用驗證過的規(guī)范來確定在部署期間是否使用經(jīng)過培訓(xùn)的 DL 模型。

poYBAGJeW7uABoGRAAIk_OkoKyU044.png

圖 2 。 Deep networks 接受認(rèn)證培訓(xùn),以確保可能滿足單元測試。

經(jīng)驗證的部署

為了驗證深層網(wǎng)絡(luò)的語義一致性,我們使用生成模型將其連接起來,這樣它們共享相同的潛在空間和將輸入投射到潛在代碼的相同編碼器。除了驗證單元測試是否滿足要求外,我們還可以執(zhí)行認(rèn)證培訓(xùn),以確保單元測試可能首先滿足要求。該框架具有吸引人的理論性質(zhì),我們在本文中展示了如何保證驗證者能夠生成驗證是真是假的證明。有關(guān)更多信息,請參閱語義規(guī)范[LINK]下的審核 AI 模型以驗證部署。

與 AuditAI 相比,基于像素的擾動的神經(jīng)網(wǎng)絡(luò)驗證和認(rèn)證訓(xùn)練涵蓋的潛在空間語義變化范圍要小得多。為了進(jìn)行定量比較,對于相同的驗證誤差,我們將像素綁定到潛在空間,并將其與 AuditAI 的潛在空間綁定進(jìn)行比較。我們表明,在相同的驗證誤差下, AuditAI 可以容忍比基于像素的對應(yīng)項(通過 L2 范數(shù)測量)大 20% 左右的潛在變化。對于實現(xiàn)和實驗,我們使用 NVIDIA V100 GPU s 和 Python 以及 PyTorch 庫。

我們展示了與潛在空間中受控變化相對應(yīng)的生成輸出的定性結(jié)果。頂行顯示 AuditAI 的可視化,底行顯示 ImageNet 上 hen 類圖像、肺炎胸部 X 射線圖像和不同微笑程度的人臉的像素擾動可視化。從可視化中可以明顯看出,更廣泛的潛在變化對應(yīng)于生成的輸出中更廣泛的語義變化。

今后的工作

在本文中,我們開發(fā)了一個深度學(xué)習(xí)( DL )模型審計框架。越來越多的人開始關(guān)注 DL 模型中的固有偏見,這些模型部署在廣泛的環(huán)境中,并且有多篇關(guān)于部署前審核 DL 模型的必要性的新聞文章。我們的框架將這個審計問題形式化,我們認(rèn)為這是在部署期間提高 DL 模型的安全性和道德使用的一個步驟。

AuditAI 的局限性之一是其可解釋性受到內(nèi)置生成模型的限制。雖然在生成模型方面已經(jīng)取得了令人振奮的進(jìn)展,但我們認(rèn)為,在培訓(xùn)和部署過程中,整合領(lǐng)域?qū)I(yè)知識以減少潛在的數(shù)據(jù)集偏差和人為錯誤非常重要。

目前, AuditAI 沒有將人類領(lǐng)域?qū)<抑苯蛹傻綄徲嫻艿乐小Kg接地使用領(lǐng)域?qū)I(yè)知識來管理用于創(chuàng)建生成模型的數(shù)據(jù)集。納入前者將是今后工作的一個重要

關(guān)于作者

Homanga Bharadhwaj 是卡內(nèi)基梅隆大學(xué)計算機(jī)科學(xué)學(xué)院機(jī)器人研究所的博士生。他以前是多倫多大學(xué)和向量研究所的 MSC 學(xué)生,也是 IIT 坎普爾的一名本科生。這篇文章所涉及的工作是在 Homanga 在 NVIDIA 實習(xí)研究期間完成的。

Animesh Garg 是多倫多大學(xué)計算機(jī)科學(xué)助理教授 CVK3 NVIDIA 的資深研究科學(xué)家,也是向量研究所的一名教員。他在加州大學(xué)伯克利分校獲得博士學(xué)位,是斯坦福人工智能實驗室的博士后。他致力于廣義自治的算法基礎(chǔ),使基于人工智能的機(jī)器人能夠與人類一起工作。他的工作在機(jī)器人學(xué)和機(jī)器學(xué)習(xí)領(lǐng)域獲得了多項研究獎。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106450
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122806
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?271次閱讀
    大<b class='flag-5'>模型</b>時代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>框架

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動!

    介紹本頁面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個專為深度學(xué)習(xí)開發(fā)的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?443次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動!

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺中無法導(dǎo)出INT8模型怎么解決?

    無法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    中軟國際審計智能體平臺接入DeepSeek滿血版大模型

    近期,DeepSeek大模型憑借卓越的技術(shù)性能和廣泛的應(yīng)用場景迅速成為行業(yè)焦點(diǎn),推動AI技術(shù)向縱深發(fā)展。中軟國際審計團(tuán)隊基于科創(chuàng)中心的算力基礎(chǔ)設(shè)施和私有化全參滿血DeepSeek(含V3/R1 671B雙引擎),打造審計垂直領(lǐng)域
    的頭像 發(fā)表于 02-24 15:42 ?1132次閱讀

    廣和通正式推出AI玩具大模型解決方案

    廣和通近期推出了一款創(chuàng)新的AI玩具大模型解決方案,該方案深度融合了豆包等AI大模型,并內(nèi)置了廣和通Cat.1模組,為智能玩具的AI化升級提供
    的頭像 發(fā)表于 01-24 10:36 ?1219次閱讀

    廣和通推出AI玩具大模型解決方案

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI大模型、內(nèi)置廣和通Cat.1模組,助力智能玩具實現(xiàn)AI化升級。該解決
    的頭像 發(fā)表于 01-21 10:27 ?797次閱讀

    Flexus X 實例 ultralytics 模型 yolov10 深度學(xué)習(xí) AI 部署與應(yīng)用

    前言: ???深度學(xué)習(xí)新紀(jì)元,828 B2B 企業(yè)節(jié) Flexus X 實例特惠!想要高效訓(xùn)練 YOLOv10 模型,實現(xiàn)精準(zhǔn)圖像識別?Flexus X 以卓越算力,助您輕松駕馭大規(guī)模數(shù)據(jù)集,加速
    的頭像 發(fā)表于 12-24 12:24 ?795次閱讀
    Flexus X 實例 ultralytics <b class='flag-5'>模型</b> yolov10 <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b> AI 部署與應(yīng)用

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1924次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發(fā)表于 11-13 10:39 ?1359次閱讀

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個復(fù)雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強(qiáng) 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高模型魯棒
    的頭像 發(fā)表于 11-11 10:25 ?1207次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-25 09:22 ?1239次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?2901次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),為不同的應(yīng)用場景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計中僅使用所需的計算資源,從而避免不必要
    發(fā)表于 09-27 20:53

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收
    發(fā)表于 08-02 11:03