chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在可解釋性推理方向上的進(jìn)展

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-11-10 10:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:Jaley Dholakiya簡(jiǎn)要概述了深度學(xué)習(xí)在可解釋性推理方向上的進(jìn)展。

對(duì)一個(gè)使用深度學(xué)習(xí)查明患者是否患有多發(fā)性硬化的醫(yī)生來說,模型僅僅給出“是”或“否”并不好。對(duì)自動(dòng)駕駛這樣安全攸關(guān)的應(yīng)用而言,僅僅預(yù)測(cè)會(huì)發(fā)生碰撞并不夠。使機(jī)器學(xué)習(xí)能夠清楚地表述給出斷言的依據(jù),這是一個(gè)緊迫的需求。Devi Parikh、Druv Batra的視覺問答工作,李飛飛團(tuán)隊(duì)在理解視覺關(guān)系方面的工作,都屬于這一方向。但這離學(xué)習(xí)推理結(jié)構(gòu)還很遠(yuǎn)。這篇博客文章將討論如何在CNN和知識(shí)圖譜中納入推理。

長期以來,推理都被理解為一組歸納和演繹?;诔橄蠓?hào)邏輯方面的研究,John Venn在1881年標(biāo)準(zhǔn)化了這些概念。它像是IQ測(cè)試,由A可得B,由B可得C,故由A可得C,等等??梢园阉氤梢唤M邏輯等式。

然而,1975年L.A. Zadeh提出了近似推理(approximate reasoning)的概念,替代了固定的歸納/推理的思路。近似推理同時(shí)引入了語言變量(linguistic variable)這一術(shù)語(年齡=年輕,很年輕,相當(dāng)年輕,年老,相當(dāng)老,很老)。與語言變量相對(duì)的是數(shù)值變量(年齡=21,15,19,57,42,47)。語言變量是通過單詞構(gòu)建模糊邏輯的基礎(chǔ)。近似推理標(biāo)準(zhǔn)化了在推理中考慮模糊性和歧義性的方法。

例如,在我們的日常語言中,我們不會(huì)說“我正和一個(gè)身高173厘米的21歲男性說話”,而是說“我正和一個(gè)高個(gè)小伙說話”。因此,模糊邏輯考慮了構(gòu)建推理模型的論點(diǎn)的模糊性。

盡管納入了模糊性,它仍未能捕捉到人類推理的精髓。有一種可能的解釋是,除了簡(jiǎn)單的演繹(“A不是B,B是C,意味著A不是C”),人類推理具備一個(gè)壓倒性的內(nèi)隱推理元素。無需經(jīng)過上述步驟,人類瞬間可以做出演繹。有時(shí)候這是本能。如果你養(yǎng)寵物狗,那么你知道從它嘴里奪走玩具會(huì)發(fā)生什么。

人類顯示了一種不同尋常的能力,可以隨著時(shí)間的推移而抽象、改進(jìn)內(nèi)隱推理?;诮y(tǒng)計(jì)學(xué)習(xí)的語言模型正是內(nèi)隱學(xué)習(xí)的一個(gè)例子。它并沒有使用任何規(guī)則、命題、模糊邏輯,而是通過時(shí)間模型學(xué)習(xí)長期依賴。你可以將它想象成手機(jī)中的自動(dòng)補(bǔ)全特性。你要么訓(xùn)練一個(gè)推理結(jié)構(gòu)來預(yù)測(cè)最符合邏輯的詞組,要么讓統(tǒng)計(jì)學(xué)方法預(yù)測(cè)一個(gè)概率上恰當(dāng)?shù)难a(bǔ)全詞組。

這類模型無法處理罕見單詞或罕見圖像,這是因?yàn)楹币娦詫?dǎo)致模型遺忘了相關(guān)信息。這類模型也不能概括一個(gè)概念。而人類具有這一能力。例如,如果我們看到一種牛,那么我們能夠推廣所學(xué)到所有其他種類的牛上。如果我們聽過某句話,那么我們能夠辨認(rèn)出這句話不同語調(diào)、口音、節(jié)奏的變體。

不管過去的知識(shí)有多么不相關(guān),人類都可以加以利用。借鑒人類這一能力,單樣本學(xué)習(xí)開辟了學(xué)習(xí)罕見事件的道路。如果一個(gè)人有生以來只見過方塊和三角形,然后第一次看到一頭鹿,這個(gè)人不會(huì)僅僅將它記憶為一張圖像,而會(huì)下意識(shí)地儲(chǔ)存它和方塊、三角形的相似性。對(duì)單樣本學(xué)習(xí)而言,記憶庫是必不可少的?;谟洃浐秃诵哪P偷慕换?,模型可以更高效地學(xué)習(xí),更快地推理。

我知道你也許感到單樣本這一術(shù)語很費(fèi)解。所以我們將給出一個(gè)基于ImageNet進(jìn)行單樣本學(xué)習(xí)的簡(jiǎn)單例子。現(xiàn)在,讓我們把ImageNet的1000個(gè)分類(猴子、人類、貓,等等)想象成真人秀的評(píng)委。每個(gè)評(píng)委根據(jù)選手是一只猴子、一個(gè)人等的可能性給出評(píng)分。

讓我們假設(shè)有一個(gè)模型沒有訓(xùn)練過的第1001分類。如果我從這個(gè)分類中取兩個(gè)樣本,沒有一個(gè)評(píng)委能夠給出自信的評(píng)分,但如果我們查看這1000個(gè)評(píng)委給這兩個(gè)樣本的評(píng)分,那么我們有可能從中找出相似性。例如,加拉巴哥蜥蜴從鱷魚和蜥蜴那里得到的票數(shù)可能最高,超過任何其他分類的評(píng)委。評(píng)委一定會(huì)給這兩個(gè)加拉巴哥蜥蜴類似的評(píng)分,盡管加拉巴哥蜥蜴并不在分類列表中,訓(xùn)練數(shù)據(jù)中甚至沒有一張加拉巴哥蜥蜴的圖像。這種基于特征相似性的歸類是單樣本學(xué)習(xí)最簡(jiǎn)單的形式。

Santoro最近在記憶增強(qiáng)神經(jīng)網(wǎng)絡(luò)上的工作,通過可微記憶操作自動(dòng)化與記憶的交互,這種做法借鑒了神經(jīng)圖靈機(jī)。

所以網(wǎng)絡(luò)學(xué)習(xí)特征向量,和未見分類一起保存于可微記憶塊之中。這一表示不斷發(fā)展,給了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)“如何快速學(xué)習(xí)”的能力,這正是我們將其稱為元學(xué)習(xí)的原因。就這樣,神經(jīng)網(wǎng)絡(luò)的行為開始變得更像人類了。人類聯(lián)系過去和現(xiàn)在的能力極強(qiáng)。例如,即使我沒見過這一奇異的外星生物,我仍然可以說它像是一個(gè)長著牛角的狒狒或者大猩猩。

到目前為止,我們討論的關(guān)鍵點(diǎn)是:

基于模糊邏輯的單純的外顯推理無法捕捉人類推理的精髓。

傳統(tǒng)單樣本學(xué)習(xí)這樣的內(nèi)隱模型,自身無法從罕見事件學(xué)習(xí)、概括。需要記憶增強(qiáng)。

增強(qiáng)記憶的結(jié)構(gòu)可以是cho和sutskever所用的LSTM,也可以是santoro最近的工作中使用的動(dòng)態(tài)查詢表。動(dòng)態(tài)查詢表可以進(jìn)一步加強(qiáng),基于外置知識(shí)圖譜,比如Bengio實(shí)驗(yàn)室的Sungjin提出的神經(jīng)知識(shí)語言模型。

如果需要補(bǔ)全不完整的句子,我可以使用簡(jiǎn)單的序列到序列模型。但由于罕見命名實(shí)體的關(guān)系,序列到序列模型的表現(xiàn)不會(huì)很好。模型原本很少有機(jī)會(huì)聽到“Crazymuse”。但是,如果我們學(xué)習(xí)從知識(shí)圖譜獲取命名實(shí)體,那么我們就可以使用罕見的命名實(shí)體補(bǔ)全句子,只要我們能夠識(shí)別主題和聯(lián)系,還有應(yīng)該是從LSTM獲取信息還是從知識(shí)圖譜信息。這種組合知識(shí)圖譜和神經(jīng)網(wǎng)絡(luò)的方法真的很棒。

就推理和推斷而言,這帶來了大量可能性,因?yàn)橹R(shí)表示(主題,預(yù)測(cè),目標(biāo))讓我們可以進(jìn)行更復(fù)雜的推理任務(wù),就像結(jié)合外顯模糊邏輯和內(nèi)隱統(tǒng)計(jì)學(xué)習(xí)。

從知識(shí)圖譜獲取信息,加上注意力機(jī)制可能導(dǎo)向可解釋模型。

SQUAD這樣的問答數(shù)據(jù)集幫助人們?cè)诳赏茢嗾Z言模型上取得了顯著進(jìn)展。最近視覺問答方面的工作則使用Visual Genome、CLEVR、VRD這樣的數(shù)據(jù)集將圖像轉(zhuǎn)換為本體,并學(xué)習(xí)視覺關(guān)系以改善場(chǎng)景理解和推斷。

不過,場(chǎng)景理解下的問答進(jìn)展仍有一些局限:

使用LSTM作為基于記憶的模型以及學(xué)習(xí)視覺關(guān)系的注意力轉(zhuǎn)移無疑改善了對(duì)環(huán)境的理解和概括能力。但學(xué)習(xí)過程和改善推理的權(quán)威形式方面仍有許多需要改進(jìn)的地方。

結(jié)構(gòu)中拼命使用卷積神經(jīng)網(wǎng)絡(luò),使得模型難以為人類所理解。這樣的架構(gòu)也許很適合基本的分類問題和領(lǐng)域特定的生成任務(wù),但并不是為推理設(shè)計(jì)的。相反,如果我們能像Tom Mitchell提出的Never-Ending Learning那樣,直接學(xué)習(xí)更豐富的知識(shí)圖譜中的多模實(shí)體表示和本體,那么我們就可以學(xué)習(xí)跨領(lǐng)域推理結(jié)構(gòu),并迫使模型更好地表達(dá)其對(duì)實(shí)體關(guān)系的理解。

我夢(mèng)想有那么一天,機(jī)器學(xué)習(xí)推理。到了那一天,我們可以詢問機(jī)器:“你為什么覺得這個(gè)人有多發(fā)性硬化”,接著機(jī)器可以找到表述它的理據(jù)的詞匯。我知道Naftali在信息瓶頸原則方面的工作和Mitchell的Never-Ending Learning,但我們?nèi)鄙俚氖侵鲃?dòng)學(xué)習(xí)模糊邏輯提供的基本推理結(jié)構(gòu)上的抽象。它可以由基于獎(jiǎng)勵(lì)的學(xué)習(xí)最佳策略驅(qū)動(dòng),也可以由基于單樣本學(xué)習(xí)原則的某種驗(yàn)證驅(qū)動(dòng),也可以由某種基于半監(jiān)督圖模型的方法驅(qū)動(dòng)。但是,不管驅(qū)動(dòng)因子是什么,模型需要學(xué)習(xí)改善推理。模型需要學(xué)習(xí)將推理引擎和來自聲音或圖像的豐富特征表示聯(lián)系起來,也許這甚至?xí)龠M(jìn)類似策略迭代的“改善表示,改善推理,改善表示,改善推理”的循環(huán)。最重要的是,模型應(yīng)該能夠向人類表述其抽象,例如,“你好,人類,我覺得貓很可愛,因?yàn)樗鼈兊难劬蛬雰旱难劬芟?,充滿了生機(jī),和你單調(diào)的日常完全不同”。

直到那一天,讓我們堅(jiān)持訓(xùn)練模型,同時(shí)堅(jiān)持夢(mèng)想那樣的模型運(yùn)行的那一天。因?yàn)閴?mèng)想化為現(xiàn)實(shí)的速度比你想象的要快!

關(guān)于作者

Jaley在YouTube上開設(shè)了Crazymuse AI頻道,也在Edyoda上開設(shè)了課程。他曾在哈曼擔(dān)任資深數(shù)據(jù)科學(xué)家,并對(duì)認(rèn)識(shí)人類推理的結(jié)構(gòu)極為好奇。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:理解人類推理的深度學(xué)習(xí)

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)模型可解釋性的結(jié)果分析

    模型的可解釋性是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,隨著 AI 應(yīng)用范圍的不斷擴(kuò)大,人們?cè)絹碓讲粷M足于模型的黑盒特性,與此同時(shí),金融、自動(dòng)駕駛等領(lǐng)域的法律法規(guī)也對(duì)模型的可解釋性提出了更高的要求,
    發(fā)表于 09-28 10:17 ?1722次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>模型<b class='flag-5'>可解釋性</b>的結(jié)果分析

    什么是“可解釋的”? 可解釋性AI不能解釋什么

    通過建立既可解釋又準(zhǔn)確的模型來改良這種錯(cuò)誤的二分法。關(guān)鍵是將神經(jīng)網(wǎng)絡(luò)與決策樹相結(jié)合,使用神經(jīng)網(wǎng)絡(luò)進(jìn)行低級(jí)決策時(shí)保留高級(jí)的可解釋性。
    發(fā)表于 05-31 10:51 ?9225次閱讀

    斯坦福探索深度神經(jīng)網(wǎng)絡(luò)可解釋性 決策樹是關(guān)鍵

    深度學(xué)習(xí)的熱潮還在不斷涌動(dòng),神經(jīng)網(wǎng)絡(luò)再次成為業(yè)界人士特別關(guān)注的問題,AI 的未來大有可期,而深度學(xué)習(xí)正在影響我們的日常生活。近日斯坦福大學(xué)給我們分享咯一則他對(duì)
    發(fā)表于 01-10 16:06 ?6568次閱讀
    斯坦福探索<b class='flag-5'>深度</b>神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>可解釋性</b> 決策樹是關(guān)鍵

    機(jī)器學(xué)習(xí)模型的“可解釋性”的概念及其重要意義

    如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經(jīng)網(wǎng)絡(luò)具有明顯的優(yōu)勢(shì)。深度神經(jīng)網(wǎng)絡(luò)能夠學(xué)習(xí)豐富的表示,這些表示能夠可視化、用語言表達(dá)或用于聚類
    的頭像 發(fā)表于 07-24 09:58 ?2.1w次閱讀

    神經(jīng)網(wǎng)絡(luò)可解釋性研究的重要日益凸顯

    神經(jīng)網(wǎng)絡(luò)的可解釋性,從經(jīng)驗(yàn)主義到數(shù)學(xué)建模
    的頭像 發(fā)表于 06-27 10:54 ?5817次閱讀

    深度理解神經(jīng)網(wǎng)絡(luò)黑盒子:可驗(yàn)證可解釋性

    雖然神經(jīng)網(wǎng)絡(luò)近年來 AI 領(lǐng)域取得的成就中發(fā)揮了關(guān)鍵作用,但它們依舊只是有限可解釋性的黑盒函數(shù)近似器。
    的頭像 發(fā)表于 08-15 09:17 ?1.4w次閱讀

    Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性

    Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey 今天的博客中解釋說,Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性。她說,這項(xiàng)新服務(wù)的工作原理是量化每個(gè)數(shù)據(jù)因
    的頭像 發(fā)表于 03-24 15:14 ?3512次閱讀

    機(jī)器學(xué)習(xí)模型可解釋性的介紹

    模型可解釋性方面的研究,近兩年的科研會(huì)議上成為關(guān)注熱點(diǎn),因?yàn)榇蠹也粌H僅滿足于模型的效果,更對(duì)模型效果的原因產(chǎn)生更多的思考,這...
    的頭像 發(fā)表于 12-10 20:19 ?1350次閱讀

    圖神經(jīng)網(wǎng)絡(luò)的解釋性綜述

    :https://arxiv.org/pdf/2012.15445.pdf 參考文獻(xiàn) 0.Abstract近年來,深度學(xué)習(xí)模型的可解釋性研究圖像和文本領(lǐng)域取得了顯著
    的頭像 發(fā)表于 04-09 11:42 ?3307次閱讀
    圖神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>解釋性</b>綜述

    《計(jì)算機(jī)研究與發(fā)展》—機(jī)器學(xué)習(xí)可解釋性

    機(jī)器學(xué)習(xí)可解釋性 來源:《計(jì)算機(jī)研究與發(fā)展》,作者陳珂銳等 摘 要?近年來,機(jī)器學(xué)習(xí)發(fā)展迅速,尤其是深度學(xué)習(xí)
    發(fā)表于 01-25 08:35 ?1666次閱讀
    《計(jì)算機(jī)研究與發(fā)展》—機(jī)器<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>可解釋性</b>

    關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

    本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù)。
    的頭像 發(fā)表于 02-26 17:20 ?2905次閱讀
    關(guān)于機(jī)器<b class='flag-5'>學(xué)習(xí)</b>模型的六大<b class='flag-5'>可解釋性</b>技術(shù)

    機(jī)器學(xué)習(xí)模型的可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
    的頭像 發(fā)表于 02-16 16:21 ?6154次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>模型的<b class='flag-5'>可解釋性</b>算法詳解

    可以提高機(jī)器學(xué)習(xí)模型的可解釋性技術(shù)

    本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
    的頭像 發(fā)表于 02-08 14:08 ?2195次閱讀

    文獻(xiàn)綜述:確保人工智能可解釋性和可信度的來源記錄

    本文對(duì)數(shù)據(jù)起源、可解釋AI(XAI)和可信賴AI(TAI)進(jìn)行系統(tǒng)的文獻(xiàn)綜述,以解釋基本概念,說明數(shù)據(jù)起源文件可以用來提升基于人工智能系統(tǒng)實(shí)現(xiàn)可解釋性。此外,文中還討論了這個(gè)領(lǐng)域近期的發(fā)展模式,并對(duì)未來的研究進(jìn)行展望。
    的頭像 發(fā)表于 04-28 15:55 ?2616次閱讀
    文獻(xiàn)綜述:確保人工智能<b class='flag-5'>可解釋性</b>和可信度的來源記錄

    中國科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究室計(jì)算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新
    的頭像 發(fā)表于 06-09 09:27 ?597次閱讀
    中國科學(xué)院西安光機(jī)所在計(jì)算成像<b class='flag-5'>可解釋性</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>重建方法取得<b class='flag-5'>進(jìn)展</b>