XAI 主要解決以下問題:對于使用者而言某些機(jī)器學(xué)習(xí)模型如同黑盒一般,給它一個(gè)輸入,決策出一個(gè)結(jié)果。比如大部分深度學(xué)習(xí)的模型,沒人能確切知道它決策的依據(jù)以及決策是否可靠。如圖 1 的 output 所示,為一般網(wǎng)絡(luò)給出的決策,缺乏可解釋性的結(jié)果讓使用者感到困惑,嚴(yán)重限制了其在現(xiàn)實(shí)任務(wù)中的廣泛應(yīng)用。

圖 1 如今的深度學(xué)習(xí) [1]
所以為了提高機(jī)器學(xué)習(xí)模型的可解釋性和透明性,使用戶和決策模型之間建立信任關(guān)系,近年來學(xué)術(shù)界進(jìn)行了廣泛和深入的研究并提出了可解釋的機(jī)器學(xué)習(xí)模型。如圖 2,模型在決策的同時(shí)給出相應(yīng)的解釋,以獲得用戶的信任和理解。

圖 2 可解釋的機(jī)器學(xué)習(xí) [1]
對于機(jī)器學(xué)習(xí)模型來說,我們常常會提到2個(gè)概念:模型準(zhǔn)確性(accuracy)和模型復(fù)雜度(complexity)。模型的復(fù)雜度與準(zhǔn)確性相關(guān),又與模型的可解釋性相對立。因此我們希望找到一種模型如圖 3 所示,具有可解釋性的同時(shí)盡可能保證模型的準(zhǔn)確性和復(fù)雜度。
編輯:hfy
-
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8540瀏覽量
136202 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5589瀏覽量
123880
發(fā)布評論請先 登錄
機(jī)器學(xué)習(xí)模型可解釋性的結(jié)果分析
什么是“可解釋的”? 可解釋性AI不能解釋什么
機(jī)器學(xué)習(xí)模型的“可解釋性”的概念及其重要意義
神經(jīng)網(wǎng)絡(luò)可解釋性研究的重要性日益凸顯
Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性
機(jī)器學(xué)習(xí)模型可解釋性的介紹
《計(jì)算機(jī)研究與發(fā)展》—機(jī)器學(xué)習(xí)的可解釋性
機(jī)器學(xué)習(xí)模型的可解釋性算法詳解
使用RAPIDS加速實(shí)現(xiàn)SHAP的模型可解釋性
人工智能可解釋性規(guī)制面臨的問題分析
可以提高機(jī)器學(xué)習(xí)模型的可解釋性技術(shù)
小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

淺談機(jī)器學(xué)習(xí)模型的可解釋性和透明性
評論