Google LLC 在其云平臺上推出了一項新的“ 可解釋AI ”服務(wù),旨在使機器學(xué)習(xí)模型做出決策的過程更加透明。
谷歌表示,這樣做的想法是,這將有助于建立對這些模型的更大信任。這很重要,因為大多數(shù)現(xiàn)有模型往往相當(dāng)不透明。只是不清楚他們?nèi)绾巫龀鰶Q定。
Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在 今天的博客中解釋說,Explainable AI旨在提高機器學(xué)習(xí)模型的可解釋性。她說,這項新服務(wù)的工作原理是量化每個數(shù)據(jù)因素對模型產(chǎn)生的結(jié)果的貢獻,幫助用戶了解其做出決定的原因。
換句話說,它不會以通俗易懂的方式來解釋事物,但是該分析對于首先構(gòu)建機器學(xué)習(xí)模型的數(shù)據(jù)科學(xué)家和開發(fā)人員仍然有用。
可解釋的AI有進一步的局限性,因為它提出的任何解釋都將取決于機器學(xué)習(xí)模型的性質(zhì)以及用于訓(xùn)練它的數(shù)據(jù)。
她寫道:“任何解釋方法都有局限性?!?“一方面,AI解釋反映了數(shù)據(jù)中發(fā)現(xiàn)的模型的模式,但它們并未揭示數(shù)據(jù)樣本,總體或應(yīng)用程序中的任何基本關(guān)系。我們正在努力為客戶提供最直接,最有用的解釋方法,同時保持其局限性透明?!?/p>
但是,可解釋的AI可能很重要,因為準確解釋特定機器學(xué)習(xí)模型為何得出結(jié)論的原因?qū)τ诮M織內(nèi)的高級管理人員很有用,他們最終負責(zé)這些決策。對于高度嚴格的行業(yè)來說,這尤其重要,而信心絕對至關(guān)重要。谷歌表示,對于處于這一位置的許多組織而言,目前沒有任何可解釋性的人工智能已經(jīng)超出范圍。
在相關(guān)新聞中,Google還發(fā)布了所謂的“模型卡”,作為其Cloud Vision應(yīng)用程序編程界面的面部檢測和對象檢測功能的文檔。
這些模型卡詳細說明了這些預(yù)先訓(xùn)練的機器學(xué)習(xí)模型的性能特征,并提供了有關(guān)其性能和限制的實用信息。谷歌表示,其目的是幫助開發(fā)人員就使用哪種模型以及如何負責(zé)任地部署它們做出更明智的決定。
-
谷歌
+關(guān)注
關(guān)注
27文章
6259瀏覽量
111982 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
67文章
8565瀏覽量
137226
發(fā)布評論請先 登錄
AI大模型微調(diào)企業(yè)項目實戰(zhàn)課
谷歌正式發(fā)布Gemma Scope 2模型
嵌入式軟件單元測試中AI自動化與人工檢查的協(xié)同機制研究:基于專業(yè)工具的實證分析
基于ETAS嵌入式AI工具鏈將機器學(xué)習(xí)模型部署到量產(chǎn)ECU
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
有哪些常見的AI算法可以用于裝置數(shù)據(jù)的異常檢測?
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力
Cognizant加速AI模型企業(yè)級開發(fā)
超小型Neuton機器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?
大模型在半導(dǎo)體行業(yè)的應(yīng)用可行性分析
中國科學(xué)院西安光機所在計算成像可解釋性深度學(xué)習(xí)重建方法取得進展
Explainable AI旨在提高機器學(xué)習(xí)模型的可解釋性
評論