創(chuàng)澤機器人
CHUANGZE ROBOT
當(dāng)前位置:首頁 > 新聞資訊 > 機器人知識 > 深度學(xué)習(xí)的可解釋性研究(一)— 讓模型具備說人話的能力

深度學(xué)習(xí)的可解釋性研究(一)— 讓模型具備說人話的能力

來源:圖靈人工智能     編輯:創(chuàng)澤   時間:2020/6/4   主題:其他 [加盟]
1. 可解釋性是什么?

廣義上的可解釋性指在我們需要了解或解決一件事情的時候,我們可以獲得我們所需要的足夠的可以理解的信息。比如我們在調(diào)試bug的時候,需要通過變量審查和日志信息定位到問題出在哪里。比如在科學(xué)研究中面臨一個新問題的研究時,我們需要查閱一些資料來了解這個新問題的基本概念和研究現(xiàn)狀,以獲得對研究方向的正確認(rèn)識。反過來理解,如果在一些情境中我們無法得到相應(yīng)的足夠的信息,那么這些事情對我們來說都是不可解釋的。比如劉慈欣的短篇《朝聞道》中霍金提出的“宇宙的目的是什么”這個問題一下子把無所不知的排險者卡住了,因為再高等的文明都沒辦法理解和掌握造物主創(chuàng)造宇宙時的全部信息,這些終極問題對我們來說永遠都是不可解釋的。

而具體到機器學(xué)習(xí)領(lǐng)域來說,以最用戶友好的決策樹模型為例,模型每作出一個決策都會通過一個決策序列來向我們展示模型的決策依據(jù):比如男性&未婚&博士&禿頭的條件對應(yīng)“不感興趣”這個決策,而且決策樹模型自帶的基于信息理論的篩選變量標(biāo)準(zhǔn)也有助于幫助我們理解在模型決策產(chǎn)生的過程中哪些變量起到了顯著的作用。所以在一定程度上,我們認(rèn)為決策樹模型是一個具有比較好的可解釋性的模型,在以后的介紹中我們也會講到,以決策樹為代表的規(guī)則模型在可解釋性研究方面起到了非常關(guān)鍵的作用。再以用戶最不友好的多層神經(jīng)網(wǎng)絡(luò)模型為例,模型產(chǎn)生決策的依據(jù)是什么呢?大概是以比如 1/(e^-(2*1/(e^(-(2*x+y))+1) + 3*1/(e^(-(8*x+5*y))+1))+1) 是否大于0.5為標(biāo)準(zhǔn)(這已經(jīng)是最簡單的模型結(jié)構(gòu)了),這一連串的非線性函數(shù)的疊加公式讓人難以直接理解神經(jīng)網(wǎng)絡(luò)的“腦回路”,所以深度神經(jīng)網(wǎng)絡(luò)習(xí)慣性被大家認(rèn)為是黑箱模型。

17年ICML的Tutorial中給出的一個關(guān)于可解釋性的定義是:

Interpretation is the process of giving explanations to Human.

總結(jié)一下就是“說人話”,“說人話”,“說人話”,不以人類可以理解的方式給出的解釋都叫耍流氓,記住這三個字,你就差不多把握了可解釋性的精髓所在。

2. 我們?yōu)槭裁葱枰山忉屝裕?

廣義上來說我們對可解釋性的需求主要來源于對問題和任務(wù)了解得還不夠充分。具體到深度學(xué)習(xí)/機器學(xué)習(xí)領(lǐng)域,就像我們上文提到的多層神經(jīng)網(wǎng)絡(luò)存在的問題,盡管高度的非線性賦予了多層神經(jīng)網(wǎng)絡(luò)極高的模型表示能力,配合一些堪稱現(xiàn)代煉丹術(shù)的調(diào)參技術(shù)可以在很多問題上達到非常喜人的表現(xiàn),大家如果經(jīng)常關(guān)注AI的頭條新聞,那些機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)不可思議的最新突破甚至經(jīng)常會讓人產(chǎn)生AI馬上要取代人類的恐懼和幻覺。但正如近日貝葉斯網(wǎng)絡(luò)的創(chuàng)始人Pearl所指出的,“幾乎所有的深度學(xué)習(xí)突破性的本質(zhì)上來說都只是些曲線擬合罷了”,他認(rèn)為今天人工智能領(lǐng)域的技術(shù)水平只不過是上一代機器已有功能的增強版。雖然我們造出了準(zhǔn)確度極高的機器,但最后只能得到一堆看上去毫無意義的模型參數(shù)和擬合度非常高的判定結(jié)果,但實際上模型本身也意味著知識,我們希望知道模型究竟從數(shù)據(jù)中學(xué)到了哪些知識(以人類可以理解的方式表達的)從而產(chǎn)生了最終的決策。從中是不是可以幫助我們發(fā)現(xiàn)一些潛在的關(guān)聯(lián),比如我想基于深度學(xué)習(xí)模型開發(fā)一個幫助醫(yī)生判定病人風(fēng)險的應(yīng)用,除了最終的判定結(jié)果之外,我可能還需要了解模型產(chǎn)生這樣的判定是基于病人哪些因素的考慮。如果一個模型完全不可解釋,那么在很多領(lǐng)域的應(yīng)用就會因為沒辦法給出更多可靠的信息而受到限制。這也是為什么在深度學(xué)習(xí)準(zhǔn)確率這么高的情況下,仍然有一大部分人傾向于應(yīng)用可解釋性高的傳統(tǒng)統(tǒng)計學(xué)模型的原因。

不可解釋同樣也意味著危險,事實上很多領(lǐng)域?qū)ι疃葘W(xué)習(xí)模型應(yīng)用的顧慮除了模型本身無法給出足夠的信息之外,也有或多或少關(guān)于安全性的考慮。比如,下面一個非常經(jīng)典的關(guān)于對抗樣本的例子,對于一個CNN模型,在熊貓的圖片中添加了一些噪聲之后卻以99.3%的概率被判定為長臂猿。

在熊貓圖片中加入噪聲,模型以99.3%的概率將圖片識別為長臂猿

事實上其他一些可解釋性較好的模型面對的對抗樣本問題可能甚至比深度學(xué)習(xí)模型更多,但具備可解釋性的模型在面對這些問題的時候是可以對異常產(chǎn)生的原因進行追蹤和定位的,比如線性回歸模型中我們可以發(fā)現(xiàn)某個輸入?yún)?shù)過大/過小導(dǎo)致了最后判別失常。但深度學(xué)習(xí)模型很難說上面這兩幅圖到底是因為哪些區(qū)別導(dǎo)致了判定結(jié)果出現(xiàn)了如此大的偏差。盡管關(guān)于對抗樣本的研究最近也非;馃幔廊蝗狈邆淇山忉屝缘年P(guān)于這類問題的解釋。

當(dāng)然很多學(xué)者對可解釋性的必要性也存有疑惑,在NIPS 2017會場上,曾進行了一場非常激烈火爆的主題為“可解釋性在機器學(xué)習(xí)中是否必要”的辯論,大家對可解釋性的呼聲還是非常高的。但人工智能三巨頭之一的Yann LeCun卻認(rèn)為:人類大腦是非常有限的,我們沒有那么多腦容量去研究所有東西的可解釋性。有些東西是需要解釋的,比如法律,但大多數(shù)情況下,它們并沒有你想象中那么重要。比如世界上有那么多應(yīng)用、網(wǎng)站,你每天用Facebook、Google的時候,你也沒想著要尋求它們背后的可解釋性。LeCun也舉了一個例子:他多年前和一群經(jīng)濟學(xué)家也做了一個模型來預(yù)測房價。第一個用的簡單的線性于猜測模型,經(jīng)濟學(xué)家也能解釋清楚其中的原理;第二個用的是復(fù)雜的神經(jīng)網(wǎng)絡(luò),但效果比第一個好上不少。結(jié)果,這群經(jīng)濟學(xué)家想要開公司做了。你說他們會選哪個?LeCun表示,任何時候在這兩種里面選擇都會選效果好的。就像很多年里雖然我們不知道藥物里的成分但一直在用一樣。

但是不可否認(rèn)的是,可解釋性始終是一個非常好的性質(zhì),如果我們能兼顧效率、準(zhǔn)確度、說人話這三個方面,具備可解釋性模型將在很多應(yīng)用場景中具有不可替代的優(yōu)勢。

3. 有哪些可解釋性方法?

我們之前也提到機器學(xué)習(xí)的目的是從數(shù)據(jù)中發(fā)現(xiàn)知識或解決問題,那么在這個過程中只要是能夠提供給我們關(guān)于數(shù)據(jù)或模型的可以理解的信息,有助于我們更充分地發(fā)現(xiàn)知識、理解和解決問題的方法,那么都可以歸類為可解釋性方法。如果按照可解釋性方法進行的過程進行劃分的話,大概可以劃分為三個大類:

1. 在建模之前的可解釋性方法

2. 建立本身具備可解釋性的模型

3. 在建模之后使用可解釋性方法對模型作出解釋

4. 在建模之前的可解釋性方法

這一類方法其實主要涉及一些數(shù)據(jù)預(yù)處理或數(shù)據(jù)展示的方法。機器學(xué)習(xí)解決的是從數(shù)據(jù)中發(fā)現(xiàn)知識和規(guī)律的問題,如果我們對想要處理的數(shù)據(jù)特征所知甚少,指望對所要解決的問題本身有很好的理解是不現(xiàn)實的,在建模之前的可解釋性方法的關(guān)鍵在于幫助我們迅速而全面地了解數(shù)據(jù)分布的特征,從而幫助我們考慮在建模過程中可能面臨的問題并選擇一種最合理的模型來逼近問題所能達到的最優(yōu)解。

數(shù)據(jù)可視化方法就是一類非常重要的建模前可解釋性方法。很多對數(shù)據(jù)挖掘稍微有些了解的人可能會認(rèn)為數(shù)據(jù)可視化是數(shù)據(jù)挖掘工作的最后一步,大概就是通過設(shè)計一些好看又唬人的圖表或來展示你的分析挖掘成果。但大多數(shù)時候,我們在真正要研究一個數(shù)據(jù)問題之前,通過建立一系列方方面面的可視化方法來建立我們對數(shù)據(jù)的直觀理解是非常必須的,特別是當(dāng)數(shù)據(jù)量非常大或者數(shù)據(jù)維度非常高的時候,比如一些時空高維數(shù)據(jù),如果可以建立一些一些交互式的可視化方法將會極大地幫助我們從各個層次角度理解數(shù)據(jù)的分布,在這個方面我們實驗室也做過一些非常不錯的工作。

還有一類比較重要的方法是探索性質(zhì)的數(shù)據(jù)分析,可以幫助我們更好地理解數(shù)據(jù)的分布情況。比如一種稱為MMD-critic方法中,可以幫助我們找到數(shù)據(jù)中一些具有代表性或者不具代表性的樣本。

使用MMD-critic從Imagenet數(shù)據(jù)集中學(xué)到的代表性樣本和非代表性樣本(以兩種狗為例)

5. 建立本身具備可解釋性的模型

建立本身具備可解釋性的模型是我個人覺得是最關(guān)鍵的一類可解釋性方法,同樣也是一類要求和限定很高的方法,具備“說人話”能力的可解釋性模型大概可以分為以下幾種:

1. 基于規(guī)則的方法(Rule-based)

2. 基于單個特征的方法(Per-feature-based)

3. 基于實例的方法(Case-based)

4. 稀疏性方法(Sparsity)

5. 單調(diào)性方法(Monotonicity)

基于規(guī)則的方法比如我們提到的非常經(jīng)典的決策樹模型。這類模型中任何的一個決策都可以對應(yīng)到一個邏輯規(guī)則表示。但當(dāng)規(guī)則表示過多或者原始的特征本身就不是特別好解釋的時候,基于規(guī)則的方法有時候也不太適用。

基于單個特征的方法主要是一些非常經(jīng)典的線性模型,比如線性回歸、邏輯回歸、廣義線性回歸、廣義加性模型等,這類模型可以說是現(xiàn)在可解釋性最高的方法,可能學(xué)習(xí)機器學(xué)習(xí)或計算機相關(guān)專業(yè)的朋友會認(rèn)為線性回歸是最基本最低級的模型,但如果大家學(xué)過計量經(jīng)濟學(xué),就會發(fā)現(xiàn)大半本書都在討論線性模型,包括經(jīng)濟學(xué)及相關(guān)領(lǐng)域的論文其實大多數(shù)也都是使用線性回歸作為方法來進行研究。這種非常經(jīng)典的模型全世界每秒都會被用到大概800多萬次。為什么大家這么青睞這個模型呢?除了模型的結(jié)構(gòu)比較簡單之外,更重要的是線性回歸模型及其一些變種擁有非常solid的統(tǒng)計學(xué)基礎(chǔ),統(tǒng)計學(xué)可以說是最看重可解釋性的一門學(xué)科了,上百年來無數(shù)數(shù)學(xué)家統(tǒng)計學(xué)家探討了在各種不同情況下的模型的參數(shù)估計、參數(shù)修正、假設(shè)檢驗、邊界條件等等問題,目的就是為了使得在各種不同情況下都能使模型具有有非常好的可解釋性,如果大家有時間有興趣的話,除了學(xué)習(xí)機器學(xué)習(xí)深度模型模型之外還可以盡量多了解一些統(tǒng)計學(xué)的知識,可能對一些問題會獲得完全不一樣的思考和理解。

基于實例的方法主要是通過一些代表性的樣本來解釋聚類/分類結(jié)果的方法。比如下圖所展示的貝葉斯實例模型(Bayesian Case Model,BCM),我們將樣本分成三個組團,可以分別找出每個組團中具有的代表性樣例和重要的子空間。比如對于下面第一類聚類來說,綠臉是具有代表性的樣本,而綠色、方塊是具有代表性的特征子空間。

使用BCM學(xué)到的分類及其對應(yīng)的代表性樣本和代表性特征子空間

基于實例的方法的一些局限在于可能挑出來的樣本不具有代表性或者人們可能會有過度泛化的傾向。

基于稀疏性的方法主要是利用信息的稀疏性特質(zhì),將模型盡可能地簡化表示。比如如下圖的一種圖稀疏性的LDA方法,根據(jù)層次性的單詞信息形成了層次性的主題表達,這樣一些小的主題就可以被更泛化的主題所概括,從而可以使我們更容易理解特定主題所代表的含義。

Graph-based LDA 中的主題層次結(jié)構(gòu)

基于單調(diào)性的方法:在很多機器學(xué)習(xí)問題中,有一些輸入和輸出之間存在正相關(guān)/負(fù)相關(guān)關(guān)系,如果在模型訓(xùn)練中我們可以找出這種單調(diào)性的關(guān)系就可以讓模型具有更高的可解釋性。比如醫(yī)生對患特定疾病的概率的估計主要由一些跟該疾病相關(guān)聯(lián)的高風(fēng)險因素決定,找出單調(diào)性關(guān)系就可以幫助我們識別這些高風(fēng)險因素。

6. 在建模之后使用可解釋性性方法作出解釋

建模后的可解釋性方法主要是針對具有黑箱性質(zhì)的深度學(xué)習(xí)模型而言的,主要分為以下幾類的工作:

1. 隱層分析方法

2. 模擬/代理模型

3. 敏感性分析方法

這部分是我們接下來介紹和研究的重點,因此主要放在后續(xù)的文章中進行講解,在本篇中不作過多介紹。

除了對深度學(xué)習(xí)模型本身進行解釋的方法之外,也有一部分工作旨在建立本身具有可解釋性的深度學(xué)習(xí)模型,這和我們前面介紹通用的可解釋性模型有區(qū)別也有聯(lián)系,也放到后面的文章中進行介紹。

參考文獻

[1] Google Brain, Interpretable Machine Learning: The fuss, the concrete and the questions.

[2] Kim B, Koyejo O, Khanna R, et al. Examples are not enough, learn to criticize! Criticism for Interpretability[C]. neural information processing systems, 2016: 2280-2288.

[3] Kim B, Rudin C, Shah J. The Bayesian Case Model: A Generative Approach for Case-Based Reasoning and Prototype Classification[J]. Computer Science, 2015, 3:1952-1960.

[4] Doshi-Velez F, Wallace B C, Adams R. Graph-sparse LDA: a topic model with structured sparsity[J]. Computer Science, 2014.





深度學(xué)習(xí)的可解釋性研究(二)——不如打開箱子看一看

神經(jīng)網(wǎng)絡(luò)模型本身其實并不是一個黑箱,其黑箱性在于我們沒辦法用人類可以理解的方式理解模型的具體含義和行為

深度學(xué)習(xí)的可解釋性研究(三)——是誰在撩動琴弦

神經(jīng)網(wǎng)絡(luò)的敏感性分析方法可以分為變量敏感性分析、樣本敏感性分析兩種,變量敏感性分析用來檢驗輸入屬性變量對模型的影響程度,樣本敏感性分析用來研究具體樣本對模型的重要程度

大阪大學(xué)胡正濤博士(萬偉偉老師團隊)為機器人開發(fā)通用工具解決復(fù)雜變種變量的操作任務(wù)

通過機械機構(gòu)實現(xiàn)機械手到工具的動力傳遞,無需外部控制及供能,對機器人的避障路徑規(guī)劃影響極小

醫(yī)院候診區(qū)流感性疾病的非接觸式綜合檢測平臺

非接觸式檢測平臺FluSense由麥克風(fēng)陣列和熱成像攝像機組成,用于捕捉不同的候診室人群行為,包括咳嗽和語言活動以及候診室病人數(shù)量

用于微創(chuàng)手術(shù)的觸覺傳感器

應(yīng)用于MIS的觸覺傳感器主要是基于電學(xué)或光學(xué)原理開發(fā)的,應(yīng)該是小尺寸和圓柱形的,可在導(dǎo)管的管身或尖端集成

用于微創(chuàng)手術(shù)的觸覺傳感器(二)

MIS 和RMIS觸覺傳感器最常用的傳感原理是基于電氣的傳感器。這些觸覺傳感器進一步分為壓阻型、壓電型和電容型傳感器

如何創(chuàng)造可信的AI,這里有馬庫斯的11條建議

馬庫斯系統(tǒng)性地闡述了對當(dāng)前AI研究界的批判,從認(rèn)識科學(xué)領(lǐng)域中針對性地給出了11條可執(zhí)行的建議

性能超越最新序列推薦模型,華為諾亞方舟提出記憶增強的圖神經(jīng)網(wǎng)絡(luò)

記憶增強的圖神經(jīng)網(wǎng)絡(luò)對短期的商品語境信息建模,并使用共享的記憶網(wǎng)絡(luò)來捕捉商品之間的長期依賴,對多個模型進行了對比,在Top-K序列推薦中效果極佳

履約時間預(yù)估:如何讓外賣更快送達

外賣履約時間預(yù)估模型,預(yù)估的是從用戶下單開始到騎手將餐品送達用戶手中所花的時間

多尺度圖卷積神經(jīng)網(wǎng)絡(luò):有效統(tǒng)一三維形狀離散化特征表示

解決了傳統(tǒng)圖卷積神經(jīng)網(wǎng)絡(luò)中圖節(jié)點學(xué)習(xí)到的特征對圖分辨率和連接關(guān)系敏感的問題,可以實現(xiàn)在低分辨率的三維形狀上學(xué)習(xí)特征,在高低分辨率形狀之上進行測試,并且保持不同分辨率特征的一致性

OpenAI發(fā)布了有史以來最強的NLP預(yù)訓(xùn)練模型GPT-3

2020年5月底OpenAI發(fā)布了有史以來最強的NLP預(yù)訓(xùn)練模型GPT-3,最大的GPT-3模型參數(shù)達到了1750億個參數(shù)

達摩院金榕教授113頁PPT詳解達摩院在NLP、語音和CV上的進展與應(yīng)用實踐

達摩院金榕教授介紹了語音、自然語言處理、計算機視覺三大核心AI技術(shù)的關(guān)鍵進展,并就AI技術(shù)在在實際應(yīng)用中的關(guān)鍵挑戰(zhàn),以及達摩院應(yīng)對挑戰(zhàn)的創(chuàng)新實踐進行了解讀
資料獲取
機器人知識
== 最新資訊 ==
ChatGPT:又一個“人形機器人”主題
ChatGPT快速流行,重構(gòu) AI 商業(yè)
中國機器視覺產(chǎn)業(yè)方面的政策
中國機器視覺產(chǎn)業(yè)聚焦于中國東部沿海地區(qū)(
從CHAT-GPT到生成式AI:人工智能
工信部等十七部門印發(fā)《機器人+應(yīng)用行動實
全球人工智能企業(yè)市值/估值 TOP20
創(chuàng)澤智能機器人集團股份有限公司第十一期上
諧波減速器和RV減速器比較
機器人減速器:諧波減速器和RV減速器
人形機器人技術(shù)難點 高精尖技術(shù)的綜合
機器人大規(guī)模商用面臨的痛點有四個方面
青島市機器人產(chǎn)業(yè)概況:機器人企業(yè)多布局在
六大機器人產(chǎn)業(yè)集群的特點
機械臂-高度非線性強耦合的復(fù)雜系統(tǒng)
== 機器人推薦 ==
迎賓講解服務(wù)機器人

服務(wù)機器人(迎賓、講解、導(dǎo)診...)

智能消毒機器人

智能消毒機器人

機器人開發(fā)平臺

機器人開發(fā)平臺


機器人招商 Disinfection Robot 機器人公司 機器人應(yīng)用 智能醫(yī)療 物聯(lián)網(wǎng) 機器人排名 機器人企業(yè) 機器人政策 教育機器人 迎賓機器人 機器人開發(fā) 獨角獸 消毒機器人品牌 消毒機器人 合理用藥 地圖
版權(quán)所有 創(chuàng)澤智能機器人集團股份有限公司 中國運營中心:北京 清華科技園九號樓5層 中國生產(chǎn)中心:山東日照太原路71號
銷售1:4006-935-088 銷售2:4006-937-088 客服電話: 4008-128-728