創澤機器人
CHUANGZE ROBOT
 
  當前位置:首頁 > 新聞資訊 > 機器人知識 > 深度學習的可解釋性研究(一)— 讓模型具備說人話的能力  
 

深度學習的可解釋性研究(一)— 讓模型具備說人話的能力

來源:圖靈人工智能      編輯:創澤      時間:2020/6/4      主題:其他   [加盟]
1. 可解釋性是什麼?

廣義上的可解釋性指在我們需要了解或解決一件事情的時候,我們可以獲得我們所需要的足夠的可以理解的信息。比如我們在調試bug的時候,需要通過變量審查和日誌信息定位到問題出在哪裏。比如在科學研究中麵臨一個新問題的研究時,我們需要查閱一些資料來了解這個新問題的基本概念和研究現狀,以獲得對研究方向的正確認識。反過來理解,如果在一些情境中我們無法得到相應的足夠的信息,那麼這些事情對我們來說都是不可解釋的。比如劉慈欣的短篇《朝聞道》中霍金提出的“宇宙的目的是什麼”這個問題一下子把無所不知的排險者卡住了,因為再高等的文明都沒辦法理解和掌握造物主創造宇宙時的全部信息,這些終極問題對我們來說永遠都是不可解釋的。

而具體到機器學習領域來說,以最用戶友好的決策樹模型為例,模型每作出一個決策都會通過一個決策序列來向我們展示模型的決策依據:比如男性&未婚&博士&禿頭的條件對應“不感興趣”這個決策,而且決策樹模型自帶的基於信息理論的篩選變量標準也有助於幫助我們理解在模型決策產生的過程中哪些變量起到了顯著的作用。所以在一定程度上,我們認為決策樹模型是一個具有比較好的可解釋性的模型,在以後的介紹中我們也會講到,以決策樹為代表的規則模型在可解釋性研究方麵起到了非常關鍵的作用。再以用戶最不友好的多層神經網絡模型為例,模型產生決策的依據是什麼呢?大概是以比如 1/(e^-(2*1/(e^(-(2*x+y))+1) + 3*1/(e^(-(8*x+5*y))+1))+1) 是否大於0.5為標準(這已經是最簡單的模型結構了),這一連串的非線性函數的疊加公式讓人難以直接理解神經網絡的“腦回路”,所以深度神經網絡習慣性被大家認為是黑箱模型。

17年ICML的Tutorial中給出的一個關於可解釋性的定義是:

Interpretation is the process of giving explanations to Human.

總結一下就是“說人話”,“說人話”,“說人話”,不以人類可以理解的方式給出的解釋都叫耍流氓,記住這三個字,你就差不多把握了可解釋性的精髓所在。

2. 我們為什麼需要可解釋性?

廣義上來說我們對可解釋性的需求主要來源於對問題和任務了解得還不夠充分。具體到深度學習/機器學習領域,就像我們上文提到的多層神經網絡存在的問題,盡管高度的非線性賦予了多層神經網絡極高的模型表示能力,配合一些堪稱現代煉丹術的調參技術可以在很多問題上達到非常喜人的表現,大家如果經常關注AI的頭條新聞,那些機器學習和神經網絡不可思議的最新突破甚至經常會讓人產生AI馬上要取代人類的恐懼和幻覺。但正如近日貝葉斯網絡的創始人Pearl所指出的,“幾乎所有的深度學習突破性的本質上來說都隻是些曲線擬合罷了”,他認為今天人工智能領域的技術水平隻不過是上一代機器已有功能的增強版。雖然我們造出了準確度極高的機器,但最後隻能得到一堆看上去毫無意義的模型參數和擬合度非常高的判定結果,但實際上模型本身也意味著知識,我們希望知道模型究竟從數據中學到了哪些知識(以人類可以理解的方式表達的)從而產生了最終的決策。從中是不是可以幫助我們發現一些潛在的關聯,比如我想基於深度學習模型開發一個幫助醫生判定病人風險的應用,除了最終的判定結果之外,我可能還需要了解模型產生這樣的判定是基於病人哪些因素的考慮。如果一個模型完全不可解釋,那麼在很多領域的應用就會因為沒辦法給出更多可靠的信息而受到限製。這也是為什麼在深度學習準確率這麼高的情況下,仍然有一大部分人傾向於應用可解釋性高的傳統統計學模型的原因。

不可解釋同樣也意味著危險,事實上很多領域對深度學習模型應用的顧慮除了模型本身無法給出足夠的信息之外,也有或多或少關於安全性的考慮。比如,下麵一個非常經典的關於對抗樣本的例子,對於一個CNN模型,在熊貓的圖片中添加了一些噪聲之後卻以99.3%的概率被判定為長臂猿。

在熊貓圖片中加入噪聲,模型以99.3%的概率將圖片識別為長臂猿

事實上其他一些可解釋性較好的模型麵對的對抗樣本問題可能甚至比深度學習模型更多,但具備可解釋性的模型在麵對這些問題的時候是可以對異常產生的原因進行追蹤和定位的,比如線性回歸模型中我們可以發現某個輸入參數過大/過小導致了最後判別失常。但深度學習模型很難說上麵這兩幅圖到底是因為哪些區別導致了判定結果出現了如此大的偏差。盡管關於對抗樣本的研究最近也非常火熱,但依然缺乏具備可解釋性的關於這類問題的解釋。

當然很多學者對可解釋性的必要性也存有疑惑,在NIPS 2017會場上,曾進行了一場非常激烈火爆的主題為“可解釋性在機器學習中是否必要”的辯論,大家對可解釋性的呼聲還是非常高的。但人工智能三巨頭之一的Yann LeCun卻認為:人類大腦是非常有限的,我們沒有那麼多腦容量去研究所有東西的可解釋性。有些東西是需要解釋的,比如法律,但大多數情況下,它們並沒有你想象中那麼重要。比如世界上有那麼多應用、網站,你每天用Facebook、Google的時候,你也沒想著要尋求它們背後的可解釋性。LeCun也舉了一個例子:他多年前和一群經濟學家也做了一個模型來預測房價。第一個用的簡單的線性於猜測模型,經濟學家也能解釋清楚其中的原理;第二個用的是複雜的神經網絡,但效果比第一個好上不少。結果,這群經濟學家想要開公司做了。你說他們會選哪個?LeCun表示,任何時候在這兩種裏麵選擇都會選效果好的。就像很多年裏雖然我們不知道藥物裏的成分但一直在用一樣。

但是不可否認的是,可解釋性始終是一個非常好的性質,如果我們能兼顧效率、準確度、說人話這三個方麵,具備可解釋性模型將在很多應用場景中具有不可替代的優勢。

3. 有哪些可解釋性方法?

我們之前也提到機器學習的目的是從數據中發現知識或解決問題,那麼在這個過程中隻要是能夠提供給我們關於數據或模型的可以理解的信息,有助於我們更充分地發現知識、理解和解決問題的方法,那麼都可以歸類為可解釋性方法。如果按照可解釋性方法進行的過程進行劃分的話,大概可以劃分為三個大類:

1. 在建模之前的可解釋性方法

2. 建立本身具備可解釋性的模型

3. 在建模之後使用可解釋性方法對模型作出解釋

4. 在建模之前的可解釋性方法

這一類方法其實主要涉及一些數據預處理或數據展示的方法。機器學習解決的是從數據中發現知識和規律的問題,如果我們對想要處理的數據特征所知甚少,指望對所要解決的問題本身有很好的理解是不現實的,在建模之前的可解釋性方法的關鍵在於幫助我們迅速而全麵地了解數據分布的特征,從而幫助我們考慮在建模過程中可能麵臨的問題並選擇一種最合理的模型來逼近問題所能達到的最優解。

數據可視化方法就是一類非常重要的建模前可解釋性方法。很多對數據挖掘稍微有些了解的人可能會認為數據可視化是數據挖掘工作的最後一步,大概就是通過設計一些好看又唬人的圖表或來展示你的分析挖掘成果。但大多數時候,我們在真正要研究一個數據問題之前,通過建立一係列方方麵麵的可視化方法來建立我們對數據的直觀理解是非常必須的,特別是當數據量非常大或者數據維度非常高的時候,比如一些時空高維數據,如果可以建立一些一些交互式的可視化方法將會極大地幫助我們從各個層次角度理解數據的分布,在這個方麵我們實驗室也做過一些非常不錯的工作。

還有一類比較重要的方法是探索性質的數據分析,可以幫助我們更好地理解數據的分布情況。比如一種稱為MMD-critic方法中,可以幫助我們找到數據中一些具有代表性或者不具代表性的樣本。

使用MMD-critic從Imagenet數據集中學到的代表性樣本和非代表性樣本(以兩種狗為例)

5. 建立本身具備可解釋性的模型

建立本身具備可解釋性的模型是我個人覺得是最關鍵的一類可解釋性方法,同樣也是一類要求和限定很高的方法,具備“說人話”能力的可解釋性模型大概可以分為以下幾種:

1. 基於規則的方法(Rule-based)

2. 基於單個特征的方法(Per-feature-based)

3. 基於實例的方法(Case-based)

4. 稀疏性方法(Sparsity)

5. 單調性方法(Monotonicity)

基於規則的方法比如我們提到的非常經典的決策樹模型。這類模型中任何的一個決策都可以對應到一個邏輯規則表示。但當規則表示過多或者原始的特征本身就不是特別好解釋的時候,基於規則的方法有時候也不太適用。

基於單個特征的方法主要是一些非常經典的線性模型,比如線性回歸、邏輯回歸、廣義線性回歸、廣義加性模型等,這類模型可以說是現在可解釋性最高的方法,可能學習機器學習或計算機相關專業的朋友會認為線性回歸是最基本最低級的模型,但如果大家學過計量經濟學,就會發現大半本書都在討論線性模型,包括經濟學及相關領域的論文其實大多數也都是使用線性回歸作為方法來進行研究。這種非常經典的模型全世界每秒都會被用到大概800多萬次。為什麼大家這麼青睞這個模型呢?除了模型的結構比較簡單之外,更重要的是線性回歸模型及其一些變種擁有非常solid的統計學基礎,統計學可以說是最看重可解釋性的一門學科了,上百年來無數數學家統計學家探討了在各種不同情況下的模型的參數估計、參數修正、假設檢驗、邊界條件等等問題,目的就是為了使得在各種不同情況下都能使模型具有有非常好的可解釋性,如果大家有時間有興趣的話,除了學習機器學習深度模型模型之外還可以盡量多了解一些統計學的知識,可能對一些問題會獲得完全不一樣的思考和理解。

基於實例的方法主要是通過一些代表性的樣本來解釋聚類/分類結果的方法。比如下圖所展示的貝葉斯實例模型(Bayesian Case Model,BCM),我們將樣本分成三個組團,可以分別找出每個組團中具有的代表性樣例和重要的子空間。比如對於下麵第一類聚類來說,綠臉是具有代表性的樣本,而綠色、方塊是具有代表性的特征子空間。

使用BCM學到的分類及其對應的代表性樣本和代表性特征子空間

基於實例的方法的一些局限在於可能挑出來的樣本不具有代表性或者人們可能會有過度泛化的傾向。

基於稀疏性的方法主要是利用信息的稀疏性特質,將模型盡可能地簡化表示。比如如下圖的一種圖稀疏性的LDA方法,根據層次性的單詞信息形成了層次性的主題表達,這樣一些小的主題就可以被更泛化的主題所概括,從而可以使我們更容易理解特定主題所代表的含義。

Graph-based LDA 中的主題層次結構

基於單調性的方法:在很多機器學習問題中,有一些輸入和輸出之間存在正相關/負相關關係,如果在模型訓練中我們可以找出這種單調性的關係就可以讓模型具有更高的可解釋性。比如醫生對患特定疾病的概率的估計主要由一些跟該疾病相關聯的高風險因素決定,找出單調性關係就可以幫助我們識別這些高風險因素。

6. 在建模之後使用可解釋性性方法作出解釋

建模後的可解釋性方法主要是針對具有黑箱性質的深度學習模型而言的,主要分為以下幾類的工作:

1. 隱層分析方法

2. 模擬/代理模型

3. 敏感性分析方法

這部分是我們接下來介紹和研究的重點,因此主要放在後續的文章中進行講解,在本篇中不作過多介紹。

除了對深度學習模型本身進行解釋的方法之外,也有一部分工作旨在建立本身具有可解釋性的深度學習模型,這和我們前麵介紹通用的可解釋性模型有區別也有聯係,也放到後麵的文章中進行介紹。

參考文獻

[1] Google Brain, Interpretable Machine Learning: The fuss, the concrete and the questions.

[2] Kim B, Koyejo O, Khanna R, et al. Examples are not enough, learn to criticize! Criticism for Interpretability[C]. neural information processing systems, 2016: 2280-2288.

[3] Kim B, Rudin C, Shah J. The Bayesian Case Model: A Generative Approach for Case-Based Reasoning and Prototype Classification[J]. Computer Science, 2015, 3:1952-1960.

[4] Doshi-Velez F, Wallace B C, Adams R. Graph-sparse LDA: a topic model with structured sparsity[J]. Computer Science, 2014.


創澤智能機器人
創澤智能機器人
中國智能服務機器人領軍企業,涵蓋商用、家庭、特種等多用途的智能機器人產品體係,十幾年行業應用解決方案提供商



不完美場景下的神經網絡訓練方法

騰訊優圖實驗室高級研究員Louis在分享了自適應缺陷數據,業務場景下的神經網絡訓練方法

AI在COVID-19診斷成像中的應用

人工智能技術支持的圖像采集可以顯著幫助掃描過程實現自動化,還可以重塑工作流程,最大限度地減少與患者的接觸,為成像技術人員提供最佳保護

國內外舵機參數性能價格比較

舵機是步態服務機器人的核心零部件和成本構成,是包含電機、傳感器、控製器、減速器等單元的機電一體化元器件

SLAM與V-SLAM特征對比

基於激 光雷達的SLAM(激光SLAM)和基於視覺的SLAM(V-SLAM)。激光SLAM目前發展比較成熟、應用廣泛,未來多傳感器融合的SLAM 技術將逐漸成為技術趨勢,取長補短,更好地實現定位導航。

《視覺SLAM十四講》作者高翔:非結構化道路激光SLAM中的挑戰

SLAM階段:解決從原始傳感器數據開始,構建某種基礎地圖的過程,標注階段:在SLAM結果基礎上進行人為標注,實現更精細的交通規則控製

圖像檢索入門、特征和案例

圖像檢索是計算機視覺中基礎的應用,可分為文字搜圖和以圖搜圖。借助於卷積神經網絡CNN強大的建模能力,圖像檢索的精度越發提高

如何加快解決數據產權問題

數據所有權方麵,1原始數據屬於個人,2企業享有衍生數據所有權,3政府享有政府數據的歸屬權

戴瓊海院士:搭建腦科學與人工智能的橋梁

腦科學的發展將推動人工智能科學從感知人工智能到認知人工智能的跨越

“觸控一體化”的新型機械手指尖研究

機械手麵臨的難點在於如何在柔性物體上施加可控的擠壓力,以及在非穩定狀況下確保精確、穩健的抓握與柔性指端操控

微信提出推薦中的深度反饋網絡,在“看一看”數據集上達到SOTA

DFN模型綜合使用了用戶的隱式正反饋(點擊行為)、隱式負反饋(曝光但未點擊的行為)以及顯式負反饋(點擊不感興趣按鈕行為)等信息

基於腦肌融合的軟體康複手研究

軟體機械手充分利用和發揮各種柔性材料的柔順性,及其非線性、粘彈性和遲滯特性等在軟體手運動和控製中潛在的“機械智能”作用,降低控製的複雜度,實現高靈活性、強適應性和良好交互性,在醫療康複領域有重要應用價值

情感分析技術:讓智能客服更懂人類情感

智能客服係統中人機結合的服務形式,從五個維度總結和介紹情感分析技術在智能客服係統中的應用場景,包括情感分析算法模型的原理及實際落地使用方式和效果分析
 
資料獲取
新聞資訊
== 資訊 ==
» 國標《智慧城市 智慧多功能杆 服務功能與
» 人工智能之數據挖掘2020年第9期
» 噴霧消毒殺菌機器人
» 中國通信學會發布《全球人工智能基礎設施戰
» 創澤集團受邀參加工信部 AI 精準賦能中
» 人工智能案例 依圖科技:不斷崛起的AI
» 2020年麵向人工智能新基建的知識圖譜行
» 破解AI工程化難題,AI中台助力企業智能
» 淺析我國消防機器人發展現狀與趨勢 | 山
» 【華為出品】智能體白皮書2020
» “先行示範•智贏未來” 創澤
» 創澤集團牽頭起草的全國首個《應用於滅菌消
» 創澤集團智能機器人新品發布會!多款自主研
» 人工智能人才發展報告:亞太地區創新與招聘
» 創澤集團智能機器人“創創”受邀參加進博會
 
== 機器人推薦 ==
 
迎賓講解服務機器人

服務機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

安防巡檢機器人

安防巡檢機器人

人工智能垃圾站

人工智能垃圾站

== 信息推薦 ==
 

機器人招商  Disinfection Robot   消毒機器人公司  機器人應用  智能垃圾站  消毒機器人價格  消毒機器人廠家  機器人政策  教育機器人  迎賓機器人  機器人開發  清潔機器人  消毒機器人  講解機器人  安防巡檢機器人  霧化消毒機器人  紫外線消毒機器人  地圖 
版權所有 © 必威主頁     中國運營中心:北京·清華科技園九號樓5層     中國生產中心:山東日照太原路71號
銷售1:4006-935-088    銷售2:4006-937-088   客服電話: 4008-128-728

機器人
Baidu
map