【AI 人工智慧】模型可解釋性

更新 發佈閱讀 3 分鐘
vocus|新世代的創作平台

儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。

所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷。如果我們可以很清楚的說出電腦判斷的邏輯,那麼我們就說這個演算法的可解釋性很高,反之,如果電腦做決策時,我們只得到一個結果,但對於產生這樣結果的過程我們無從理解,那麼這樣一個演算法的可解釋性就偏低。

那為什麼可解釋性高對於一個模型來說是一個優點呢?因為很多時候,我們除了希望電腦能幫我們做準確的預測外,我們也希望能了解模型究竟從數據裡學到了哪些知識!如果能掌握這些,或許我們對於模型的掌控度就比較高,同時,也可以從中去改良及創新現有的想法。

我們都知道,深度學習(又或者稱作類神經網路)可以透過多層神經網路的建構來達到高度擬合複雜的數據集,但對於內部運算的邏輯,往往很難轉換成人類易於理解的形式。儘管深度學習給出來的結果可能不差,但它就如同一個黑盒子,我們並不知道裡面發生了什麼事情,這就如同我們跟老闆呈獻了一個專案報告,但是我們卻無法解釋報告上面的數字是如何計算出來的!身為老闆們,是不是會對這些結果心存懷疑呢?

因此,在某些情況下,傳統的機器學習就會比較受到青睞,例如決策樹(*)這類型的方法就是其中一個例子。在許多金融風控領域裡面,由於可解釋性低意味著更多不確定的風險, 為了精準計算最大可能的損失以及相對應的收益,他們需要非常了解機器在每個環節是如何做決策的,這時候深度學習模型可能就不那麼適合了!

總之,不同的模型會有不同的優缺點,為了滿足各式各樣類型的需求以及限制,我們也必須隨時做出不同演算法的調整及優化阿!

  • 決策樹是機器學習裡面一種基於樹狀所產生的演算法,其可解釋性非常的高

*本文由知名AI講師-Isaac Lee 李厚均所撰寫 文章轉載自我們共同經營的粉絲頁-小李談數智https://www.facebook.com/isaac60103

更多圖解內容可以到 耀西圖像視覺化教室看看https://www.facebook.com/YoshiGraphics

留言
avatar-img
Liao Yoshi的沙龍
12會員
33內容數
Liao Yoshi的沙龍的其他內容
2020/11/17
說到人工智慧對於汽車產業的變革,那就不得不提我們時常聽到的自駕車的應用,但大家知道許多知名自駕車廠商裡的防撞系統,都源自於一家非常有名的以色列公司嗎?今天我們就來好好介紹一下這家公司吧!
Thumbnail
2020/11/17
說到人工智慧對於汽車產業的變革,那就不得不提我們時常聽到的自駕車的應用,但大家知道許多知名自駕車廠商裡的防撞系統,都源自於一家非常有名的以色列公司嗎?今天我們就來好好介紹一下這家公司吧!
Thumbnail
2020/11/17
提到這幾年AI人工智慧會那麼火紅的原因,就不得不提”深度學習”*這個領域的重大突破及創新,使得原本被冷落好一陣子的人工智慧又再次興起,都要歸功於 Geoffrey Hinton 這個被稱作「Deep Learning”之父的人...
Thumbnail
2020/11/17
提到這幾年AI人工智慧會那麼火紅的原因,就不得不提”深度學習”*這個領域的重大突破及創新,使得原本被冷落好一陣子的人工智慧又再次興起,都要歸功於 Geoffrey Hinton 這個被稱作「Deep Learning”之父的人...
Thumbnail
2020/11/17
「有時候,被世人遺棄的人,才能成就讓人想像不到的大事。」(*),相信看過電影”模仿遊戲”的人應該對這句話不陌生吧!這是由20世纪最偉大的科學家之一艾倫.圖靈(Alan Turing)曾說過的名言。那麼這個被稱為是計算機科學之父以及人工智慧之父的天才到底是怎麼樣一個人呢?
Thumbnail
2020/11/17
「有時候,被世人遺棄的人,才能成就讓人想像不到的大事。」(*),相信看過電影”模仿遊戲”的人應該對這句話不陌生吧!這是由20世纪最偉大的科學家之一艾倫.圖靈(Alan Turing)曾說過的名言。那麼這個被稱為是計算機科學之父以及人工智慧之父的天才到底是怎麼樣一個人呢?
Thumbnail
看更多
你可能也想看
Thumbnail
我很喜歡書中的一段話:「如果你選擇不做決定,你還是做了選擇」,這世界就是這麼奇妙,連你站著不動,事情還是不斷的在發生,AI固然可以幫助我們下決策,但是最後那個決定還是必須由人來下,因為只有人才會清楚明白什麼情況下做什麼決定才是可能的「最理想」,唯有人才能對自己定下的目標有充分的理解。所以結論是...
Thumbnail
我很喜歡書中的一段話:「如果你選擇不做決定,你還是做了選擇」,這世界就是這麼奇妙,連你站著不動,事情還是不斷的在發生,AI固然可以幫助我們下決策,但是最後那個決定還是必須由人來下,因為只有人才會清楚明白什麼情況下做什麼決定才是可能的「最理想」,唯有人才能對自己定下的目標有充分的理解。所以結論是...
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
在機器學習裡面,為了要追求更好的表現,我們除了要選出最適當的演算法來應對不同場景外,同時,在將原始資料蒐集好後,我們該如何從中萃取出重要且有用的資訊,是非常重要的一件事情,這就是所謂的”特徵工程”,今天我們就來針對這個主題談談吧...
Thumbnail
在機器學習裡面,為了要追求更好的表現,我們除了要選出最適當的演算法來應對不同場景外,同時,在將原始資料蒐集好後,我們該如何從中萃取出重要且有用的資訊,是非常重要的一件事情,這就是所謂的”特徵工程”,今天我們就來針對這個主題談談吧...
Thumbnail
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
Thumbnail
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
兼回答觀眾來信問題 經過上一次的文章之後,棒棒的觀眾們依然有問題丟過來 有些觀眾的問題都滿認真的,也不好像其他節目一樣 在節目上講講就沒了,所以依然用文章的方式帶給大家一點東西。 我們先來看看觀眾疑問: 1. 是不是機器人預測的結果,都是依照revenue? 特徵是什麼? 特徵提取又是什麼?
Thumbnail
兼回答觀眾來信問題 經過上一次的文章之後,棒棒的觀眾們依然有問題丟過來 有些觀眾的問題都滿認真的,也不好像其他節目一樣 在節目上講講就沒了,所以依然用文章的方式帶給大家一點東西。 我們先來看看觀眾疑問: 1. 是不是機器人預測的結果,都是依照revenue? 特徵是什麼? 特徵提取又是什麼?
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News