可解釋的人工智能:四個關鍵行業
发布时间:2019-06-20 16:11
可解釋的人工智能可以讓人們理解人工智能系統是如何做出決定的,而這將成為醫療、制造、保險、汽車領域的關鍵。那麼這對於組織意味著什麼? 例如,流媒體音樂服務平臺Spotify計劃向用戶推薦歌手Justin Bieber的歌曲,卻推薦瞭Belieber的歌,顯然這有些令人感到困擾。這並不一定意味著Spotify網站的程序員必須確保他們的算法透明且易於理解,但人們可能會發現這有些偏離目標,但其後果顯然是微不足道的。 這是可解釋人工智能的一個試金石——即機器學習算法和其他人工智能系統,它們可以產生人類可以容易理解並追溯到起源的結果。基於人工智能的結果越重要,對可解釋人工智能的需求就越大。相反,相對低風險的人工智能系統可能隻適合黑盒模型,人們很難理解其結果。 Jane.ai公司人工智能研發主管Dave Costenaro說:“如果人工智能算法的效果不夠好,比如音樂服務公司推薦的歌曲一樣,那麼社會可能不需要監管機構對這些建議進行監管。” 人們可以忍受應用程序對其音樂品味的誤解。但可能無法忍受人工智能系統帶來的更重要的決定,也許是在建議的醫療或拒絕申請抵押貸款的情況下。 這些都是高風險的情況,尤其是在出現負面結果的情況下,人們可能需要明確地解釋是如何得出特定結果的。在許多情況下,審計師、律師、政府機構和其他潛在當事人也會這樣做。 Costenaro表示,由於特定決策或結果的責任從人類轉移到機器,因此對可解釋性的需求也會增加。 Costenaro說,“如果算法已經讓人類處於這個循環中,人類決策者可以繼續承擔解釋結果的責任。” 他舉例說明瞭一個為放射科醫生預先標記X射線圖像的計算機視覺系統。他說,“這可以幫助放射科醫生更準確、更有效地工作,但最終將提供診斷和解釋。” IT的人工智能責任:解釋原因 然而,隨著人工智能的成熟,人們可能會看到越來越多的新應用程序逐漸依賴於人類的決策和責任。音樂推薦引擎可能沒有特別重大的責任負擔,但許多其他真實或潛在的用例將會面臨重大的責任。 Costenaro說,“對於一類新的人工智能決策來說,這些決策具有很高的影響力,而且由於所需處理的速度或數量,人類不再能夠有效地參與其中,從業者們正在努力尋找解釋算法的方法。” IT領導者需要采取措施確保其組織的人工智能用例在必要時正確地包含可解釋性。 TigerGraph公司營銷副總裁Gaurav Deshpande表示,許多企業首席信息官已經關註這個問題,即使他們瞭解到特定人工智能技術或用例的價值,他們通常還有一些猶豫。 Deshpande說,“但是如果不能解釋是如何得出答案的,就不能使用它。這是因為‘黑盒’人工智能系統存在偏見的風險,這可能導致訴訟、對企業品牌以及資產負債表的重大責任和風險。” 這是思考企業如何以及為何采用可解釋的人工智能系統而不是操作黑盒模型的另一種方式。他們的業務可能依賴於它。人們對人工智能偏見的主張可能會被誤導。在風險較高的情況下,類似的要求可能相當嚴重。而這就是可解釋的人工智能可能成為機器學習、深度學習和其他學科的商業應用的焦點的原因。