人工智慧與機器學習你應該要解釋,你的AI是如何運作的

你應該要解釋,你的AI是如何運作的

When — and Why — You Should Explain How Your AI Works

你應該要解釋,你的AI是如何運作的

HBR Staff/barleyman/Getty Images

當AI在我們工作中的運用愈發頻繁,你是否會好奇,AI究竟是如何產出這些見解或者預測?比如透過AI來篩選求職者,或是評估某個人是否有資格貸款。大多時候,AI如同一個看不透的「黑盒子」,我們運用它,卻無法「解釋」它,然而在本文提出的一些情況下,你必須要讓AI的運作原理有可解釋性。

「以今天這樣的數據量,我們知道人類絕對不可能處理全部……我們所知唯一能從數據裡獲取洞見的技術,就是人工智慧(AI),」IBM執行長阿溫德.克里希納(Arvind Krishna)最近如此告訴《華爾街日報》(Wall Street Journal)。

克里希納所說的洞見,指的是數據裡有助於公司做預測的模式(pattern),無論是一個人拖欠償還抵押貸款的可能性、在未來兩年罹患糖尿病的機率,還是求職者是否適任等資訊。更具體地說,AI能辨識數千個變項裡的數學模式,以及那些變項之間的關係。這些模式可能複雜到人類難以理解。

這可能會造成一個問題:雖然我們理解我們輸入AI的變項(貸款申請、病史、履歷),也理解輸出的結果(貸款核准、糖尿病確診、值得面試),但是我們可能不理解在輸入和輸出之間究竟發生什麼事。AI可能是個「黑盒子」,經常令我們無法回答關於這部「機器」運作的關鍵問題:它做出了可靠的預測嗎?那些預測有扎實或合理的根據嗎?如果它故障了,我們知道如何修理嗎?或是更廣泛地說:我們能信任一項不理解它是如何運作的工具嗎?尤其是得失代價很高時。

許多人認為,由於人們想知道這些問題的答案,因而出現對「可解釋的A...