讓人工智慧可解釋、能審核、透明化

We Need AI That Is Explainable, Auditable, and Transparent
格雷格.賽特爾 Greg Satell , 喬許.沙頓 Josh Sutton
瀏覽人數:932
人工智慧系統就像人類一樣,從本身接觸到的環境裡學習,並依據它們培養出來的偏見來做決定。隨著我們愈來愈把做決定這件事外包給演算法去做,就更有必要開始正視人工智慧偏見造成的問題,拿出對策減緩這種負面效果。這是減少偏見的唯一方式。

每個父母都會擔心自己的小孩受到外界的影響。他們的老師是誰?他們在看哪些電影?他們在玩哪些電玩遊戲?他們交的朋友沒問題吧?我們仔細檢視這些影響,因為我們知道它們會影響我們孩子所做的決定,而這影響可好可壞。

就像我們會擔心是誰在教我們的小孩,我們也必須留意誰在訓練我們的演算法。人工智慧系統就像人類一樣,從本身接觸到的環境裡學習,並依據它們培養出來的偏見來做決定。就像我們的小孩一樣,我們應該期望我們的模型,能夠解釋它們為什麼這樣做決定。

就像凱西.歐尼爾(Cathy O'Neil)在她的著作《數學破壞武器》(Weapons of Math Destruction,繁體中文版書名為《大數據的傲慢與偏見》)所解釋的,演算法常決定我們上什麼大學、我們能否應徵到工作、是否有資格申請到房貸,甚至決定誰該進監獄、要被關多久。不同於人類的決定,這些數學模型很少被質疑。它們的結果就這樣顯示在某個人的電腦螢幕上,命運就決定了。

在有些案例裡,演算法的錯誤很明顯,像是道瓊(Dow Jones)放出假消息說Google要用九十億美元買下蘋果公司(Apple),網路機器人(bot)全都信了,另外是微軟(Microsoft)的人工智慧聊天機器人Tay在推特(Twitter)上胡言亂語;但許多時候,演算法的錯誤並不明顯。更惡意、更普遍存在的,是未受到注意的、較微妙的小差錯,但它們對人類的生活產生重大影響。

你一旦被演算法歸類在不好的一邊,你的人生馬上變得很痛苦。你無法上好學校、找不到工作,錢也賺得比較少,而且住在比較糟的社區。這些事實會被納入新的演算法,讓你的處境變得更艱難。你處境變糟的每一步,都被記錄下來,受到衡量和評估。

想想莎拉.威索基(Sarah Wysocki)的例子,這位教五年級的老師儘管受到家長、學生和行政人員的稱讚,卻被華盛頓特區的學區解聘了,因為演算法判斷她的表現不符標準。為什麼?原因並不明朗,因為那套系統太複雜,連解雇她的人都不了解那套系統。

毫無疑問的是,隨著我們愈來愈把做決定這件事外包給演算法去做,這類問題有可能變得更加荒謬。因此,我們有必要開始正視「人工智慧偏見」這個問題,並採取行動來減緩這種負面效果,做法是讓我們的系統變得更透明、更能夠解釋,而且可供審核。

偏見來源

人工智慧系統裡的偏見,有兩個主要來源:一是用來訓練模型的資料集,一是模型本身的設計。用來訓練演算法的資料集裡的偏見,有時候可能很微妙,例如,智慧型手機的應用程式能用來監控道路坑洞,並提醒相關單位去通知維修人員。這也許很有效率,但必然會少算了較貧困地區的路面問題,因為這些地區裡擁有智慧型手機的人比較少。

在其他的例子裡,沒被蒐集到的數據有可能造成影響。分析師懷疑Google流感趨勢預測(Flu Trends)就曾發生這種情況,2013年它預測的流感個案數是實際個案數的兩倍。情況可能是,許多沒有得流感的人,因為媒體報導增加而上網做更多搜尋。

而另一種資料偏見的來源,是人類的偏見被傳遞到了人工智慧系統裡。例如,司法體系裡的偏見會影響到誰會因犯罪被起訴、被判刑。如果這個資料接著被用來預測誰有可能會犯罪,那麼這些偏見就會被傳遞到系統裡。在其他的例子裡,由人來標記數據,而可能把輸入標記時的偏見帶入系統裡。

這類型的偏見普遍存在,難以消除。其實,亞馬遜被迫停用一款運用人工智慧的招募工具,就是因為他們無法排除它所產生結果裡的性別偏見。這套工具不公平地偏好男性,因為他們使用的訓練資料教導那套系統,亞馬遜之前雇用的員工當中,被認為表現成功的大多數是男性。即使他們移除任何特別提到性別的地方,這套系統還是會把一些較常出現在男性履歷中、較少出現在女性履歷中的字眼,當成性別的替代詞。

第二個主要的偏見來源,在於決策模型的設計方式。舉例來說,如果我們根據學生的測驗成績來評估老師的能力,那麼老師在其他方面的表現,像是照顧學習能力有差異或有情緒問題的學生,就被忽略了,甚至不公平地為此對他們不利。在另外一些情況下,模型是用最容易收集到資料去建構的,或是「過度適合」(overfit)特定一組情況,然後被應用在太廣泛的情況當中。

克服偏見

偏見的來源實在很多,我們若以為可以排除掉所有的偏見或大多數的偏見,是不切實際的。但我們可以做到的是,讓我們的人工智慧系統更容易解釋、可供審核、更透明。我們建議企業領導人採取以下三項實用的步驟,以減緩偏見造成的影響。

首先,人工智慧系統必須要經過人們嚴格檢視。舉例來說,一份歐巴馬(Obama)總統任內的《白宮報告》(White House Report)所引用的一項研究發現,雖然機器判讀X光片影像的錯誤率是7.5%,而人類是3.5%,但人們若是結合機器一起判讀,錯誤率就降到0.5%。

第二,就像銀行依法「必須知道顧客的身分」一樣,設計系統的工程師必須了解他們的演算法。舉例來說,信用監控公司益博睿(Experian)的資料實驗室主任艾瑞克.霍勒(Eric Haller)告訴我們,數十年前他們使用的模型都相當簡單,但在目前這個人工智慧的年代,他的資料科學家必須更小心。他表示:「在過去,我們只需要確保紀錄正確,以便在出錯時可以追溯,找到問題並解決它。現在,我們有太多模型是用人工智慧運作的,這工作變得難很多。我們不能只是下載開放原始碼,然後就執行它。我們必須要非常深入地了解我們演算法裡的每一行編碼,並有能力向外部的利害關係人解釋。」

第三,人工智慧系統,以及用來訓練它們的數據來源,都必須很透明,而且可供人審核。像歐洲的《一般資料保護法規》(GDPR)這種立法架構,已經採取一些前景看好的做法,但顯然還有更多的事情要做。我們無法接受人們在完全不受監督的情況下做決定,因此也沒有理由接受機器不受監督地做決定。

也許最重要的是,我們必須從自動化文化轉變為擴增(augmentation)文化。人工智慧最有效的運作方式,並不是把它當成某種神奇箱子,用來取代人類和削減成本,而是應該把它當成增強力量的助力,用來創造新的價值。讓人工智慧變得更容易解釋、可供審核且更透明,如此我們不僅能讓系統變得更公平,也能讓它們變得更有效、更有用且更透明,我們不只能讓系統用更公平的方式運作,它們還可以更有效、更有用。

(陳佳穎譯)



格雷格.賽特爾

格雷格.賽特爾 Greg Satell

國際性的主題演講人和顧問,著有暢銷書《層層推進:如何創造可推動改造式變革的運動》(Cascades: How to Create a Movement that Drives Transformational Change)。他之前的著作《創新之道:攸遊於破壞式時代的教戰手冊》(Mapping Innovation: A Playbook for Navigating a Disruptive Age),被選為2017年最佳商業書籍之一。


喬許.沙頓 Josh Sutton

Agorai執行長,這家公司協助企業取得一組精心策畫的人工智慧應用軟體與數據資產,以改善績效表現。


本篇文章主題技術