科技與分析讓人工智慧可解釋、能審核、透明化

讓人工智慧可解釋、能審核、透明化

We Need AI That Is Explainable, Auditable, and Transparent

讓人工智慧可解釋、能審核、透明化

HBR Staff / Milkos / Getty Images

人工智慧系統就像人類一樣,從本身接觸到的環境裡學習,並依據它們培養出來的偏見來做決定。隨著我們愈來愈把做決定這件事外包給演算法去做,就更有必要開始正視人工智慧偏見造成的問題,拿出對策減緩這種負面效果。這是減少偏見的唯一方式。

每個父母都會擔心自己的小孩受到外界的影響。他們的老師是誰?他們在看哪些電影?他們在玩哪些電玩遊戲?他們交的朋友沒問題吧?我們仔細檢視這些影響,因為我們知道它們會影響我們孩子所做的決定,而這影響可好可壞。
就像我們會擔心是誰在教我們的小孩,我們也必須留意誰在訓練我們的演算法。人工智慧系統就像人類一樣,從本身接觸到的環境裡學習,並依據它們培養出來的偏見來做決定。就像我們的小孩一樣,我們應該期望我們的模型,能夠解釋它們為什麼這樣做決定。
就像凱西.歐尼爾(Cathy O'Neil)在她的著作《數學破壞武器》(Weapons of Math Destruction,繁體中文版書名為《大數據的傲慢與偏見》)所解釋的,演算法常決定我們上什麼大學、我們能否應徵到工作、是否有資格申請到房貸,甚至決定誰該進監獄、要被關多久。不同於人類的決定,這些數學模型很少被質疑。它們的結果就這樣顯示在某個人的電腦螢幕上,命運就決定了。
在有些案例裡,演算法的錯誤很明顯,像是道瓊(Dow Jones)放出假消息說Google要用九十億美元買下蘋果公司(Apple),網路機器人(bot)全都信了,另外是微軟(Microsoft......