人工智慧與機器學習防範人工智慧偏見大行動
防範人工智慧偏見大行動
What Do We Do About the Biases in AI?
Wsestend61 / Getty Images
領導人應採取以下六個步驟:隨時掌握快速變化的研究資訊。所屬的企業或組織在建置人工智慧時,應建立負責任的流程,以減少偏見。針對潛在的人類偏見,以事實為基礎進行對話。考慮人與機器如何攜手合作來減少偏見。投資更多,提供更多資料,以繼續推進此一領域。加強投資以提高人工智慧領域的多元化。
大量文獻記載已證明人類偏見的存在,從隱性關聯測試(證明我們甚至可能沒有意識到偏見的存在),到現場實驗(證明這些偏見對結果有多少影響)。過去幾年間,社會已經開始努力處理人類偏見進入人工智慧系統的問題,因為這可能產生有害的結果。目前有許多公司設法在整體營運中建置人工智慧系統,因此當務之急是敏銳察覺並努力降低這些風險。
這不是個全新的問題。早在1988年,英國種族平等委員會(Commission for Racial Equality)就認定英國一所醫學院歧視。這所醫學院用來決定要邀請哪些申請人參加面談的電腦程式,被認為對女性和非歐洲名字的女性有偏見。然而,這套程式是為了搭配人類入學決策而開發的,準確性達到90%到95%。而且,與倫敦其他大多數醫學院相比,該校錄取的非歐洲學生比率較高。使用演算法無法解決有偏見的人類決策。但是,只是回歸由人類來做決定,也不能解決這個問題。
三十年後,演算法已變得更加複雜得多,但是我們仍然面臨同樣的挑戰。人工智慧可以幫忙找出並減少人類偏見的影響,但也可能讓問題變得更加嚴重,因為它可以在敏感的應用程式領域裡,大規模植入和設置偏見。例如,調查新聞網站ProPublica......