多元IBM把AI變公平了

減少機器學習時產生的偏誤

IBM把AI變公平了

How IBM Is Working Toward a Fairer AI

IBM把AI變公平了

Shutterstock.com

人類難以避免的認知偏誤,會在機器學習訓練的過程中,不自覺地帶進人工智慧,加深社會上的不公問題。IBM如何透過四項策略,打造一個能致力消弭人工智慧偏誤的環境?
人類有許多種偏誤。以下僅舉出困擾我們的幾個認知偏誤的例子:確認偏誤(confirmation bias),也就是說,我們傾向聚焦在可證實我們對某個主題所持偏見的資訊上;定錨偏誤(anchoring bias),也就是我們主要是根據一開始得到的相關資訊,來做決策;性別偏誤(gender bias),也就是我們往往將女性與特定特質、活動或職業聯想在一起,而與男性聯想在一起的則不同。我們做決策時,這些類型的偏誤,通常會在我們不知不覺中介入,導致做出最終顯得不公平和不客觀的決策。

人為偏誤導致AI偏誤


這些類型的偏誤,可能會在人工智慧(AI)中出現,尤其是在使用機器學習技術來為AI系統撰寫程式時。一種稱為「監督式機器學習」(supervised machine learning)的常用技巧,要求以許多問題和解決方案的範例,來訓練AI系統。比方說,如果我們要建置一個可決定何時接受或拒絕貸款申請的AI系統,就要以許多貸款申請案的範例來訓練這套系統,並針對每一份申請案,對系統提供正確的決定(接受或是拒絕貸款申請)。
AI系統會在這類範例中,找到有用的相關性,並使用這些相關性,來對新的貸款申請做出決定(希望