人口統計特性一個簡單訣竅,就能降低AI偏誤

一個簡單訣竅,就能降低AI偏誤

A Simple Tactic That Could Help Reduce Bias in AI

人類的認知偏誤難以導正,人工智慧的偏誤較容易排除。本文作者提出「盲測」的做法,讓演算法完全無法取得有可能讓結果帶有偏誤的資訊,以確保做預測時,不會考慮那項變數,進而做出更公平的預測。作者進行觀察實驗,以探究科學性論文是否夠客觀,結果證實為人工智慧系統進行盲測驗證的必要性。作者並認為,人類與人工智慧系統的整合,是成效最佳的方法。
編寫程式以排除機器的偏誤,要比排除人類的認知偏誤更容易。

這項結論是根據研究的發現(包括我自己的研究)而逐漸產生的,可能讓運用人工智慧(AI)的決策系統,較不會受到偏誤影響,進而更能促進平等。這種可能性很重要,因為我們愈來愈依賴以AI為基礎的系統,針對攸關重大利害的人類情境做出評估和決定,從法院判決、聘雇,到取得信貸等情境,都包括在內。

目前普遍的看法是,AI驅動的系統,會受到人類創造者自身的偏誤所影響。如果我們用帶有偏誤的數據,或是以心懷隱性偏誤的專家所建立的「規則」,來訓練這些系統,就會在不知情的情況下,把偏誤「設計納入」系統之中。

我們來檢視「亞勒根尼家庭篩選工具」(Allegheny Family Screening Tool, AFST)的實例。這套系統以AI為基礎,預測兒童身處受虐狀態的可能性,所使用的數據來自美國賓州亞勒根尼郡的郡民服務部,其中包括與兒童福利、毒品與酒精戒癮服務、住房等相關公共機構的紀錄。個案工作者使用來自那個社區潛在虐待案例的報告,以及他們可找到有關那個案例家庭的任何公開數據,來運作那個模型,而模型預測的風險分數從1到20;評分如果高到某一個程度,就會啟動調查