商業道德你的演算法是否捍衛了公平標準?

你的演算法是否捍衛了公平標準?

Are Your Algorithms Upholding Your Standards of Fairness?

如果演算法並未支持你對公平性設下的標準,會發生什麼情況?本文提到發生在亞馬遜公司的狀況,以及ProPublica一篇有關機器偏見的文章,並得出結論:公司領導人必須對衡量公平性進行自我教育,以便決定如何為組織定義公平性。這也意味著,應該要把所選的公平性衡量標準納入關鍵績效指標,搭配傳統的業務衡量標準一起使用。

在最近備受關注的人工智慧(AI)偏見醜聞之後,企業已經開始了解到必須重新思考本身的人工智慧策略,不僅要把人工智慧公平性(AI fairness)納入策略,而且要更廣泛地把演算法公平性(Algorithmic Fairness)當成一項基本原則。我任職的務實學院(Pragmatic Institute),為《財星》五百大企業提供關於資料科學和人工智慧的教育課程。我們從這些工作中發現,許多企業很難為自家組織明確定義何謂演算法公平性。如果沒有明確的定義,立意良好的公平性方案就會在善意之中失去活力,絕不會產生有意義的影響。但是,定義公平性並不像表面看來那樣容易。有兩個例子可說明這項工作可能會有多大的挑戰。
首先,想想2016年亞馬遜(Amazon)發生的情況,這家總部位於西雅圖的線上零售商當時向27個都會區,推出了Prime會員一日到貨服務。當時彭博社(Bloomberg)指出,向來是非裔美國人的社區被排除在外(如紐約市的布朗克斯區或芝加哥南區),不符合一日到貨服務的資格,結果亞馬遜受到大量批評。在亞特蘭大,有96%的白人居民住在一日到貨區域,黑人居民則只有41%。這個例子特別令人不愉快,因為它...