定向廣告與動態定價讓偏見長存?

How Targeted Ads and Dynamic Pricing Can Perpetuate Bias
艾力克斯.米勒 Alex P. Miller , 卡迪克.霍桑納格 Kartik Hosanagar
瀏覽人數:1649
公司很難在不歧視的情況下提供個人化的服務。機器學習與大數據的進展,伴隨著隱藏風險:自動化系統會讓有害偏見持續下去。即使是最大的科技公司與演算法專家,都很難在避免歧視之下實現高度個人化的服務。因此,企業領導人必須明白哪些自動化決策的方式,既會傷害顧客,也會傷害組織。

理論上,行銷個人化應該會是公司與顧客雙贏的主張。行銷科技可以用獨一無二的方式提供令人滿意的顧客體驗,做法是恰當地結合溝通、推薦與促銷,而所有這些都會針對每個人的特定品味來量身制定。

雖然手法拙劣的個人化做法,可能為這種做法帶來汙名,但鎖定目標對象的技術日益變得更複雜精細。機器學習與大數據的新進展,使得對於消費者來說,個人化變得更切合需求、造成較少打擾,也比較不惱人。然而,這些進展也伴隨一種隱藏風險:自動化系統有能力讓有害偏見持續不衰。

我們在一項新研究中,探討動態定價與定向折扣(targeted discount)的使用情況,想了解當消費者支付的價錢是由演算法決定時,是否可能會出現偏見(以及如何出現)。這類個人化行銷做法的一則警世故事,是測驗輔導公司「普林斯頓評論」(Princeton Review)。2015年,這家公司被揭發的做法是,儘管他們的教學課程都是透過視訊會議進行,卻根據不同郵遞區號而向顧客收取不同價錢,有些區域之間的差異達到數百美元。短期內,這種動態定價似乎能輕鬆提高營收。但一直有研究顯示,消費者認為這種做法在根本上就不公平,造成信任度與回購意願降低。此外,普林斯頓評論公司的偏見包含種族因素:ProPublica一名記者進行的一項廣為人知的後續調查,顯示這家公司的系統,有系統地向亞裔家庭收取的費用平均來說高於非亞裔顧客。

即使是最大規模的科技公司與演算法專家都發現,很難在避免歧視的情形下,提供高度個人化的服務。有些研究已顯示,像臉書(Facebook)和Google之類平台上出現的高薪工作機會廣告,不成比例地顯示給男性。而且就在今年,臉書因為被發現違反「公平住房法案」(Fair Housing Act)而被控告,因為他們允許房地產廣告商根據受保護群體的分類來鎖定使用者,包含種族、性別、年齡等等。

個人化演算法發生了什麼事?為何他們如此難處理?如今的環境中,有行銷自動化軟體與自動化重新定向,而且A/B測試平台能以動態的方式持續優化使用者體驗,還有廣告平台可以自動選擇受眾群體;在這種環境下,有更多重要的商業決策是用自動化方式做出,人類沒有參與監督。雖然行銷人員用來劃分顧客區隔的資料,並非人口統計的資料,但這些變數經常與社會特性有相關性。

要了解這是如何運作的,可假設你的公司想用歷史資料來訓練演算法,以找出最願意接受價格折扣的顧客。如果你提供給演算法的顧客概況資料裡,包含與人口統計特性有相關性的特質,這個演算法最後很有可能會對不同群體做出不同的推薦。例如,思考一下,人們多麼常依據族裔與社會階層來劃分城市與社區,以及使用者的瀏覽資料也許常會與他們的地理位置有相關性(例如,從他們的IP位址或搜尋紀錄得知)。如果白人社區的使用者對你上一季的行銷手法反應最強烈,會出現什麼情況?或者,也許高收入地區的使用者對折扣最敏感。(已知這在某些情形中會發生,不是因為高收入顧客無法負擔原價,而是因為他們較常上網購物,知道可以等待價格下降。)用這種歷史資料來訓練的演算法,即使不知道顧客的種族或收入,也會學會為富裕的白人顧客提供更多折扣。

為了調查這種現象,我們研究了幾十項大規模的電子商務定價實驗,分析美國各地的人對不同的價格促銷有什麼反應。我們把顧客的IP位址,當成他們所在位置的近似值,得以把每位使用者配對到某個美國人口普查範圍區,並運用公開資料大略了解他們所屬地區的平均收入。我們分析了數百萬網站瀏覽流量,結果確認,在富裕地區的人對電商折扣的反應,比貧窮地區的人熱烈(與前述假設案例的情況一樣),而且,由於動態定價演算法的設計是要把交易條件提供給最有可能做出反應的人,因此往後的行銷活動,可能會有系統地將較低價提供給較高收入的人。

你的公司可以採取什麼方法,盡可能減少這些對社會不利的結果?降低演算法風險的一種可能方法,是正式監督你公司的內部系統。這種「人工智慧查核」流程可能很複雜,必須評估你組織裡所有重要演算法所做決定的正確性、公平性、可解釋性與強健度。

雖然這麼做感覺在短期內的花費高昂,但長遠來看,到最後對許多公司可能是有益的。由於很難對「公平性」與「偏見」做出所有人公認的定義,因此可以讓不只一個人來尋找你系統中由演算法造成的不平等,養成這種習慣後,能提高在發布程式碼之前先找到異常程式碼的機率。考慮到與演算法公平性有關的社會、技術與法律等錯綜複雜的情形,由一群受過訓練的內部或外部專家組成團隊,嘗試在仰賴自動化決策的商業流程中找出盲點與漏洞,很可能會成為例行做法。

隨著機器學習的進步持續形塑我們的經濟,以及對貧富不均和社會正義的擔憂愈來愈強烈,企業領導人必須知道,自動化做出的決定可能會如何傷害他們的顧客,以及他們的組織。比以往更重要的是,應考慮到你的自動化行銷活動也許會以什麼方式,歧視社會群體與族裔群體。主管若是預料到會有這些風險,並採取因應措施,他們的公司就能做好準備以獲得長遠成功。

(游樂融譯)



艾力克斯.米勒 Alex P. Miller

美國賓州大學華頓商學院(Wharton School of the University of Pennsylvania)資訊系統與科技博士候選人。


卡迪克.霍桑納格 Kartik Hosanagar

賓州大學華頓商學院技術與數位企業教授,之前曾與人共同創辦網路行銷公司約德爾(Yodle)。


本篇文章主題行銷