別讓演算法決定你的人生

When Algorithms Decide Whose Voices Will Be Heard
劉曦曼 Theodora (Theo) Lau , 烏代.阿卡拉 Uday Akkaraju
瀏覽人數:3032
我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫程式的,是很容易犯錯的人類。另外,決定和控制這類程式運算結果的,往往是黑盒子。長期下來,這類演算法將限制我們可看到的內容,進而強化社會偏見。隨著人工智慧觸及的範圍擴大,這類風險只會愈來愈高。

今天早上你起床時,做的第一件事是什麼?昨天晚上你上床睡覺前做的最後一件事,又是什麼?

我們之中有很多人很可能都是在滑手機,或許大多數人都是如此。我們日常消費的數位事物,愈來愈多是由演算法來分析和決定的:我們在新聞和社群媒體訊息中看到的內容(或沒看到的內容)、購買的產品、聽的音樂。當我們在搜尋引擎中輸入查詢字詞時,演算法會根據被認為是「有用」和「相關」的內容,來決定搜尋結果和排序。「偶然看到」通常已被精心安排的內容所取代,所有人都被包圍在自己的個人化氣泡之中。

我們是否為了方便而放棄了言論和行動自由?儘管我們可能看起來擁有以數位方式表達自己的力量,但我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫這些程式的是很容易犯錯的人類。遺憾的是,決定和控制這類程式運算結果的,往往是黑盒子。

例如《連線》(Wired)雜誌近期刊登的一篇文章,說明了約會應用程式的演算法如何加強偏見。Tinder、Hinge和Bumble等約會應用程式使用「協作過濾」,這種機制以多數意見為基礎來產生推薦。長期下來,這類演算法將限制我們可看到的內容,因而強化了社會偏見。康乃爾大學(Cornell University)研究人員的一項評論指出,某些相同的約會應用程式具有類似的設計功能,而它們的演算法有可能引入更微妙形式的偏見。他們發現,大多數約會應用程式使用的演算法,在做配對時根據的是使用者過去的個人偏好,以及相似使用者的配對歷史紀錄。

但是,如果在黑盒子中運作的演算法,開始影響到約會或愛好之外的領掝,情況會如何?如果由它們決定優先考慮誰的意見,情況會如何?如果網際網路不再是個自由言論盛行的公共廣場,變成了只有特定一群人的意見可被聽見的堡壘,而這些意見形塑了我們的社會,那麼情況會如何?更進一步說,如果每個公民都基於一套價值觀而獲得一個社會評分,而我們所獲得的服務是由這個評分來管控,我們會如何?這類系統的一個例子是社會信用體系(Social Credit System),預期2020年將在中國全面運作。雖然尚不了解中國這個計畫的所有影響,但不妨設想以下情況:信貸審核依據的不再只是我們自己的信用歷史紀錄,還有我們社群媒體圈中的朋友;我們「是否有價值」這件事,是由完全不透明或無人類介入協助的演算法所決定;我們的保險資格可以由機器學習系統,根據我們的DNA和可查找到的關於我們的數位資料來決定。

在這些情況下,演算法將以誰的價值觀為基礎?誰的倫理道德標準將被納入演算法的計算之中?什麼類型的歷史資料會被使用?我們是否能夠保持對這些議題和其他議題的透明度?如果無法清楚回答這些問題,而且對「偏見」沒有標準化的定義、對「公平」也沒有定義,人類和社會的偏見將在不知不覺中滲透蔓延。如果各個機構沒有足夠多元的員工,足以反映它們所服務的人口結構特性,情況可能變得更加令人擔憂。這種演算法的結果,可能會不成比例地影響到那些「不合時宜」的人。

那麼,社會要如何防止這種情況發生,或者是在發生這種情況時,要如何縮小影響程度?方法就是要注意擁有數據資料的人。在這個世界裡,數據資料是為人工智慧引擎提供燃料的氧氣,擁有最有用資料的人將是贏家。在這種世界裡,隨著大型科技巨擘在我們生活的各個層面扮演核心角色,我們必須決定要由誰擔任這個世界的「守門員」,以及公共和私人利益之間的界限在何處。(在美國,守門員通常是由科技公司自己擔任。在其他地區,如歐洲,政府正開始接手扮演這個角色。)

此外,隨著人工智慧持續學習,而且在人們的健康和財富也被牽扯進來之後,其中涉及的利害關係也更加龐大,因此這些守門員應該特別關注少數幾個制衡點。他們必須確保人工智慧不會使用歷史資料來預先判斷結果;人工智慧如果實施得不正確,就只會重複過去的錯誤。重要的是,資料和電腦科學家必須整合採納其他領域專家的意見,像是行為經濟學、社會學、認知科學和以人為本的設計,以調整校正人腦的無形空間,以便預測前後脈絡,而非預測結果。當我們設計人工智慧來預測互動和糾正偏見時,針對開發流程中各個階段的偏見,進行資料來源和資料所有者的效度檢查,就變得更加重要。

組織也可發揮一些功能。儘管他們可能不想透露自家黑盒子裡的內容,但他們必須公開而透明地揭露對公平和偏見的定義,也就是那個黑盒子的界限。為此,組織應採用通用的準則來制定和使用人工智慧,像是經濟合作暨發展組織(OECD)建議採用的準則:「這些原則要求人工智慧尊重人權、民主價值觀和法律。它對使用者來說,應該要安全、開放且顯而易見,而製造和使用人工智慧的人員應對本身的行為負責,並提供透明度。」維蘭諾瓦大學商學院(Villanova School of Business)商業科技教授史帝夫.安迪爾(Steve Andriole)最近提出一個發人深省的問題:「我們有沒有可能把人工智慧設計成忠於一個簡單的原則:無論年齡、性別、種族、血統、宗教、地理位置、智力、收入或財富,所有人類都應得到平等、公平和一致的對待?」

有沒有可能做到。或是但願能夠做到。

我們迫切需要處理這些問題。例如,人類銀行家可能很快就會搭配使用人工智慧。紐約金融服務部(NYFS)已發布最新的準則,將允許人壽保險公司使用顧客的社群媒體資料,來決定他們的保費(只要公司沒有歧視)。恐怕要不了多久,保險公司也會仿效許多金融科技放款新創公司,開始使用其他替代資料來源。因此,隨著我們繼續技術演化發展的旅程,我們必須確保不會以提高效率的名義,犧牲公平和透明。我們必須確保有去處理技術的盲點,不平等現象沒有加劇,而且歷史沒有重演。我們必須共同要求領導人、技術人員和握有巨大權力的人員對自己的行動負責,好讓技術和資料用於行善,並改善所有公民的福祉。

我們塑造的未來裡,絕對不能由在黑盒子裡運作的演算法來決定我們的命運。

(劉純佑譯)



劉曦曼 Theodora (Theo) Lau

金融顧問公司Unconventional Ventures創辦人,並與人共同主持播客(podcast)節目Rhetoriq,針對長壽、科技和創新,進行發人深省的討論。她是演講人、作家及顧問,希望能激發創新,以改善消費者的財務狀況及銀行業務。


烏代.阿卡拉 Uday Akkaraju

以人為本的設計師,專門研究認知科學,工作重點在於讓機器智慧具有同理心。他是BOND.AI.執行長。


本篇文章主題技術