分析與數據科學別讓演算法決定你的人生

別讓演算法決定你的人生

When Algorithms Decide Whose Voices Will Be Heard

我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫程式的,是很容易犯錯的人類。另外,決定和控制這類程式運算結果的,往往是黑盒子。長期下來,這類演算法將限制我們可看到的內容,進而強化社會偏見。隨著人工智慧觸及的範圍擴大,這類風險只會愈來愈高。

今天早上你起床時,做的第一件事是什麼?昨天晚上你上床睡覺前做的最後一件事,又是什麼?
我們之中有很多人很可能都是在滑手機,或許大多數人都是如此。我們日常消費的數位事物,愈來愈多是由演算法來分析和決定的:我們在新聞和社群媒體訊息中看到的內容(或沒看到的內容)、購買的產品、聽的音樂。當我們在搜尋引擎中輸入查詢字詞時,演算法會根據被認為是「有用」和「相關」的內容,來決定搜尋結果和排序。「偶然看到」通常已被精心安排的內容所取代,所有人都被包圍在自己的個人化氣泡之中。
我們是否為了方便而放棄了言論和行動自由?儘管我們可能看起來擁有以數位方式表達自己的力量,但我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫這些程式的是很容易犯錯的人類。遺憾的是,決定和控制這類程式運算結果的,往往是黑盒子。
例如《連線》(Wired)雜誌近期刊登的一篇文章,說明了約會應用程式的演算法如何加強偏見。Tinder、Hinge和Bumble等約會應用程式使用「協作過濾」,這種機制以多數意見為基礎來產生推薦。長期下來,這類演算法將限制我們可看到的內容,因而強化了社會偏見。康乃爾大學(Cornell Universi...