商業道德【7月號搶先看】你需要AI道德委員會的理由

【7月號搶先看】你需要AI道德委員會的理由

Why You Need an AI Ethics Committee

【7月號搶先看】你需要AI道德委員會的理由

攝影/安瑞亞.巴伯(Ondrea Barbe)

將AI運用在產品和服務中的情況愈發常見,一個潛藏的危機逐漸浮現:AI運算帶有道德風險,會對品牌造成破壞。如果你本身沒有資源,可以從零開始開發一款不存在偏見的AI,那麼,負責監督、提供諮詢,甚至擁有一定程度裁奪權的「AI道德委員會」,將助你保護自己的商譽。
2019年在《科學》期刊(Science)發表的一項研究指出,許多醫療體系使用Optum公司的人工智慧(AI),來找出應接受後續照護的高風險病患;而這款AI會促使醫療人員關注白人甚於黑人。Optum列為高風險的患者當中,只有18%是黑人,而有82%是白人。研究人員在檢視實際病情最嚴重的患者數據之後,計算出黑人與白人的高風險比率應該大約是46%和53%。這造成深遠的影響:研究人員估算,Optum這款AI已用於監測至少一億名患者。參與創造出Optum演算法的數據科學家和企業高階主管,原本無意歧視黑人,但是卻落入令人震驚的常見陷阱:使用反映了歷來歧視狀況的數據來訓練AI,導致產生帶有偏見的結果。在這個事件中,當初使用的數據顯示,黑人獲得的醫療資源較少,導致這套演算法錯誤地推論出黑人需要的協助較少。很多詳細記錄和廣泛公開的道德風險,都與AI有關;無心造成的偏見和侵犯隱私,只是其中兩項最顯著的例子。在許多情況下,這類風險只針對特定用途,例如自動駕駛的車輛有可能會撞到行人,或是由AI生成的社群媒體新聞推送內容,有可能會散播對公共機構的不信任情緒。在一些情況下,AI有時會帶來嚴重的聲譽、法規、財務和法律威脅。AI是用於大規模運作,因此在發生問題時,會影響到這項技術接觸到的所有人,例如應徵某個招聘資訊的每一個人,或向銀行申請貸款的每一個人。公司在規畫和執行AI計畫時,如果沒有小心處理道德問題,可能會浪費大量的時間與金錢,開發出最終風險過大而無法使用或出售的軟體,許多機構已經嘗到這種苦頭。你組織的AI策略必須考量到一些問題:我們設計、購買和部署的AI,可能帶來哪些無法避免的道德風險?我們如何有系統地和完整地找出並減少這些風險?如果漠視這些風險,得花多少時間和人力來回應法規管制機構的調查?如果我被發現違反或漠視法規或法律,得付多少罰金?如果用錢可以解決這個問題,得花多少錢才能重建消費者和公眾的信任?這些問題的答案,顯示出你的組織有多麼需要AI道德風險計畫。這種計畫必須從高階主管的層級開始,滲...