人工智慧與惡的距離

Does Your AI Have Users' Best Interests at Heart?
麥克.瓦許 Mike Walsh
瀏覽人數:1506
法律不一定會訂出明顯的倫理道德界線。例如,臉書引起軒然大波的劍橋分析公司事件,臉書的行為雖然合法,也並未逾越產業限度,卻並非以使用者的最佳利益為考量。但想要立法禁止所有收集資料的行動,絕對不會是個好辦法。而且,與其依賴法規,企業領導人應該走的是一條倫理規範的路。

想做出符合倫理道德的決定,通常並不容易,時至今日又更加困難。智慧型機器、低成本的運算、大量消費者數據資料,這些不僅提供絕佳的機會給現代組織,也讓21世紀的領導人面對一項道德兩難:是不是只要合法的事情就能做?

當然,未來必定還會有很多法規。對企圖心旺盛的政治人物與法規監理機構來說,大型科技公司開始像過去的大型菸草業者那樣,可能要面臨一些足以躍上新聞頭條的事件,包括創下天價的罰款、被迫分拆、在凌晨遭到搜索,以及民粹式的公憤。然而,領導人若想在這個演算法的年代裡尋求指引,光是遵守法規似乎極為危險,也不夠符合倫理道德。

但別誤會我的意思。這個動盪的世界裡充斥著由人工智慧和數據資料推動的產品,確實需要有健全的法規。由於近年大量出現資料遭竊與濫用的情形,Google一度的座右銘「不作惡」現在看來既有先見之明,又顯得天真。隨著人類所創造的系統已愈來愈能了解個別使用者、提出針對個別使用者的服務,我們把偏見自動化、將演算法當成武器的能力,將會呈現指數型成長。但這也提出一個問題:究竟什麼才叫做「惡」?是指犯法,還是違背了產業的行為準則,還是辜負了使用者的信任?

演算法的偏見有很多不同形式,不見得一定像審判刑事案件時的種族主義、聘雇時的性別歧視那麼明顯。有些時候,透露太多事實就已經是種危險。2013年,麥可.科金斯基(Michal Kosinski)、大衛.史迪威爾(David Stillwell)和索爾.格雷普(Thore Graepel)發表一篇學術論文,指出可以用臉書的按「讚」(當時的預設是公開)來預測許多極為敏感的個人特性,包括性傾向與性別、種族、宗教與政治觀、性格特點、成癮物質使用、父母是否離異和年紀。

令人擔心的是,就算你並未公開展現自己的性傾向或政治偏好,仍然可以根據你公開的資料,用統計方式來預測。所以,雖然被辨識為同性戀者的臉書使用者只有不到5%會加入明顯是同性戀的社團,但仍可以用統計推論出他們的性傾向。這幾位研究人員公布研究結果時就已明白,他們的發現可能被不肖第三方錯誤使用,例如用來激起歧視。然而,其他人看到會有危機與風險的地方,科金斯基在劍橋大學(Cambridge University)的同事亞歷山大.柯甘(Aleksandr Kogan)看到的卻是機會。2014年初,英國政治顧問業者劍橋分析公司(Cambridge Analytica)與柯甘簽署合約成立一家私人新事業,將利用科金斯基和他團隊的研究成果來獲利。

臉書有項計畫是讓第三方得以取得使用者資料,柯甘利用這項計畫設計出一項測驗。估計當時有大約三十萬名使用者做了那項測驗。後來大家才知道,劍橋分析公司接著運用從那項測驗得出的資料,去接觸8,700萬名臉書使用者,並建立他們的個人檔案。或許可以說,臉書和劍橋分析的決定嚴格來說並不算違法,但依後見之明看來(加上不久之後爆出的相關醜聞),實在不能說那些決定是良好的判斷。

劍橋分析當時的營運長朱利安.惠特蘭(Julian Wheatland)表示,該公司最大的錯誤,就是相信只要符合政治法規就已足夠,於是忽略了像是資料倫理、偏見及大眾觀感等更廣泛的問題。

你會如何處理類似的情況?臉書是不是犯了兩大錯誤?第一是事前並未制定恰當的政策,來規範如何處理使用者資料,第二是太公開地與合作伙伴分享這些資訊。臉書事先是否預料到美國參議院後來竟會召開聽證會,因而投入更多資源進行遊說?如果把使用者協議的內容訂得更完整全面,就能讓臉書安全脫身嗎?或者,這次只是運氣不好?當時把資料交給柯甘是合理的行動嗎?

相反地,來看看蘋果公司的例子。提姆.庫克(Tim Cook)上台宣布蘋果2019年最新、最佳產品的時候,顯示目前真正的重點在於隱私與安全,而非設計與速度。從取消以人工方式為Siri回覆使用者的能力做評級(grading),到警告有哪些應用程式會追蹤你的位置,蘋果嘗試讓數位倫理脫離法規層面,轉而進入競爭優勢的領域。

蘋果公司在過去十年間受到批評的一點,就是在許多議題上,與臉書和Google之類的同業採取相反立場。蘋果與它們不同之處,在於經營一個封閉的生態系統,採取嚴格控制:所有的應用程式都得先經過蘋果核可,否則無法安裝在iPhone上。蘋果也率先將自家的產品設備完整加密,包括在iMessage和FaceTime的使用者通訊雙方採用端到端加密技術。有一次,美國聯邦調查局(FBI)要求蘋果提供密碼以解鎖一支手機,而蘋果拒絕了,並上法院來維護自己不提供密碼的權利。而在蘋果推出Apple Pay與近期的新信用卡時,同樣是將所有顧客交易資料加密,並未儲存所有資料供蘋果自己做分析。

臉書的行動在當時雖然合法,也並未逾越產業實務做法的範圍,卻並非以使用者的最佳利益為考量。這背後的原因可能很簡單。蘋果把產品賣給消費者。而對臉書來說,產品就是這些消費者。臉書是把消費者賣給廣告主。

禁止所有收集資料的行動,是徒勞無功的。已經無法走回頭路了。我們現在生活的這個世界,已經是建立在機器學習與人工智慧的基礎上,這兩者都仰賴資料作為燃料,而也將在未來支援推動一切事物,從精準農業到個人化健康照護,無所不包。下一代的各種平台,甚至會有能力辨識我們的情緒、了解我們的想法。

領導人不應仰賴法規,而必須走上倫理規範的困難道路。你的顧客會希望你用他們的資料,為他們打造個人化、預測性的服務,同時要求你防止有人不當使用和操縱有關他們的資訊。你在尋找你自己的倫理道德方針時,顯然必須遵循一個原則:你不能同時服務兩位主人。到頭來,你建立的文化若不是以「遵守法律」為基礎,就是專注在「為使用者賦能」。這個選擇看似簡單,但實務上並不容易。看起來像個好人,與真的是個好人並不一樣。

有關機器人取代人類工作的這項威脅,前述現象至少帶來一絲希望。如果要進行複雜、細微、困難的倫理判斷,誰能比人類做得更好?任何機器都能根據一套規則確認出正確的行動,但若要真正知道、了解什麼是良善的行動,這是人的專利。

(林俊宏譯)



麥克.瓦許 Mike Walsh

著有《演算法領導人》(The Algorithmic Leader: How to Be Smart When Machines Are Smarter Than You),他是Tomorrow公司執行長,該公司提供全球諮詢服務,協助企業面對21世紀。


本篇文章主題法規管制