法規管制人工智慧與惡的距離

人工智慧與惡的距離

Does Your AI Have Users' Best Interests at Heart?

法律不一定會訂出明顯的倫理道德界線。例如,臉書引起軒然大波的劍橋分析公司事件,臉書的行為雖然合法,也並未逾越產業限度,卻並非以使用者的最佳利益為考量。但想要立法禁止所有收集資料的行動,絕對不會是個好辦法。而且,與其依賴法規,企業領導人應該走的是一條倫理規範的路。

想做出符合倫理道德的決定,通常並不容易,時至今日又更加困難。智慧型機器、低成本的運算、大量消費者數據資料,這些不僅提供絕佳的機會給現代組織,也讓21世紀的領導人面對一項道德兩難:是不是只要合法的事情就能做?

當然,未來必定還會有很多法規。對企圖心旺盛的政治人物與法規監理機構來說,大型科技公司開始像過去的大型菸草業者那樣,可能要面臨一些足以躍上新聞頭條的事件,包括創下天價的罰款、被迫分拆、在凌晨遭到搜索,以及民粹式的公憤。然而,領導人若想在這個演算法的年代裡尋求指引,光是遵守法規似乎極為危險,也不夠符合倫理道德。

但別誤會我的意思。這個動盪的世界裡充斥著由人工智慧和數據資料推動的產品,確實需要有健全的法規。由於近年大量出現資料遭竊與濫用的情形,Google一度的座右銘「不作惡」現在看來既有先見之明,又顯得天真。隨著人類所創造的系統已愈來愈能了解個別使用者、提出針對個別使用者的服務,我們把偏見自動化、將演算法當成武器的能力,將會呈現指數型成長。但這也提出一個問題:究竟什麼才叫做「惡」?是指犯法,還是違背了產業的行為準則,還是辜負了使用者的信任?

演算法的偏見有很多不同形式,不見得一定像審判刑事案...