將AI運用在產品和服務中的情況愈發常見,一個潛藏的危機逐漸浮現:AI運算帶有道德風險,會對品牌造成破壞。如果你本身沒有資源,可以從零開始開發一款不存在偏見的AI,那麼,負責監督、提供諮詢,甚至擁有一定程度裁奪權的「AI道德委員會」,將助你保護自己的商譽。
調整選項的呈現方式或設置方式,來影響人們採取特定的行動,這樣的行為在經濟學中稱為「輕推」;在你的身後難以察覺地推一把,讓你以為往前走一步是自己的選擇。這在引導消費者行為方面十分有效,但如果操作不當,就很容易淪為「不良商人」,變成誘導消費者/服務對象進行一些會損害自身利益的行為,比如FB的「按讚」,會助長數位成癮。那麼該怎麼做,才不會踩到「道德紅線」?
一間道德操守良好的公司,能避免發生醜聞,獲得投資人信賴,但多數公司頂多在入職訓練簡單說明道德規範,或提供檢舉熱線,這只是消極的杜絕;公司應主動培養員工的道德感,讓員工認同自己的工作,並發展熱心助人的品性。
科技改變世界,也讓領導人面臨更多複雜的道德決策。我們該如何透過「快思慢想」的理論,使領導人在決策過程中不受認知障礙影響,做出最合乎道德的決定,為世界創造最大的價值?
我們被人看見的能力,日益由編碼和邏輯構成的演算法所控制,而撰寫程式的,是很容易犯錯的人類。另外,決定和控制這類程式運算結果的,往往是黑盒子。長期下來,這類演算法將限制我們可看到的內容,進而強化社會偏見。隨著人工智慧觸及的範圍擴大,這類風險只會愈來愈高。
如果演算法並未支持你對公平性設下的標準,會發生什麼情況?本文提到發生在亞馬遜公司的狀況,以及ProPublica一篇有關機器偏見的文章,並得出結論:公司領導人必須對衡量公平性進行自我教育,以便決定如何為組織定義公平性。這也意味著,應該要把所選的公平性衡量標準納入關鍵績效指標,搭配傳統的業務衡量標準一起使用。
LEADERSHIP
PUBLIC-PRIVATE PARTNERSHIPS
MANAGING YOURSELF
為提供您更多優質的內容,本網站使用cookies分析技術。若繼續閱覽本網站內容,即表示您同意我們使用 cookies,關於更多 cookies 資訊請閱讀我們的隱私權政策。