本文出自

崛起於危機之中

崛起於危機之中

2020年7月號

AI成功到職四階段:機器是輔助工具,而非用來取代員工

A Better Way to Onboard AI
博利斯.巴比克 Boris Babic , 丹尼爾.陳 Daniel L. Chen , 希奧多羅斯.埃弗基尼歐 Theodoros Evgeniou , 安羅爾.法雅德 Anne-Laure Fayard
瀏覽人數:2818
  • "AI成功到職四階段:機器是輔助工具,而非用來取代員工"

  • 字放大
  • 授課文章購買
    購買〈AI成功到職四階段:機器是輔助工具,而非用來取代員工〉文章
  • 個人收藏購買
    購買〈AI成功到職四階段:機器是輔助工具,而非用來取代員工〉PDF檔
    下載點數 10
如果機器可以把工作做得更好,為什麼還需要人類?為了緩解這種恐懼,人工智慧建置必須成功。本文為人工智慧的實施,提出四個階段的方法。這套方法能讓組織培養人對人工智慧的信任,並朝向分散式認知系統邁進,讓人類與人工智慧都能不斷進步。

2018年,人力研究所(Workforce Institute)有一項橫跨八個工業化國家、涵蓋三千名主管的問卷調查顯示,大部分回覆者把人工智慧(Artificial Intelligence,AI)描述為一種有價值的生產力工具。

原因顯而易見:人工智慧在處理速度、準確度和一致性上,有具體可見的好處(機器不會因疲勞而犯錯),因此許多專業人士現在都倚重人工智慧。例如,有些醫療專科人員就運用人工智慧工具,輔助診斷與治療決策。

但那項調查的回覆者,也表示擔心人工智慧會搶走他們的工作。他們並不孤單。《衛報》(Guardian)最近報導,英國有超過六百萬名工作者,害怕被機器取代。我們在講習會和研討會中遇到的學者和企業高階主管,對這些恐懼也心有戚戚。人工智慧的優勢背後,可能隱藏著一個更黑暗的觀點:如果機器可以把工作做得更好,我們為什麼還需要人類?

這種恐懼普遍存在,意味著想要坐收人工智慧好處的組織,在把人工智慧引介給必須與人工智慧共事的人員時,必須謹慎以對。在埃森哲顧問公司(Accenture)擔任資訊長直到2020年1月的安德魯.威爾森(Andrew Wilson)就說:「愈是以人與人工智慧互相協助為重點的組織,可達成的價值就愈高。」埃森哲發現,企業如果能清楚表明,運用人工智慧是為了協助人員,而不是取代那些人員,這些企業在生產力管理的大多數面向上,績效高於沒有設定這個目標的公司(或是沒有清楚設定人工智慧目標的公司),尤其是以下面向的表現:速度、規模可擴充性、決策效能等。

換句話說,人工智慧的建置就像是延攬新人才加入團隊,必須經過規畫以協助他們成功,避免導致他們失敗。明智的雇主會訓練新進人員,指派他們執行簡單的工作,在無關緊要的情況下培養實作經驗,並且指派導師給他們,從旁協助並提供建議。這能讓新進人員學習,同時讓其他人聚焦在高價值的工作。等到新人累積了經驗,證明自己能勝任那項工作,他們的導師也會愈來愈把他們當成交流意見的對象,並把更重要的決策交付給他們。隨著時間過去,學徒會變成伙伴,貢獻他們的技能和見解。

我們相信,這個方法也適用於人工智慧。在後文中,我們會參考自己和他人在實施人工智慧與資訊系統的研究與諮詢工作,還有創新和工作實務的組織研究,為人工智慧的實施,提出一套包含四個階段的方法。企業能藉此培養人員的信任(這是人工智慧獲得採用的關鍵條件),並邁向一個分散式的人類–人工智慧認知系統,讓人與人工智慧都能不斷改進。許多組織已實驗過第一階段,有些已前進到第二和第三階段。目前為止,第四階段可能多半仍只是一個「設想未來」的練習,我們從中看到一些初期跡象,但從技術角度來看,它是可行的,而且能在企業運用更多人工智慧之時,帶來更多價值。

階段 1:助理

分派人工智慧做一些基本但耗時的工作

建置人工智慧的第一個階段,與訓練助理相當類似。你教導新員工少數幾項基本原則,並分派他們執行一些基本但耗費時間、通常由你來做的工作(例如,填寫線上表格或做文件摘要),如此你就能把注意力轉移到更重要的工作層面。受訓人員藉由觀察你、自行執行那些工作任務、提問,而從中學習。

人工智慧助理常見的一項工作,就是資料排序(sorting)。推薦系統就是一個例子:企業從1990年代中期開始使用這類系統,幫助顧客過濾數千項產品,找到與他們想要產品最相符的品項,亞馬遜(Amazon)和網飛(Netflix)等公司是這項技術的佼佼者。

愈來愈多企業決策,現在都需要這種資料排序。比方說,投資組合經理在選擇要投資哪些股票時,可取得的資訊遠超過個人可獨力處理的限度,而新資訊隨時都在冒出來,歷史紀錄因而不斷增加。軟體可立刻篩選出符合預設投資標準的股票,讓選股的工作更容易處理。同時,自然語言處理技術可辨識出與一家公司最相關的新聞,甚至對於分析師報告當中對企業即將發生的事件所呈現的普遍感受,也進行評估。2002年成立、總部在倫敦的投資公司MBAM(Marble Bar Asset Management),就是一家很早就在辦公室裡改用這類技術的企業。它開發出一個很先進的平台,名稱是「研究分析與資訊數據庫」(Research Analysis & Information Database, RAID),以協助投資組合經理過濾大量有關企業事件、情勢的新發展、股價波動的資訊。

人工智慧可提供協助的另一種做法,是為人類行為建立模型。就像任何使用Google的人都會注意到的,在鍵入搜尋詞彙時,會出現提示字串。智慧型手機上的輸入預測功能,也是以類似的方式加速打字過程。這種類型的使用者建模,是在三十多年前開發的,與有時稱為「判斷式拔靴法」(judgmental bootstrapping)的做法相關;它可以輕易運用在決策上。人工智慧可運用這個方法,根據員工過去的選擇,找出員工現在最有可能做的選擇,並在員工面臨多項決策時,建議把那個最可能做的選擇當成起始點,如此人工智慧就可以加速推進工作,而不是實際執行它。

現在,我們就以具體的場景來檢視這種做法。航空公司員工在決定某個航班要準備多少食物和飲料時,會填寫備餐單,此時要進行一些計算,還要考量他們根據先前航班的經驗所做的假設。做錯選擇會產生成本:預訂的餐點過少,會讓顧客不高興,他們未來可能不再搭乘這家航空公司的班機。預訂的餐點過多,就必須丟棄多出來的食物,飛機也會增加不必要的油耗。

在這個情況下,演算法可以幫上大忙。人工智慧可以分析航空公司餐飲主管過去的選擇,或是運用這名主管設定的規則,來預測他會預訂的餐食。像這樣「自動完成」那些「建議訂單」的做法,可以運用所有的相關歷史資料,針對每一次航班來量身打造,而所用的歷史資料包括那條航線上的餐飲消費量,甚至包括那個航班上所有乘客過去的購買行為。但就像輸入預測功能,人類使用者可依需要自由覆寫(overwrite);當家做主的永遠是人。人工智慧只是透過模仿或預測人類的決策風格,來協助人類。

用這種方式與人工智慧共事,對主管來說,應該沒有什麼難度。在個人生活裡,我們其實已經這麼做了:我們會讓自動完成功能,為我們預填表格。至於在工作場所,比方說,主管可具體制定人工智慧助理應遵守哪些規則,以填寫表格。其實,許多目前在工作場使用的軟體工具(像是信用評等程式),已是匯集了人類所制定的各項決策規則。人工智慧助理可針對主管真的有遵守這些原則的情況進行編碼,藉以改良這些規則。這種學習不需要主管在行為上做任何改變,更不需要花任何心力去「教導」人工智慧助理。

階段 2:監察人員

人工智慧可準確預測決策,並提供警示

第二步,是讓人工智慧系統提供即時回饋意見。由於有機器學習程式,人工智慧可經由訓練,準確預測使用者在特定情況下的決策(不考慮因過度自信、過度疲勞或其他因素,而降低理智的情況)。如果使用者即將做的選擇,與他過去歷來的選擇不一致,系統可以警示出現差異。這在人類員工面臨大量決策時特別有幫助,因為這種時候員工可能會感到疲倦或分心。

心理學、行為經濟學和認知科學的研究顯示,人類的推理能力不但有限,也不完美,尤其是面對企業裡無所不在的統計與機率問題時。有些關於法律判決的研究發現(本文作者丹尼爾.陳,是這些研究的共同發表人),法官判決給予政治庇護的頻率,在午餐前高於午餐後;如果法官支持的國家美式足球聯盟隊伍前一天贏得比賽,他們判決的監禁刑期會比球隊輸掉比賽時輕;還有,如果判決日是被告的生日,法官也會比較寬容。顯然,如果人類決策者能有軟體輔助,指出他們打算做的決策,與他們過去的決策不一致,或是與純粹分析各個法律變項之後所預測的決策不同,或許就更能維護司法正義。

人工智慧可以提供那種參考資訊。另一項研究報告顯示,處理一個由基本法律變項所構成模型的人工智慧程式,可在案件開議那天預測政治庇護決策,準確度大約是80%(丹尼爾.陳也是這項研究報告的共同作者,而模型是由研究報告的作者群所建立)。作者們在程式裡加上學習功能,讓它能參照個別法官過去的決策,模擬該法官的決策。

這個方法也適用於其他情境。例如,MBAM的投資組合經理,在考慮可能提高整體投資組合風險的買賣決策時(例如,增加特定產業或地理區的投資),系統會在電腦化交易流程當中跳出警示視窗,讓他們可以適當調整。只要遵守公司的風險限制,投資組合經理可以忽視這種回饋意見。但無論如何,這種回饋意見,能協助投資組合經理省思自己的決策。

當然,人工智慧不見得一定是「正確的」。人類決策者能取得一些可靠的私人資訊,人工智慧的建議通常沒有把這種資訊納入考量,因此可能會把員工導入歧途,而沒有修正可能的行為偏誤。正因如此,運用人工智慧時,應該像是進行對話,演算法能在對話中,根據它擁有的數據資料做提示,而人類可以解釋自己為什麼否決某個提示,藉此教導人工智慧。這能提升人工智慧的實用性,並保留人類決策者的自主權。

遺憾的是,許多人工智慧系統的設置,剝奪了人類的那種自主權。例如,一旦演算法把某項銀行交易標示為可能是詐欺,經辦人員通常就無法核准那項交易,而必須先向主管、甚至是外部稽核人員排除詐欺的可能性。有時候,取消機器做的選擇,幾乎是不可能的,而這一直是顧客和顧客服務專業人員的挫折來源。在許多時候,人工智慧所做選擇背後的推理過程並不透明,甚至連發生錯誤時,員工都無法質疑人工智慧的選擇。

機器要蒐集人為決策的相關數據,隱私因此成為另一個重大議題。除了賦予人類在與人工智慧交流時的控制權,我們還必須保證,人工智慧從他們蒐集到的任何數據,都會予以保密。工程團隊與管理團隊中間應設有防火牆;否則員工會擔心,如果他們與系統自由互動時出了錯,事後他們可能要為此蒙受損害。

另外,企業應制定一些有關設計人工智慧、與人工智慧互動的規則,以確保組織在規範與實務上保持一致性。我們可以用這些規則來明定下列事項:設定預測準確度的水準,人工智慧只有在達到這個水準時,才能提出提示,或是說明提示的理由;制定一些標準,用來衡量提示的必要性;說明員工在哪些情況下,應該遵守人工智慧的指示,或是轉呈給主管,而不是在接受指示或拒絕指示當中二選一。

為了協助員工在第二階段保有掌控感,我們建議主管和系統設計人員讓員工參與設計:讓他們以專家的身分參與,定義會用到的數據,並界定基準事實;在開發過程中,讓他們熟悉模型;在部署這些模型時,提供訓練和互動。在這個過程中,員工會明白模型如何建構、數據如何管理,還有機器為什麼會提出那些建議。

階段 3:教練

人工智慧分析決策與行動,提供回饋意見

PwC(台灣的聯盟所是資誠)最近一項問卷調查顯示,將近60%的回覆者表示,他們想要得到每日或每週的績效回饋意見。原因不難明白。就像杜拉克在2005年《哈佛商業評論》英文版發表的那篇著名文章〈杜拉克教你自我管理〉(“Managing Yourself,” HBR, 2005;全球繁體中文版刊登於2007年12月號)裡主張的,人們通常不知道自己的長處。如果他們認為自己知道,通常都是錯的。

麻煩的是,發現長處和改進機會的唯一方法,是仔細分析關鍵決策和行動。這需要先記錄對結果的預期,接著,在九個月到一年之後,比對預期與實際的結果。因此,員工得到的回饋意見,通常來自與上司的檢討會議,而不是按自己選擇的時點或形式取得。這點令人遺憾,因為一如紐約大學(New York University)泰莎.魏斯特(Tessa West)在最近一項神經科學研究的發現,人們愈覺得自己的自主性受到保護、自己能掌控這段對話,例如,能選擇聽取回饋意見的時間,他們對回饋意見的反應就愈好。

人工智慧可以處理這個問題。我們之前提及的人工智慧各項能力,可輕易產生回饋意見給員工,讓他們能檢視自己的表現,思索變異與錯誤。每個月的總結報告,會分析從過去行為而來的數據,這可能有助於他們更理解自己的決策模式和實際做法。少數幾家企業,特別是在金融產業,正在採行這個方法。例如,MBAM裡的數據分析系統,會取得個人層次的投資決策資料,然後提供回饋意見給投資組合經理。

這些數據會揭露投資組合經理之間有趣的不同偏誤。有些人可能比別人更迴避損失,持有績效不彰投資的時間過長。有些人可能過於自信,在某項投資持有的部位太大。分析會辨識這些行為,而且,就像教練一樣,提供個人化的回饋意見,點出行為的長期變化,建議如何改善決策。但是否採用這些回饋意見,仍取決於投資組合經理。MBAM的領導人相信,這種「交易強化」會變成核心的差異化因素,有助於培養投資組合經理,也能讓組織更有吸引力。

此外,就像優秀的導師會從導生的見解中學習,機器學習的「教練機器人」,也會從那些獲得機器賦能的人類員工所做決策中學習。在我們描述的關係裡,人類可以不同意教練機器人的意見,這情況會創造新數據,而這些新數據會改變人工智慧內在的模型。例如,投資組合經理如果因為公司最近的一些事件,而決定不要交易重點股,他可以對系統提出解釋。有了回饋意見,系統會持續取得那些可用來分析的數據,以提出見解。

員工若能理解並掌控與人工智慧的交流,就較有可能視它為回饋意見的安全管道,目的是協助提升他們的表現,而不是評估他們的表現。選擇恰當的介面,有助於達成這個目的。例如,在MBAM,交易強化工具(比方說視覺工具)可以進行個人化設定,以反映投資組合經理的偏好。

一如在第二階段,讓員工參與設計系統是關鍵。人工智慧扮演教練時,人們會更加害怕失去權力。這時,人工智慧很容易被視為競爭者,而不僅是合作伙伴,況且,誰會想要覺得自己不如機器聰明?對自主性與隱私的顧慮可能會更強烈。與教練共事時必須誠實,而面對一個可能會與人資部門人員分享對自己不利資料的教練,人們可能會不太樂意坦誠以對。

前三個階段描述的人工智慧部署方式,當然會有些缺點。長期來說,新技術創造的工作,會多於它們破壞的工作,但同時,勞動市場可能會受到嚴重破壞。此外,就像麥特.比恩(Matt Beane)在〈與智慧型機器聰明共事〉(“Learning to Work with Intelligent Machines,” HBR, September-October 2019;全球繁體中文版刊登於2019年10月號)一文主張的,部署人工智慧的企業,可能會讓員工實地學習和接受指導的機會變少。

因此,不只是基層工作有流失風險(因為數位助理可以有效取代人類),未來決策者的自主思考能力,也有減損的風險。不過,這並非無可避免的。就像比恩建議的,企業可以運用人工智慧,為員工創造不同的、更好的學習機會,同時讓人工智慧更透明,並給員工更多控制權,藉以改良系統。未來的工作人力新血,在成長的過程中都身處人機共存的工作場所,因此他們幾乎一定會比那些前人工智慧時代的同事,更快看出創新的機會,並引入一些能增加價值、創造工作的活動,而這就讓我們進入最後一個階段。

階段 4:團隊伙伴

信任和理解,與人工智慧結為伙伴關係

認知人類學家艾德溫.哈欽斯(Edwin Hutchins)發展出所謂的分散式認知(distributed cognition)理論。這個理論立基於他對船隻導航的研究;根據他的說明,船隻導航需要結合水手、地圖、尺規、羅盤和繪圖工具。這個理論廣泛套用於延伸心智(extended mind)的概念,也就是說,認知處理,以及相關的心智活動(如信念、意向等),不見得只限於大腦或身體。在適當的條件下,外部工具和器材也能擔任認知處理工作,因而建構出所謂的組合系統(coupled system)。

與這種思維一致的是,在人工智慧實施歷程的最後階段(據我們所知,目前還沒有組織進入這個階段),企業會發展人類與機器的組合網路,讓兩者都貢獻專業。隨著人工智慧與個別使用者互動,並參考專家使用者過去決策和行為的數據,以分析、甚至模仿這些專家使用者,人工智慧將會逐漸改善;而我們相信,隨著人工智慧改善,專家社群(包括人類與機器)就會自然而然地在充分整合人工智慧機器人的組織裡興起。例如,採購經理能夠受惠於一個專門針對他需求而形成的專家群,因為經理在決策時刻只要點擊一下,就能看到別人可能提出的報價。

人工智慧迷失方向時

2016年,調查新聞網站ProPublica披露風險預測人工智慧程式COMPAS的相關報導;美國南佛羅里達的法官用這項程式,判斷被告在某段期間內再犯的可能性。

COMPAS的製造商Northpointe(目前公司名是Equivant),把這套程式背後的演算法列為商業機密,也就是說,我們不知道COMPAS是如何提出預測的,也無法取得訓練那套演算法所使用的數據,因此,我們甚至無法探究它的基本原理。當報導指稱這套演算法產生的結果會因種族而異,COMPAS立刻成為人類為什麼不能信任人工智慧的頭號例子。

如果企業想要員工開始採用、使用、最終信任人工智慧系統,一個重要關鍵就是盡可能在法律可行的範圍內,打開這種系統的黑盒子,讓那些預期會與這項技術互動的人了解其中的運作方式。就像Salesforce首席科學家理查.索赫爾(Richard Socher)說的:「企業若是使用人工智慧來做預測,就有義務對人類解釋,那些決策是怎麼做成的。」

雖然現在已有技術能夠創造這種集體智慧,但這個階段仍充滿挑戰。例如,人工智慧進行任何這類的整合,都必須避免建入舊的或新的偏誤,而且必須尊重個人對隱私的顧慮,如此人們才能像信任人類伙伴一樣,信任人工智慧。這本身就是相當重大的挑戰,因為已有大量研究顯示,在人類之間建立信任是很難的。

在工作場所建立信任的最佳方法,取決於信任和理解之間的關係:這是卡內基美隆大學(Carnegie Mellon)的大衛.丹克斯(David Danks)與同事的研究主題。根據這個模型,我信任他人,是因為理解那個人的價值觀、渴望和意圖,而且對方顯得很重視我的最佳利益。雖然一直以來,理解是人際關係裡培養信任的基礎,但它也很可能適用於培養人類與人工智慧的伙伴關係,因為員工對人工智慧的恐懼,通常是因為不理解人工智慧的運作方式(見邊欄:「人工智慧迷失方向時」)。

建立理解的一個特別挑戰,就是要定義「解釋」的意思,更別提要定義「良好的解釋」有多困難了。這項挑戰是許多研究的焦點。例如,本文作者之一(埃弗基尼歐)的研究,就是用所謂的反事實解釋(counterfactual explanation),打開機器學習的「黑盒子」。反事實解釋是列出少數幾個能左右某項決策的交易特質,以清楚解釋人工智慧系統的這個決策(例如核准某項交易的信用額度)。這些特質中的任何一項如果變得不同(或者違反事實),系統會就會做出不同的決策(信用額度會遭否決)。

埃弗基尼歐也在探索,人類認為哪些有關人工智慧決策的解釋是好的。例如,以下兩種呈現解釋內容的方式,人們認為哪一種比較好:合乎邏輯的條件組合(「這項交易獲得核准,是因為它具備條件X、Y和Z」),另一種則是與其他決策作對照比較(「這項交易獲得核准,是因為它看起來和其他獲准交易類似,請看以下資訊」)。隨著更多研究探討哪些因素更能用來解釋人工智慧的決策,人工智慧系統應該會變得更透明,因而能促進信任。

人類可以教導機器

採用新技術一向是重大挑戰,而技術的影響愈大,挑戰就愈大。人工智慧因為有潛在的衝擊,而可能被認為特別難以實施。然而,如果謹慎用心實施,採用人工智慧的過程也可以相當順利。正因如此,企業必須確保人工智慧的設計和發展是負責任的(尤其是關於透明度、決策自主性和隱私方面),也要讓將會與人工智慧共事的人員參與。否則,他們理所當然會害怕,擔心這些以人們不理解方式做出各種決策的機器,將會限制他們,甚至取代他們。

克服這些恐懼,並與人工智慧建立信任關係,正是其中關鍵。本文描述的四個階段,全都是由人類來決定基本規則。只要有負責任的設計,人工智慧就可能成為工作場所裡的真正伙伴,用一致的方式迅速處理大量、多樣的數據,以強化人類的直覺和創意,而人類也可以回過頭來教導這些機器。

(周宜芳譯自“A Better Way to Onboard AI,” HBR, July-August 2020)



博利斯.巴比克 Boris Babic

歐洲工商管理學院(INSEAD)決策科學助理教授。


丹尼爾.陳 Daniel L. Chen

土魯斯經濟學院高等研究所(Institute for Advanced Study at the Toulouse School of Economics)教授、世界銀行「司法改革數據與證據」計畫(Data and Evidence for Justice Reform)首席調查員。


希奧多羅斯.埃弗基尼歐 Theodoros Evgeniou

歐洲工商管理學院決策科學與科技管理教授,也在本文提到的投資公司MBAM擔任顧問。


安羅爾.法雅德 Anne-Laure Fayard

紐約大學坦登工學院(NYU's Tandon School of Engineering)創新、設計與組織研究副教授。


本篇文章主題技術