本文出自

遇見機器人同事

遇見機器人同事

2015年6月號

我的機器人上司

When Your Boss Wears Metal Pants
華特.福力克 Walter Frick
瀏覽人數:13379
  • 文章摘要
  • "我的機器人上司"

  • 字放大
  • 授課文章購買
    購買〈我的機器人上司〉文章
  • 個人收藏購買
    購買〈我的機器人上司〉PDF檔
    下載點數 10
本文提出人形機器人最新研究帶來的見解。這些研究發現,雖然人與機器合作的情況,會根據工作形態與機器設計方式而有不同,但要真正接受這些非人類同事,首先,經理人必須接受「機器人比我們懂得更多」的現實;其次,必須信任機器運算。

麻省理工學院(MIT)研究員凱特.達林(Kate Darling)在2013 年一場機器人會議中,邀請與會者跟機器恐龍Pleo 一起玩。這些電子恐龍玩具的大小有如吉娃娃,她請參與者幫他們的機器恐龍取名字,並與它們互動。他們很快就發現,這些玩具會跟人溝通:小恐龍會透過姿勢和面部表情,顯示它們喜歡人家輕撫,不喜歡人家抓著它們的尾巴提起來。過了一個小時後,達林讓大家休息一會兒。休息結束後,她發下刀子和小斧頭,請大家用來折磨他們的小恐龍,把它們劃破解體。

達林早就料到有些人會抗拒,但沒想到大家一致拒絕傷害這些機器玩具。有些人甚至用自己的身體保護小恐龍,不讓任何人傷害它們。達林在2013 年的一場演講做出結論說:「即使知道這些擬真機器不是真的生物,我們還是會對它們發出的社交暗示有所反應。」

這種見解將塑造下一波的自動化會如何發展。正如艾瑞克.布林優夫森(Eric Brynjolfsson;亦譯為「艾立克.布林約爾松」)和安德魯.麥克費(Andrew McAfee;亦譯為「麥克菲」)在他們的著作《第二次機器時代》(The Second Machine Age )描述的,從會在廠房迅速學習新工作的自動化機器人,一直到能評估求職者、或提出企業策略建議的軟體等「思考機器」(thinking machine),即將進入職場,並可能為企業和社會創造極大的價值(見本期第68 頁布林優夫森和麥克費的訪談)。但是,技術上的限制雖然正逐漸消除,社會限制卻依然存在。要如何說服團隊信任人工智慧?如何讓團隊接受機器人成為他們的一份子,甚至成為他們的經理人?如果把那個機器人換掉,士氣會不會受影響?

要答覆這些問題,必須先了解人將如何與會思考的機器合作及建立關係。愈來愈多研究正在增加我們這方面的知識,並提供一些基本的見解,說明這種合作如何能完成任務。隨著這些機器從工具演變成為隊友,有一點很清楚:接受它們,絕不只是採用新科技這麼簡單。

演算法:信不信任有關係

與思考機器合作的第一個挑戰,就是體認它們經常比我們懂得更多。以下看看2014 年的這項發現:華頓商學院(Wharton)的研究人員進行一連串的實驗,請參與者根據自己的判斷,或是利用演算法做一些預測,如果預測正確,可以獲得金錢獎勵。例如,有一項實驗提供參與者以前一批企管碩士學生的錄取資料,請他們估算這些學生在碩士班上的表現。大部分人比較喜歡靠自己的本能直覺來評估,不願採用演算法。

這種現象稱為「規避演算法」,其他許多研究也曾記錄下這種現象。不論是為病人診斷,還是預測政治結果,一般人總是較偏向採取人力判斷,包括靠自己或別人來作判斷,而不願靠演算法,因此常做出較差的決定。經理人由此可知,協助人們信任思考機器,是極為必要的。

可惜單是呈現出某種演算法的能力高強,並不能就此讓人們信任演算法。華頓研究人員公布參與者的猜測結果、演算法推算的結果,以及正確的答案,參與者可以看出來,演算法推算的結果通常正確得多。但看到這些推算結果,表示他們也發現演算法同樣會犯錯,而這會影響他們對演算法的信心。研究團隊中的柏克利.狄特沃斯特(Berkeley Dietvorst)說:「人們看到演算法出錯,就對它失去信心。」他表示,即使人比演算法更常出錯,但人們不會對自己失去信心。換句話說,我們不能接受演算法出錯,對人犯錯卻似乎比較寬容。根據狄特沃斯特的說法,這是因為我們相信人的判斷可以改進,卻以為演算法無法改善(但這麼想是錯的)。

碰到我們認為比數字運算更複雜、更需要直覺判斷的工作,規避演算法的心態可能會更明顯。西北大學凱洛格管理學院(Northwestern''s Kellogg School)、哈佛商學院的研究人員,請群眾外包網站Mechanical Turk 上的工作人員做許多不同的事情;告訴其中一些人,要他們做的工作需要「認知」和「分析推論」,而告訴其他人工作需要的是「感覺」和「感情處理」。接著,研究人員詢問參與者,是否放心把這種工作外包給機器處理。獲知工作涉及感情的人,比獲悉工作屬於分析性質的人,更不放心把工作交給機器處理。參與這項研究的哈佛商學院教授麥可.諾頓(Michael Norton)做出結論說:「思考幾乎就像是在算數學。讓機器人算數學無所謂。讓機器人感受事物卻不行,因為這樣一來,它們就太像人了。」

諾頓認為,只要把工作賦予分析的性質,就可能有助於克服一般人對演算法的疑慮。在另一項實驗,他和凱洛格管理學院助理教授亞當.魏茲(Adam Waytz)發現,提出由機器人教數學的構想時,如果聲明「要教學生各種方程式和演算法,需要很多分析技巧」,人們可能較容易接受由機器人來教,但如果宣稱這種教學「需要了解年輕人」,這種構想較不可能獲得認可。

狄特沃斯特和華頓商學院同事提供另一種對策。既然人偏好自己的判斷,而較不喜歡演算法,何不把前者納入後者?他們進行實驗,准許參與者略微調整演算法推算出來的結果。他們要求參與者根據各種資料,估算一個高中生的數學標準測驗考得多好。研究人員並未要求參與者在自己和演算法的推算之間只能選擇一個,而讓參與者把演算法的估算結果,向上或向下修正幾個百分點,然後提出來當成自己的預測。研究人員發現,可以選擇這麼做的人,更可能信任演算法。狄特沃斯特認為,那是因為他們不再覺得自己無法掌控預測工作。

我們不能接受演算法出錯,因為相信人的判斷可以改進,卻(誤)以為演算法無法改善。

長得愈像人,愈容易獲信任

要鼓勵人信任思考機器,還有另一個方法,就是把機器做得更像人。研究結果顯示,讓機器或演算法具備聲音或人類形體,可使人更容易親近它們。西北大學、康乃迪克大學(University of Connecticut)、芝加哥大學(University of Chicago)的研究人員,用自動駕駛車輛來檢驗這種論點。他們讓實驗參與者使用駕駛模擬器,參與者可以自己操作方向盤,也可以啟動自動駕駛功能。有些情況下,自動駕駛系統只是接管模擬器的行進方向和速度;另有些情況下,這個系統也會表現出擬人特性,包括有個名字「愛瑞絲」(Iris),還有女性的聲音,會在行進過程跟駕駛人講話。實驗結果顯示,操作配備愛瑞絲系統的車輛駕駛人,更有可能啟動自動駕駛功能。研究人員也設定模擬車禍程式,讓車禍看起來是別的車輛造成的,而不是自動駕駛功能出錯。與使用沒有名字或聲音等自動控制系統的人相比,使用愛瑞絲系統、並在愛瑞絲操控車輛時碰到車禍的人,表現得較為輕鬆,也較不會責怪自動駕駛功能惹出車禍。

研究人員認為,愛瑞絲更能贏得人的信任,是因為人有擬人化傾向,也就是為非人類賦予人類特性和動機,像是思想、感覺或表達意願之類的能力。很多研究顯示,為機器賦予聲音、形體,甚至是名字,都能引發這種傾向,讓人與機器合作時更感自在。例如,若是機器人與我們「眼神接觸」,我們與機器人的合作似乎更有成效,而且機器人若是把頭偏向一側,我們會覺得它們更可愛,而且更像人。(還記得Pleo 吧?)

卡內基美隆大學(Carnegie Mellon)研究人員用一個四呎半高的自動機器人,來探究這種想法。這個名為點心霸(Snackbot)的機器人,用輪子滑動,有手臂、男性聲音和LED 嘴巴,會微笑和皺眉頭。點心霸的工作是在辦公室分送點心,但它經過刻意設計,要引發擬人化反應。果然,辦公室裡的人對它很和善,還會跟它交談。研究人員問參與者跟這個機器人的互動情況,其中有個參與者說:「點心霸沒有感覺情緒,但我不想拿了點心,就當著它的面把門關上。」

點心霸的程式,也讓它會跟一些人進行「個人化」的交談,像是評論他們最喜歡的點心。獲得這種對待的員工,對點心霸的服務比較滿意,在點心霸對他們提出要求,像是詢問應該把服務範圍擴大到辦公室哪些地區時,也更可能合作。

但機器人有時可能太像人

為思考機器增加擬人化特性時有一個挑戰,就是這種機器可能會讓我們太相信它們的能力。加拿大曼尼托巴大學(University of Manitoba)研究人員進行一連串的實驗,請參與者做一再重覆的單調工作:重新命名電腦裡的檔案。研究人員沒有告訴參與者實驗時間要持續多久,只說他們可以隨時離開,但要更名的檔案似乎多到沒完沒了。參與者遲早會受不了想罷手,但這時兩呎高的擬人化機器人「吉姆」,會敦促他們繼續做下去。吉姆坐在一張辦公桌上,好奇地張望整個辦公室,用機器人的聲音講話,還會比手勢。這些特性經過刻意設計,以展現智慧氣息(參與者不知道這個機器人其實是由研究人員控制,自己不太能做什麼)。有人想要放棄工作時,吉姆會說「請繼續,我們需要更多資料」,或是「你繼續工作對我們非常重要」之類的話。這種情況一直持續到參與者不再理會機器人敦促,宣告放棄,或是實驗滿八十分鐘為止。研究報告作者之一的詹姆斯.楊(James Young)覺得最不可思議的是,許多人「把機器人當成能討價還價的對象」。他們會向機器人抗議,說叫他們繼續做這種事很不合理,儘管機器人只是重複相同的幾句話。機器人若是有形體和聲音,似乎就足以讓一些人覺得它有能力跟他們講道理。

另一個問題,就是隨著機器更擬人化,我們更可能像對人一樣,對它們形成刻板印象,甚至產生歧視心態。南韓崇實大學(Soongsil University)研究人員做了一項實驗,讓保全機器人監看閉路電視,尋找可疑的行動,以衡量一般人對它的滿意度如何。如果把這個機器人叫做約翰、並賦予男性聲音,一般人對它的評價,高於把它叫瓊安、並賦予女性聲音時,雖然約翰和瓊安做的事情完全相同。其他研究顯示,在家裡使用的機器人,引起的感受正好相反。

最後,擬人化機器人也可能在職場造成人際問題。在點心霸機器人實驗,有個人曾因點心霸當著別人眼前,指出他特別愛點銳滋(Reese''s)杯狀花生巧克力,使他覺得有點難堪。點心霸也曾稱讚一個工作人員老是待在辦公室,因此做事一定很賣力,使另一個同事嫉妒。研究人與機器互動問題的南加州大學(University of Southern California)教授強納森.葛瑞契(Jonathan Gratch)說:「為機器加入愈多生命特性,尤其是類似感情的特性,就愈容易引發這類社交效應。你有時可能未必希望擬真機器人隊友完全像人,而是希望它比人更好。」

葛瑞契的研究,探討如何讓思考機器在人與機器世界左右逢源,既能贏得人們信任,同時避免擬人化造成的一些問題。他在一項研究中,要兩組參與者與電視螢幕上一個數位動畫人物,就是所謂的「擬真人」,一起討論他們的健康情況。研究人員告知某一組參與者,說這個化身人物是由真人控制;另一組則被告知這個化身

為思考機器增加擬人化特性的一個挑戰,就是這種機器可能會讓我們太相信它們的能力。

人物是完全自動化的。實驗結果顯示,第二組參與者更願意透露自己的健康情況,甚至表露更多難過的心情。葛瑞契說:「他們跟真的人談話時,會擔心受到負面評價。」

葛瑞契因此建立了一個假設:「在某些情況下,機器缺乏人的特性反而更好。」例如,「你可能想像如果有個電腦上司,你會更可能坦誠說出它有哪些缺點」。葛瑞契也認為,在有些情況下,較不擬人化的機器人,甚至更可能讓人覺得它較不會有偏見或偏袒。

當人們較喜歡機器人同事

我們如何與會思考的機器合作,會根據工作內容、工作的架構方式、機器的設計方式而改變。但在各種情況配合適當時,人對機器人同事的態度會出奇地開放接受。茱莉.夏(Julie Shah)和她麻省理工學院的同事設計一套實驗,由一個參與者、一個助理、一個機器人合作製造樂高積木。研究人員說明他們必須像在工廠一樣工作,而且有嚴格的完工時限。有效分配任務給各個成員,對迅速完成計畫極為重要。

這些參與者在三種不同情況下,製造三套樂高積木。第一種情況,是由機器人分派任務:把一個工作檯上的樂高組件,拿到另一個工作檯組合。第二種情況,是由參與者分派任務;第三種則由參與者安排自己的工作,剩下的任務由機器人分派給它自己和助理。研究人員原來猜想,參與者會對第三種情況最滿意,因為他們可獲得機器人演算法對安排工作的高強能力所帶來的好處,他們自己對工作也保有自主權。但事實顯示,人較喜歡由機器人分派所有的任務。這也是效率最高的做法,因為團隊完成工作的時間最短。

為什麼這些參與者會比拒絕仰賴演算法的華頓實驗參與者,更樂意接受機器人?我們還不太確定原因。茱莉.夏指出,他們設計的任務很難在規定時限內完成,因此,參與者知道機器人的幫助對他們有好處。工作的架構方式也很可能有幫助:他們的目標,是在受控制的環境裡,追求最大的生產力,而且必須與時間賽跑,這正是機器人可能很擅長的邏輯性挑戰。最後,雖然那次實驗使用的機器人不會講話,也沒有設計成具備社交能力,但還是有身體,可能使它比無形的演算法顯得更有智慧。

茱莉.夏的實驗結束時,參與者說明他們為何偏好某種情境安排。值得注意的是,偏好讓機器人主持大局的人,並未強調它的擬人化特質,或是他們與機器人建立的感情。相反地,他們提出的理由包括「我從不覺得自己在浪費時間」,以及「它消除了工作安排受團隊領導人自我影響的可能性」。機器人是很好的隊友,因為它做的是機器人最擅長做的事情。

(黃秀媛譯自“When Your Boss Wears Metal Pants,”HBR , June 2015)



華特.福力克

華特.福力克 Walter Frick

《哈佛商業評論》副主編。


本篇文章主題技術