人工智慧,我的麻煩隊友?

AI Can Be A Troublesome Teammate
寇特.葛瑞 Kurt Gray
瀏覽人數:4384
人工智慧聚焦在「智慧」上,並追求極致的完美。研究顯示,這就是為什麼大部分的人不信任人工智慧。因為人工智慧雖有強大的思維能力,卻沒有感受能力。換句話說,它能為你做出最佳選擇,卻無法照顧你在過程中的感受。

人工智慧(AI)可望比人類,甚至比聰明的人類,更快作出更好的決定。若要選擇「我該走哪條路回家」或「我該如何組織經銷鏈」,人工智慧明顯比較優秀。但在生死攸關之際,人工智慧仍能表現優異嗎?

我是研究科技的社會心理學家,但我讀大學時,曾在一家地球物理勘測公司工作。我們在加拿大北部的冰原裡尋找天然氣。大多數勘測站地處偏遠且酷寒,許多勘測站只能搭乘直升機抵達。

一個冬日午後,某個勘測站的飛行員以無線電發出壞消息:一場風暴已進入該區,能見度變差,飛行很危險。我的機長伊恩(Ian),必須作出艱難的決定:他應該讓我們冒著生命危險在風暴中飛行,或是在嚴寒的荒野中過夜,沒有食物或掩蔽?他選擇過夜。雖然我們面臨冰點以下的氣溫,但我完全信賴伊恩的決定。他擔任荒野消防員已有很多年,懂得如何存活。當時我確實把我的性命託付給他。

如果我的公司一直在使用人工智慧,那天晚上作出決定的可能不是伊恩。可能是由一個電腦程式來考量天氣情況、喪失工作人員的成本、直升機損毀的成本和許多其他因素,權衡這些因素的利弊得失。那個智慧型機器可能得出和伊恩相同的結論:讓我們留在那裡過夜是最好的選擇,但我會信賴那個決定嗎?我會覺得安全嗎?

根據在那之後我從事的工作,我不會把性命託付給人工智慧。而缺乏信任,也會對工作場所全面實施人工智慧,造成嚴重的障礙,即使沒有人命受到威脅,也是如此。

我的研究檢視人們如何理解其他的心智,包括人類的心智、動物的心智、電腦的心智,結果顯示,那些心智的內容,比我們經常以為的更模糊不明。我們永遠無法直接體驗別人的想法與感受,所以必須對以下這類問題作出最好的猜測:你的寶寶愛你,是否像你愛他那樣多?你的上司微笑時,是真的開心嗎?你的狗調皮搗蛋被你逮到時,牠會尷尬嗎?

雖然生物的心智可能難以理解,但電腦心智的本質更模糊不明。IBM超級電腦深藍(Deep Blue)在西洋棋賽上打敗蓋瑞.卡斯帕洛夫(Garry Kasparov),是它想要贏嗎?或者,它只是被程式編碼要贏?Google提示我們下班回家的最佳路線時,它真的明白通勤意味著什麼嗎?網飛(Netflix)推薦我們可能會喜歡的電影時,它在乎我們的愉悅嗎?

理解人工智慧心智的人,認為人工智慧非常偏頗:有強大的思維能力,卻完全沒有感受能力。這是對當前技術非常正確的看法,因為Google和網飛都不會墜入情網,也無法享受巧克力的滋味。但真正限制人工智慧,或至少限制它在勞動力中角色的,是人們認為機器人永遠不會有感受。

部分是由於這種缺乏感受的能力,讓人們認為人工智慧不值得信任。在建置運用人工智慧時,這點無比重要。員工是否會信任人工智慧?它純粹從功能角度來看待員工,把員工視為具有某種技能組的工人,而不是懷抱希望與關切的個人,在這種情況下,員工會信任人工智慧嗎?

要信任團隊成員,至少需要三件事:相互關切、共同的脆弱感,以及對能力有信心。相互關切,也就是知道隊友關心你的福祉,這也許是信任的最基本要素。當一位排長冒著被射殺的危險,深入敵後搶救他手下的一名士兵,他不是從功能角度作出最佳決定。然而,排長會選擇這種「不理性」行動方式(人工智慧就不會這麼做),這個事實使他那個排裡面的每個人都更信任他,因而提高整體團隊的表現。

在日常生活中,有關職涯與晉升的事項,我們仍然希望上司與同事把我們視為人,而不是一個巨大的優化問題當中的變數。我們希望自己不只是存貨試算表中的一行資料。但人工智慧了解的我們就只是那樣。

我們不信任人工智慧,不僅是因為它似乎缺乏情緒智慧,也因為它缺乏脆弱性。如果人類沒做好工作,可能就會被解雇,失去獎金,甚至喪命。但在人工智慧的工作場所中,如果一個專家決策系統錯誤地推薦某個行動方針,而不是另一個行動方針,對電腦不會有影響。人工智慧系統只用別人的命運下賭注,從來不用自己的命運去賭。

信任的第三個障礙,其實是人工智慧的強項:它超人的計算與預測能力。一旦親眼看到人工智慧在幾秒鐘內就能執行龐大的運算,或是預測股票走勢後,我們很快就會信任人工智慧的能力。可惜,這也可能對人工智慧不利,它只在範圍狹窄的情況下表現良好。如果人工智慧被迫在本身限度之外運作,例如,整個家庭使用同一個網飛(Netflix)帳戶,或是要求Google預測一段關係的結果,必然會感到失望。

我最近和美國國防部下轄海軍研究辦公室(Office of Naval Research)的某人談話,他概要說明了缺乏技術經驗的水手如何運作人工智慧系統。首先,他們以一種敬畏的態度面對人工智慧,期望它完美地完成每項工作。但如果某個系統犯了錯誤,而且是從人類觀點看來顯然很愚蠢的錯誤,水手就會完全停止使用它,即使在人工智慧其實很擅長的結構性環境下,也不使用。若要建立信任,人工智慧應傳達它的自信,如果能表達它對失敗的恐懼,會更好。

不可否認的是,人工智慧迅速變得愈來愈複雜巧妙,但我們對它的信任卻是落後的。這點很重要,因為在許多產業中,團隊內部必須有深厚明確的信任 才能成功。在鑽油平台上和軍中單位,信任你的隊友可能攸關生死。在較不危險的企業內,信任可能是能否達成交易,或是完成專案的關鍵。我們信任其他人,不是因為他們極度聰明(像人工智慧那樣),而是因為他們有情感連結,尤其是和我們有情感連結。

這並不意味著人工智慧沒有用。恰恰相反。人工智慧代表解構的心智、聚焦的智慧,被訓練來發揮最大效能。在許多方面,它不像全面發展的人類心智,人類可以同時理解語言、解決問題、了解他人的感受。

如果我現在還在加拿大北部做那個勘測工作,可能仍不信賴電腦會在森林中拯救我的生命,但我會指示人工智慧去查看天氣,並決定那天早上我們不要冒險出任務。我很高興我有個人類機長,但希望電腦會在一開始就阻止我們出任務而受困。

(侯秀琴譯自2017年7月20日HBR.org數位版文章)



寇特.葛瑞 Kurt Gray

美國北卡羅來納大學教堂山校區(University of North Carolina, Chapel Hill)心理學和神經科學副教授。他擁有哈佛大學博士學位,研究心智感知(mind perception)、道德判斷、社會動力學(social dynamics)和創意,是獲獎的研究員暨教師。他和丹尼爾.魏格納(Daniel Wegner)合著《心智俱樂部:誰在思考、有何感受、為何重要》(The Mind Club: Who Thinks, What Feels, and Why It Matters)。


本篇文章主題技術與營運