人工智慧助我們做出更好的選擇?

Can AI Nudge Us to Make Better Choices?
鮑伯.徐 Bob Suh
瀏覽人數:1265
當機器學習,遇上行為科學,組織可用以打造更好的結果。

經濟學中的行為革命,是由一個人們常想到的簡單問題所引發的:如果人們不理性行動會怎樣?同樣這個問題現在正困擾著科技領域。網路世界曾經被認為是一個資訊隨處可得、易於協作的地方,但是在這裡,謊言和仇恨可以比事實和善意傳播得更快。企業制度也會引發非理性行為。例如,員工在預測銷售額時,通常會隱藏不良交易,並且選擇性地報告好交易。人工智慧站在前述那個有關行為的問題的十字路口,有可能使事情變得更糟,或者讓我們產生更好的結果。更好結果的關鍵,是提高人工智慧的情緒智慧(EQ)。該怎麼做到?做法是,訓練演算法去模仿人們在建設性關係中的行為方式。

無論我們是否願意承認,我們都會與應用程式建立關係。而應用程式就像人一樣,可以引發我們正面和負面的行為。當具有高EQ的人與我們互動時,他們會逐漸了解我們的模式,與我們的動機產生同理感受,並仔細衡量自己的反應。他們會根據自己預期我們會如何反應,來決定要忽視、挑戰或是鼓勵我們。

人工智慧可以接受訓練來做相同的事情。為什麼?因為行為比我們認為的更容易預測。規模達七百億美元的減重產業蓬勃發展,因為減重公司知道,大多數人都會復胖。規模達四百億美元的博奕產業,獲利來自賭徒不合理地期待自己能翻本。信用卡公司知道,人們很難打破自己的消費習慣。

雖然現在仍屬早期階段,但行為科學和機器學習領域,已經提供了一些很有前景的技巧,可望創造更高EQ的人工智慧,而且已有一些組織運用這些技巧,以便產生更好的結果。這些技巧包括:

注意到模式中斷和推力(nudge)。你打破模式的時候,認識你的人很容易就能看出來,並據此做出反應。例如,朋友可能會注意到你突然改變了固定做法,並詢問你原因。美國銀行(Bank of America)網路帳單支付系統同樣會注意模式中斷,以防止用戶輸入錯誤。這套系統會記住你過去的付款模式,在你大幅增加對某個賣家的付款時發出提醒。

用基準指標鼓勵自我覺察。若是直接告訴某個人他表現不佳,往往會造成反效果,引發對方的防衛心態而非加倍努力。更加圓熟的方法,是只讓人們看到自己和其他人相比的結果。例如,一家大型科技公司使用人工智慧製作的銷售預測,比銷售團隊所做的更準確。為了誘導銷售團隊調整做法,這套系統為每個團隊成員提供個人化的圖表,顯示他們的預測與人工智慧的預測之間的差異。接著採取一個簡單的推力做法,也就是詢問造成這種差異的原因可能是什麼。團隊成員可以對此提供合理的解釋、避免提出回饋意見,或者聲稱人工智慧的預測不正確。人工智慧由此得知那個人的反應的主要內容和時機點,把他的反應與這兩個預測的落差做比較,然後再選擇適當的第二階推力。

使用賽局理論來接受或質疑結論。試想你所在的團隊,每天必須在超過十萬筆共同基金交易中找出錯誤。管理資產規模達一兆美元的一家基金公司,正在利用人工智慧來解決這個讓人望而怯步的問題。人工智慧的第一個版本,根據錯誤的風險和潛在成本,為潛在錯誤(稱為「異常」)評分,然後把風險最高的異常排在第一位。接著,系統會追蹤分析師花在每個異常上的時間。一般認為,分析師會花較多時間在風險異常情況上,花較少時間在「毫無疑問的情況」上。但其實,一些分析師會直接忽略風險最高的異常情況,快速得出可疑的結論。

在大多數的大規模安檢系統中,誤報率通常非常高。例如,美國國土安全部(Department of Homeland Security)的祕密小組發現,檢查員會設法通過美國運輸安全管理局(TSA)的安檢系統,以測試能否走私武器或爆炸物,而其中95%都能成功。共同基金分析師搜尋無數交易,就像TSA安檢員處理成千上萬名旅客,他們的眼睛純粹只是掃過異常狀態,沒有真正注意到。

該基金正設法解決這種危險但高度可預測的行為,做法是採用西洋棋程式所用的演算法。這個序列賽局(sequential game theory)的修改版,首先監測分析師是否認為異常是誤報,或決定花更多時間在異常上。人工智慧扮演西洋棋對手的角色,可採取的反擊做法是接受分析師的決定,或者是挑戰分析師的決定。

為見解和行動選擇合適的時間。按照任何標準來看,傑夫.貝佐斯(Jeff Bezos)都可算是非常精通決策的人。他最近接受彭博電視(Blooberg)的大衛.魯賓斯坦(David Rubenstein)訪問時,說明了自己做決定的架構。當他在傍晚時碰到需要做複雜的決定時,他經常回答說:「這聽起來不像是一個下午4點該做的決定;這聽起來像是早上9點的決定。」

我公司的銷售團隊進行A/B測試,以探究一天中最適合讓潛在客戶電郵回覆率最大化的時刻,結果發現,週二早上和週五下午發送的電子郵件,回覆率有極大差異。許多消費者通訊系統,已經被調整成要創造最大化的成果。這套進行調整的演算法,還可以被加強用來決定要做出哪一種類型的決定,以及判斷使用者回覆和做出更好選擇的傾向。例如,需要更多思考的決定,可以等到決策者有更多時間思考時才提交給他,而判斷他何時有更多時間,依據的是預測,或是使用者的行事曆。

具備更高EQ的人工智慧,能否為網際網路帶來更多文明舉止?西方商人與日本同行談判時,很快就會了解 「真心話」(內心感受)與「場面話」(公開表達的內容)的區別,社群媒體公司若能了解這兩者的區別,就可以表現得很好。彼此理解內心感受和場面話的區別,能減少誤解。也許可以開發出以這種區別為基礎的演算法,以解決人們的一種可預測到的傾向,也就是在群眾(即便是虛擬的群眾)影響下人們傾向說出或做出的事,若沒有群眾的影響,他們可能就會遲疑要不要做這些事。某人準備好一則煽動性、誤導性或殘忍的貼文,可能會受到鼓勵重新思考自己使用的言詞,或者收到提醒要他注意「流行趨勢」主題中類似暴徒的內容。開發這種情感強烈、高EQ的人工智慧,是非常艱巨的挑戰,但相較於簡單刪除個別貼文,這種做法最終可能更有助於改善網路行為。

(劉純佑譯)



鮑伯.徐

鮑伯.徐 Bob Suh

OnCorps創辦人兼執行長,OnCorps是強化決策科學的機器學習公司。在創辦OnCorps之前,他曾擔任埃森哲顧問公司(Accenture)的首席技術策略師和該公司全球技術事業的策略長。


本篇文章主題行為經濟學