管理創新時「沒想到」的負面效應

Managing the Unintended Consequences of Your Innovations
尼汀.諾瑞亞 Nitin Nohria , 賀曼特.塔涅賈 Hemant Taneja
瀏覽人數:1043
Dima Sikorski/ Stocksy
各種科技的創新,給人們帶來便利,卻也伴隨當初未曾料想的危害。近的來說,有臉書淪為假消息的散播品平台;遠的來說,工業革命帶來我們至今仍苦於解決的環境破壞。那麼,最開始領導創新技術的企業或領導人,是否需要為這些當時「沒想到」的負面後果負責?作者認為,創業者與投資人必須挺身而出,為自家企業造成的非預期後果負責,並為此提出解決之法。

21世紀出現了前所未見的創新,但我們也目睹了未受節制的科技帶來的「非預期後果」。

以馬克.祖克伯(Mark Zuckerberg)為例,他創辦臉書(Facebook)並不是要讓第三方濫用,也不是要讓政治干涉行為在他的平台上肆虐。然而,在臉書口號「快速行動,打破陳規」的推波助瀾下,原本想要「賦予人們力量去分享,讓世界更開放、連結更緊密」的臉書平台,最終產生了原本無意產生的巨大破壞後果,像是美國國會山莊攻擊事件。

科技帶來的非預期後果,並不是21世紀才出現的。1930年代,羅伯.莫頓(Robert Merton)提出一個架構,可用來了解各種不同種類的計畫外後果:未預見的益處、反常的結果,以及未預期的缺點。的確,我們可以在歷史裡看到的一些重大進步,例如工業革命,或是高果糖玉米糖漿,卻對社會造成持久的傷害,像是空氣汙染及糖尿病。然而,今日科技造成的後果更惡劣,因為它們的複製速度驚人。摩爾定律(Moore's Law)及梅特卡夫定律(Metcalfe's Law)促成這些科技迅速擴大發展規模,這對科技業有好處,同時也傷害了科技業,因為這也加重了科技的非預期後果。

這些非預期結果是否無法避免,是人類在其他方面進步的必要代價?還是我們可以預料到,並減輕這些非預期結果?

「非預期」這幾個字,意味著我們無論多努力去設想,就是無法設想到會有這些後果。人類在預測未來時面對的天生限制,使得我們事先實在沒有太多事情可以做。這似乎意味著我們必須將就接受取捨,為了效益,而接受不好的後果,只希望科技的任何全新效益,也就是預期得到和計畫之外的效益,能高於它們的成本。我們或許對Google造成的非預期後果感到不悅,像是搜尋偏差(search bias),但我們真捨得放棄只要打字,立刻就能取得全世界資訊的這種能力嗎?雖然計算和考量效益有實質吸引力,卻會招致本身的非預期後果,造成創業者及他們的投資人不負起責任。他們為何要為自己無意造成的有害後果負責,尤其是如果他們的企業,也為社會帶來很大的好處?

儘管困難,但我們認為,創業者與投資人必須挺身而出,為自家企業造成的非預期後果負責。一如本文作者塔涅賈寫過的一篇文章指出的,公司創辦人的心態,對促成公司改變如何思考計畫內與計畫外後果的方式很重要。若創辦人不願意直接面對這些具挑戰性的問題,並在身邊安排背景多元、擅長思考的人,以防止自己出現盲點,組織就不太可能看出自家產品會如何影響社會,或是不太可能有資源,以設置適當的制衡措施。

利用演算法示警

在過去,避免創新造成非預期的惡劣後果,是有挑戰性的。缺乏電腦的輔助,企業只能依賴人類的遠見,去預測可能發生什麼事情,並建立恰當的防範措施。或者,他們必須指派團隊密切監看,隨著他們的科技擴展,那些科技造成的後果如何演變發展。在大多數的情況下,這種預感和監看的工作內容都還不夠。修正行動來得太遲,因為問題只有在變成頭條新聞時才會浮現。不僅如此,一旦某項科技已根深柢固,運作這項科技的企業,就已牢牢掌控相關經濟利益,而且難以鬆開那種掌控。

雖然今日的科技更複雜,可能較難減輕不良後果,但我們終於擁有一項工具,可用來找出可能會失控的事項,這項工具就是人工智慧。

深度學習的人工智慧,有助於找出人類無法輕易辨識出的模式,讓我們擁有新的預測能力。利用演算法來對科技提出預警,是我們必須採取的第一步,以便預測並減輕非預期的後果。

例如,一些人工智慧模式的發展,像是艾倫人工智慧研究所(Allen Institute for AI)開發的Grover模型,能搜尋「假新聞」,並防堵錯誤資訊傳送給大量的閱聽者。布魯金斯學會(Brookings Institution)最近描述另外好幾個人工智慧模式的例子,它們可以產出並發現假新聞。他們的研究結論是,Grover在辨識人類撰寫或機器撰寫的新聞方面,準確率達到92%。

我們建議開發類似的演算法預警模式,來減輕許多方面的非預期後果。現在的問題是,我們是用回溯的方式,來建立這些人工智慧演算法的。我們認為,未來公司創辦人必須在產品開發流程最早的一些階段,就納入這些系統。針對責任採取系統式的設計方法,並清楚表明這是一個「目標與關鍵結果」(Objective and Key Result,簡稱OKR),這麼做,可讓工程團隊把預警系統,深入內建在他們開發的科技中,並把它們當成「關鍵績效指標」(Key Performance Indicator,簡稱KPI)來追蹤成效。這麼一來,公司就可以開始衡量在企業成功以外的真正重要事物,也就是它們的科技造成的潛在非預期後果,以及公司領導人減輕這些後果的責任。

清楚說明計畫外後果的種類

假新聞成為媒體平台的一個非預期後果,這個例子在今日似乎理所當然,但領導人在開發預警演算法時面臨的挑戰,是要訓練它們來偵測什麼事物。我們需要這些演算法來動態地預測,公司本身採取的行動可能產生哪些非預期後果,例如,商業模式仰賴人們提供數據資料,這些數據可透過廣告來創造營收,而這會產生消費者隱私的問題。這些演算法,還必須找出不在任何一家公司控制範圍內可能發生的事件,因而引發的後果,如果能預測到這些後果,就能設法減少它的傷害,像是因為疫情而失去一整個世代裡的一些群體,因為他們受疫情影響而無法接受教育。雖說非預期後果的種類因公司而異,但我們最終都必須開始發展一套分類法,來指引我們集體思考。

許多影響力投資人(impact investor)現在倡議採取的環境、社會及公司治理(Environmental, Social, and Corporate Governance,簡稱 ESG)架構,是一個有用的起點,因為它鼓勵我們思索環境、社會及公司治理領域的非預期後果。然而,開發演算法示警系統需要詳細的資訊,因此這個分類法還必須更具體詳盡,才能據以採取行動。以下是我們應該尋求的一些細項:

• 錯誤資訊的廣泛散播

• 資訊與市場力量的集中

• 隱私及個人資訊洩漏

• 工作人力當中的不平等程度增加

• 取得必需品及服務的途徑減少

• 疏離(alienation)或社會孤立

• 環境破壞

這份清單並不完整,但它列舉了我們應該注意的非預期後果的一些類型。

管理非預期後果

為非預期後果做分類的架構,只有以嚴謹的實務做法來支持,這個架構才會有用。演算法可以做到人類辦不到的許多事情;然而,要靠組織領導人來推動這方面的行動,不僅只是腦袋想想而已。以下我們提出一些建議,說明創辦人、投資人與法規監管機構,可以如何有系統地共同努力,以減少實務上的非預期後果:

一開始就提升非預期後果的考慮層次。創業者與投資人在成立公司時,應堅持深入分析非預期後果。創辦人應該把這些考量放入籌資說明內容裡,投資人應善盡責任,仔細深入地探究這些後果。當創業者與投資人思考合作時,應設想非預期後果,而這一點應該與任何其他商業指標同等重要。

公司治理應著重在減輕非預期後果。公司治理的支柱,是董事會應協助企業做出重要決策,並善盡本身的信託責任。現在愈來愈多公司設有獨立的諮詢委員會,以協助指導有關科技發展的具體問題。同樣地,公司應考慮在現有董事會下面設立小組委員會,或是甚至設置獨立組織(一如臉書目前正在試探實施的),以監督管理公司非預期後果的成效。這麼做,可確保非預期後果,與良好公司治理要求的其他一些因素,具有相同的重要性。

與法規監管機構合作,以展現負責態度。若要管理非預期後果,我們必須對合理保護我們集體利益的法規管制,採取開放態度。召集一些創新者,讓他們集思廣益提出自我管制的架構,這麼做會使我們獲益,當然,監管機關也可以扮演有用的角色。美國食品藥物管理局(FDA)就是一個好例子,它仔細考量新藥或新裝置可能產生的非預期後果,再決定是否批准上市。你可以想像在推出新科技方面,其他主管機關也許可以扮演類似的角色,當然,我們希望它們較不繁瑣及耗時。

目前,科技、政策與資本三方交集之處的基本指導原則,就是創建可善用新科技的企業、盡快擴大它們的規模,而且不要有太多法規管制。我們曾讚揚那些破壞式創新的公司,卻未指責它們帶來的非預期破壞。結果就是我們的生活中充斥這些公司,但也帶來廣泛的非預期有害後果。我們主張採取新的創新精神,一開始就要嚴格考量非預期後果,並長期持續監測,以大幅減少它們的傷害。我們相信,若要做到這一點,就要由科技創新者建置軟體演算法,為浮現的危害提出預警,由資金提供者堅持評估,並監督管理非預期後果,以及由決策者評估非預期後果,以確保公司遵守法規。這是很不一樣的精神,但如果我們不想活在不理想的世界裡,接受這種精神就很重要。

(潘東傑譯)



尼汀.諾瑞亞 Nitin Nohria

曾任哈佛商學院院長。


賀曼特.塔涅賈 Hemant Taneja

創投公司General Catalyst常務董事,與人合著《無規模發展:人工智慧和新一代新創公司如何創造未來經濟》(Unscaled: How AI and a New Generation of Upstarts Are Creating the Economy of the Future)。


本篇文章主題創業