本文出自

超前部署新人才庫

超前部署新人才庫

2021年9月號

AI監管來了!三大挑戰勢不可擋,該如何應變?

AI Regulation Is Coming
弗朗索瓦.坎德隆 François Candelon , 魯道夫.查.迪卡羅 Rodolphe Charme di Carlo , 邁達斯.德.邦特 Midas De Bondt , 希奧多羅斯.埃弗基尼歐 Theodoros Evgeniou
瀏覽人數:4190
  • "AI監管來了!三大挑戰勢不可擋,該如何應變?"

  • 字放大
  • 授課文章購買
    購買〈AI監管來了!三大挑戰勢不可擋,該如何應變?〉文章
  • 個人收藏購買
    購買〈AI監管來了!三大挑戰勢不可擋,該如何應變?〉PDF檔
    下載點數 10
關於本文的藝術作品/孫理(LI SUN)孫理認為照片中的「生物」,體現自己內心的矛盾感。身為農村長大的孩子,他有種無拘無束的感覺,但現代城市的監視器,讓他覺得自己隨時隨地受到監看。
隨著人工智慧(AI)在我們生活各個層面的使用益發普及,對如何使用消費者數據的討論,也逐漸引發各個國家與組織的關注。規範AI的相關法規陸續推出,領導人應注意哪些面向,因應迎面而來的數位監管時代?

過去十年的大部分時間裡,大眾對數位科技的擔憂,向來集中在可能出現個人資料的濫用上。民眾對企業能在網上追蹤自己的活動感到不自在,常見的是收集信用卡號碼、地址和其他關鍵資訊。令人毛骨悚然的是,人們發現上網時,網路廣告總是尾隨著自己,這些廣告顯然是因為他們之前不經意的網路搜尋而引來的,此外,民眾也擔心身分被盜用和詐欺。

這些擔憂,導致美國和歐洲通過一些措施,以保證網路使用者對自己的個人資料和圖像,有一定程度的掌控;最值得一提的是,歐盟在2018年推出的《一般資料保護法規》(General Data Protection Regulation,GDPR)。當然,這些措施並沒有終結有關公司使用個人資料的辯論。有些人主張,相對於限制較少的國家,尤其是中國,限制使用個人資料,會阻礙歐洲和美國的經濟表現;中國的數位巨頭受惠於容易取得各種現成的個人資料,受到的管制很少,因此正在蓬勃發展。(然而,最近中國政府開始限制數位企業的自由,對阿里巴巴的巨額罰款正是其中一例。)其他人則認為,有大量證據指出,較嚴格的法規監管,已經讓較小型的歐洲企業,在面對財力雄厚的美國競爭對手,如Google和亞馬遜(Amazon)時,處於相當不利的地位。

但這場辯論正進入一個新的階段。隨著企業日益把人工智慧(AI)內建到自己的產品、服務、流程和決策中,關注焦點逐漸轉移到這種軟體如何使用數據,特別是複雜的、不斷演變發展的演算法,這些演算法可能用於診斷癌症、駕駛汽車或核准貸款。歐盟再次引領潮流(2020年發布白皮書〈論AI──歐洲實現卓越和信任的方法〉,以及2021年的AI法律架構提案),歐盟主張,對開發消費者可信賴的AI工具來說,法規監管是不可或缺的一環。

對企業來說,這一切意味著什麼?我們一直在研究如何規範AI演算法,以及如何實施AI系統,而且這些AI系統必須以法規架構提案背後的那些關鍵原則為基礎,同時,我們也一直在協助各行各業的企業,推出和擴大AI驅動的行動方案。在接下來的內容中,我們將根據這些研究工作和其他研究人員的工作成果,探討企業領導人在進行以下工作時面臨的三大挑戰:把AI整合到自己的決策過程和各項流程當中,同時還要設法確保,這麼做對顧客是安全和值得信賴的。我們也提出一個架構,以引導高階主管完成這些任務,其中部分借鑒一些應用於策略風險管理的概念。

本文觀念精粹

挑戰:隨著企業日益把AI嵌入本身的產品、流程和決策過程中,關於數位風險的討論重點,正轉移到AI軟體處理數據的方式。

這為何是個問題:錯誤應用和不受法規監管的AI,可能會導致不公平的結果,主要是因為它會放大數據中的偏見。而且,演算法往往無法簡單地解釋,並且隨著更多數據輸入,演算法會改變和調整,因此讓情況更加複雜。

如何解決這個問題:企業領導人必須明確地檢視許多因素。為確保產生公平的決定,他們必須評估不公平結果的影響、所做決策的範圍、營運複雜性,以及組織的治理能力。在制定透明度標準時,他們必須考慮所需的解釋程度,以及當中涉及的取捨。在控制AI的演變性時,他們必須考慮風險、複雜性,以及AI與人類之間的互動。

挑戰1:不公平的結果使用AI有風險

AI系統產出含有偏見的結果,這種新聞不斷占據頭條版面。一個眾所周知的例子,是蘋果公司的信用卡演算法遭指控歧視女性,引發紐約金融服務部的調查。

但是,這個問題也以很多其他形式出現:例如,無處不在的網路廣告演算法,可能會根據種族、宗教或性別來鎖定受眾,還有亞馬遜的自動履歷篩選器,會過濾掉女性求職者。《科學》(Science)雜誌近期刊登的一項研究指出,健康照護領域使用的風險預測工具,每年會影響到美國數百萬人,而這些工具表現出明顯的種族偏見。另一項發表在《普通內科雜誌》(Journal of General Internal Medicine)上的研究發現,頂尖醫院用來為接受腎移植病患排定優先順序的軟體,歧視黑人患者。

在大多數情況下,問題源於用來訓練AI的數據。如果這些數據有偏見,AI就會承接這些偏見,甚至可能放大這些偏見。例如,微軟曾使用推文,來訓練聊天機器人與推特(Twitter)使用者互動,卻由於煽動性的種族主義訊息,而被迫在機器人上線後的隔天就把它關閉。但光是從訓練數據中消除種族或性別等人口統計特性的資訊,是不夠的,因為在某些情況下,需要這些數據來糾正偏見。

理論上,也許有可能把某種有關「公平」的概念編碼納入軟體中,要求所有結果都必須滿足某些條件。亞馬遜正在試驗一種名為「條件人口統計特性差異」(conditional demographic disparity)的公平性指標,其他企業也在開發類似的指標。但一個障礙是,對「公平」沒有一致公認的定義,也不可能對決定公平結果的一般條件進行分類。此外,在任何特定情況當中的利害關係人,可能對公平的構成要素有非常不同的概念。因此,任何想把公平性的概念設計到軟體中的嘗試,都將困難重重。

在處理有偏見的結果時,法規監管機構大多依靠標準的反歧視立法。只要有人可為有問題的決定負責,這種做法就是可行的。但隨著AI在這當中涉入的程度愈來愈深,個人責任正被削弱。更糟的是,AI擴大了偏見的潛在規模:任何缺陷都可能影響數百萬人,讓企業面臨歷史性規模的集體訴訟,讓公司聲譽面臨風險。

高階主管可以做些什麼,來避免這些問題?

第一步,在做任何決定之前,應該更深入了解當中牽涉到的利害關係,做法是探索以下四個因素:

1. 結果的影響。

部分演算法會做出對民眾生活有直接和重要影響的決定,或者會影響到這類決定。例如,它們診斷醫療狀況、篩選求職者、核准住房貸款,或是建議入獄刑期。在這種情況下,明智的做法可能是避免使用AI,或是至少讓它服從人類的判斷。

然而,這種方法仍需要仔細考慮。假設法官不顧AI的建議,提前釋放一名罪犯,而這個人隨後又犯下暴力罪行。法官將面臨壓力,必須解釋自己為什麼忽略AI的建議。因此,使用AI可增加人類決策者的責任感,而這也許會導致人們沒有必要地更常遵從演算法的建議。

這並不是說,AI在高影響的環境中沒有用處。依賴人類決策者的組織,仍必須排除這些決策者無意識的偏見,而AI可以幫忙揭露他們的偏見。亞馬遜最終決定不利用AI做為招募工具,而是用它來偵測當前招募方法的缺陷。這方面的心得是,在選擇是否使用AI時,需要考慮演算法相對於人類決策過程的公平性。

2. 決策的性質和範圍。

研究指出,對AI的信任程度,會因使用AI的決策類型而異。如果某項任務被認為是相對機械性的,而且有固定的範圍,例如優化時間表或分析圖像,那麼執行這項任務的軟體,會被認為至少與人類一樣值得信賴。

但如果要做的決定被認為是主觀的,或者當中的變數改變了(例如在法律判決中,罪犯情有可原的情況可能各有不同),人類的判斷會更受信任,部分原因是人們有能力展現同理心。這顯示企業需要非常仔細地溝通,說明AI應用在決策的具體性質和範圍,以及為什麼在這些情況下,AI比人類的判斷更可取。在許多情況下,即使是在會產生嚴重後果的狀況中,AI判斷都屬於相當簡單的運用。例如,在醫療掃描的機器診斷中,人們很容易認同,曾根據數十億個明確定義的數據點所訓練出來的軟體,比人類更具優勢,因為人類只能處理幾千個數據點。

另一方面,把AI應用在心理健康的診斷,可能是不合適的,因為其中涉及的因素可能是有關行為的、難以定義,以及針對各個案例而牽涉到不同因素。人們很難接受機器可處理高度情境化的情況,即使關鍵的變數已被正確找出來,但這些變數在不同群體中會有什麼不同的表現,常常未被完全理解,這也將我們帶到下一個因素。

3. 作業複雜性和規模限制。

演算法可能不會公平對待所有地區和市場。例如,站在全美人口的角度來看,挑選消費者給予折扣的演算法,似乎是公平的,但如果曼哈頓的消費者行為和態度,與全國平均情況不同,而且沒有反映在演算法的訓練中,那麼演算法應用在曼哈頓居民時,仍會顯示出偏見。平均統計資料可能掩蓋住區域之間或子群體之間的差別對待,若想避免這個問題,可能需要為每個子集量身打造演算法。這解釋了為什麼任何追求減少本地或小團體偏見的法規,都可能會削弱AI創造規模優勢的潛力,而規模優勢往往是選擇使用AI的首要動機。

針對市場之間的差異進行調整,會為演算法增添層級,因而推升開發成本。為特定市場量身打造產品和服務,同樣會大幅提高生產和監測成本。所有這些變數,都會增加組織的複雜性和開銷。如果成本變得太高,企業甚至可能會放棄一些市場。例如,由於《一般資料保護法規》,部分開發商選擇停止在歐盟銷售產品一段時間,例如Gravity Interactive(仙境傳說和夢幻龍族等遊戲的製作商)。儘管現在大多數公司應該都已找到遵守法規的方法(夢幻龍族於去年5月在歐洲重新推出),但承擔的成本和失去的機會都很重要。

4. 法規遵循和治理能力

為遵循即將到來的更嚴格AI法規(至少在歐洲和美國是如此),企業將需要新的流程和工具:系統審計、製作文件和數據協議(用於追蹤)、AI監測和多元性意識訓練。許多企業已在各種利害關係人當中,測試每個新的AI演算法,以評估演算法產出的結果是否符合企業價值觀,同時不會引起法規方面的關切。

Google、微軟、BMW和德國電信(Deutsche Telekom)都在制定正式的AI政策,致力保護安全、公平、多元性和隱私。部分企業,像是美國聯邦住房貸款抵押公司房地美(Freddie Mac),甚至任命「道德長」(chief ethics officer)來監督這類政策的引入和執行,而在許多情況下,還設置道德治理委員會來支持他們。

挑戰2:透明度解釋哪裡出錯

就像人類的判斷一樣,AI也並非萬無一失。演算法無可避免會做出一些不公平的決定,或甚至是不安全的決定。

當人們犯錯,通常會進行調查和判斷責任歸屬,接著可能會懲處決策者。這有助於組織或社群了解和糾正不公平的決定,並與利害關係人建立信任。那麼我們是否應該要求、甚至預期,AI能解釋自己的決定?

法規監管機構必定是在朝這個方向發展。《一般數據保護法規》已經指出「有權……獲得」演算法「對所達成決定的解釋」,歐盟在白皮書和AI法規提案中,已把「可解釋性」列為可提高AI信任的關鍵因素。

但針對自動化做出的決策,我們對這種決策的成因和結果的了解並不完整,那麼,對這種決策提出解釋,是什麼意思?亞里斯多德指出,在這種情況下,解釋如何得出結果的能力,重要性可能不如重現結果,並透過實證經驗來驗證其正確性的能力;企業若要做到後者,可以比較AI的預測與真正的結果。

考慮AI應用的企業領導人,還需要考慮兩個因素:

1. 所需的解釋程度

AI演算法的解釋可大致分為兩類,適用於不同情況。

全局解釋(global explanation)是對某項流程的所有結果,提供完整的解釋,並說明演算法運用哪些規則或公式,來指出輸入變數之間的關係。如果程序公平很重要,就需要全局解釋,例如關於資源分配的決定,因為利害關係人必須在事前就知道,這些決定將如何做出。

為演算法提供全局解釋可能看似簡單:你只需要分享它的公式。然而,大多數人缺乏理解這種公式所需的數學方面、或電腦科學方面的高級技能,更不用說要判斷這些公式指出的關係是否恰當。機器學習是由AI軟體創建出演算法,用以說明訓練數據裡各項變數之間的明顯關係,在這種情況下,任何問題的最終原因,可能源自訓練數據中的缺陷或偏見,而不是演算法。

此外,企業甚至可能無法直接了解演算法的運作方式,而若要因應有關提出解釋的法規限制,他們可能不僅必須檢視自家的數據和資訊科技部門,或許還要擴大到外部專家。例如,大型軟體即服務供應商,像是甲骨文(Oracle)、SAP和Salesforce的產品,常會結合第三方供應商的多個AI元件。這些供應商的客戶,有時會挑選和組合一些AI解決方案。但終端產品的所有元件,以及它們如何組合和互連,都需要解釋清楚。

局部解釋(local explanation)提供某項產出結果背後的理由,例如,為什麼某個申請人(或某一類申請人)被拒絕貸款,而另一個申請人獲得核准貸款。這通常由所謂的可解釋AI演算法來提供,這些演算法能告訴產出結果的接收者,做出該決定的理由。如果個人只需要知道,為什麼做出關於自己的某個決定,而不必或不能獲得關於其他人的決定,那麼就可以使用這類演算法。

局部解釋可採用陳述的形式,來回答這個問題:哪些關鍵的顧客特性,如果出現變化,就可能會改變AI的產出結果或決策?例如,如果兩個申請人之間的唯一差異,是其中一人24歲,另一人25歲,那麼解釋就是,如果第一個申請人超過24歲,就會獲得核准貸款。這裡的問題是,被指出的那項特徵本身可能掩蓋了偏見。例如,真正的情況可能是,那名申請人的住址郵遞區號,導致演算法產生不同結果,對原本條件優良的其他黑人社區申請人不利。

2. 涉及的取捨。最強大的演算法,本質上是不透明的

不妨看看阿里巴巴在中國的螞蟻集團,它的網商銀行(MYbank)事業單位使用AI,在三分鐘內核准小型企業貸款,無需人工介入。為此,MYbank把來自阿里巴巴整個生態系統的數據,包括電子商務平台的銷售資訊,與機器學習結合,以預測違約風險,並維持即時進行信用評等。

螞蟻集團的軟體使用超過三千個數據輸入資料,因此幾乎不可能清楚闡述它如何得出特定的評估結果(更不用說提供全局解釋)。許多最令人興奮的AI應用程式,都需要類似規模的演算法輸入資料。嚴格的AI可解釋性要求,可能阻礙企業在許多領域的創新或成長的能力,例如,B2B市場中的客製化支付條款、保險承保,以及自動駕駛汽車。

在消費者和法規監管機構高度重視個人權利的市場,尤其是歐盟和美國,企業如果想引進類似螞蟻集團的服務,勢必會面臨挑戰。若要部署這樣的AI,企業必須能夠解釋,演算法如何定義顧客間的相似性,為什麼兩個潛在顧客之間的某些差異,可以證明不同的處理方式是合理的?以及,為什麼相似的顧客,可能得到針對AI的不同解釋?

對解釋的期望也因地域而異,這為全球營運的業者帶來挑戰。他們可以乾脆採用全球最嚴格的可解釋性規定,但這樣做,顯然會導致他們在某些市場面對在地業者時,處於劣勢。遵循歐盟規則的銀行,可能難以產生像螞蟻集團那樣可準確預測借款人違約可能性的演算法,以致必須採取更嚴格的信貸條件。另一方面,使用多個可解釋性標準,很可能會更複雜和昂貴,因為基本上公司就得為不同的市場,創造不同的演算法,而且或許還必須添加更多AI,以確保互通性(interoperability)。

然而,也存在一些機會。可解釋性的規定,可提供差異化的來源:企業若能開發出具備更強解釋能力的AI演算法,會更有利於贏得消費者和監管機構的信任。這可能會產生策略上的影響。例如,花旗銀行(Citibank)若能為小企業信貸產生可解釋的AI,而且像螞蟻集團的一樣強大,勢必就能主宰歐盟和美國市場,甚至可能在螞蟻集團的地盤上獲得立足之地。對科技公司來說,溝通說明自家產品所做決策的公平性和透明度的能力,也是潛在的差異化因素。為幫助企業做到這一點,IBM開發一款產品:商用AI資料分析平台Watson OpenScale。

重點是,要求AI為本身的決定提供解釋,可能看似是改善公平性,以及增加利害關係人信任的好方法,但這麼做要付出高昂的代價,而且,可能未必一定值得付出這種代價。這種情況下的唯一選擇,就是回過頭在以下兩者之間取得平衡,一方面是承擔會得出一些不公平結果的風險,另一方面是更正確的產出結果所帶來的報酬,或是放棄使用AI。

挑戰3:學習和演變不斷變化的形貌

AI的顯著特徵之一,是它的學習能力;為圖像辨識演算法輸入愈多的牛和斑馬標籤圖像,它辨識出牛或斑馬的可能性就愈大。但持續學習也有缺點:雖然正確性會隨時間推移而提高,但同樣的輸入數據,在昨天產生的結果,到明天可能就會不同,因為演算法在這段期間,已經被它接收到的數據改變了。

若想弄清楚如何管理不斷演變發展的演算法,以及是否一開始即允許持續學習,企業領導人就應關注三個因素:

1. 風險與報酬

顧客對持續演變的AI的態度,可能取決於個人風險和報酬的計算。例如,在保險定價中,相較於人類,學習演算法最有可能提供更貼近顧客需求的結果,因此,顧客可能對這種AI有相對較高的容忍度。在其他情況下,機器學習可能根本不是個問題。例如,AI產生的電影或書籍推薦,可隨著更多關於顧客購買和觀看選擇的數據,而安全地演變發展。

但不公平結果或負面結果的風險和影響很高時,人們就比較不能接受不斷演變的AI。某些類型的產品,如醫療設備,如果在沒有任何監督的情況下進行更改,可能會對使用者造成傷害。因此有部分法規監管機構,特別是美國食品藥物管理局,只授權在這類設備中使用「鎖定」(locked)的演算法,這類演算法不會在每次使用產品時學習,因此不會改變。對這類產品,企業可運作相同演算法的兩個平行版本:一個只用於持續學習的研發,另一個是經監管機構核准用於商業用途的鎖定版本。商業版本可以每隔一段時間更新版本,新版本是根據另外那個持續改善的版本而產生的;當然,必須獲得法規監管機關核准之後,才能這麼做。

監管機構也擔心,持續學習可能會造成演算法,以難以察覺的新方式進行歧視,或是變得不安全。在不公平是主要關切點的產品和服務中,你可以預期演變性(evolvability)會受到更多關注。

2. 複雜性和成本

部署學習型AI會增加營運成本。首先,企業可能會發現本身在不同地區、市場或環境裡,運作多個演算法,每個演算法都對當地的數據和環境做出回應。然後,組織可能需要創造新的警戒職位和流程,以確保所有這些演算法都能恰當地運作,而且處於獲授權的風險範圍內。風險長可能必須擴大自己的職責範圍,以納入監控自主AI流程,並評估企業願意在可演變AI上承擔的法律、財務、聲譽和實體風險水準。

企業也必須在權力分散,以及可提高AI學習效率的標準化實務之間,取得平衡。它們能否建立、維護一個全球數據骨幹,以支援企業的數位和AI解決方案?它們自己的系統,在分散式儲存和處理數據方面的準備程度如何?它們在因應網路安全威脅方面的準備如何?生產是否需要轉移到更接近終端顧客的地方,還是說,這會讓營運暴露在新的風險之中?企業能否吸引到足夠的精通AI人才,來擔任當地市場的合適領導職位?所有這些問題,都必須深思熟慮地回答。

3. 人的輸入

新數據或環境變化,也會造成人們調整自己的決定,甚至改變自己的心理模式。例如,如果競爭某個職位的某個候選人,在不同時間展現的特質改變了,或甚至因為他在第二次時累了,招募經理可能會在兩個不同的時間,對同一個求職者做出不同的決定。沒有任何法規來防止這種情況發生,因此也有理由可以允許AI因新數據的出現而演變。然而,需要努力說服,才能讓人們接受這種觀點。

人們可能更容易接受的是,AI以智慧的方式,彌補人類決策的不足之處。就像2020年7月號《哈佛商業評論》全球繁體中文版刊登的文章〈AI成功到職四階段〉〔A Better Way to Onboard AI,由希奧多羅斯.埃弗基尼歐(Theodoros Evgeniou)等人合撰〕,文中指出,AI系統可部署為「教練」,向員工(例如,資產管理公司的金融證券交易員)提供回饋意見和輸入資料。但這不是條單行道:協同工作的大部分價值,來自人類給予演算法的回饋意見。其實,臉書已採取一種有趣的方法,透過自己的Dynabench平台,來監控和加速AI學習。它委託人類專家尋找方法,利用所謂的動態對抗性數據收集,來誘使AI產生不正確或不公平的結果。

當人類積極強化AI,他們可以相當快速地釋放價值。波士頓顧問集團(BCG)的西爾萬.杜蘭頓(Sylvain Duranton)在最近一次的TED演講中,描述一家服裝零售商如何在短短一年內,利用一套流程節省超過一億美元,那項流程讓人類買家能夠把自己的專業知識,輸入預測服裝趨勢的AI中。

面對挑戰贏取信任

對AI(尤其是對機器學習)日益增加的依賴程度,大幅提高企業面臨的策略風險,因此,企業必須積極參與編寫演算法規則手冊的工作。隨著分析法應用於各種決定,像是貸款核准或犯罪再犯評估等,對隱藏偏見的質疑不斷增加。機器學習背後複雜程式編碼作業固有的不透明性,也引發人們的不安;民眾愈來愈擔心,專為某一群體開發的AI工具,是否可以妥善地對其他群體做出決定。除非所有企業,包括未直接參與AI開發的公司,盡早處理這些挑戰,否則可能會削弱人們對AI產品的信任,並引發不必要的限制性法規,而這不只會損害企業獲利,也會損害AI可為消費者和社會提供的潛在價值。

(劉純佑譯自“AI Regulation Is Coming,”HBR, September-October 2021)



弗朗索瓦.坎德隆 François Candelon

波士頓顧問集團(Boston Consulting Group,BCG)常務董事暨資深合夥人,也是BCG亨德森智庫(BCG Henderson Institute)全球總監。


魯道夫.查.迪卡羅 Rodolphe Charme di Carlo

波士頓顧問集團巴黎辦公室的合夥人。


邁達斯.德.邦特 Midas De Bondt

波士頓顧問集團布魯塞爾辦公室專案領導人。


希奧多羅斯.埃弗基尼歐 Theodoros Evgeniou

歐洲工商管理學院(INSEAD)教授。


本篇文章主題法規管制