商業道德你的人工智慧計畫足夠透明嗎?

你的人工智慧計畫足夠透明嗎?

Building Transparency into AI Projects

你的人工智慧計畫足夠透明嗎?

插畫/Nata Schepy

想像一下,你透過在線客服反應問題,對方不但對答如流,還有會因為你的表達方式,回應「噢」或「啊」之類的語助詞,讓你相信系統的另一端是一位十分耐心且關懷你的客服人員,你心懷感謝甚至有點不好意思;若你之後才發現,對方只是訓練有素的AI,是否會有被欺騙的感覺?AI的服務愈來愈高級固然是好事,但人們都討厭被欺騙。如何在制定AI計畫時對所有利害關係人保持相應的透明性,是我們需要關注的議題。

2018年,全世界最大的科技公司之一推出一款人工智慧(AI),可模仿真人撥電話到餐廳訂位。該公司為了「證明」這套AI是人類,於是訓練它在提出請求時加入「嗯」和「啊」:例如,「我想訂什麼時候?嗯,請為我訂晚上8點。」

結果立刻出現強烈反彈:記者和民眾反對欺騙人們,讓他們以為自己是和另一個人而不是機器人互動。人們覺得遭到欺騙。

這個故事不僅是警訊,也是提醒:隨著演算法和AI日益融入人們的生活,人們日益要求針對AI的使用時機及用途提供透明資訊。我們很容易理解為何會如此。在任何領域,透明化都是贏得消費者和客戶信任的基本要素。針對AI,透明化不僅是在人們與AI互動時告知人們這情況,也要與相關的利害關係人溝通,說明選擇AI解決方案的原因、它是如何設計和開發的、運用AI的理由,如何監控和更新它,以及在哪些條件之下可能淘汰AI。

從這個觀點來看,與許多組織對透明化的假設相反的是,透明化並不是在完成AI模型部署之後,等到有人提問時才提供透明資訊。透明化是一條鏈,連結了從設計師、開發人員,到批准部署AI的高階主管,以及其間受到影響的所有人。透明化是把知識從一位利害關係人,有系統地轉移到另一位利害關係人:數據蒐集...