當智慧型裝置分析你怎麼說話…

The Ethics of Smart Devices That Analyze How We Speak
崔弗.考克斯 Trevor Cox
瀏覽人數:837
科技公司都在收集哪些資訊,以及為什麼?

隨著智慧型助理和語音介面變得更加普遍,我們也交出了新形式的個人資料,也就是我們的語音。這牽涉到的遠不僅是我們說出的話而已。

話語是我們社交互動的核心,我們在說話的時候,不經意透露有關自己的許多事情。某個人聽到聲音時,立刻就會開始注意到口音和聲調,並從中猜測說話的那個人的年齡、教育程度和個性等。人類這麼做,以便揣測出回應說話的那個人的最佳方式。

但是,當機器開始分析我們說話的方式,會發生什麼事?大型科技公司沒有透露他們打算偵測我們語音當中的什麼資料、為什麼這麼做,但亞馬遜(Amazon)有一項專利列出他們可能會在語音中收集哪些特徵,包括身分(「性別、年齡、種族等」)、健康狀況(「喉嚨沙啞、生病等」),以及感覺(「快樂、傷心、疲累、想睡、興奮等」)。

這讓我感到憂心,而你也該開始擔心,因為演算法並不完美。分析語音尤其困難,因為我們言談中透露出的訊號並非前後一致,還常模稜兩可。此外,即使是由人開發的介面,仍會因刻板印象而扭曲失真。讓我們看看以下這個試圖用語音辨識性傾向的例子。有一些人認為,聲音高、語調高低起伏大的男性是男同性戀。但這常會造成混淆,因為有些異性戀人士也是這樣說話,而許多同性戀人士的語調並非如此。科學實驗顯示,人類仰賴聽覺的「同性戀偵測雷達」約只有六成的準確度。研究也顯示,靠機器分析臉部影像來偵測性傾向,成功率約70%。這個準確度聽起來很高嗎?我認為並不高,因為這表示那些機器有30%的時候是錯的。我認為,語音辨識的成功率更低得多,是因為人們說話的方式,會依照談話對象而改變。人類的聲帶結構很有彈性,我們可說是聲音變色龍,會潛意識地改變聲音,以便更能配合我們說話的對象。

我們也應該擔心,企業會去收集有關亞馬遜專利裡提到的另一些特性的不完善資訊,包括性別、種族等。用來訓練機器學習應用的語音案例,會讓機器學習到一些社會偏誤。其他類似的技術已經出現這種問題。例如,如果在「Google翻譯」功能裡鍵入土耳其語「O bir hemşire. O bir doctor」,你得到的譯文會是「她是護士」及「他是醫生」。雖然在土耳其語裡,「o」是中性的第三人稱代名詞,翻譯機器卻假設醫生是男性、護士是女性,因為用來訓練翻譯演算法的資料中,醫療工作受到性別偏誤的扭曲。這類問題也擴大到種族領域;有項研究顯示,機器學習通常使用的數據資料裡,非裔美國人的名字較常與一些令人不悅的字詞連在一起,像是「仇恨」、「貧窮」、「醜陋」,而美國白人的名字比較常與令人愉悅的字詞連在一起,像是「愛」、「幸運」、「快樂」。

大型科技公司想要讓語音裝置運作得更好,而這表示要了解人們是怎麼說話的。畢竟,簡單語句像是「我很好」,會隨著說話的人的語調由中性轉為生氣,而傳達出截然不同的意義。然而,它們該如何設定運作的界線?舉例來說,可以偵測憤怒情緒的智慧型助理,可能會藉由聆聽你說話的語氣,開始深入了解你跟另一半相處得如何。接下來Google是否會在偵測出婚姻危機時,開始投放婚姻諮商的廣告?我不是說一定會有人刻意這樣做。重點是,這種複雜的機器學習系統,通常都是在意料之外、而且是無意之間引發這類問題。人工智慧還可能犯的其他錯誤,包括當它偵測到有人說話口音很重,就會推論說話的人教育程度比較低,因為用來訓練機器的資料,因社會刻板印象而產生偏誤。這會導致智慧語音系統在遇到口音很重的人時,回答內容也變笨了。科技公司必須更明智地設法避免在系統裡產生這種偏見歧視。已經有一些案例令人憂心,像是申請理賠電話系統開始運用語音分析,偵測可能詐領保險金的來電。英國政府也浪費了240萬英鎊設置語音測謊系統,後來經科學證明是無效的。

最後一個問題是,許多人對這些裝置都不太有警戒心。亞馬遜已經發現,許多人認真跟智慧型助理Alexa對話,常對這個裝置說出自己的感受,甚至對這項科技表達愛意說:「Alexa,我愛你。」讓一個裝置會講話,暗示它能有自主行為,使我們更容易把那項技術擬人化,覺得向它透露敏感資訊是安全的。語音資料恐怕遲早都會出現重大安全漏洞。因此,研究人員正在開始開發能過濾敏感資訊的演算法。舉例來說,你可以設定你的裝置,在你提到你的銀行名稱時,它會關掉麥克風,以免不小心洩露帳戶資料細節,或是在你提到性傾向相關字眼時關掉麥克風。

對於智慧型助理相關的隱私問題,消費者的態度如何?我唯一能找到有關這個主題的已出版研究,是美國密西根大學(University of Michigan)進行的。這項研究顯示,擁有這項科技裝置的人,不太擔心提供更多資料給Google或亞馬遜之類的資訊流通守門人(gatekeeper)。「我認為這很令人擔憂,」這項研究的研究人員之一佛羅里安.蕭布(Florian Schaub)解釋說:「這些科技正在漸漸削弱人們對隱私的重視。現今對隱私的控制,根本不符合人們的需求。」這項研究調查的大多數人,甚至不知道自己的資料被拿來分析,以便讓廠商投放針對他們的廣告,等到他們知道了這一點時,並不喜歡自己的語音指令被拿來這樣使用。

不過,消費者也可能反過來運用這種科技,達到自身目標。在密西根大學的那項研究中,有位使用者檢視自己的亞馬遜智慧型音箱Echo的語音檔,看看幫他看管房子的人,用這個裝置做了些什麼。在未來,這類裝置還能開拓出新的說服管道。如果你想更換家裡的洗衣機,但另一半不同意,你可以靠近那個智慧型音箱,用語音指示搜尋洗衣機型號,你的另一半可能就會受到無數的洗衣機廣告轟炸。

在商業上,我們已經習慣留心自己寫的電子郵件內容,以避免不想流出的資訊外洩。我們在連網裝置附近進行內容敏感的對話時,也必須培養類似的警覺態度。只有關掉的連網裝置,才能真正讓人放心安全地在它面前說話。

(陳佳穎譯)



崔弗.考克斯 Trevor Cox

英國索爾福德大學(University of Salford)聲學工程學(acoustical engineering)教授,著有《你在說話:從史前人類到人工智慧時代的人類溝通》(Now You're Talking: Human Conversation from the Neanderthals to Artificial Intelligence)。


本篇文章主題安全與隱私