風險管理別讓演算法被偏誤擾亂

別讓演算法被偏誤擾亂

Addressing the Biases Plaguing Algorithms

Google、亞馬遜、微軟與臉書,仍未找出解決之道。

受到人工智慧所吸引的高階主管,必須了解人工智慧與數據資料中普遍存在的各種可能性與風險。即使人類透過語音和聊天之類的媒介與人工智慧互動的時代才剛開始,已有許多紀錄是關於人工智慧試圖理解與說出人類語言卻失敗。本文專注討論微軟(Microsoft)、Google與亞馬遜(Amazon)近期備受矚目的三項案例,說明人工智慧領導人可以如何從這些錯誤中學習,實施能夠保護他們人工智慧計畫的方案。

(誤)學了青少年俚語



2016年3月,微軟開發了一個使用人工智慧的推特(Twitter)聊天機器人Tay,這是透過挖掘公開對話而打造的。這個聊天機器人以「對話型」人工智慧為宣傳招牌,目標是測試會話語言的界線:微軟把Tay描述為「來自網際網路,很敢說的人工智慧哥們!」這個機器人也會根據它在推特上的對話而調整、學習。
遺憾的是,網路酸民只花了不到24小時,就訓練Tay吐出嚴重種族歧視、厭女與普遍來說很冒犯的推文。原本設計是要用來進行「輕鬆、好玩」對話的趣味聊天機器人,變成一場公關災難。



不懂察言觀色的人工智慧提醒



臉書有一項「動態回顧」(Memories)功能,讓使用者回顧前幾年的今天發生了什麼事。它能讓人想起一些難忘的...