風險管理人工智慧該不該透明化

人工智慧該不該透明化

The AI Transparency Paradox

透明化有助於對抗演算法的偏見,但也會使組織容易遭到網路攻擊。可以說,在資料分析領域,人們認為資料愈多愈好。但在風險管理中,資料本身通常是不利因素的來源。因此,為了克服人工智慧的這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
近幾年來,學者和實務界人員都呼籲應該提高人工智慧(AI)模型內部運作的透明程度,這麼做有很多好理由。透明化有助於減輕有關公平、歧視和信任的問題;這些問題都愈來愈受注意。例如,有人指控蘋果公司(Apple)新的信用卡業務的借貸模式,有性別歧視的問題;亞馬遜(Amazon)發現一種人工智慧聘雇工具會歧視女性之後,停用了這項工具。
但與此同時,日益明顯的情況是,揭露有關人工智慧的資訊,會給自家公司帶來風險:相關的說明可能會遭到駭客侵入,發布額外資訊可能會使人工智慧更容易受到攻擊,而揭露資訊可能使公司更容易吃上官司,或遭到法規管制行動影響。
我們稱之為「透明化矛盾」(transparency paradox),提出更多有關人工智慧的資訊,雖然可能會產生實際的好處,但也可能帶來新的風險。為了克服這種矛盾情形,組織必須仔細考慮要如何管理人工智慧的風險、提出關於這些風險的資訊,以及如何分享和保護這些資訊。
最近的一些研究闡明了這些趨勢。讓我們先來看看2019年底哈佛大學和加州大學爾灣校區(University of California, Irvine)一些學者發表的一篇研究論文。這篇論文的重點在於,LI...