人工智慧與機器學習提出四個問題,評估你公司的生成式AI是否可信

提出四個問題,評估你公司的生成式AI是否可信

4 Questions to Assess the Trustworthiness of Your Company’s GenAI

提出四個問題,評估你公司的生成式AI是否可信

Illustration by Kemal Sanli

生成式AI有潛力改造工作,讓我們空出時間,在真正重要問題上釋放創造力。 但想要實現這目標,企業必須建立人們對這項技術的信任,擺脫生成式AI「一本正經胡說八道」,以及產生內容侵害知識產權、有違道德的既有印象。本文從信任的四個不同面向(能力、動機、做法、影響)進行分析。

對許多企業而言,生成式人工智慧(generative AI)的出現預示了會帶來高風險與高回報的典範轉移。一方面,它允諾產能的大幅提升。另一方面,在未經測試領域運用生成式AI的風險同樣巨大。由於技術發展演變非常迅速,問題會在運用的過程中暴露出來,而同時人們仍在爭論要制定什麼文化規範來界定「有道德地使用生成式AI」的含義。

然而,這不意味著如果出現問題,社會大眾會選擇原諒。關於生成式AI出問題的新聞屢屢登上頭條,從全國飲食失調求助熱線(National Eating Disorder Helpline)提供的節食建議,到范德堡大學(Vanderbilt University)的職員在學生槍擊事件後用ChatGPT寫慰問電子郵件

與此同時,創新的步伐正以疾馳的速度加快。ChatGPT在兩個月內達到一億用戶;Netflix花了10年,Google翻譯花了6年半才達到這數字。企業要如何在維持顧客、員工與大眾信任的同時,嘗試生成式AI的好處,讓我們整個社會都能從中獲益?我與幾家公司的信任與安全專家及AI倫理專家討論,以了解他們如何應對這個挑戰。

信任的4個面向

信任是指我們願意對他人的意圖與行為放下戒心...