人工智慧與機器學習 【10月號搶先看】Adobe堅持四大守則,有效評估AI風險
【10月號搶先看】Adobe堅持四大守則,有效評估AI風險
Inside Adobe's Approach to Assessing AI Risk
- 人工智慧與機器學習
- 葛莉絲.余 Grace Yee
- 2025/09/22

Hector Roqueta Rivero/Getty Images
生成式AI威力強大,但也潛藏不少風險。企業在引進生成式AI時,必須妥善評估風險。但問題是:怎麼做?Adobe負責AI倫理的主管現身說法,介紹Adobe評估風險時所依循的4大原則。
雖然生成式AI的風險持續引發關注,人們在日常生活還是愈來愈擁抱AI的能力與實務的應用。然而,AI的各種應用雖然都有共通的技術基礎,但有些應用相當尋常,有些則非常複雜。如此廣泛多樣的用例讓領導人難以判斷,負責任的AI創新該採取哪些防護機制才妥當。
想要克服這項挑戰,領導人必須仔細考量AI運作的脈絡,理解AI技術在現實用例中涉及的具體條件、環境與應用。企業在評估AI時,通常是透過輸入的資訊與產出的結果,但這種評估方式只能呈現一部分真實狀況。企業如果優先進行脈絡分析(contextual analysis),就能夠為各種情境與用例設計防護機制,來協助預測並降低AI的風險。
企業必須改變做法,不要再將AI視為單一的實體,而是評估它在特定脈絡下產生的影響。想要建立一套脈絡取向的倫理審查流程,讓企業可以進行更精準的風險評估,並確保防護機制符合實際用例,你可以考慮以下4大原則。
守則一〉人類參與不可或缺
不同的AI應用會有很不一樣的影響程度。能夠擬定精彩旅行計畫的大型語言模型(LLM),也可能捏造重要的醫療資訊,但只有後者會造成改變人生的後果。儘管這些LLM技術相似,對使用該技術的人來說,風險卻是天差地遠。...