生成式人工智慧 AI代理來勢洶洶,你準備好交出多少信任?
AI代理來勢洶洶,你準備好交出多少信任?
Can AI Agents Be Trusted?
- 生成式人工智慧
- 布萊爾.雷文 Blair Levin雷利.唐恩斯 Larry Downes
- 2025/06/23

Illustration by Barbara Gibson
代理型AI正迅速成為重點技術,然而,隨著「個人AI代理」流行,信任問題也浮上檯面。本文指出AI代理可能面臨的風險:遭駭客入侵、被商業偏見操縱、散播不實資訊,甚至違背使用者利益。作者提出三種應對策略,確保AI代理真正服務於使用者,而非背後的開發商或廣告商。
代理型AI(Agentic AI)迅速崛起,成為人工智慧開發領域中最活躍的一環。AI代理是奠基於大型語言模型(LLM),在上面額外添加一層程式設計,讓AI能朝著特定目標工作。這道額外的軟體層可以蒐集數據、做出決策、採取行動,並根據結果調整自身行為。代理程式可以與其他系統互動、進行推理,並遵循你這位委託人設定的優先順序與規則來執行任務。
例如,Salesforce等企業已部署的AI代理,能夠在各行各業及多元應用情境中獨立處理顧客查詢,並判斷何時需要人工介入。
但代理型AI未來最令人興奮的,或許是能夠自主為你執行任務的「個人代理」。這類個人代理將化身你的私人助理,不僅能管理行事曆、依指示進行研究分析、搜尋商品服務並完成議價和採購,還能策畫內容及處理基本溝通,同時在過程中不斷自我學習精進。
個人AI代理這個概念可追溯至數十年前,但這項技術如今似乎才終於成熟到足以正式登場。領先的企業已開始向其客戶、供應商和其他利害關係人,提供個人AI代理的原型版,因而引發一些棘手的商業和技術問題。其中最尖銳的莫過於:我們能否相信AI代理會按照我們的最佳利益行事?它究竟是專為我們服務,還是忠誠度會分散給予使用者、開發...