人工智慧與機器學習 當OpenAI變成ClosedAI:企業如何持續善用AI生義力
當OpenAI變成ClosedAI:企業如何持續善用AI生義力
- 人工智慧與機器學習
- 李昇暾 Sheng-Tun Li
- 2025/11/19

Andrii Yalanskyi/shutterstock
隨著愈來愈多人透過ChatGPT進行心理陪伴或專業諮詢,OpenAI近期公布,將不再提供醫療或法律等需執照的專業建議,預防AI無法負責的隱患。當AI生成的內容被設下邊界,也影響價值的創造,我們應重新思考活用AI的策略。
2025年秋天,OpenAI更新〈使用政策〉,明確限制模型不得用於醫療或法律等需執照的專業建議。此舉顯示,在AI的開放被設下邊界時,真正受到考驗的不是規範本身,而是人與組織能否維持意義生成的能力。未來的關鍵,不在外求,而在於企業重建自身的生義力,使理解仍能言之有物。
一、當AI被收回話語權
OpenAI的政策轉向看似是技術層面的規範,卻讓全球社群感受到一股新的緊縮:OpenAI,正在逐漸變成「ClosedAI」。表面上是風險控管,實則揭示了人與AI關係的轉折:AI的邊界不再單由技術所界定,而是由「意義生成」(生義,即sensemaking)的深淺所重繪。
在生成式AI出現之前,人工智慧擅長的是「算」與「測」:分析資料、歸納規律、預測結果;而ChatGPT的出現,則讓AI首次具備了「連點」的能力,能理解語境、延續脈絡、甚至參與思考,不再只是回答問題的工具,而是一個能讓語言自成脈理的系統。正如《禮記.學記》所言:「叩之以小者則小鳴,叩之以大者則大鳴。」問AI亦然,問得淺,便淺回;問得深,便深答。這是一種新的撞鐘效應:AI或許未真正理解問題,卻能在語言的回響中生成脈絡合宜、聽之有理的回應。它以語觀...

