生成式人工智慧 傾向集體或個人主義?MIT研究:AI回應也分中、英文腦?
傾向集體或個人主義?MIT研究:AI回應也分中、英文腦?
Research: LLMs Respond Differently in English and Chinese
- 生成式人工智慧
- 陸冠南 Jackson G. Lu張璐 Lu Doris Zhang
- 2025/12/25
如今,不少人仰賴生成式AI為其做決策,人機一體只在彈指之間,順暢地讓人忘乎「魔鬼就藏在細節裡」;比如,下指令的語種。研究顯示,生成式AI的中、英文回應體現出兩種文化脈絡傾向,是看重人際和諧還是更加肯認個體獨特性;領導者須留心這樣的價值差異,將成為影響決策品質的操作變數。
生成式AI已深度融入我們的日常生活。愈來愈多人仰賴其進行思考、創造與決策。然而,組織擴大採用生成式AI工具的過程中,往往先入為主地認為無論使用何種語言輸入提示,AI工具都會像更換手機語言設定一樣以相同方式回應,而且甚少有人對此提出質疑。
我們發表於《自然.人類行為》(Nature Human Behaviour)的最新研究,針對此假設提出了修正。我們發現,當以不同語言輸入提示時,接受本質上帶有文化色彩之文本資料訓練的大型語言模型(LLM)會展現出不同的文化傾向,並給出不同的建議。
對於領導人與組織而言,了解這些文化傾向日益重要。隨著生成式AI成為日常工作流程的一部分,這些隱性文化傾向可能會影響AI如何解讀資訊、評估選項以及制定策略決策,而這些影響領導人通常不易立即察覺。
本文為領導人提供一套實用框架,幫助他們預測並管理這些文化傾向,從而在使用AI時更高效,也更具文化敏感度。
研究內容
為了探究生成式AI模型的文化傾向,我們分析了研究進行期間全球最受歡迎的兩個生成式AI模型——OpenAI的GPT與百度的ERNIE。我們在兩個模型中分別比較中文與英文回應,並採用文化心理學中一系列公認可靠的指標進行...



