科技與分析負責任使用人工智慧的13個原則

負責任使用人工智慧的13個原則

13 Principles for Using AI Responsibly

負責任使用人工智慧的13個原則

Boris SV/Getty Images

AI既充滿迷人的機會,也充滿令人擔憂的風險。如果沒有負責任地使用AI,可能會對員工造成傷害,包括隱私、身心健康、職場包容性等等。本文建議13個具體原則,讓企業既能長保競爭力,也能健全勞動力。

無論你喜不喜歡,人工智慧(AI)擴張之迅速在短期內都不會放慢腳步。但AI疏失鑄成的大錯卻會迅速摧毀品牌的聲譽──不妨問問微軟(Microsoft)第一個聊天機器人Tay。在科技競賽裡,所有領導人都擔心,如果自己放慢腳步而其他人不跟進,自己就會落於人後。這是一個高風險的情況,合作似乎充滿風險,背叛似乎十分誘人。這種「囚徒困境」(賽局理論的說法)為負責任AI的實踐帶來了風險。將上市速度列為優先的領導人,正在推動當前的AI軍備競賽;大型企業在這場競賽裡匆忙推出產品,可能沒有足夠重視關鍵的考量因素,像是倫理準則、偏見偵測以及安全措施。例如,大型科技公司在最需要採取負責任的行動時,裁撤它們的AI倫理團隊

同樣重要的是認識到,AI軍備競賽已經超出大型語言模型(LLM)的開發人員,像是OpenAI、Google與Meta。參與競賽的還包括許多利用LLM來支援自訂應用程式(custom application)的公司。例如,在專業服務領域,PwC宣布,正在為分布在100個國家的4,000位律師部署AI聊天機器人。這些AI驅動的助理將會「協助律師進行合約分析、法遵工作、盡職調查,及其他法律諮詢與顧問服務...