過去,大家對於商業道德行為都有基本共識,比如反貪腐、重視社會責任等,但如今,這些原則正面臨瓦解。地緣政治風險升高、各國法規不一致,加上市場壓力日益嚴峻,讓許多企業陷入「該妥協,還是堅持?」的兩難。面對這樣的挑戰,領導人可採用三個實用策略:對價值觀進行壓力測試;擁抱組織內的「摩擦」;定期進行「道德健康檢查」。
ESG近來屢屢遭受左右兩派的攻擊,左派認為它力道不足,右派則批評它扭曲市場。負責任的企業究竟該如何自處?本文建議,明確定義企業目的、提高ESG報告透明度、與利害關係人建設性地互動,可以協助企業因應這些抨擊。
【#149-5】本集來賓:iKala愛卡拉執行長 程世嘉 Sega
近日,《華盛頓郵報》執行長爆出非法醜聞,連被提名接掌總編輯的人選也有違反新聞倫理的疑慮。一連串的人事動盪,讓眾人目光聚焦在所有人傑夫.貝佐斯(Jeff Bezos)身上。他該如何處理這樣的危機?以及這次事件能給各個產業的領導者帶來什麼警示?
企業必須揭露自己與供應鏈的碳排放量,但問題是:下游排放量尚未發生,而且許多時候企業對這些排放量也沒有控制權。為此,柯普朗提出3大原則,供企業決定何時應揭露下游排放量,以及揭露時應該依據何種標準。
出現熱議的公共議題,公司該回應還是保持沉默?如果將組織打造成有共同「目的」的道德共同體,就能定出可依循的方向,並在利害關係人間創造出忠誠感與凝聚力。要做到這點,本文提出三種策略:講一個有影響力的故事;將目的作為公司的準則;以身作則。
生成式AI有潛力改造工作,讓我們空出時間,在真正重要問題上釋放創造力。 但想要實現這目標,企業必須建立人們對這項技術的信任,擺脫生成式AI「一本正經胡說八道」,以及產生內容侵害知識產權、有違道德的既有印象。本文從信任的四個不同面向(能力、動機、做法、影響)進行分析。
生成式AI於2022年11月問世以來,愈來愈多人將重覆、固定的工作,交給AI處理。「AI不會取代人類,但會使用AI的人會取代不會使用AI的人。」生成式AI還有哪些我們該知道的應用領域?未來它會發展成什麼樣貌?
隨著科技的快速發展,企業若想留住顧客,應該要妥善管理「善的科技」,為科技負起責任,讓科技為社會帶來更大的益處。而要管理「善的科技」,本文提出了3個方法:建立信任、提倡多元與包容、讓社會做好準備。
生成式AI的崛起對於企業來說,是巨大的機會,卻也伴隨著巨大的風險。本文指出企業運用生成式AI時面對的4種道德風險,包含錯覺的問題、審慎思考的問題、狡猾銷售人員的問題,以及共同責任的問題,並提出應對方式。
利偉誠(Andrew Liveris),2004年出任陶氏化學(Dow Chemical)執行長,在職14年期間大力推動永續計畫,這對世上最大化學品製造商之一的陶氏而言並非易事。關於在艱困時代中如何展現領導力,利偉誠建議高階主管抱持更主動積極的心態,站上第一線,並不斷改造自我。
LEADERSHIP & MANAGING PEOPLE
PUBLIC-PRIVATE PARTNERSHIPS
MANAGING YOURSELF
為提供您更多優質的內容,本網站使用cookies分析技術。若繼續閱覽本網站內容,即表示您同意我們使用 cookies,關於更多 cookies 資訊請閱讀我們的隱私權政策。