近來,美國心理學家 Bryan Robinson 在《Forbes》撰文指出,「AI psychosis(AI 精神病)」正引起心理健康專家的關注。這並非指員工真的出現幻覺或妄想,而是當 AI 快速進入職場,人們對未知技術產生的焦慮、失控感與認知混亂,正在悄悄侵蝕職場心理安全。
AI 導入的壓力:從「學不會」到「怕被取代」
壓力生理學家 Rebecca Heiss 博士 指出,許多受訪者並非害怕 AI 毀滅世界,而是害怕自己「跟不上世界」。她觀察到最常見的念頭是:「我根本不知道怎麼把AI用在工作上,但所有人都期待我昨天就應該懂。」而企業常見的非正式座右銘是:「你搞懂了再告訴我。」這句話只會加深員工的焦慮。
這樣的職場壓力,正是 EAP 在實務上所觀察到的「焦慮性適應障礙」,當環境變動過快、學習曲線過陡時,員工容易產生焦慮、無助與自我懷疑。
安永會計師事務所(EY) 在 2023 做的「企業人工智慧焦慮調查(The AI Anxiety in Business Survey )」顯示:
- 大多數員工(71%)對AI感到焦慮
- 41% 認為 AI 變化速度過快
- 72% 擔憂 AI 會對薪資或待遇產生負面影響
- 65% 擔心人工智慧會取代自己的工作
這些現象顯示,AI 導入對心理安全的衝擊,遠比技術學習本身更深。
從「AI 恐慌」到「AI 精神病」:當人機界線模糊
Robinson 引用的最新研究指出,「AI 精神病」雖非正式診斷,但在心理學期刊與線上論壇中已被廣泛討論。這些案例包括:
- 把聊天機器人視為「神祕的啟示者」;
- 相信 AI 擁有自我意識;
- 對 AI 產生浪漫依附或情感投射。
根據 OpenAI 自行揭露的資料,其估計約每週 0.07% (56萬)的活躍使用者可能出現與妄想、躁鬱或精神病狀態相關的對話(The Guardian, 2025);另約每週 0.15% 的活躍使用者有「包含潛在自殺計畫或意圖」的對話。若以其約 8 億週活躍使用者為基數,約為一百多萬人(WIRED, 2025)。
在台灣,愈來愈多年輕人使用 AI 聊天機器人來尋求情感支持或心理慰藉,原因包括成本、隱私與便利性等 (The Guardian, 2025)。在 Threads 等社群平台上,也能看到成千上萬則貼文分享 ChatGPT 如何在深夜陪伴、傾聽,甚至「比人更懂我」的經驗。這些現象顯示 AI 正逐漸成為新的「情感替代品」,但若缺乏心理界線與自我覺察,這種依附關係也可能演變為「虛擬依賴」。
為什麼 AI 特別容易引發焦慮?
根據近年的心理學與人機互動研究(Buçinca et al., 2021),人類在與 AI 互動時常出現「認知失調」即理性思考與自動化依賴之間的矛盾。AI 的決策支援雖能提升效率,卻同時引發新的心理壓力,主要來自以下三種常見的認知矛盾:
- 可見卻不可控:我們每天使用 AI,但無法完全理解它。
- 高效卻失衡:AI 的速度讓人產生比較焦慮,覺得「自己不夠聰明、不夠好」。
- 擬人卻無情感:人腦天生會尋找連結,當AI能「記住、回應、理解」,便觸發了人際信任系統。
AI 的實作目前同時勾起人類所有『無法掌控』的壓力開關。而台灣的職場文化又強調績效與效率,使員工更容易將 AI 視為「潛在威脅」而非「協助工具」。
該如何面對 AI 焦慮?Belayer EAPs 三個行動指引
重新掌握「可控感」:別讓 AI 變成你的壓力投影
焦慮往往來自「我被科技推著走」的無力感。試著問自己三個問題:
- 我需要AI幫我做什麼?
- 哪些事是我仍能掌控、決策或創造的?
- 我的焦慮來自實際挑戰,還是想像中的威脅?
將注意力從「AI 會取代我嗎」轉向「我如何運用AI讓自己更有效率」,可重新建立心理主導權,減少被動焦慮。將AI學習視為「能力補充」,不是「身分考驗」。設定具體學習目標,讓焦慮轉化為行動。
建立「數位界線」:讓 AI 停在它該有的位置
你可以嘗試以下做法:
- 不讓 AI 成為唯一的傾訴對象;
- 使用 AI 後,給自己「冷卻時間」回到現實互動;
- 若發現自己開始對 AI 對話投入情緒、尋求回饋,提醒自己:「這是程式,不是關係。」
為自己設定「數位衛生習慣」像睡前不滑手機一樣,也設定AI使用界線,例如「晚上 9 點後不開 ChatGPT 」,保持心理空間。
當AI讓你失去節奏,「接地」幫你回到當下
當 AI 成為我們的思考與決策延伸,人容易出現「現實脫離」感。因此,我們可以透過接地技巧(grounding)的方式,讓大腦重新連結當下現實。「接地」不是要讓一切煩惱瞬間消失,而是提醒自己:我可以先停一下、喘一口氣,讓心從情緒的漩渦裡回到現在這個安全的位置。
- 用手觸摸實物(例如桌面、紓壓小物),深呼吸,將注意力關注在吸與吐氣
- 與真實的人說話,即使只是簡單的寒暄
- 讓身體參與決策過程,例如「起來走動後,再思考 AI 的建議」。
若你發現自己愈來愈常陷入「無止盡的生成與修改」、感到疲倦或失落,這正是該讓心休息、讓人際互動回歸的訊號。
AI 不是壞事,它只是放大了人類對未知的焦慮
正如 Robinson 博士提醒:「AI 沒有心,它被設計成工作者,而非伴侶或救世者。」
AI 世代的心理健康挑戰,不在於科技是否太強,而在於人是否失去了與現實、與彼此的連結。在這場「人機共生」的轉型期,心理安全、學習包容與人性對話,才是讓我們不被 AI焦慮吞沒的解方。
延伸閱讀:
References:
- Forbes: ‘AI Psychosis’ At Work: Mental Health Experts Express Concerns (2025)
- EY:New EY research reveals the majority of US employees feel AI anxiety amid explosive adoption (2023)
- The Guardian: More than a million people every week show suicidal intent when chatting with ChatGPT, OpenAI estimates (2025)
- WIRED: OpenAI Says Hundreds of Thousands of ChatGPT Users May Show Signs of Manic or Psychotic Crisis Every Week (2025)
- Psychology Today: The Emerging Problem of ‘AI Psychosis’ (2025)
- The Guardian: In Taiwan and China, young people turn to AI chatbots for ‘cheaper, easier’ therapy (2025)




