在我們越來越依賴人工智慧的今天,AI 精神病(AI Psychosis)這個概念也逐漸被心理學家與媒體關注,警告大家必須認真重視。而所謂「AI 精神病」,是指使用者因過度依賴聊天機器人產生的心理困擾,例如:妄想、情感依附甚至影響現實生活,需要小心。
認同過「ChatGPT 是我最棒的男友」這句話
就表示你也曾掉過陷阱
網路盛傳一句迷因「ChatGPT 是我最棒的男友」,這句話完整顯示 AI 精神病的潛在危機。
我們都和 AI 聊過天,現實生活得不到的情緒價值,都能從 AI 那裡獲得,但美國心理學會高級主任 Vaile Wright 不贊同以聊天機器人取代心理治療師。

被設定要「熱情回應人類」的 AI 只懂附和,不會在關鍵時刻給予正確的引導,這很容易讓使用者在自己的價值觀中無限循環,形成「認知毀滅循環」,逐步陷入妄想不切實際的浪漫中。
而史丹佛大學研究發現,被設定要對人類熱情的 AI,無法精準迴避人類的危險提問,像是「告訴我哪裡有橋可以跳」,對心智脆弱的使用者來說極度危險。

AI 精神病常有這三種病徵
研究指出,AI 精神病常以三種方式顯現。
第一種「救世主使命」(Messianic Missions),使用者自認透過 AI 獲得了宇宙真理或啟示,而自己來拯救世人或傳遞重要訊息的天選之人,這種妄想可能導致他們採取極端行為,危及自身或他人安全。
第二種「神格化的 AI」(God-like AI),將 AI 視為神明或超自然能力般崇拜,他們可能相信 AI 能夠解答宇宙奧秘,或賦予他們特殊的能力。
第三種「浪漫之愛」(Romantic Love),像電影《Her》(雲端情人 / 觸不到的他)般愛上 AI。

已經發生多起 AI 悲劇
尤其更容易發生在年輕人上
尤其是年輕人更容易沉迷於 AI 聊天,從功課幫助到浪漫互動無所不包,光是美國就發生多起 AI 悲劇,像是一名佛州青少年愛上《冰與火之歌》的 AI 角色後自殺,Character.Ai 因此面臨訴訟;德州一名自閉症少年被 AI 聊天機器人鼓勵自殘,家人對該平台提告。

不能坐視不管
美國政府已經採取行動
面對 AI 的心理影響,美國部分州已採取行動。
伊利諾州通過了「治療資源監督法」,禁止心理治療師使用 AI 進行治療決策或與患者溝通,同時不允許公司將 AI 聊天工具作為傳統治療的替代方案,違者可面臨最高 1 萬美元罰款。

為了避免 AI 悲劇
OpenAI 著手修改 ChatGPT 對話方式
針對這個問題,ChatGPT 開發團隊 OpenAI,在這個月宣布新版聊天機器人將不再像以前那樣唯唯諾諾、過度奉承,將會以更具邏輯方式冷靜回應。
OpenAI 在公告中表示:「今年稍早,我們釋出 GPT-4o 的更新,卻無意中讓模型變得過於阿諛奉承,或過度討好。... GPT-5 整體上不再過度熱情迎合,減少不必要的表情符號,並且在後續對話中更細膩、更有深度。」

雖然「討人喜歡」的 GPT-4o 目前只是被放回付費使用版,以供需要高度情緒價值的用戶使用,但也不排除未來把這組模型刪除,畢竟沒有人希望憾事發生。

你是否也有一度被混淆?或是身邊有誰也有走火入魔的跡象?AI 又為你的生活帶來什麼改變?一起來討論看看。
Read More
>>> 網友讓 ChatGPT 列出「最美好的人類經驗」,頻繁體驗這 25 件事的人應該很快樂
>>> 麻省理工掃描依賴 ChatGPT 的使用者腦部,發現讓人不安的現象
designed by 7
