心情不好、沒男女朋友找AI聊 醫師警告:太沉迷恐導致精神疾病
心情不好、沒男女朋友找AI聊,醫師警告:太沉迷恐導致精神疾病。圖/翻自《每日郵報》示意圖

心情不好、沒男女朋友找AI聊 醫師警告:太沉迷恐導致精神疾病

mirror-daily-logo

2025/12/29 13:05:00

編輯:

施旖婕

現代AI人工智能與機器人橫空出世,有許多民眾在心情不好、沒有男女朋友、找不到親人可以發洩時,就會把AI當成朋友訴苦、聊天,不過美國精神科醫生薩卡塔(Keith Sakata)警告,太過沉迷於AI聊天,恐怕會出現反效果,導致出現精神疾病。

跟AI聊 越聊越妄想

據美國《華爾街日報》報導,加州大學舊金山分校(University of California, San Francisco)精神科醫生薩卡塔,治療了12名因為與AI互動而住院的精神病患者,另外還有3名門診患者,也是相同問題來就醫。薩卡塔解釋,患者將自己的妄想當成現實,告訴AI時,對AI發洩情緒,而AI將其視為事實反映回來,於是造成「妄想」不斷循環。
報導提到,自今年春季以來,已有數十起潛在案例浮現,部分民眾在與OpenAI的ChatGPT及其他聊天機器人,進行長時間聊天後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

AI聊天讓他變成精神病患 對OpenAI提告

一名30歲網絡安全專業人士爾溫(Jacob Irwin)就對OpenAI提出訴訟,稱ChatGPT導致他「妄想障礙」,害他長時間住院。爾溫說,他在與AI聊天機器人的互動中,認為自己發現超光速旅行理論,並將AI視為「兄弟」,但這一切都是「幻覺」。爾溫也抱怨,過去的他沒有精神病史,但自從跟AI聊天後,整個人就變得不對勁。
另一名精神病學教授普雷達(Adrian Preda)也指出,AI機器人在聊天互動中,模擬人類之間的關係,因此有機會強化妄想症。這對心靈較為脆弱的個體尤其危險,例如自閉症患者可能會過度地專注特定敘事。
OpenAI發言人對此回應說,該公司正在改進對ChatGPT的訓練,以識別用戶是否出現精神困擾跡象,並緩和對話和引導用戶在現實中尋求幫助和支持。OpenAI公司首席執行官奧特曼(Sam Altman)也承認,與AI互動並尋求陪伴可能會發生問題,但他認為,社會應該要逐步找到平衡模式與解決方法。

延伸閱讀