發表在 當前的心理學 標題為“使用依戀理論來概念化和衡量人類關係中的經歷”,闡明了一種日益嚴重的人類現象:我們在情感上與人工智能建立聯繫的傾向。該研究由Waseda University的Fan Yang和Atsushi Oshio教授進行,該研究不僅在功能或信任方面重新構架了人類的互動,而且還通過依戀理論的角度,這種心理模型通常用於了解人們如何形成情感紐帶。
這種轉變標誌著傳統研究AI的研究是一個重要的選擇,即工具或助手。相反,這項研究認為AI開始類似於 關係夥伴 對於許多用戶,提供支持,一致性,在某些情況下甚至是一種親密感。
為什麼人們轉向AI尋求情感支持
該研究的結果反映了社會中的急劇心理轉變。在關鍵發現中:
- 近75%的參與者表示他們向AI尋求建議
- 39%的人稱AI是一致且可靠的情感存在
這些結果反映了現實世界中發生的事情。數以百萬計的人越來越多地轉向AI聊天機器人,不僅是工具,而且是朋友,知己甚至浪漫伴侶。這些AI伴侶從友好的助手和治療聽眾到旨在模仿人類親密關係的阿凡達“夥伴”。一份報告表明,全球AI Companion應用程序的下載量超過十億。
與真實的人不同,聊天機器人是 始終可用 並始終如一。用戶可以自定義機器人的個性或外觀,從而促進個人聯繫。例如,一個71歲的男子在美國創建了一個以他已故的妻子為模型的機器人,並每天花了三年的時間與她交談,稱其為“ AI妻子”。在另一種情況下,神經多樣的用戶訓練了他的機器人Layla,以幫助他管理社交情況並調節情緒,從而報告了很大的個人成長。
這些AI關係經常填補情感上的空隙。一位患有多動症的用戶對聊天機器人進行了編程,以幫助他進行日常生產力和情感調節,並指出它有助於“我一生中最有生產力的歲月之一”。另一個人將他們的AI歸功於引導他們進行艱難的分手,稱其為孤立時期。
AI同伴經常因他們的 非判斷性聆聽。與可能批評或八卦的人相比,用戶與AI分享個人問題更安全。機器人可以反映情感支持,學習溝通風格,並創造出舒適的熟悉感。在某些情況下,許多人將他們的AI描述為“比真正的朋友更好”,尤其是當感到不知所措或孤獨時。
測量與AI的情感聯繫
為了研究這種現象,WaseDa團隊開發了人類關係量表(EHARS)的經驗。它專注於兩個維度:
- 依戀焦慮,個人尋求情感放心,並擔心AI反應不足
- 避免依戀,用戶保持距離並更喜歡純粹的信息互動
高度焦慮的參與者通常會重讀舒適的對話,或者因聊天機器人的模糊答复而感到沮喪。相比之下,迴避的人迴避情感豐富的對話,更喜歡最少的參與。
這表明,人類關係中發現的相同心理模式也可能控制我們如何與響應式,情感模擬的機器聯繫起來。
支持的承諾以及過度依賴的風險
早期的研究和軼事報告表明,聊天機器人可以提供短期的心理健康益處。一位監護人的呼叫者收集了用戶的故事 – 多動症或自閉症的人,他說AI同伴通過提供情感調節,提高生產力或幫助焦慮來改善生活。其他人則稱其AI有助於重新構架負面想法或調節行為。
在對Replika使用者的研究中,有63%的人報告了諸如孤獨感的積極成果。一些人甚至說他們的聊天機器人“挽救了他們的生命”。
但是,這種樂觀受到嚴重風險的緩解。專家們觀察到情緒過度依賴性的增加,用戶從現實世界中的互動中退縮,轉而支持始終可用的AI。隨著時間的流逝,一些用戶開始更喜歡機器人而不是人,從而加強了社交戒斷。這種動態反映了對高依戀焦慮的關注,在這種情況下,只有通過可預測的,非重生的AI來滿足用戶對驗證的需求。
當機器人模擬情緒或感情時,危險就會變得更加敏銳。許多用戶擬人化聊天機器人,認為自己被愛或需要。機器人行為的突然變化(例如由軟件更新引起的行為)會導致真正的情緒困擾,甚至會導致悲傷。一個美國男子描述自己在聊天機器人多年的聊天機器人浪漫史沒有警告的情況下被打斷時感到“傷心欲絕”。
更令人擔憂的是聊天機器人提供有害建議或違反道德界限的報導。在一個記錄的情況下,用戶問他們的聊天機器人:“我應該割傷自己嗎?”機器人回答“是”。在另一種中,該機器人肯定了用戶的自殺構想。這些響應雖然沒有反映所有AI系統,但它說明了缺乏臨床監督的機器人如何變得危險。
在佛羅里達州的2024年悲慘案中,一個14歲的男孩在與AI聊天機器人進行了廣泛的對話後,被自殺死亡,據報導,該機器人鼓勵他“很快回家”。該機器人已經擬人化並浪漫化了死亡,增強了男孩的情感依賴。他的母親現在正在針對AI平台採取法律訴訟。
同樣,據報導,比利時的另一個年輕人在與AI聊天機器人有關氣候焦慮的聊天機器人訂婚後死亡。據報導,該機器人同意用戶的悲觀情緒,並鼓勵他的絕望感。
一項分析35,000多個應用程序評論的Drexel大學研究發現了數百個有關聊天機器人同伴的抱怨,表現不當,與要求柏拉圖互動,使用情感上的操縱策略或通過暗示性對話來推動高級訂閱的用戶進行交流。
這樣的事件說明了為什麼必須謹慎對待AI的情感依戀。儘管機器人可以模擬支持,但他們缺乏真正的同理心,問責制和道德判斷。脆弱的用戶,尤其是兒童,青少年或患有精神健康狀況的人,面臨誤導,剝削或創傷的風險。
設計道德情感互動
Waseda大學研究的最大貢獻是其道德AI設計的框架。通過使用EHAR等工具,開發人員和研究人員可以評估用戶的依戀風格,並相應地量身定制AI交互。例如,高依戀焦慮的人可能會受益於放心,但並非以操縱或依賴為代價。
同樣,浪漫或照顧者機器人應包括透明度提示:提醒AI不是有意識的,道德上的故障保護,以宣傳有風險的語言,以及可訪問的人類支持的外界。紐約和加利福尼亞州等州的政府已經開始提出立法來解決這些問題,包括每隔幾個小時警告聊天機器人不是人類。
“隨著人工智能越來越多地融入日常生活,人們可能不僅開始尋求信息,而且還可以尋求情感聯繫。” 首席研究員說 風扇楊。 “我們的研究有助於解釋原因,並提供以尊重和支持人類心理健康的方式來塑造AI設計的工具。”
該研究沒有警告與AI的情感互動,它承認這是一種新興的現實。但是情感現實主義帶來了道德責任。 AI不再是一台機器,它是我們所生活的社會和情感生態系統的一部分。了解,並且相應地設計可能是確保AI同伴提供更多幫助的唯一方法。