ChatGPT被認(rèn)為比人類危機(jī)應(yīng)對(duì)者更具同情心
根據(jù)定義,機(jī)器人是無(wú)法感同身受的,因?yàn)橥樾枰獙⒆约褐蒙碛谒说娜祟惤?jīng)驗(yàn)中——感同身受,設(shè)身處地。而根據(jù)多倫多大學(xué)的一項(xiàng)新研究,人工智能(AI)能夠比人類更可靠、一致地表達(dá)同情。
研究表明,甚至經(jīng)過專業(yè)訓(xùn)練的危機(jī)應(yīng)對(duì)人員也不如AI在同情表達(dá)方面更具優(yōu)勢(shì)。
“AI不會(huì)感到疲憊,” 研究主導(dǎo)者、安大略大學(xué)斯卡伯勒分校教授Michael Inzlicht實(shí)驗(yàn)室的實(shí)驗(yàn)室經(jīng)理Dariya Ovsyannikova表示,”它能提供一致的、高質(zhì)量的同情回應(yīng),而不受到人類情緒壓力的影響。”
這項(xiàng)研究發(fā)表于《傳播心理學(xué)》雜志,研究?jī)?nèi)容評(píng)估了人們?nèi)绾卧u(píng)價(jià)ChatGPT生成的同情回應(yīng)與人類回應(yīng)的差異。
在四項(xiàng)獨(dú)立實(shí)驗(yàn)中,參與者被要求評(píng)估AI、普通人和專業(yè)危機(jī)應(yīng)對(duì)人員針對(duì)一系列正面和負(fù)面情境所做的書面回應(yīng)中的同情程度。在每一個(gè)情境中,AI的回應(yīng)更受青睞,并被評(píng)為更加富有同情心和響應(yīng)力,展現(xiàn)出比人類回應(yīng)更高的關(guān)懷、認(rèn)可和理解。
那么,為什么像ChatGPT這樣的聊天機(jī)器人能超越專業(yè)訓(xùn)練有素的危機(jī)應(yīng)對(duì)人員呢?Ovsyannikova指出,AI能夠捕捉細(xì)節(jié)并保持客觀,使其在提供細(xì)致入微的溝通時(shí),顯得尤為擅長(zhǎng)并且能夠傳達(dá)同情。
同情心不僅在促進(jìn)社會(huì)團(tuán)結(jié)方面至關(guān)重要,它還幫助人們感到被理解、被關(guān)注,并且與他人建立聯(lián)系。研究人員指出,在臨床環(huán)境中,同情心在幫助人們調(diào)節(jié)情緒、減輕孤獨(dú)感方面發(fā)揮著至關(guān)重要的作用。
然而,持續(xù)表達(dá)同情也帶來了負(fù)擔(dān)。
“照護(hù)者可能會(huì)經(jīng)歷同情疲勞,”O(jiān)vsyannikova說,她曾作為危機(jī)熱線志愿者參與工作,”專業(yè)照護(hù)者,特別是在心理健康領(lǐng)域,可能需要在情感投入上有所保留,以避免倦怠并有效平衡他們對(duì)每個(gè)客戶的情感投入?!?/p>
人類照護(hù)者也面臨偏見的影響,并且可能因?yàn)槟承┨貏e復(fù)雜或令人痛心的案例而感到情感波動(dòng),這進(jìn)而影響了他們的同情心。此外,隨著醫(yī)療服務(wù)的短缺、合格工作人員的不足以及心理健康問題的廣泛增加,醫(yī)療領(lǐng)域中的同情心也變得日益稀缺。
當(dāng)然,這并不意味著我們應(yīng)當(dāng)立刻將同情心這一關(guān)懷責(zé)任交給人工智能,Inzlicht教授表示,”AI可以作為補(bǔ)充人類同情心的工具,但它也有其自身的風(fēng)險(xiǎn)?!?/p>
他補(bǔ)充道,雖然AI可能在表面上能夠提供人們當(dāng)下所需的同情心,但像ChatGPT這樣的聊天機(jī)器人并不能有效地提供更深層次、意義深遠(yuǎn)的關(guān)懷,特別是當(dāng)涉及到精神健康問題的根本原因時(shí)。
他還指出,過度依賴AI會(huì)帶來倫理問題——例如,它可能使科技公司擁有操控需要關(guān)懷的人的能力。舉個(gè)例子,某個(gè)孤獨(dú)或感到被忽視的人,可能會(huì)依賴與AI聊天機(jī)器人進(jìn)行溝通,感受持續(xù)的同情,而不是培養(yǎng)與他人的真實(shí)聯(lián)系。
“如果AI成為同情的主要來源,人們可能會(huì)疏遠(yuǎn)人際關(guān)系,加劇我們本應(yīng)解決的問題,如孤獨(dú)感和社會(huì)隔離,”Inzlicht說,他的研究關(guān)注同情心和共情的本質(zhì)。
另一個(gè)問題是所謂的”AI厭惡”現(xiàn)象,指的是人們普遍對(duì)AI理解人類情感的能力持懷疑態(tài)度。雖然在研究中,參與者在不知道回應(yīng)來自AI時(shí),普遍更喜歡AI生成的回應(yīng),但當(dāng)他們知道這些回應(yīng)來自AI時(shí),他們的偏好發(fā)生了變化。然而,Inzlicht認(rèn)為,這種偏見可能隨著時(shí)間和經(jīng)驗(yàn)而逐漸減弱,特別是對(duì)于那些在AI環(huán)境中長(zhǎng)大、習(xí)慣與AI互動(dòng)的年輕人來說,他們更可能信任AI。
盡管同情心在當(dāng)今社會(huì)中的需求日益迫切,Inzlicht教授呼吁應(yīng)當(dāng)采取透明和均衡的方法來部署AI技術(shù),使其補(bǔ)充而非替代人類的同情心。
“AI可以彌補(bǔ)空白,但它永遠(yuǎn)不能完全取代人類的關(guān)懷?!?/p>
參考文獻(xiàn):Dariya Ovsyannikova et al, Third-party evaluators perceive AI as more compassionate than expert humans,?Communications Psychology?(2025).?DOI: 10.1038/s44271-024-00182-6
編輯:王洪
排版:李麗


本文系作者 @TIMEDOO 原創(chuàng)發(fā)布在 肽度TIMEDOO。未經(jīng)許可,禁止轉(zhuǎn)載。