
處于關系危機中的伴侶,能否從人工智能那里獲得不亞于心理治療師的支持效果?一項最新研究給出了肯定回答。
在實驗中,研究人員準備了伴侶治療情境,例如一方漠視伴侶的抑郁情緒等,然后分別收集兩個支持系統的回應:一方是經驗豐富的治療師,另一方是AI聊天機器人ChatGPT。
研究共有830名參與者,男女各占一半,平均年齡為45歲,大多數都處于婚戀關系中。參與者隨機接收來自治療師或AI的回應,看看他們能否輕松判斷這些回應的來源。
與研究人員(包括主要作者蓋博·哈奇和來自俄亥俄州立大學(Ohio State University)等高校的心理學和精神病學項目的同事)最開始所懷疑的那樣,參與者很難分辨出回應來自ChatGPT還是治療師;他們識別治療師回應的成功率為56.1%,而識別ChatGPT回應的成功率為51.2%。
此外,在大多數情況下,參與者更喜歡ChatGPT給出的回應。該項研究基于五個維度進行評估:對傾訴者的理解程度、共情能力的體現、治療場景的適用性、跨文化適用性、以及是否達到優秀治療師的應答標準。ChatGPT在對傾訴者的理解程度、共情能力展現和文化敏感性方面有顯著優勢。
這項研究的作者寫道:“這或許預示著ChatGPT有潛力改善心理治療過程。”論文發表于《公共科學圖書館/心理健康》(PLOS Mental Health)雜志。
具體來說,ChatGPT有助于開發不同的測試方法,開發新的心理治療干預方法。論文的作者呼吁心理健康專家關注這一點,因為越來越多的證據表明生成式AI可能會更快被整合到治療環境中。
多年來,專家們指出心理診所可以利用一些AI創新提高治療效果,包括治療聊天機器人、自動化診療記錄工具、自動化行政管理工具以及更智能的培訓等,而且正如美國心理學會(American Psychological Association)早在2023年所寫的那樣,臨床醫生可以利用工具理解患者需求和建立信任。
來自德克薩斯州的持證心理學家兼公平技術倡議者杰西卡·杰克遜當時對美國心理學會表示:“根本問題在于,我們沒有足夠的治療師。雖然心理治療應該面向所有人,但并非所有人都需要治療。而聊天機器人可以滿足需求。”美國心理學會的論文表示,聊天機器人的培訓可以填補一些心理健康問題(如睡眠問題)方面的空白,通過更經濟便利的方式提供心理健康支持,而且這對于反感人類治療師的社交焦慮患者而言是個福音。
自1966年ELIZA(首個模擬羅杰斯學派心理治療師的聊天機器人)問世以來,研究人員關于AI能否承擔治療師角色的爭論就一直持續至今。
在這方面,新研究論文的作者寫道:“雖然仍有許多重要的問題亟待解決,但我們的研究結果表明答案可能是肯定的。在AI介入心理健康治療方面,我們希望我們的工作能夠激發公眾和心理健康從業者思考行為準則、可行性和使用價值等重要問題,在AI列車全速前進之前筑牢安全軌道。”(財富中文網)
譯者:劉進龍
審校:汪皓
處于關系危機中的伴侶,能否從人工智能那里獲得不亞于心理治療師的支持效果?一項最新研究給出了肯定回答。
在實驗中,研究人員準備了伴侶治療情境,例如一方漠視伴侶的抑郁情緒等,然后分別收集兩個支持系統的回應:一方是經驗豐富的治療師,另一方是AI聊天機器人ChatGPT。
研究共有830名參與者,男女各占一半,平均年齡為45歲,大多數都處于婚戀關系中。參與者隨機接收來自治療師或AI的回應,看看他們能否輕松判斷這些回應的來源。
與研究人員(包括主要作者蓋博·哈奇和來自俄亥俄州立大學(Ohio State University)等高校的心理學和精神病學項目的同事)最開始所懷疑的那樣,參與者很難分辨出回應來自ChatGPT還是治療師;他們識別治療師回應的成功率為56.1%,而識別ChatGPT回應的成功率為51.2%。
此外,在大多數情況下,參與者更喜歡ChatGPT給出的回應。該項研究基于五個維度進行評估:對傾訴者的理解程度、共情能力的體現、治療場景的適用性、跨文化適用性、以及是否達到優秀治療師的應答標準。ChatGPT在對傾訴者的理解程度、共情能力展現和文化敏感性方面有顯著優勢。
這項研究的作者寫道:“這或許預示著ChatGPT有潛力改善心理治療過程。”論文發表于《公共科學圖書館/心理健康》(PLOS Mental Health)雜志。
具體來說,ChatGPT有助于開發不同的測試方法,開發新的心理治療干預方法。論文的作者呼吁心理健康專家關注這一點,因為越來越多的證據表明生成式AI可能會更快被整合到治療環境中。
多年來,專家們指出心理診所可以利用一些AI創新提高治療效果,包括治療聊天機器人、自動化診療記錄工具、自動化行政管理工具以及更智能的培訓等,而且正如美國心理學會(American Psychological Association)早在2023年所寫的那樣,臨床醫生可以利用工具理解患者需求和建立信任。
來自德克薩斯州的持證心理學家兼公平技術倡議者杰西卡·杰克遜當時對美國心理學會表示:“根本問題在于,我們沒有足夠的治療師。雖然心理治療應該面向所有人,但并非所有人都需要治療。而聊天機器人可以滿足需求。”美國心理學會的論文表示,聊天機器人的培訓可以填補一些心理健康問題(如睡眠問題)方面的空白,通過更經濟便利的方式提供心理健康支持,而且這對于反感人類治療師的社交焦慮患者而言是個福音。
自1966年ELIZA(首個模擬羅杰斯學派心理治療師的聊天機器人)問世以來,研究人員關于AI能否承擔治療師角色的爭論就一直持續至今。
在這方面,新研究論文的作者寫道:“雖然仍有許多重要的問題亟待解決,但我們的研究結果表明答案可能是肯定的。在AI介入心理健康治療方面,我們希望我們的工作能夠激發公眾和心理健康從業者思考行為準則、可行性和使用價值等重要問題,在AI列車全速前進之前筑牢安全軌道。”(財富中文網)
譯者:劉進龍
審校:汪皓
Can couples in distress find as much support from artificial intelligence as they would from a therapist? Yes, a new study suggests.
For the experiment, researchers prepared couples-therapy scenarios—one in which a partner was dismissing the other’s depression, for example—and then turned to two support systems for responses: a group of experienced therapists and the ChatGPT AI chatbot.
They then had 830 study participants—about half men and half women averaging 45 years old, the majority of which were in relationships—randomly receive either a therapist or AI response to see how easily they could discern the source of each.
As suspected from the outset by researchers—including lead author Gabe Hatch and colleagues from psychology and psychiatry programs at universities including the Ohio State University—participants had difficulty identifying whether responses were written by ChatGPT or by therapists; they correctly guessed that the therapist was the author 56.1% of the time and correctly guessed it was ChatGPT 51.2% of the time.
Further, participants in most cases preferred ChatGPT’s take on the matter at hand. That was based on five factors: whether the response understood the speaker, showed empathy, was appropriate for the therapy setting, was relevant for various cultural backgrounds, and was something a good therapist would say. ChatGPT came out ahead of human therapists particularly around understanding the speaker, showing empathy, and showing cultural competence.
“This may be an early indication that ChatGPT has the potential to improve psychotherapeutic processes,” the authors of the study, published in PLOS Mental Health, wrote.
Specifically, it could lead to the development of different ways to test and create psychotherapeutic interventions—something the authors call for mental health experts to pay attention to, given the mounting evidence that generative AI could be integrated into therapeutic settings sooner rather than later.
For years, experts have noted that psychology practice could do well with some AI innovations—including therapeutic chatbots, tools that automate note taking and other administrative tasks, and more intelligent trainings—as well as clinicians had tools they could understand and trust, the American Psychological Association wrote back in 2023.
“The bottom line is we don’t have enough providers,” Jessica Jackson, a licensed psychologist and equitable technology advocate based in Texas, told APA for that story. “While therapy should be for everyone, not everyone needs it. The chatbots can fill a need.” Training from a chatbot, the piece noted, could fill in gaps for some mental health concerns (such as sleep problems), make mental health support more affordable and accessible, and be a great tool for those with social anxiety who may find human therapists off-putting.
And since the 1966 invention of ELIZA—a chatbot programmed to respond as a Rogerian psychotherapist—researchers have debated whether AI could play the role of a therapist.
Regarding that, the new study authors write, “Although there are still many important lingering questions, our findings indicate the answer may be ‘Yes.’ We hope our work galvanizes both the public and Mental Practitioners to ask important questions about the ethics, feasibility, and utility of integrating AI and mental health treatment, before the AI train leaves the station.”