首页 500强 活动 榜单 商业 科技 商潮 专题 品牌中心
杂志订阅

ChatGPT使用频率越高,越容易陷入孤独?

Beatrice Nolan
2025-03-26

ChatGPT可能正在让最忠实的用户群体陷入更深的孤独。

文本设置
小号
默认
大号
Plus(0条)

• 依赖ChatGPT的陪伴?这可能令你变得更孤独。麻省理工学院媒体实验室(MIT Media Lab)与OpenAI联合发布的两项新研究发现,高频使用聊天机器人的用户更容易陷入孤独与情感依赖。

ChatGPT可能正在让最忠实的用户群体陷入更深的孤独。

OpenAI和麻省理工学院媒体实验室近期发布的两项研究显示,频繁持续使用ChatGPT可能与更高程度的孤独感相关。

研究人员在两项平行研究的摘要中指出:“总体而言,在所有交互模式和对话类型中,日均使用时长越长,孤独感、依赖性与问题性使用倾向越强,社交活动则越少。”

这两项研究旨在探究与ChatGPT的互动对用户心理健康的影响程度,重点关注该聊天机器人的高级语音模式的使用效果。

这两项研究分别是麻省理工学院开展的随机对照试验(1,000名参与者持续使用ChatGPT四周),以及OpenAI对近4,000万次ChatGPT互动进行的自动化分析。

综合研究发现,情感依恋倾向更强烈者更容易感到孤独。相比之下,对聊天机器人信任度越高者,情感依赖程度更强。

研究指出,"重度用户"最可能将聊天机器人视为“朋友”,或认为其具备类人情感。

研究还发现,与聊天机器人进行“私人”对话的用户群体,孤独感水平也显著更高。

研究人员表示:“研究显示,虽然语音聊天机器人在缓解孤独与情感依赖方面初期效果优于文字版,但随着使用度增加,这种优势逐渐消失,尤其是在使用中性语音聊天机器人时。”

OpenAI的代表未立即回应在非正常工作时间提出的置评请求。

AI伴侣兴起

目前ChatGPT全球周活跃用户约4亿,越来越多人将其视为私人顾问与情感伴侣。

尽管医疗专家发出警告,但是该工具已成为部分人群的心理咨询替代品。2024年YouGov的调查显示,在18—29岁的美国青年中,超半数愿意向AI倾诉心理健康问题。

另外一项研究甚至表明,OpenAI聊天机器人提供的个人建议质量优于专业专栏作家。

虽然部分用户称聊天机器人有助于缓解孤独,但关于与AI聊天机器人互动带来的负面效应的质疑声渐起。主打陪伴功能的AI公司(如Replika和Character.ai)首当其冲。

Character.ai正面临两起涉及未成年人的独立诉讼,Replika则受到意大利监管机构调查。

研究人员表示,新发现“凸显了聊天机器人设计选择(如语音表现力)与用户行为(如对话内容、使用频率)间复杂的相互作用”,并呼吁进一步研究“聊天机器人在管理情绪内容时,能否避免助长依赖性或取代人际关系,从而真正提升幸福感”。 (财富中文网)

译者:刘进龙

审校:汪皓

• 依赖ChatGPT的陪伴?这可能令你变得更孤独。麻省理工学院媒体实验室(MIT Media Lab)与OpenAI联合发布的两项新研究发现,高频使用聊天机器人的用户更容易陷入孤独与情感依赖。

ChatGPT可能正在让最忠实的用户群体陷入更深的孤独。

OpenAI和麻省理工学院媒体实验室近期发布的两项研究显示,频繁持续使用ChatGPT可能与更高程度的孤独感相关。

研究人员在两项平行研究的摘要中指出:“总体而言,在所有交互模式和对话类型中,日均使用时长越长,孤独感、依赖性与问题性使用倾向越强,社交活动则越少。”

这两项研究旨在探究与ChatGPT的互动对用户心理健康的影响程度,重点关注该聊天机器人的高级语音模式的使用效果。

这两项研究分别是麻省理工学院开展的随机对照试验(1,000名参与者持续使用ChatGPT四周),以及OpenAI对近4,000万次ChatGPT互动进行的自动化分析。

综合研究发现,情感依恋倾向更强烈者更容易感到孤独。相比之下,对聊天机器人信任度越高者,情感依赖程度更强。

研究指出,"重度用户"最可能将聊天机器人视为“朋友”,或认为其具备类人情感。

研究还发现,与聊天机器人进行“私人”对话的用户群体,孤独感水平也显著更高。

研究人员表示:“研究显示,虽然语音聊天机器人在缓解孤独与情感依赖方面初期效果优于文字版,但随着使用度增加,这种优势逐渐消失,尤其是在使用中性语音聊天机器人时。”

OpenAI的代表未立即回应在非正常工作时间提出的置评请求。

AI伴侣兴起

目前ChatGPT全球周活跃用户约4亿,越来越多人将其视为私人顾问与情感伴侣。

尽管医疗专家发出警告,但是该工具已成为部分人群的心理咨询替代品。2024年YouGov的调查显示,在18—29岁的美国青年中,超半数愿意向AI倾诉心理健康问题。

另外一项研究甚至表明,OpenAI聊天机器人提供的个人建议质量优于专业专栏作家。

虽然部分用户称聊天机器人有助于缓解孤独,但关于与AI聊天机器人互动带来的负面效应的质疑声渐起。主打陪伴功能的AI公司(如Replika和Character.ai)首当其冲。

Character.ai正面临两起涉及未成年人的独立诉讼,Replika则受到意大利监管机构调查。

研究人员表示,新发现“凸显了聊天机器人设计选择(如语音表现力)与用户行为(如对话内容、使用频率)间复杂的相互作用”,并呼吁进一步研究“聊天机器人在管理情绪内容时,能否避免助长依赖性或取代人际关系,从而真正提升幸福感”。 (财富中文网)

译者:刘进龙

审校:汪皓

• Relying on ChatGPT for companionship? It might be making you lonelier. A new pair of studies from MIT Media Lab and Open found that frequent chatbot users experience more loneliness and emotional dependence.

ChatGPT might be making its most loyal users lonelier.

According to a pair of recent studies from OpenAI and MIT Media Lab, frequent, sustained use of ChatGPT may be linked to higher levels of loneliness.

“Overall, higher daily usage—across all modalities and conversation types—correlated with higher loneliness, dependence, and problematic use, and lower socialization,” the researchers said in an abstract for the two parallel studies.

The studies set out to investigate the extent to which interactions with ChatGPT impacted users’ emotional health, with a focus on the use of the chatbot’s advanced voice mode.

They included a randomized controlled trial (RCT) by MIT, in which 1,000 participants used ChatGPT over four weeks, and an automated analysis of nearly 40 million ChatGPT interactions conducted by OpenAI.

Across the studies, researchers found that those with stronger emotional attachment tendencies tended to experience more loneliness. In contrast, those with a higher level of trust in the chatbot experienced more emotional dependence.

They also suggested that “power users” were most likely to think of the chatbot as a “friend” or consider it to have humanlike emotions.

The studies also found that “personal” conversations with the chatbot were correlated with higher levels of loneliness among users.

“Results showed that while voice-based chatbots initially appeared beneficial in mitigating loneliness and dependence compared with text-based chatbots, these advantages diminished at high usage levels, especially with a neutral-voice chatbot,” the researchers said.

Representatives for OpenAI did not immediately respond to a request for comment, made outside normal working hours.

AI for companionship

ChatGPT has around 400 million weekly active users worldwide, with a growing number turning to the bot for personal advice and companionship.

It’s been a popular substitute for therapy for some, despite health professionals warning against this use case. According to a 2024 YouGov survey, just over half of young Americans aged 18 to 29 felt comfortable speaking to an AI about mental health concerns.

Another study even suggests that OpenAI’s chatbot gives better personal advice than professional columnists.

While some users say the bot helps ease loneliness, there has been increasing scrutiny about the negative effects of interacting with AI chatbots. AI companies that are aimed primarily at companionship, such as Replika and Character.ai, have been the most affected.

Character.ai is currently facing two separate lawsuits concerning interactions with minors, while Replika has drawn the scrutiny of Italian regulators.

The researchers said that the new findings “underscore the complex interplay between chatbot design choices (e.g., voice expressiveness) and user behaviors (e.g., conversation content, usage frequency” and called for further work to investigate “whether chatbots’ ability to manage emotional content without fostering dependence or replacing human relationships benefits overall well-being.”

财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。
0条Plus
精彩评论
评论

撰写或查看更多评论

请打开财富Plus APP

前往打开