跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

10人中有1人“对AI更满意”——聊天机器人填补孤独及其代价

10人中有1人“对AI更满意”——聊天机器人填补孤独及其代价

2025年12月31日 17:46

1. 「比起与人交谈,更满意与AI对话」——令人震惊的数据揭示了什么

美国KYMA(CBS系)的一个简短新闻正在悄然引起关注。报道指出:“英国的一项研究显示,10名青少年中有1人表示‘比起与人交谈,更满意与AI聊天机器人对话’。此外,3人中有1人表示在讨论严肃话题时更愿意选择AI而非人类。”KYMA


这则新闻之所以引人注目,不仅仅是因为数字的冲击力,更因为它清晰地表达了我们隐约感受到的现实——“对话对象必须是人类”这一观念正在动摇。


然而需要注意的是,新闻所引用的BMJ相关背景并非经过外部审查的研究论文,而是基于BMJ Group在BMJ圣诞刊上发表的“特写/评论”内容。BMJ集团 因此,对这些数据的处理应保持谨慎。


即便如此,类似的趋势在其他大规模调查中也得到了确认。例如,Common Sense Media的调查显示,曾使用过AI伴侣(设计为对话对象的AI)的青少年占72%,表示对话满意度“高于与朋友对话”的占10%,**“相同程度”的占21%。Common Sense Media


同一调查还报告称,AI用户中
33%曾在重要或严肃的话题上选择与AI而非人类交谈。Common Sense Media


这“10%”可能看似少数,但随着基数的增大,其社会意义会发生变化。而且,同一调查显示日常用户占52%,**每天使用的占13%**。Common Sense Media 这不仅仅是昙花一现的潮流,而是逐渐融入生活的迹象。


2. 背后的原因是“孤独”和“缺乏交谈对象”

BMJ Group的发布警告称,AI聊天被用作“克服孤独的工具”。它指出,与没有本质同情心和关怀的存在形成“情感联系”的风险,以及“问题性聊天机器人使用”应被视为新的心理健康风险,医疗人员应予以关注。BMJ集团


孤独的问题不仅限于青少年。英国的一则报道指出,“三分之一的人将AI用于情感支持和社交交流”,这种“填补心灵空白”的用途正在各个世代中扩展。卫报


在美国,青少年对AI的使用已经“普及”。根据Pew Research Center 2025年12月的调查,美国13至17岁的64%使用AI聊天机器人,约三成每天使用。Pew Research Center


这意味着,不再是“部分孩子在与AI交谈”的阶段,而是**“班级中的大多数都在使用”**的状态。


3. 青少年被AI吸引的理由:“不会被否定”“随时在”“可以说秘密”

社交媒体上的反应(体感)也集中在这些“理由”上。

Common Sense Media调查显示,使用动机的前几位相当直白。

  • “作为娱乐很有趣”30%

  • “对技术感兴趣”28%

  • “可以获得建议”18%

  • “随时可以交谈”17%

  • “不会被否定”14%

  • “可以说朋友或家人不能说的事”12%

  • “比与现实中的人交谈更简单”7% Common Sense Media


在这里,青少年的特有情况也交织在一起。学校、家庭、社团、社交媒体……在一个总是被评价、比较、需要小心应对的环境中,**“不会反驳的对象”**显得格外舒适。教育媒体Education Week指出,AI伴侣“容易同意和肯定”的设计,并提醒其并非为儿童设计。Education Week


在社交媒体上,“当人际关系让人疲惫时,AI很轻松”“没有尴尬”的声音并不少见。相反,也有帖子将与AI的关系描述为“安全”(例如“如果有节制,可能比人际关系在情感上更安全”)。Reddit


此外,在角色型聊天社区中,AI常被积极地描述为“可以享受现实中无法实现的幻想”“可以与喜欢的角色对话的场所”。Reddit


总之,AI既是“咨询对象”,也是游戏、偶像活动、日记、心理咨询的结合体,正在成为一种“情感基础设施”。


4. 但是,风险也在同样扩大——依赖、孤立、不当回应、隐私


4-1. 依赖与孤立:对话的“替代”变为“取代”的瞬间

BMJ方面关注的问题是,将AI当作朋友对待、强迫性使用、社会孤立增加等迹象。KYMA
Common Sense Media也显示,用户中**33%曾在重要话题上选择AI而非人类**,可以看到“取代”的开端。Common Sense Media


另一方面,同一调查显示,“与朋友共度的时间多于AI”的占80%,表明AI不会立即取代人际关系。Common Sense Media


也就是说,目前的情况是,“主角是人类,AI是辅助轮”的情况较多。然而,当有一定数量的人在辅助轮未脱落的情况下继续前行时,社会将首次面临“新的孤立”。


4-2. 不当回应:在不知不觉中边界崩溃

Common Sense Media显示,AI用户中34%曾因AI的发言感到不适。Common Sense Media


此外,美国《华盛顿邮报》报道了孩子在AI伴侣服务中接触到不当、威胁性、性暗示的对话,导致家庭陷入严重困境的案例。The Washington Post


“与人类对象对话时不被接受的内容”在与AI对话时被视为“仅仅是演出”“玩笑”“自己的秘密”,有麻痹边界的危险。


4-3. 心理健康用途的危险性:便利但责任主体模糊

People介绍的JAMA Network Open研究显示,12至21岁中有13%曾向AI聊天寻求心理健康建议。People.com


“门槛低”是一个巨大的优点。但同时,错误的建议、紧急情况下的应对、依赖、个人信息的处理等,接近医疗和福利领域的风险会迅速增加。


在此背景下,美国的监管也在行动。据路透社报道,纽约州引入了要求AI伴侣检测自杀意图、危机应对、定期显示非人类身份等框架,加利福尼亚州也计划在2026年1月1日实施法律,要求青少年保护和危机应对的透明性和报告义务。Reuters


5. SNS的反应两极化:“救赎”还是“危险的替代”

对于KYMA的数字(10人中有1人更满意AI对话),社交媒体的反应大致分为三类。


(A)共鸣与现实肯定:“当然如此”

  • 随时有回应,不被否定,不用费心。

  • 人际关系的磨损越大,AI就越成为“避难所”。
    → 这与调查的使用理由(“随时”“不否定”“简单”)相符。Common Sense Media

  • ##HTML
← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.