只需一句话就能看透性格?生成AI解读“你的风格”的时代

只需一句话就能看透性格?生成AI解读“你的风格”的时代

「现在,你在想什么?」


如果有人这样问你,而你在几十秒内随意地说出你的想法。今天发生的事情,一点小小的不安,开心的事情,或者是没有特别意义的闲聊。仅凭这些“漫无边际的话语”,AI就能够相当准确地推测出你的性格倾向——这样的研究推动了心理学和AI的界限进一步扩展。


“性格诊断”正在发生变化

迄今为止,性格评估主要依赖问卷(如回答“你认为自己外向吗”“你是否细心”等项目)。原因很简单,因为这种方法效率高且易于统计处理。但与此同时,也有批评认为“人的性格会在语境和情境中显露,仅靠选择题的回答会有遗漏”。


在此背景下,生成AI,即大规模语言模型(LLM)应运而生。在研究中,商业和一般用途的LLM(例如:ChatGPTClaudeLLaMA 等)被用于读取人们的“自述”,以推测大五人格(外向性、宜人性、尽责性、神经质、开放性)。关键在于,使用的是广泛可获取的LLM,而不是“专门为心理学训练的模型”。


实验是“自言自语”和“日常日记”

研究设计主要有两种类型。一种是参与者“直接说出/写下脑海中浮现的内容”的自由形式内容。另一种是像每日短视频日记一样,自然地记录生活的一部分。通过这些“自然语言的片段”,LLM推测性格问卷的回答,并验证其与本人自我评价的一致性。


结果显示,LLM给出的性格评分与自我评价表现出相似的趋势。而且,使用多个LLM并取其平均值的方法更加稳健(不易波动)。此外,研究还表明,与传统的文本分析方法(经典的特征量化方法等)相比,LLM表现更佳。


这里重要的是,这不仅仅是关于“性格是否准确”的娱乐性讨论,而是“日常语言中可能包含了比想象中更浓厚的性格线索”的方向。研究者强调,性格不仅仅在“自我介绍时”显露,而是可能融入日常思维和表达的流动中。


不仅仅是性格:还与行为、情感、心理健康相关

进一步研究表明,LLM推测的性格评分可能与日常情感、压力、社会行为等相关。这意味着“性格推测不仅仅是贴标签,还可能与现实生活指标相关联”,从而大大扩展了应用的想象空间。


例如,在心理健康领域,即使本人无法进行长时间的测试,也可能从短日记或对话中获取状态线索。在教育和辅导中,可以根据性格特性调整反馈方式。在临床研究中,可能会开辟将质性数据(叙述)量化处理的途径。


然而,需要注意的是,这并不是说“AI可以进行诊断”。研究仅表明“推测的特性评分与特定指标在统计上相关”。医疗诊断或治疗决策需要解释责任、再现性、偏差验证、误判时的风险管理等不同层面的要求。


“比家人更准”——刺激性表述的背后

在报道中,“可能比家人或朋友的评价更准确”这样的刺激性短语引人注目。确实,研究强调了与自我评价的一致性,有时甚至可能优于他人评价。


然而,这里需要冷静地重新解读。家人或朋友了解你的“整个生活”,但评价中容易掺入关系的偏见(变得宽容/严厉,受特定场景印象的影响)。而LLM只看给定的语言数据,却极其擅长于语言模式的统计特征。因此,与其说“谁更了解人”,不如说“用什么材料、以什么标准进行推测”不同,这更接近实际情况。


在社交媒体上可能引发的反应:兴奋与不安

这种研究一出,社交媒体上的反应通常会两极分化。这里不是引用实际的帖子,而是根据文章内容假设的代表性论点,以“帖子示例”形式重构(作为理解氛围的示例,并非特定用户的发言)。


1) “有趣!可以用于自我理解”派

  • 帖子示例:
    “性格诊断回答问题很麻烦,但如果自言自语就能知道,那就轻松多了”
    “与其回顾日记,不如让AI总结+给出性格倾向”
    “作为辅导的入口似乎很方便。可以意识到自己的习惯”

这一群体期待自助、辅导、自我分析的“摩擦”减少。尤其是对心理学不太了解的人,更容易觉得“比起复杂的尺度,自然的语言更像自己”。

2) “这不就是监视社会吗?”派

  • 帖子示例:
    “如果几十秒的对话就能推测性格,只能想到用于面试、广告、保险的未来”
    “如果语音助手一直在推测,那隐私何在?”
    “被随意贴上‘你神经质倾向高’的标签太可怕了”


这一群体首先想到的是滥用的可能。语言存在于社交媒体、邮件、聊天、会议记录等生活的各个方面。如果“推测”在不知情的情况下进行,并被用于评价,几乎无法拒绝。

3) “如果准确,请解释依据”派

  • 帖子示例:
    “到底哪种表达方式成为外向性的指标?”
    “担心偏见(性别、文化、语言)导致的偏差”
    “AI看到的信号和心理学假设的概念一致吗?”


这一群体重视透明性和公平性。即使LLM的推测精度高,如果不能解释为何如此判断,难以在实际场景中应用。尤其是在招聘、信用、保险等领域,解释可能性和异议机制是不可或缺的。

4) “研究很有趣,但要注意夸大”派

  • 帖子示例:
    “‘比家人更准’这样的标题太夸张。评估对象是大五人格的自我报告一致性吧”
    “数据的获取方式可能影响准确性。要谨慎对待普遍化”
    “日记或自言自语更容易表现内心,这反而是理所当然的”


这一群体并不否定研究成果,而是希望调整“适用范围”和“语言的强度”。他们警惕在社交媒体上引起话题后,误解之下“性格判定AI服务”泛滥的情况。


那么,我们该如何相处

这项研究展示的未来同时存在便利和风险。因此,个人和社会都需要先考虑“保护方式”。


个人可以做的事情

  • 不要轻易将日记、咨询记录、语音备忘录上传到外部服务(尤其是个人信息、健康信息、家庭信息)

  • 区分“可以分析的数据”和“绝对不想提供的数据”

  • 将推测结果视为“温度计”而非“镜子”(会随情况波动,也有误差)

社会需要做的事情

  • 明确推测的使用目的,制定禁止未经同意进行性格推测的规则

  • 在高风险领域(招聘、保险、教育评估、司法等)中,标准配备审计、解释、救济机制

  • 强制进行对属性差异(文化、语言、年龄等)的持续验证

  • 不混淆研究与商业应用(“可以做到”和“可以使用”是两回事)


“你的特质”在言语中流露

归根结底,这项研究的核心很简单。
即使人们没有谈论性格,也在表达性格。


无意间的词汇选择、情感的表达方式、事件的截取方式、主语的大小、未来的表达方式。这些无数的选择塑造了你这个人,并以语言的形式表现出来。而LLM擅长捕捉这种“流露”。


我们将生活在一个语言不仅用于“传达”还用于“推测素材”的时代。
在追求便利的同时,避免被标签化或监视。
首先,从“语言比想象中传达得更多”这一事实开始,将其作为我们的盟友。



出处

  1. 密歇根大学新闻的原始发布页面
    https://news.umich.edu/say-whats-on-your-mind-and-ai-can-tell-what-kind-of-person-you-are/

  2. Tech Xplore转载的文章(研究概要、参与者规模、LLM示例、启示点的总结)
    https://techxplore.com/news/2026-01-mind-ai-kind-person.html

  3. Nature Human Behaviour发表的同行评审论文页面(发表日期、论文标题、摘要、方法框架、数据/代码公开信息)
    https://www.nature.com/articles/s41562-025-02389-x

  4. 作者公开的存储库(分析代码、生成数据等的公开方针说明。录音/全文转录原则上不公开,可从论文页面追溯)
    https://github.com/SripadaLab/personality_llm_zero_shot/