公平なはずの匹配系统为何会导致不平等?理解的差异导致结果的差异

公平なはずの匹配系统为何会导致不平等?理解的差异导致结果的差异

当“公平算法”导致不公平时——差距发生在代码之外

“如果算法是公平的,那么结果也会是公平的。”

随着AI和自动化决策系统在社会中的普及,我们在某种程度上对此抱有这样的期望。通过去除人类的主观性和偏见,基于规则进行机械判断,招聘、升学、分配、晋升等重要场合应该会更加公正。至少,相比于人类在幕后任意决定,这样的方式似乎更加透明,偏差也更少。

然而,新的研究对这一前提泼了冷水。

即使匹配系统本身被设计得很公平,如果用户对其机制理解不够,结果仍可能导致不平等。问题不仅仅存在于算法内部。相反,问题在于使用算法的人,以及围绕这些人的信息环境。

此次研究关注的是美国医学生选择实习地点的“住院医师匹配”制度。即将毕业的医学生和实习项目分别提交他们的优先顺序,然后通过计算机化的匹配系统进行组合。对于未来的医生来说,在哪里接受实习对其职业生涯有重大影响。这不仅仅是简单的职业调整,而更像是人生的分水岭。

该制度被设计为,学生按自己真实的优先顺序排列项目是最优选择。换句话说,不需要进行诸如“这个热门项目可能不行,所以降低优先级”或“把安全的地方放在上面更容易被录取”等策略性操作。实际上,这种策略性优先级操作可能会让他们远离理想的结果。

从制度理念上讲,这非常合理。只需诚实地表达愿望即可。不需要玩游戏。那么,这对每个人来说应该是公平的。

然而,现实并非如此简单。

研究人员分析了针对1700多名医学生的激励性模拟数据以及对66名实际经历住院医师匹配的医学生的详细访谈。结果发现,即使系统被设计得很公平,由于学生的理解程度和信息收集行为的差异,可能会产生非最优的选择。

例如,一些学生认为“我其实想去A医院,但A医院的竞争似乎很激烈,所以把B医院放在上面可能更容易匹配”。这看似是谨慎的判断。然而,在这种匹配制度中,伪造自己的真实优先顺序可能会让他们错过最佳结果。

也就是说,制度是为了“诚实选择”而设计的,但如果用户不理解这一点,就无法正确使用制度。即使有公平的机制,如果接触这些机制的人在知识、信心、周围的建议质量上存在差异,结果就不会公平。

这项研究特别关注了性别差异。男性医学生比女性医学生更倾向于自己寻找关于制度的额外信息。查看官方网站、观看说明视频、比较多个信息来源、独立搜索。采取这些行动的学生对匹配算法的理解更深,更容易采取最佳策略。

另一方面,只依赖于标准制度说明和大学提供的一般性建议的学生更容易误解机制。医学院的建议往往是“按真实的优先顺序排列”“遵循直觉”“不要想太多”。这些建议并没有错。作为制度原则,它们是正确的。

然而,正确的建议和充分的建议是不同的。

“为什么按真实的优先顺序排列是最优的?”
“把热门项目放在上面会不会不利?”
“像安全校这样的想法在这个制度中是否也适用?”
“改变顺序会如何影响我的匹配率?”

如果不能回答这些疑问,学生就会基于不安行动。即使制度被设计为“不需要策略”,如果用户不相信这一点,最终还是会进行策略性操作。

这里存在一个关于算法公平性的重大盲点。

迄今为止,“公平算法”的讨论主要集中在系统的内部。是否存在对特定属性的歧视?是否学习了过去偏颇的数据?判断标准是否不透明?结果是否有偏差?当然,这些都很重要。

然而,此次研究表明,即使算法本身没有偏见,不平等仍然会产生。即使没有歧视性的代码,偏颇的结果也可能出现。因为用户并没有站在同一起跑线上。

有的人有时间和信心去寻找额外的信息。有的人能获得理解机制的支持。有的人能从前辈或导师那里获得具体的建议。有的人对提出制度疑问本身感到犹豫。有的人根本没有意识到“这是自己应该调查的事情”。

这种差异不仅仅是个人差异。性别、阶层、出身学校、家庭环境、文化背景、周围网络也会影响这种差异。即使算法打算对所有人应用相同的规则,也不会自动填补人类一方的信息差距和信心差距。

相反,制度越复杂,理解它的人就越有利。

这种结构不仅限于医学生的实习匹配。学校入学、企业招聘、内部分配、晋升审查、人力市场、公共部门的职务分配、奖学金评选、住房抽签、托儿所入园、军队配置等,我们的社会中匹配和自动化决策正在增加。在这些地方,常常被解释为“系统公平处理,所以没问题”。

然而,用户如何理解这个系统却被意外地轻视了。

例如,考虑企业的内部招聘制度。假设员工对希望的部门进行排序,系统根据适应性和愿望进行分配。制度上是公平的,但如果有员工误解为“在第一志愿中写上热门部门会不利”,他们可能一开始就降低希望。而对制度理解透彻的员工则毫不犹豫地表达真实愿望。结果是,在同一规则下,理解透彻的人更有利。

大学入学或学校选择中也可能发生同样的事情。如果家长或学生没有正确理解选拔制度,他们可能会出于安全考虑做出不利的选择。拥有信息的家庭更能利用制度,而没有信息的家庭更容易误解制度的意图。算法的公平性会直接反映家庭的信息资本差异。

在这个意义上,公平的系统不仅仅是“无偏计算的系统”。它必须是用户能够正确理解、安心使用、在需要时获得支持的系统。

研究人员提出了一些实际对策,如更明确的说明、可反复学习的教材、模拟、互动练习、鼓励访问多个信息来源等。重要的是,不仅仅用一句“按真实的优先顺序写”来解决问题,而是要让用户理解“为什么这是最优的”。

这既是用户教育的问题,也是制度设计的问题。

如果用户容易误解,那不仅仅是用户的责任。如果说明模糊,制度的直觉反差被忽视,提问的氛围不佳,标准建议过于抽象,那么制度的实施就有问题。如果真想实现公平性,就必须不仅在算法设计阶段,还要在与用户的接触点进行设计。

从SNS上的反应来看,这项研究的关注度仍然有限,但在专家社区中开始引起关注。论文作者之一在LinkedIn上介绍研究内容的帖子,截至确认时有69个反应和3条评论,评论区有对研究的祝贺和“有趣的论文”等积极反应。与其说是引发了大规模的讨论,不如说目前在管理学、医学教育、算法公平性感兴趣的群体中,正在静静地分享。

另一方面,在Phys.org的文章页面上,截至确认时分享数量较少,几乎没有评论。这并不是因为研究的重要性低,而是因为主题专业,普通读者难以立即与自己相关联。然而,这项研究揭示的问题实际上与许多人的生活直接相关。

因为我们已经生活在“理解制度的人更有利的社会”中。

税制、奖学金、保险、住房贷款、积分制度、求职活动、转职网站、学校选择、行政手续。虽然表面上规则相同,但理解度会影响结果。当算法加入其中时,问题变得更加难以察觉。面对人类工作人员时,人们更容易说“解释不够”,但面对系统时,人们往往会接受“就是这样”。

然而,公平性并不是将责任推给用户。

“没有好好调查的人不好”
“无法理解制度的人不好”
“不主动提问的人不好”

这样简单地切割是容易的。然而,制度越是社会重要,支持用户理解的责任就越在运营方。特别是当制度涉及人生的进路、职业、收入、教育机会时,解释的不足不仅仅是不亲切,而可能成为不平等的温床。

此次研究提出的问题对AI时代的制度设计具有非常重大的意义。

仅仅创造公平的算法就足够了吗?
如果用户误解制度而做出不利选择,那真的公平吗?
仅仅因为“正确的信息已公开”,就能说履行了充分的解释责任吗?
当理解制度的能力和信心存在差异时,应支持到何种程度?

在未来的社会中,不仅算法的透明性重要,“可理解性”将更加重要。即使有透明的说明,如果只有专家能理解,那就没有意义。只有当用户能理解其对自己判断的影响时,透明性才能转化为公平性。

要创造一个公平的系统,不仅需要编写代码的人,还需要解释的人、教育的人、运营制度的人、倾听用户不安的人。算法公平性不仅仅是技术部门的工作。它是整个组织的沟通设计、教育设计和信任设计。

医学生的住院医师匹配只是一个案例。然而,从中看到的教训是广泛的。

公平的规则只有在公平的理解支持下才能公平地运作。
而不平等并不总是源于恶意的歧视。
即使是出于善意设计的制度,如果解释不足、支持偏颇、用户理解有差异,也会产生不公平的结果。

在将AI和算法引入社会的时代,所需的不是“机器就公平”的简单信任。相反,正因为机器看起来公平,我们必须谨慎地看待其周围的人类理解、行为和信息环境。

公平性并不只存在于算法内部。
它存在于使用算法的人之间。


出处URL

Phys.org的研究介绍文章。报道了“即使是公平设计的匹配系统,由于用户理解差异,仍可能产生不平等结果”的研究内容。
https://phys.org/news/2026-05-fair-unequal-outcomes.html

研究论文的发布页面。由Samuel E. Skowronek和Joyce C. He撰写的论文“Gendered Navigation of Advice and Suboptimal Behavior in Matching Algorithms: Evidence from the Residency Match”的概要、作者、发布信息、DOI确认。
https://pubsonline.informs.org/doi/10.1287/orsc.2024.19652

INFORMS的新闻发布。确认了研究要点、1700多名医学生的模拟数据、66人的访谈、制度理解和信息收集行为的差异说明。
https://www.informs.org/News-Room/INFORMS-Releases/News-Releases/Fair-Matching-Systems-Can-Still-Produce-Unequal-Outcomes-New-Research-Finds

EurekAlert!发布的新闻稿。确认了研究背景、住院医师匹配机制、实际操作上的启示、发布日期和DOI等。
https://www.eurekalert.org/news-releases/1128471

作者在LinkedIn上的帖子。介绍了研究内容,确认了SNS上可见的反应数量和评论趋势。
https://www.linkedin.com/posts/sam-skowronek-1775896a_gendered-navigation-of-advice-and-suboptimal-activity-7442932708063821824-SJds