“对你价格高,对邻居价格低”——定价算法真的“邪恶”吗?:“好数据”和“坏数据”的经济学分析

“对你价格高,对邻居价格低”——定价算法真的“邪恶”吗?:“好数据”和“坏数据”的经济学分析

「昨天看到的价格比今天高」——这样的经历可能不是错觉,而是“设计”的结果。在线零售、叫车服务、旅行、订阅服务。我们可能以为我们购买的是相同的商品和服务,但实际上我们看到的价格可能并不相同。企业利用位置信息、浏览历史、设备信息、过去的购买记录、停留时间等线索来推测我们愿意支付的价格(支付意愿),并对价格进行微调。这就是所谓的“价格歧视”或“个性化定价”。


这种做法直观上令人不安。掌握信息的一方似乎能够看穿我们的经济状况和购买欲望,尽可能地提高价格出售——我们不禁这样想。实际上,从消费者保护和公平交易的角度来看,这种做法常常被视为问题。然而,在经济学界,长期以来一直存在“价格歧视并不总是坏事”的讨论。因为通过降价可以增加新的购买群体,最终扩大供应或维持服务。


那么,在以数据和算法为前提的现代社会,价格歧视究竟是对社会有利还是有害呢?对此,NBER的工作论文《Good Data and Bad Data: The Welfare Effects of Price Discrimination》进行了正面挑战。Phys.org于2026年3月4日的报道介绍了这项研究的要点,同时也连接到了监管机构面临的“如何监督复杂的算法定价”这一现实问题。



“即使是大数据也无法完全预测”这一前提

这项研究的重要出发点是,即使企业拥有大量数据,也无法完全预测每个消费者的支付意愿,这一现实被纳入了模型。数据并非万能,总会有“剩余的不确定性”。因此,企业不是对个人进行精确定价,而是将具有相似特征的人群聚集成“细分市场”,并为每个细分市场设定最优价格。


换句话说,问题不在于“完全的个别定价”,而在于“当信息改变市场划分方式时,价格和福利(社会整体的收益)如何变化”。NBER的摘要也正是围绕“市场细分”和“剩余不确定性”来整理数据使用在福利上单调增加、减少或无法确定的情况。



影响福利的“三条路径”:为何直觉会出错

Phys.org(以及CMU Tepper的同内容文章)将信息对消费者福利的影响分解为三条路径进行介绍。
这也是这项研究没有简单地将“价格歧视=坏”和“价格歧视=有效”二分的原因。

① 同一类型内的价格分散(within-type price change)

即使在同一类型(需求相似的人群)中,信息增加也会导致价格“分散”。有些人会便宜,但另一些人会变贵。个性化价格的诡异感首先来自于这一效果。


然而,从整个社会来看,如果便宜的人增加,交易量可能会增加,总剩余可能会增加。相反,如果涨价方占据主导地位,消费者剩余可能会减少。


② 类型间的不对称降价(cross-types price change)

信息增加可能导致降价“偏向某些群体”发生。例如,对容易犹豫的群体(价格弹性高的群体)大幅降价以增加数量,而对不易流失的群体则涨价。


此时,整个社会的得失取决于“谁的降价增加了多少”。


③ 降价和涨价的幅度不一致(price curvature)

直观上可能会认为“有涨有跌,应该是平衡的吧?”但现实并非如此简单。价格上涨的幅度和下跌的幅度不一定相同,需求曲线和收益曲线的“弯曲程度”会导致同样的信息增加对影响的强度不同。


研究正是这一“曲率”因素使得结论变得复杂,同时也暗示“因此需要定量的衡量标准”。



“数据总是好/坏”的情况——关键在于“需求的形态”

NBER的页面总结了数据使用在福利上“单调增加(monotonically good)”“单调减少(monotonically bad)”的条件,以及非单调的情况。此外,在非单调情况下,研究为福利影响提供了“紧密的上下限(bounds)”,并讨论了在哪个方向上提供额外信息是最优的(best local direction)。


有趣的是,研究表明,仅凭“企业在收集数据”这一“事实”,就可以决定市场条件的好坏(Phys.org文章中也引用了这一点)。也就是说,在某些情况下,甚至无需深入了解“是什么数据”,就可以从需求结构中识别出“危险的市场”。



关于监管的讨论变得更加现实:“像合并审查一样划定界限”到价格算法

关于数据利用的政策讨论往往容易走向极端。

“因为侵犯隐私而全面监管”或“因为阻碍创新而放任自流”。


然而,现实中的监管机构在这两者之间苦苦挣扎。因为算法复杂且外界难以看清。而且企业称之为“价格优化”,消费者则感到“剥削”,价值判断容易分歧。Phys.org文章强调,研究试图通过“可以设置阈值的定量框架”来弥合这种对立,而不是“理论上的胜负”。就像合并审查的指导方针一样,衡量潜在的危害和利益,对高风险的方法进行严格审查或禁止,而对利益大且危害小的方法予以容忍——这种思路。


这种“划定界限”的思路在技术政策上也很重要。全面禁止虽然易于理解,但容易产生规避或漏洞。另一方面,若允许一切,则只能在损害发生后采取行动。如果有定量的“警戒线”,企业可以在设计阶段就降低风险,监管机构也可以缩小监控范围。



通过具体例子思考:同样的“歧视”但结果不同

在这里,我们以生活者的直觉为基础,考虑几个典型场景(以下是基于研究框架的解释,并非断定个别企业的实际情况)。


场景A:降价惠及“买不起的群体”

如学生折扣,将价格降低以提供给支付能力低的群体,增加交易量。总剩余容易增加,社会上也容易被肯定。如果数据用于“扩大访问”,在监管上也相对容易被接受。


场景B:越不容易流失的人价格越高

需求高、替代少、解约麻烦——这些人被提供高价时,消费者的反感会迅速增强。在福利上,如果涨价方的损失较大,容易转为负面。这是监管机构最警惕的领域。


场景C:上涨幅度大,下跌幅度小

表面上看似“有涨有跌”,但由于曲率效应,整体可能会亏损。正是这种“看不见的损失”发生时,定量评估变得有效。



社交媒体的反应:传播较小,但论点强烈

此次Phys.org文章本身在公开页面上的分享数显示为“0”,似乎并未引起大范围的关注。

 
不过,主题本身(个人数据引发的价格歧视)是社交媒体上反复容易引发争议的“火种”。


实际上,在社交媒体上,每当出现类似话题时(并非特指此文章),讨论大致会分为以下三种模式。

  1. “这不就是剥削吗?”派
    针对个性化定价,直觉上认为弱势群体会更不利。与设备或地区价格变化的话题结合时,愤怒容易加剧。

  2. “如果折扣增加反而有利”派
    将其视为优惠券或动态定价的延续,采取“如果不买就好”“比较一下就好”的立场。强调降价的好处。

  3. “缺乏透明性是问题”派
    对定价机制是个黑箱、缺乏问责的担忧。在这里,超越赞成与否的分歧,容易合流为“至少通知”“至少审计”的呼声。


这项研究有趣之处在于,它正面承认这些“情感上分裂的论点”在“视情况而定可能好也可能坏”的基础上,提供了推进讨论的工具(估计害与益、设置危险线)。

 
用社交媒体的话来说,不是“完全否定”也不是“完全支持”,而是将议题转移到“那么,从哪里开始算违规?”



从日本的语境考虑:重点在于“运用”而非“监管”

在日本,动态定价和推荐优化也在迅速普及。在这里,真正重要的不是作为理念的“赞成/反对”,而是运用的设计。

  • 企业方面:仅为了短期利益最大化而运用算法,可能会因引发争议或加强监管而在长期中受损。因此,在设计阶段需要设置“消费者不集中受不利”的护栏。

  • 行政方面:人工审查所有算法是不可能的。因此,优先考虑高风险领域(生活必需品、替代少的市场、解约成本高的市场等),并通过阈值来缩小监控范围的思路更为现实。


最终,围绕数据价格歧视的社会不信任,不仅在于“损失还是收益”,还在于“不知道自己在哪一边”的不安。研究提供的“测量框架”至少为这种不安提供了讨论的共同语言。


定价的未来不仅仅在于变得更聪明。聪明是否成为社会的“好数据”还是“坏数据”。被问及的可能不是算法本身,而是允许它的规则设计。



出处