营销增益模型之 Uplift Tree

chengsenw 网络营销评论1阅读模式

营销增益模型之 Uplift Tree

本文通过比较模型的差别来说明营销增益模型的性质——比较 Decision Tree  Uplift Tree 的差别。
一、T的特殊地位
增益模型的数据要求是(X,T,Y)。其中,X是特征,Y是结果,T是干预。没有T无法计算uplift(增益),只能计算response(响应)。
如果把T当作普通特征,计算P(Y|X,T),模型会告诉你“哪些人转化率高、哪些人转化率低”,但是无法回答“发券到底有没有用”。因为它分不清:发券才买的人(真正有效)、不发券也买的人(自然转化)。

因此,T不能视为普通特征,它是干预状态的标记,具有特殊地位

二、混杂变量

混杂变量 是 同时影响 T 和 Y 的变量。

假设有实验数据:

    • X = 用户活跃度(0 = 低活跃,1 = 高活跃)

    • T = 是否发券(1 = 发,0 = 不发)

    • Y =是否购买(1 =买,0 =不买)

    用户活跃度同时影响T和Y(如下图),用户活跃度是一个典型混杂变量。

      • 1. 用户活跃度 X 影响 T(干预)

        运营只给高活跃用户发券 → X=1 → T=1 的概率很高

      • 2. 用户活跃度 X 也影响 Y(购买)

        高活跃用户本来就更爱买 → X=1 → Y=1 的概率天然更高

    营销增益模型之 Uplift Tree

    此时,你会观察到:

      • 发券的人(T=1)购买率很高
      • 不发券的人(T=0)购买率很低

    于是,你得出结论:发券效果好!但真相是:不是券有用,是这群人本来就爱买。混杂变量让你把 “人群差异” 当成 “干预效果”。

    真实的因果是:
    营销增益模型之 Uplift Tree

    其中,do(T=1)表示强行、外生地给人发券(不受混杂变量影响)。因此,为了准确估计增益,必须消除X对T的影响

    • 方法1:使用RCT数据

    RCT(Randomized Controlled Trial ,随机对照试验)数据能保证 T=1 和 T=0 的人是可比的,混杂变量 对 T 的影响被强行清零。

    • 方法2:如果没有RCT数据,需要使用算法做 “事后消除”。
    具体包括:逆概率加权(IPW)、匹配法(Matching)、Meta-Learner 系列方法、因果树(Casual Tree)等方法。
    三、Decision Tree 和 Uplift Tree 的区别
    • Decision Tree(决策树)
      • 样本形态:(X, Y)
      • 分裂目标:让子节点内的标签 Y 更纯

      • 切分标准:左子树与右子树的不纯度(越小越好)

      • 公式:

    营销增益模型之 Uplift Tree    

        其中,p1表示Y=1发生的概率,p0表示Y=0发生的概率。

    • Uplift Tree(增益树)
      • 样本形态:(X,T,Y)
      • 分裂目标:让实验组 T=1 与对照组 T=0 的 Y 差异最大化。
      • 切分标准:左子树与右子树的增益差(越大越好)
      • 公式:
    营销增益模型之 Uplift Tree
        其中,ED (Euclidean Distance)为欧式距离。
    四、举例说明
    本例的数据如下(假设是RCT数据)。大家肉眼可以从中发现什么规律吗?现在我们用两个模型来尝试发现数据中的规律。
    ID
    X (用户类型)
    T (发券)
    Y (购买)
    备注
    1
    0
    1
    1
    发券才买
    2
    0
    1
    1
    发券才买
    3
    0
    0
    0
    不发不买
    4
    0
    0
    0
    不发不买
    5
    1
    1
    1
    本来就买
    6
    1
    1
    1
    本来就买
    7
    1
    0
    1
    不发也买
    8
    1
    0
    1
    不发也买
    9
    0
    1
    1
    发券才买
    10
    1
    0
    1
    不发也买
    • Decision Tree分裂过程
      • 父节点的Gini
    营销增益模型之 Uplift Tree
      • 按特征X分裂后的Gini
    营销增益模型之 Uplift Tree
      • 不纯度变化

        ∆Gini = 0.32 - 0.24 = 0.08 (分裂后的不纯度下降,可以分裂)

    • Uplift Tree的分裂过程
      • 父节点的欧式距离
    营销增益模型之 Uplift Tree
      • 按特征X分裂后的欧式距离
    营销增益模型之 Uplift Tree
      • 欧式距离变化

        ∆ED = 0.5 - 0.16 = 0.34 (分裂后的欧式距离增大,可以分裂)

    五、总结分析

    我们再看一下上述例子的树结构,上图是决策树的图,下图是增益树的图。

    营销增益模型之 Uplift Tree营销增益模型之 Uplift Tree

    大家可以看见通过不同方法构建的树,长得完全不一样,并且两者表达的内涵完全不同。
    决策树表达的是X=1用户(比如铁粉用户)的购买概率高。增益树表达的是,对X=0用户(比如红包敏感用户)进行发券是有效的,这部分人的营销增益高;而X=1用户因为是铁粉用户,发不发都会买,此时无需对这部分人群进行营销。
    这个例子很好地阐述了增益树和决策树的差异,也体现了增益模型与响应模型的差别。

     
    chengsenw
    • 本文由 chengsenw 发表于 2026年4月8日 00:20:10
    • 转载请务必保留本文链接:https://www.gewo168.com/40244.html
    匿名

    发表评论

    匿名网友

    :?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: