阅读论文:2016 Bid-aware Gradient Descent for Unbiased Learning with Censored Data in Display Advertising
本文工作和2014 Optimal Real-Time Bidding for Display Advertising工作高度相关,建议可以先阅读2014这篇论文再阅读2016这篇论文。2014这篇论文笔记也补充上了,见:论文阅读 (011)
背景
点击率估计、出价优化等预测是在竞价前阶段使用完整数量的出价进行操作,但是在训练数据是在竞价结束后收集的,因此会导致训练数据和在线测试数据分布不一致。针对上述问题,文章有以下几点工作
使用Survival Models求解竞价获胜的概率(用于将有偏的训练数据重构到整体分布上)
在1工作的基础上,对CTR估计和出价优化进行修正
训练数据是有偏的
在竞价过程中,只有一个广告主胜出,因此只有这个广告主的请求获取了反馈,包括:是否点击、是否转化、market price值。这导致从ADX获取的数据(训练数据)和出价请求时的数据(测试数据)分布不一致,如下图所示
竞价过程等同于一个动态的数据过滤器,随bid value而不同。由于竞价失败的请求无法得到曝光,不能出现在模型依赖的训练数据中,整个训练数据相对于full-volume data是有偏的。
竞拍获胜概率
在竞价过程中,定义如下概念
x:请求的特征(包括:用户特征、广告特征)
b x b_x b x :对请求的出价
y:用户反馈,在竞价胜出后,用户是否点击或是否产生转化
z:market price:竞价后收取价格,文中定义比出价低
p ( w i n ∣ x , b x ) p(win| x, b_x) p ( w in ∣ x , b x ) :在出价为b x b_x b x 时胜出概率
q x ( x ) q_x(x) q x ( x ) :曝光数据分布
p x ( x ) p_x(x) p x ( x ) :竞价数据分布
因此曝光数据( x , y , z ) {(x, y, z)} ( x , y , z ) 存在以下的关系,式子表示了训练数据q_x(x)和竞价数据数据之间的偏移。我们需要在训练数据上进行训练,在竞价数据上测试,因此解两个分布之间的偏移,即P ( win ∣ x , b x ) ⏟ auction selection \underbrace{P\left(\operatorname{win} \mid \boldsymbol{x}, b_{\boldsymbol{x}}\right)}_{\text {auction selection }} auction selection P ( win ∣ x , b x ) 。
q x ( x ) ⏟ impression = P ( win ∣ x , b x ) ⏟ auction selection ⋅ p x ( x ) ⏟ bid request \underbrace{q_{x}(\boldsymbol{x})}_{\text {impression }}=\underbrace{P\left(\operatorname{win} \mid \boldsymbol{x}, b_{\boldsymbol{x}}\right)}_{\text {auction selection }} \cdot \underbrace{p_{x}(\boldsymbol{x})}_{\text {bid request }} impression q x ( x ) = auction selection P ( win ∣ x , b x ) ⋅ bid request p x ( x )
文中使用Survial Model来求解p ( w i n ∣ x , b x ) p(win|x, b_x) p ( w in ∣ x , b x ) ,p z x ( z ) p_{z}^{\boldsymbol{x}}(z) p z x ( z ) 表示market price为z时的获胜概率,拍卖获胜概率是market price z低于出价b x b_x b x 时的概率:
w ( b x ) ≡ P ( win ∣ x , b x ) = ∫ 0 b x p z x ( z ) d z w\left(b_{\boldsymbol{x}}\right) \equiv P\left(\operatorname{win} \mid \boldsymbol{x}, b_{\boldsymbol{x}}\right)=\int_{0}^{b_{\boldsymbol{x}}} p_{z}^{\boldsymbol{x}}(z) d z w ( b x ) ≡ P ( win ∣ x , b x ) = ∫ 0 b x p z x ( z ) d z
为了对问题进行简化,假设市场价格分布是在广告主粒度而不是曝光粒度(对广告主求一个w ( b x ) w\left(b_{\boldsymbol{x}}\right) w ( b x ) ),因此对于一个广告主估计相应的p z ( z ) p_{z}(z) p z ( z ) ,从而得到w ( b x ) w\left(b_{\boldsymbol{x}}\right) w ( b x ) 。
假设没有数据丢失(data censorship)问题,即一个广告agent在所有竞价中胜出,并知道market price,从而可以计算w o ( b x ) w_o\left(b_{\boldsymbol{x}}\right) w o ( b x ) ,计算方式如下
w o ( b x ) = ∑ ( x ′ , y , z ) ∈ D δ ( z < b x ) ∣ D ∣ w_{o}\left(b_{\boldsymbol{x}}\right)=\frac{\sum_{\left(\boldsymbol{x}^{\prime}, y, z\right) \in D} \delta\left(z<b_{\boldsymbol{x}}\right)}{|D|} w o ( b x ) = ∣ D ∣ ∑ ( x ′ , y , z ) ∈ D δ ( z < b x )
其中当z < b x z<b_{\boldsymbol{x}} z < b x 成立时δ ( z < b x ) = 1 \delta\left(z<b_{\boldsymbol{x}}\right)=1 δ ( z < b x ) = 1 ,否则为0。
实际问题就是广告主如果竞价没胜出,就无法获取market price
在竞价过程中,设想一个广告主参与了N次的竞价,记作N个元组⟨ b i , w i , z i ⟩ i = 1 … N \left\langle b_{i}, w_{i}, z_{i}\right\rangle_{i=1 \ldots N} ⟨ b i , w i , z i ⟩ i = 1 … N ,其中b i b_i b i 表示出价大小,w i w_i w i 表示是否赢得竞价,z i z_i z i 表示为market price。
对日志中上述格式数据进行转化,按照出价大小进行排序,⟨ b j , d j , n j ⟩ j = 1 … M \left\langle b_{j}, d_{j}, n_{j}\right\rangle_{j=1 \ldots M} ⟨ b j , d j , n j ⟩ j = 1 … M ,即b i < b j + 1 b_i<b_{j+1} b i < b j + 1
d j d_j d j 表示market price为b j − 1 b_j-1 b j − 1 赢得竞价的次数
n j n_j n j 表示为出价为b j − 1 b_j-1 b j − 1 未赢得竞价的次数,包括
market price不低于b j − 1 b_j-1 b j − 1 时竞标获胜的数目
bid price 不低于b j − 1 b_j-1 b j − 1 时竞标失败的数目。
那么在竞价为b x b_x b x 时,输掉广告拍卖的概率为(使用survival models求解 )
l ( b x ) = ∏ b j < b x n j − d j n j l\left(b_{\boldsymbol{x}}\right)=\prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}} l ( b x ) = ∏ b j < b x n j n j − d j
因此在竞价为b x b_x b x 时,赢得广告拍卖的概率为
w ( b x ) = 1 − ∏ b j < b x n j − d j n j w\left(b_{\boldsymbol{x}}\right)=1 - \prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}} w ( b x ) = 1 − ∏ b j < b x n j n j − d j
将⟨ b i , w i , z i ⟩ i = 1 … N \left\langle b_{i}, w_{i}, z_{i}\right\rangle_{i=1 \ldots N} ⟨ b i , w i , z i ⟩ i = 1 … N 转化为⟨ b j , d j , n j ⟩ j = 1 … M \left\langle b_{j}, d_{j}, n_{j}\right\rangle_{j=1 \ldots M} ⟨ b j , d j , n j ⟩ j = 1 … M ,并计算w ( b x ) w\left(b_{\boldsymbol{x}}\right) w ( b x ) 的例子如下
可以看到w o ( b x ) w_{o}\left(b_{\boldsymbol{x}}\right) w o ( b x ) 比w ( b x ) w\left(b_{\boldsymbol{x}}\right) w ( b x ) 值更大,即训练数据相对测试数据右移。
CTR估计
给定训练数据D = ( x , y , z ) D={(x, y, z)} D = ( x , y , z ) ,其中x服从训练数据分布q x ( x ) q_x(x) q x ( x ) ,一个无偏的监督学习模型要求在测试数据分布p x ( x ) p_x(x) p x ( x ) 上最小化损失函数。
在训练数据上,最小化损失函数
min θ E x ∼ p x ( x ) [ L ( y , f θ ( x ) ) ] + λ Φ ( θ ) \min _{\theta} \mathbb{E}_{\boldsymbol{x} \sim p_{x}(\boldsymbol{x})}\left[\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)\right]+\lambda \Phi(\boldsymbol{\theta}) min θ E x ∼ p x ( x ) [ L ( y , f θ ( x ) ) ] + λ Φ ( θ )
其中f θ ( x ) f_{\boldsymbol{\theta}}(\boldsymbol{x}) f θ ( x ) 表示参数为θ \theta θ 的模型预测结果,L ( y , f θ ( x ) ) \mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right) L ( y , f θ ( x ) ) 为预测结果f θ ( x ) f_{\boldsymbol{\theta}}(\boldsymbol{x}) f θ ( x ) 和真实标签y计算得的损失函数,Φ ( θ ) \Phi(\boldsymbol{\theta}) Φ ( θ ) 为参数正则项。
存在如下关系
E x ∼ p x ( x ) [ L ( y , f θ ( x ) ) ] = ∫ x p x ( x ) L ( y , f θ ( x ) ) d x = ∫ x q x ( x ) L ( y , f θ ( x ) ) w ( b x ) d x = E x ∼ q x ( x ) [ L ( y , f θ ( x ) ) w ( b x ) ] = 1 ∣ D ∣ ∑ ( x , y , z ) ∈ D L ( y , f θ ( x ) ) w ( b x ) = 1 ∣ D ∣ ∑ ( x , y , z ) ∈ D L ( y , f θ ( x ) ) 1 − ∏ b j < b x n j − d j n j , \begin{aligned} & \mathbb{E}_{\boldsymbol{x} \sim p_{x}(\boldsymbol{x})}\left[\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)\right]=\int_{\boldsymbol{x}} p_{x}(\boldsymbol{x}) \mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right) d \boldsymbol{x} \\=& \int_{\boldsymbol{x}} q_{x}(\boldsymbol{x}) \frac{\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x}=\mathbb{E}_{\boldsymbol{x} \sim q_{x}(\boldsymbol{x})}\left[\frac{\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)}{w\left(b_{\boldsymbol{x}}\right)}\right] \\=& \frac{1}{|D|} \sum_{(\boldsymbol{x}, y, \boldsymbol{z}) \in D} \frac{\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)}{w\left(b_{\boldsymbol{x}}\right)}=\frac{1}{|D|} \sum_{(\boldsymbol{x}, y, z) \in D} \frac{\mathcal{L}\left(y, f_{\boldsymbol{\theta}}(\boldsymbol{x})\right)}{1-\prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}}}, \end{aligned} = = E x ∼ p x ( x ) [ L ( y , f θ ( x ) ) ] = ∫ x p x ( x ) L ( y , f θ ( x ) ) d x ∫ x q x ( x ) w ( b x ) L ( y , f θ ( x ) ) d x = E x ∼ q x ( x ) [ w ( b x ) L ( y , f θ ( x ) ) ] ∣ D ∣ 1 ( x , y , z ) ∈ D ∑ w ( b x ) L ( y , f θ ( x ) ) = ∣ D ∣ 1 ( x , y , z ) ∈ D ∑ 1 − ∏ b j < b x n j n j − d j L ( y , f θ ( x ) ) ,
即通过训练集分布x表示的loss转化为测试集分布x的loss表示。上述修正有如下的性质
对于低胜出概率的出价b x b_x b x ,1 − ∏ b j < b x n i − d i n i ‾ 1-\prod_{b_{j}<b_{x}} \frac{n_{i}-d_{i}}{\underline{n_{i}}} 1 − ∏ b j < b x n i n i − d i 在训练集中估计的值较低,但是产生的相应的梯度较大,即来自竞价数据的梯度应该更高
如果竞价极高,这导致100%的拍卖中标概率,则可以从真实数据分布中观察到此类数据。因此,此数据将不会进行梯度重加权(权重为1)
胜出概率和权重的调整如图所示
出价优化
已通过模型求得CTR f ( x ) f(x) f ( x ) ,出价价格b ( f ( x ) ) b(f(x)) b ( f ( x )) ,对于T次拍卖,在预算为B的情况下,出价优化的优化目标为。下述建模来自:Optimal real-time bidding for display advertising ,其中预算约束处可取≤ \leq ≤ ,此处取= = = 也可。
arg max b ( ) T ∫ x f ( x ) w ( b ( f ( x ) ) ) p x ( x ) d x \underset{b()}{\arg \max } T \int_{\boldsymbol{x}} f(\boldsymbol{x}) w(b(f(\boldsymbol{x}))) p_{x}(\boldsymbol{x}) d \boldsymbol{x} b ( ) arg max T ∫ x f ( x ) w ( b ( f ( x ))) p x ( x ) d x
subject to T ∫ x b ( f ( x ) ) w ( b ( f ( x ) ) ) p x ( x ) d x = B T \int_{\boldsymbol{x}} b(f(\boldsymbol{x})) w(b(f(\boldsymbol{x}))) p_{x}(\boldsymbol{x}) d \boldsymbol{x}=B T ∫ x b ( f ( x )) w ( b ( f ( x ))) p x ( x ) d x = B
w ( b ( f ( x ) ) ) w(b(f(\boldsymbol{x}))) w ( b ( f ( x ))) 表示给定bid request x → \mathbf{x} \rightarrow x → estimated CTR f → f \rightarrow f → bidding function b → b \rightarrow b → winning probability w w w 的一系列过程的结果。
实际的数据分布为q x ( x ) q_x(x) q x ( x ) ,因此对上式进行变换,得到如下
arg max b ( ) T ∫ x f ( x ) w ( b ( f ( x ) ) ) q x ( x ) w ( b x ) d x \underset{b()}{\arg \max } T \int_{\boldsymbol{x}} f(\boldsymbol{x}) w(b(f(\boldsymbol{x}))) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x} b ( ) arg max T ∫ x f ( x ) w ( b ( f ( x ))) w ( b x ) q x ( x ) d x
subject to T ∫ x b ( f ( x ) ) w ( b ( f ( x ) ) ) q x ( x ) w ( b x ) d x = B T \int_{\boldsymbol{x}} b(f(\boldsymbol{x})) w(b(f(\boldsymbol{x}))) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x}=B T ∫ x b ( f ( x )) w ( b ( f ( x ))) w ( b x ) q x ( x ) d x = B
使用拉格朗日乘子法表示为无约束问题
L ( b ( f ) , λ ) = ∫ x f ( x ) w ( b ( f ( x ) ) ) q x ( x ) w ( b x ) d x − λ ∫ x b ( f ( x ) ) w ( b ( f ( x ) ) ) q x ( x ) w ( b x ) d x + λ B T \begin{aligned} \mathcal{L}(b(f), \lambda)=& \int_{\boldsymbol{x}} f(\boldsymbol{x}) w(b(f(\boldsymbol{x}))) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x} \\ &-\lambda \int_{\boldsymbol{x}} b(f(\boldsymbol{x})) w(b(f(\boldsymbol{x}))) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x}+\frac{\lambda B}{T} \end{aligned} L ( b ( f ) , λ ) = ∫ x f ( x ) w ( b ( f ( x ))) w ( b x ) q x ( x ) d x − λ ∫ x b ( f ( x )) w ( b ( f ( x ))) w ( b x ) q x ( x ) d x + T λ B
由Euler-Lagrangian条件:
f ( x ) q x ( x ) w ( b x ) ∂ w ( b ( f ( x ) ) ) ∂ b ( f ( x ) ) − λ q x ( x ) w ( b x ) [ w ( b ( f ( x ) ) ) f(\boldsymbol{x}) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} \frac{\partial w(b(f(\boldsymbol{x})))}{\partial b(f(\boldsymbol{x}))}-\lambda \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)}[w(b(f(\boldsymbol{x}))) f ( x ) w ( b x ) q x ( x ) ∂ b ( f ( x )) ∂ w ( b ( f ( x ))) − λ w ( b x ) q x ( x ) [ w ( b ( f ( x )))
+ b ( f ( x ) ) ∂ w ( b ( f ( x ) ) ) ∂ b ( f ( x ) ) ] = 0 \left.+b(f(\boldsymbol{x})) \frac{\partial w(b(f(\boldsymbol{x})))}{\partial b(f(\boldsymbol{x}))}\right]=0 + b ( f ( x )) ∂ b ( f ( x )) ∂ w ( b ( f ( x ))) ] = 0
⇒ λ w ( b ( f ( x ) ) ) = [ f ( x ) − λ b ( f ( x ) ) ] ∂ w ( b ( f ( x ) ) ) ∂ b ( f ( x ) ) , \Rightarrow \lambda w(b(f(\boldsymbol{x})))=[f(\boldsymbol{x})-\lambda b(f(\boldsymbol{x}))] \frac{\partial w(b(f(\boldsymbol{x})))}{\partial b(f(\boldsymbol{x}))}, ⇒ λ w ( b ( f ( x ))) = [ f ( x ) − λb ( f ( x ))] ∂ b ( f ( x )) ∂ w ( b ( f ( x ))) ,
最优 bidding function b O R T B f ( x ) b_{ORTB}f(x) b ORTB f ( x ) 取决于 winning function w ( b ) w(b) w ( b ) ,例如取
w ( b ( f ( x ) ) ) = b ( f ( x ) ) c + b ( f ( x ) ) w(b(f(\boldsymbol{x})))=\frac{b(f(\boldsymbol{x}))}{c+b(f(\boldsymbol{x}))} w ( b ( f ( x ))) = c + b ( f ( x )) b ( f ( x ))
其中c为常数,因此最优的出价为
b O R T B ( f ( x ) ) = c λ f ( x ) + c 2 − c b_{\mathrm{ORTB}}(f(\boldsymbol{x}))=\sqrt{\frac{c}{\lambda} f(\boldsymbol{x})+c^{2}}-c b ORTB ( f ( x )) = λ c f ( x ) + c 2 − c
上述存在未知数λ \lambda λ ,拉格朗日乘子法表示的无约束问题对λ \lambda λ 求导,由Euler-Lagrangian condition:
∂ L ( b ( f ( x ) ) , λ ) / ∂ λ = 0 ⇒ ∫ x b ( f ( x ) , λ ) w ( b ( f ( x ) , λ ) ) q x ( x ) w ( b x ) d x = B T ⇒ 1 ∣ D ∣ ∑ ( x , y , z ) ∈ D b ( f ( x ) , λ ) w ( b ( f ( x ) , λ ) ) w ( b x ) = B ∣ D ∣ \begin{aligned} \partial \mathcal{L}(b(f(\boldsymbol{x})), \lambda) / \partial \lambda &=0 \\ \Rightarrow \int_{\boldsymbol{x}} b(f(\boldsymbol{x}), \lambda) w(b(f(\boldsymbol{x}), \lambda)) \frac{q_{x}(\boldsymbol{x})}{w\left(b_{\boldsymbol{x}}\right)} d \boldsymbol{x} &=\frac{B}{T} \\ \Rightarrow \frac{1}{|D|} \sum_{(\boldsymbol{x}, y, \boldsymbol{z}) \in D} b(f(\boldsymbol{x}), \lambda) \frac{w(b(f(\boldsymbol{x}), \lambda))}{w\left(b_{\boldsymbol{x}}\right)} &=\frac{B}{|D|} \end{aligned} ∂ L ( b ( f ( x )) , λ ) / ∂ λ ⇒ ∫ x b ( f ( x ) , λ ) w ( b ( f ( x ) , λ )) w ( b x ) q x ( x ) d x ⇒ ∣ D ∣ 1 ( x , y , z ) ∈ D ∑ b ( f ( x ) , λ ) w ( b x ) w ( b ( f ( x ) , λ )) = 0 = T B = ∣ D ∣ B
即求解,下述问题为凸(没理解为啥为凸)
min λ ∑ ( x , y , z ) ∈ D 1 2 ( b ( f ( x ) , λ ) w ( b ( f ( x ) , λ ) ) 1 − ∏ b j < b x n j − d j n j − B ∣ D ∣ ) 2 \min _{\lambda} \sum_{(\boldsymbol{x}, y, z) \in D} \frac{1}{2}\left(\frac{b(f(\boldsymbol{x}), \lambda) w(b(f(\boldsymbol{x}), \lambda))}{1-\prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}}}-\frac{B}{|D|}\right)^{2} min λ ∑ ( x , y , z ) ∈ D 2 1 ( 1 − ∏ b j < b x n j n j − d j b ( f ( x ) , λ ) w ( b ( f ( x ) , λ )) − ∣ D ∣ B ) 2
使用BGD(Bid-aware Gradient Descent )进行更新
λ ← λ − η 1 1 − ∏ b j < b x n j − d j n j ⏞ instance reweighting ( b ( f ( x ) , λ ) w ( b ( f ( x ) , λ ) ) 1 − ∏ b j < b x n j − d j n j − B ∣ D ∣ ⏞ gradient direction ) ( ∂ b ( f ( x ) , λ ) ∂ λ w ( b ( f ( x ) , λ ) ) + b ( f ( x ) , λ ) ∂ w ( b ( f ( x ) , λ ) ) ∂ λ ⏟ bidding function gradient ) \begin{aligned} \lambda \leftarrow & \lambda-\eta \overbrace{\frac{1}{1-\prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}}}}^{\text {instance reweighting }}(\overbrace{\frac{b(f(\boldsymbol{x}), \lambda) w(b(f(\boldsymbol{x}), \lambda))}{1-\prod_{b_{j}<b_{\boldsymbol{x}}} \frac{n_{j}-d_{j}}{n_{j}}}-\frac{B}{|D|}}^{\text {gradient direction }}) \\ &(\underbrace{\frac{\partial b(f(\boldsymbol{x}), \lambda)}{\partial \lambda} w(b(f(\boldsymbol{x}), \lambda))+b(f(\boldsymbol{x}), \lambda) \frac{\partial w(b(f(\boldsymbol{x}), \lambda))}{\partial \lambda}}_{\text {bidding function gradient }}) \end{aligned} λ ← λ − η 1 − ∏ b j < b x n j n j − d j 1 instance reweighting ( 1 − ∏ b j < b x n j n j − d j b ( f ( x ) , λ ) w ( b ( f ( x ) , λ )) − ∣ D ∣ B gradient direction ) ( bidding function gradient ∂ λ ∂ b ( f ( x ) , λ ) w ( b ( f ( x ) , λ )) + b ( f ( x ) , λ ) ∂ λ ∂ w ( b ( f ( x ) , λ )) )
上述式子有如下性质
对样本进行了重新加权,如CTR估计中的做法
一个小的出价b x b_x b x 会产生较大权重,即表示其在训练数据中的重要性
训练实例的历史出价对梯度方向(gradient direction)也有影响
比率B / ∣ D ∣ B/|D| B /∣ D ∣ 将确保预算在新的出价中平均分配
观测历史出价和相应的梯度,有如下结论
在两部分数据中,出价50和100,当历史出价较小时,梯度为正-->λ \lambda λ 变大-->出价降低
对于历史出价b x b_x b x 低的数据实例,观测到该数据实例的可能性低,即在训练集中缺少类似的数据实例
如果b ( f ( x ) , λ ) b(f(x), \lambda) b ( f ( x ) , λ ) 高,则最佳出价b ( f ( x ) , λ ) b(f(x), \lambda) b ( f ( x ) , λ ) 应该降低,以避免预算在全量数据中超支
实验
实验设置
离线实验数据有iPinYou和TukMob,在线实验在Yahoo上进行。实验的流程如下所示,执行真相出价策略( truth-telling bidding strategy)以模拟历史出价过程,并产生获胜(标记为但有偏差的)印象数据和丢失(未标记)的投标请求数据。
对CTR估计和出价优化的执行策略有
bias:CTR估计和出价优化在有偏的训练数据上直接训练
UOMP:使用w o ( b x ) w_{o}\left(b_{\boldsymbol{x}}\right) w o ( b x ) 对数据进行修正,并使用文中提出的CTR估计和出价优化
KMMP:使用w ( b x ) w\left(b_{\boldsymbol{x}}\right) w ( b x ) 对数据进行修正,并使用文中提出的CTR估计和出价优化
FULL:使用很高的出价进行竞价,因此可以获得所有出价请求数据的标签,用这些数据进行CTR估计和出价优化
iPinYou数据集上Full和Win的数据分布如下
Winning Probability Estimation
在评估实际CTR估算和竞价优化任务之前,先分析比较模型在估算中标概率方面的表现。实验结果如下图所示,真实曲线是根据全部交易量预测数据中的所有市场价格观察结果构建的,在这里被视为真实值
从图中可以得出结论有
出价为0时,胜出概率为0,并且随着出价增加,胜出概率增加,胜出概率收敛值为1
FULL曲线和Truth曲线最为接近,因为FULL用到了所有的点击数据并且是无偏的
UOMP高估了胜出概率,KMMP比UOMP更加接近Truth
实验比较了UOMP、KMMP、FULL和Truth的KL散度和Pearson相关系数,实验结果如下表所示,KMMP比UOMP效果更好,并且接近FULL。
CTR Estimation Results
实验比较了CTR估计的AUC值、Cross Entropy值,实验结果如下图所示
从图中可以得出结论有
对数据进行校正的UOMP和KMMP比BIAS取得了更好的效果,表明了模型在消除训练数据实例偏差方面的有效性,这使得预测模型在预测数据上有更好的泛化
KMMP比UOMP相关更好,即文中提出的校正方法效果更好
文中比较了AUC和cross entropy在学习过程中的稳定性,如下图所示,结论有:UMOP和KMMP比BIAS更为稳定,FULL效果最好。
Bid Optimisation Results
按照设置预算比例,以执行离线出价优化,其中训练/测试预算设置为预算的1/64、1/32、1/16、1/8、1/4和1/2训练/测试数据集的总费用。无法将比例设置为1,因为在这种情况下,人们可能会简单地出价无穷大,以赢得数据中的所有展示次数和点击次数,而只花掉所有预算。
下表展示在iPinYou数据集上1/64和1/4出价下的结果;在TukMob数据集上的点击值和eCPC值
结论有
UMOP和KMMP相对BIAS效果更好,Table 6和Table 7中点击值更高,Table 7中eCPC值更低。
下图显示了相比Bias的点击、曝光的提升比例和eCPC的下降比例。相对Bias点击率和曝光率提升都是正数,eCPC的下降比例都是负数(除了FULL在1/2处为正)。
Online A/B Testing
实验在Yahoo上进行A/B测试,将流量和预算进行50%和50%的划分。控制组为使用梯度提升树以BIAS策略进行训练,对比组为使用相同模型以KMMP策略进行训练。实验结果如下图所示(省略文中两个表,图信息更多且与表中信息重叠了)
从图中可以得出结论有
KMMP获得了更多的点击次数和更少的曝光次数,提升了CTR值
上述的提升来自于KMMP可以减少对与低流量的过高出价
CTR提升,eCPC降低,即可以获取更多的点击次数,并且降低了出价成本
讨论
理论推导清晰,实验丰富,十分厉害了。
阅读了和本文相关的工作,是本文出价模型的建模论文,可以参考:论文阅读 (011) 。
参考资料
Aside: DSP的bidding算法
Optimal real-time bidding for display advertising
RTB广告出价策略