书接上回《基于强化学习的自动出价论文阅读笔记(1)》。上一篇笔记介绍了基于无模型强化学习的自动出价算法-DRLB,该算法构建自动出价智能体,先将其应用在离线训练环境中、与仿真竞价系统交互,收集数据,进行学习,更新策略,再将其应用在在线预测环境中、与真实竞价系统交互,基于已训练策略进行出价,实现预算约束下的广告流量价值最大化。本篇笔记继续介绍延续先离线与仿真竞价系统交互进行训练、再在线与真实竞价系统交互进行预测这一思路的另外两篇论文 。如有不足之处,请指正。
带约束自动出价统一方案-USCB
2021年阿里妈妈发表的论文《A Unified Solution to Constrained Bidding in Online Display Advertising》 针对带约束自动出价除预算约束以外、还存在其他多种类型约束的问题,提出了带约束自动出价统一方案——USCB(Unified Solution to Constrained Bidding)。该方案对各种类型约束下的自动出价进行统一建模,推导出通用的出价计算公式,并使用无模型强化学习中同时学习价值函数和策略函数的Actor-Critic算法之一——DDPG算法,先离线与仿真竞价系统交互进行训练、再在线与真实竞价系统交互进行预测,输出出价计算公式中各参数最优值,从而计算出价并竞价,最终实现各种类型约束下广告流量价值的最大化 。
问题建模
上一篇笔记已介绍若只考虑预算约束,自动出价目标可由下式表示:
max ∑ i = 1 … N x i v i s.t. ∑ i = 1 N x i c i ≤ B \begin{align}
\max{\sum_{i=1\dots N}{x_iv_i}}\\
\text{s.t.}\space\sum_{i=1}^N{x_ic_i\le B}
\end{align} max i = 1 … N ∑ x i v i s.t. i = 1 ∑ N x i c i ≤ B
其中,每天共有N N N 次广告流量,对于i i i 次广告流量,v i v_i v i 表示广告流量对于广告主的价值,b i b_i b i 表示广告主对于广告流量的出价,x i x_i x i 表示根据广告主的出价和其他广告主进行竞价后的结果(出价高者竞胜,1表示竞胜,0表示未竞胜),c i c_i c i 表示广告主在竞胜后需要支付的费用(一般由广告平台投放系统按照GSP机制使用竞价排序中下一位广告主的出价计算所得),则自动出价问题即需要为广告主提供一个策略,该策略可根据广告流量价值计算广告出价,使得最终广告投放费用在不超过预算的前提下,最大化广告流量价值。
另外,不同的广告主在投放广告时,除了引入预算约束外,还会引入其他类型的效果指标作为约束条件,这些约束条件可以分为两大类:一类是成本相关的约束条件(Cost-Related,CR),包括单次点击成本(Cost Per Click,CPC)和单次转化成本(Cost Per Action,CPA)等;另一类是非成本相关的约束条件(Non-Cost-Related,NCR),包括点击率(Click Through Rate,CTR)和转化率(Conversion Per Impression,CPI)等。上述两类约束条件中的每一个约束条件可由下式统一表示:
∑ i c i j x i ∑ i p i j x i ≤ k j \frac{\sum_i{\mathbf{c}_{ij}x_i}}{\sum_i{\mathbf{p}_{ij}x_i}}\le \mathbf{k}_j ∑ i p ij x i ∑ i c ij x i ≤ k j
其中,k j \mathbf{k}_j k j 表示约束条件j j j 的上界,p i j \mathbf{p}_{ij} p ij 表示约束条件j j j 下、展现i i i 的某个效果指标或常量,c i j \mathbf{c}_{ij} c ij 可由下式计算:
c i j = c i 1 C R j + q i j ( 1 − 1 C R j ) \mathbf{c}_{ij}=c_i\mathbf{1}_{CR_j}+\mathbf{q}_{ij}(1-\mathbf{1}_{CR_{j}}) c ij = c i 1 C R j + q ij ( 1 − 1 C R j )
其中,1 C R j \mathbf{1}_{CR_j} 1 C R j 表示是否为成本相关的约束条件(1表示是,0表示否),即对于成本相关的约束条件,c i j \mathbf{c}_{ij} c ij 为广告主在竞胜展现i i i 后需要支付的费用成本c i c_i c i ,对于非成本相关的约束条件,c i j \mathbf{c}_{ij} c ij 为约束条件j j j 下、展现i i i 的某个效果指标或常量q i j \mathbf{q}_{ij} q ij 。
论文进一步列出多个具体约束条件中、上述统一表示公式各项的取值,如图1所示。例如,对于单次点击成本(CPC)约束,c i j \mathbf{c}_{ij} c ij 为c i c_i c i ,p i j \mathbf{p}_{ij} p ij 为CTR i \text{CTR}_i CTR i ,则统一表示公式的分子为费用成本和,分母为点击次数,相除后为单次点击成本,k j \mathbf{k}_j k j 为单次点击成本的上界;对于点击率(CTR)约束,c i j \mathbf{c}_{ij} c ij 为1,p i j \mathbf{p}_{ij} p ij 为CTR i \text{CTR}_i CTR i ,则统一表示公式的分子为展现次数,分母为点击次数,相除后为点击率的倒数,k j \mathbf{k}_j k j 为点击率下界的倒数。
基于上述约束条件的统一表示,论文给出带约束自动出价问题的统一表示:
max x i ∑ i v i x i s.t. ∑ i c i x i ≤ B ∑ i c i j x i ∑ i p i j x i ≤ k j , ∀ j x i ≤ 1 , ∀ i x i ≥ 0 , ∀ i (LP1) \begin{align}
\max_{x_i}\space\sum_i{v_ix_i} \\
\text{s.t.}\space\sum_i{c_ix_i}\le B\\
\frac{\sum_i{\mathbf{c}_{ij}x_i}}{\sum_i{\mathbf{p}_{ij}x_i}}\le \mathbf{k}_j,\space\forall j\\
x_i\le 1,\space\forall i\\
x_i\ge 0,\space\forall i\\
\end{align} \tag{LP1} x i max i ∑ v i x i s.t. i ∑ c i x i ≤ B ∑ i p ij x i ∑ i c ij x i ≤ k j , ∀ j x i ≤ 1 , ∀ i x i ≥ 0 , ∀ i ( LP1 )
即在上篇笔记所定义表达式的基础上,增加预算以外的约束条件。
论文进一步推导出上述线性规划问题取得最优解时,每次展现的出价可由下式表示:
b i ∗ = w 0 ∗ v i − ∑ j w j ∗ ( q i j ( 1 − 1 C R j ) − k j p i j ) b_i^*=w_0^*v_i-\sum_j{w_j^*(\mathbf{q}_{ij}(1-\mathbf{1}_{CR_j})-\mathbf{k}_j\mathbf{p}_{ij})} b i ∗ = w 0 ∗ v i − j ∑ w j ∗ ( q ij ( 1 − 1 C R j ) − k j p ij )
笔者此处略去具体推导过程。从上式可以看出,每次展现的出价依赖参数{ w k ∗ } k = 0 M \{w_k^*\}_{k=0}^M { w k ∗ } k = 0 M ,即将自动出价问题转化为该M + 1 M+1 M + 1 个参数的求解。
解决方案
MDP
本篇论文和上一篇笔记介绍的DRLB算法相同,也使用马尔科夫决策过程(Markov Decision Process,MDP)对自动出价问题进行建模,将一天内的广告投放划分为96个时间段,每个时间段为15分钟,在第t t t 步,自动出价智能体使用策略π : S ↦ A \pi:\mathcal{S}\mapsto\mathcal{A} π : S ↦ A ,根据状态s t ∈ S s_t\in\mathcal{S} s t ∈ S ,选择动作a 0 t , a 1 t , … , a M t ∈ A a_{0t},a_{1t},\dots,a_{Mt}\in\mathcal{A} a 0 t , a 1 t , … , a Mt ∈ A (A = A 0 × A 1 × ⋯ × A M ⊆ R M + 1 \mathcal{A}=\mathcal{A}_0\times\mathcal{A}_1\times\dots\times\mathcal{A}_M\subseteq\reals^{M+1} A = A 0 × A 1 × ⋯ × A M ⊆ R M + 1 ),修改出价公式相应各参数,然后自动出价智能体基于修改后的参数和竞价系统进行交互,计算出价并竞价,将第t t t 步和第t + 1 t+1 t + 1 步之间竞得的广告流量价值之和作为第t t t 步所获得的奖励r t : S × A ↦ R ⊆ R r_t:\mathcal{S}\times\mathcal{A}\mapsto\mathcal{R}\subseteq\reals r t : S × A ↦ R ⊆ R ,自动出价智能体的优化目标即最大化一天内的奖励之和R = ∑ t = 1 T γ t − 1 r t R=\sum_{t=1}^T{\gamma^{t-1}r_t} R = ∑ t = 1 T γ t − 1 r t 。
对于上述自动出价场景下的马尔可夫决策过程,其相应的各元素具体含义如下:
状态集合S \mathcal{S} S ,自动出价智能体每一步的状态属性包括剩余时间、剩余预算、预算消费速度、各约束条件当前值和边界值的比例(∑ i c i j x i / ∑ i p i j x i k j \frac{\sum_i{\mathbf{c}_{ij}x_i}/\sum_i{\mathbf{p}_{ij}x_i}}{\mathbf{k}_j} k j ∑ i c ij x i / ∑ i p ij x i )等。
动作集合A \mathcal{A} A ,自动出价智能体在第t t t 步的动作为M + 1 M+1 M + 1 维动作向量a → t = ( a 0 t , … , a M t ) \overrightarrow{a}_t=(a_{0t},\dots,a_{Mt}) a t = ( a 0 t , … , a Mt ) ,且a k t ∈ ( − 1.0 , + ∞ ) , ∀ k ∈ [ 0 , … , M ] a_{kt}\in(-1.0,+\infin),\forall k\in[0,\dots,M] a k t ∈ ( − 1.0 , + ∞ ) , ∀ k ∈ [ 0 , … , M ] ,并按照下式对出价公式中的M + 1 M+1 M + 1 维参数向量w → t − 1 = ( w 0 ( t − 1 ) , … , w M ( t − 1 ) ) \overrightarrow{w}_{t-1}=(w_{0(t-1)},\dots,w_{M(t-1)}) w t − 1 = ( w 0 ( t − 1 ) , … , w M ( t − 1 ) ) 进行修改:w → t = w → t − 1 ⋅ ( 1 + a → t ) \overrightarrow{w}_{t}=\overrightarrow{w}_{t-1}\cdot(1+\overrightarrow{a}_t) w t = w t − 1 ⋅ ( 1 + a t ) 。
奖励r t r_t r t ,自动出价智能体在第t t t 步的奖励为第t t t 步和第t + 1 t+1 t + 1 步之间竞得的广告流量价值之和,即r t = ∑ i ∈ O x i v i r_t=\sum_{i\in\mathcal{O}}{x_iv_i} r t = ∑ i ∈ O x i v i ,其中O \mathcal{O} O 为第t t t 步和第t + 1 t+1 t + 1 步之间的广告流量集合。
状态转移函数T \mathcal{T} T ,论文基于无模型的强化学习算法,因此无需对环境进行建模,不求解状态转移函数。
折扣因子γ \gamma γ ,因为各时段的奖励对于最大化当天累积奖励的目标来说有相等的权重,不会按时间衰减,所以折扣因子被固定为1。
DDPG
上一篇笔记已提到无模型的强化学习分为基于价值和基于策略的算法,基于价值的算法主要是学习价值函数,然后根据价值函数导出一个策略,学习过程中并不存在一个显式的策略,而基于策略的算法则是直接显式地学习一个策略函数,另外,基于策略的算法中还有一类Actor-Critic算法,其会同时学习价值函数和策略函数。
上一篇笔记介绍的DRLB算法具体使用了基于价值算法中的DQN算法,而本篇论文则具体使用了Actor-Critic算法中的DDPG算法。笔者这里简单介绍一下DDPG算法。DDPG算法使用Actor网络和Critic网络分别拟合策略函数和价值函数。DDPG算法在和环境的交互中,先使用Actor网络根据状态得到动作,再使用Critic网络根据状态和动作得到动作价值。
DDPG算法的具体流程如下:
随机噪声可以用N \mathcal{N} N 来表示,用随机的网络参数w w w 和θ \theta θ 分别初始化Critic网络Q w ( s , a ) Q_w(s,a) Q w ( s , a ) 和Actor网络R θ ( s ) R_\theta(s) R θ ( s )
复制相同的参数w − ← w w^-\leftarrow w w − ← w 和θ − ← θ \theta^-\leftarrow\theta θ − ← θ ,分别初始化目标网络Q w − Q_{w^-} Q w − 和R θ − R_{\theta^-} R θ −
初始化经验回访池D D D
for 序列e = 1 → E e=1\rightarrow E e = 1 → E do:
初始化随机过程N \mathcal{N} N 用于动作探索
获取环境初始状态s 1 s_1 s 1
for 时间步t = 1 → T t=1\rightarrow T t = 1 → T do:
根据当前策略和噪声选择动作a t = R θ ( s t ) + N a_t=R_\theta(s_t)+\mathcal{N} a t = R θ ( s t ) + N
执行动作a t a_t a t ,获得奖励r e t re_t r e t ,环境状态变为s t + 1 s_{t+1} s t + 1
将( s t , a t , r e t , s t + 1 ) (s_t,a_t,re_t,s_{t+1}) ( s t , a t , r e t , s t + 1 ) 存储进回放池D D D
从D D D 中采样N N N 个元组{ ( s i , a i , r e i , s i + 1 ) } i = 1 , . . . , N \{(s_i,a_i,re_i,s_{i+1})\}_{i=1,...,N} {( s i , a i , r e i , s i + 1 ) } i = 1 , ... , N
对每个元组,用目标网络计算y i = r e i + γ Q w − ( s i + 1 , R θ − ( s i + 1 ) ) y_i=re_i+\gamma Q_{w^-}(s_{i+1},R_{\theta^-}(s_{i+1})) y i = r e i + γ Q w − ( s i + 1 , R θ − ( s i + 1 ))
最小化目标损失L ( Q w ) = 1 N ∑ i = 1 N ( y i − Q w ( s i , a i ) ) 2 \mathcal{L}(Q_w)=\frac{1}{N}\sum_{i=1}^N(y_i-Q_w(s_i,a_i))^2 L ( Q w ) = N 1 ∑ i = 1 N ( y i − Q w ( s i , a i ) ) 2 ,以此更新当前Critic网络
计算采样的策略梯度,以此更新当前Actor网络:∇ θ J ≈ 1 N ∑ i = 1 N ∇ θ R θ ( s i ) ∇ a Q w ( s i , a ) ∣ a = R θ ( s i ) \nabla_\theta J\approx\frac{1}{N}\sum_{i=1}^N\nabla_\theta R_\theta(s_i)\nabla_aQ_w(s_i,a)|_{a=R_\theta(s_i)} ∇ θ J ≈ N 1 ∑ i = 1 N ∇ θ R θ ( s i ) ∇ a Q w ( s i , a ) ∣ a = R θ ( s i )
更新目标网络:w − ← τ w + ( 1 − τ ) w − , θ − ← τ θ + ( 1 − τ ) θ − w^-\leftarrow\tau w+(1-\tau)w^-,\theta^-\leftarrow\tau\theta+(1-\tau)\theta^- w − ← τ w + ( 1 − τ ) w − , θ − ← τ θ + ( 1 − τ ) θ −
end for
end for
上述算法通过与环境的多轮交互、不断更新Actor网络和Critic网络,其中几处细节是:
DDPG在Actor网络所输出动作的基础上增加随机噪声用于探索;
DDPG也使用了经验回放,从缓存中采样过去的轨迹数据用于Actor网络和Critic网络的训练;
DDPG中,Critic网络的损失函数和DQN中Q网络的损失函数相同,即网络输出和时序差分目标的均方误差,最小化上述损失函数,求取梯度进行网络参数更新;
DDPG中,Actor网络采用策略梯度进行网络参数更新,即最大化采样数据的动作价值之和;
DDPG也使用了目标网络以提升训练稳定性,Actor网络和Critic网络均有相应的目标网络,且目标网络采用软更新方式,将原网络参数按一定比例更新至目标网络。
关于DDPG算法的更多细节可以阅读《动手学强化学习-DDPG算法》 。
USCB
论文进一步证明,在自动出价场景下的马尔可夫决策过程中,自动出价智能体每一步的最优动作是将出价公式中的参数 w → t − 1 \overrightarrow{w}_{t-1} w t − 1 修改至最优参数 w → t ∗ \overrightarrow{w}_t^* w t ∗ ,并在后续的各时间段保持参数不变 。
对于上述结论的证明,论文仍是先进行问题建模,即在马尔科夫决策过程中的每一步,由于广告主已在该步之前竞胜部分广告流量,获得部分流量价值,消耗部分广告预算,因此对于该步及其后续的自动出价问题可由下式统一表示:
max x i , i ∈ O ∑ i v i x i + v # s.t. ∑ i c i x i + c # ≤ B ∑ i c i j x i + c j # ∑ i p i j x i + p j # ≤ k j , ∀ j x i ≤ 1 , ∀ i ∈ O x i ≥ 1 , ∀ i ∈ O (LP3) \begin{align}
\max_{x_i,i\in\mathcal{O}}\space\sum_{i}{v_ix_i}+v^{\#}\\
\text{s.t.}\space\sum_{i}{c_ix_i}+c^{\#}\le B\\
\frac{\sum_{i}{\mathbf{c}_{ij}x_i}+\mathbf{c}_j^{\#}}{\sum_{i}{\mathbf{p}_{ij}x_i}+\mathbf{p}_j^{\#}}\le\mathbf{k}_j,\space\forall j\\
x_i\le 1,\space\forall i\in\mathcal{O}\\
x_i\ge 1,\space\forall i\in\mathcal{O}
\end{align} \tag{\text{LP3}} x i , i ∈ O max i ∑ v i x i + v # s.t. i ∑ c i x i + c # ≤ B ∑ i p ij x i + p j # ∑ i c ij x i + c j # ≤ k j , ∀ j x i ≤ 1 , ∀ i ∈ O x i ≥ 1 , ∀ i ∈ O ( LP3 )
其中,v # v^{\#} v # 表示该步之前已获得流量价值,c # c^{\#} c # 表示该步之前已消耗广告预算,c j # \mathbf{c}_j^{\#} c j # 、p j # \mathbf{p}_j^{\#} p j # 表示该步之前约束条件j j j 相应的效果指标在已竞得广告流量下的值,O \mathcal{O} O 表示该步之后的广告流量集合,其他变量含义与LP1一致。和LP1可推导出最优出价计算公式类似,LP3也可推导出相应的最优出价计算公式。笔者此处略去具体推导过程,直接列出论文中推导的最优出价计算公式:
b i t ∗ = w 0 t ∗ v i − ∑ j w j t ∗ ( q i j ( 1 − 1 C R j ) − k j p i j ) b_{it}^*=w_{0t}^*v_i-\sum_{j}{w_{jt}^*(\mathbf{q}_{ij}(1-\mathbf{1}_{CR_j})-\mathbf{k}_j\mathbf{p}_{ij})} b i t ∗ = w 0 t ∗ v i − j ∑ w j t ∗ ( q ij ( 1 − 1 C R j ) − k j p ij )
其中,w → t ∗ = ( w 0 t ∗ , w 1 t ∗ , … , w M t ∗ ) \overrightarrow{w}_t^*=(w_{0t}^*,w_{1t}^*,\dots,w_{Mt}^*) w t ∗ = ( w 0 t ∗ , w 1 t ∗ , … , w Mt ∗ ) 是第t t t 步的最优出价参数。自动出价智能体在第t t t 步的动作为M + 1 M+1 M + 1 维动作向量a → t = ( a 0 t , … , a M t ) \overrightarrow{a}_t=(a_{0t},\dots,a_{Mt}) a t = ( a 0 t , … , a Mt ) ,并按照下式对出价公式中的M + 1 M+1 M + 1 维参数向量w → t − 1 = ( w 0 ( t − 1 ) , … , w M ( t − 1 ) ) \overrightarrow{w}_{t-1}=(w_{0(t-1)},\dots,w_{M(t-1)}) w t − 1 = ( w 0 ( t − 1 ) , … , w M ( t − 1 ) ) 进行修改:w → t ∗ = w → t − 1 ⋅ ( 1 + a → t ) \overrightarrow{w}_{t}^*=\overrightarrow{w}_{t-1}\cdot(1+\overrightarrow{a}_t) w t ∗ = w t − 1 ⋅ ( 1 + a t ) ,并在后续的各时间段保持参数不变。
基于上述结论以及上一节介绍的DDPG算法,论文最终给出USCB算法的具体流程,如图3所示,其整体流程与DDPG算法基本一致,其中几处细节是:
USCB算法的每轮迭代,随机选择一个广告计划,并使用模拟竞价系统作为环境,以模拟该广告计划在一天内的广告投放,投放中,自动出价智能体与环境进行多步交互,每步交互根据状态选择动作调整出价参数,并使用调整后的出价参数对后续广告流量计算出价、参与竞价。
自动出价智能体与环境的每步交互中,首先使用策略网络根据状态s t s_t s t 预测动作,并在预测结果上增加随机噪声,得到最终的动作a → t = π θ ( s t ) + E \overrightarrow{a}_t=\pi_\theta(s_t)+\mathcal{E} a t = π θ ( s t ) + E ,并根据动作a → t \overrightarrow{a}_t a t 调整出价参数:w → t = w → t − 1 ⋅ ( 1 + a → t ) \overrightarrow{w}_{t}=\overrightarrow{w}_{t-1}\cdot(1+\overrightarrow{a}_t) w t = w t − 1 ⋅ ( 1 + a t ) 。
自动出价智能体与环境的每步交互中,对该步及其后续所有步的广告流量使用该步调整的出价参数计算出价、参与竞价,使用R R R 保存该步之前各步竞得广告流量的奖励之和,使用V V V 保存该步之和各步竞得广告流量的奖励之和,则R + V R+V R + V 为一轮迭代各步竞得广告流量的奖励之和。
自动出价智能体与环境的每步交互中,使用以下公式计算各约束条件若当前被违反的惩罚值p j p_j p j :p j = λ e x r j − 1 p_j=\lambda^{exr_j}-1 p j = λ e x r j − 1 ,其中,λ ∈ ( 1 , + ∞ ) \lambda\in(1,+\infin) λ ∈ ( 1 , + ∞ ) ,为控制惩罚强度的超参,e x r j = max ( 0 , k j a c t u a l / k j − 1 ) , k j a c t u a l = ∑ i c i j x i / ∑ i p i j x i exr_j=\max(0,\mathbf{k}_j^{actual}/\mathbf{k}_j-1),\mathbf{k}_j^{actual}=\sum_i{\mathbf{c}_{ij}x_i}/\sum_i{\mathbf{p}_{ij}x_i} e x r j = max ( 0 , k j a c t u a l / k j − 1 ) , k j a c t u a l = ∑ i c ij x i / ∑ i p ij x i ,为约束条件j j j 当前真实值大于边界值的程度。
自动出价智能体与环境的每步交互中,不同于DDPG算法使用时序差分目标( r t + γ Q ( s t + 1 , π ( s t + 1 ) ) r_t+\gamma Q(s_{t+1},\pi(s_{t+1})) r t + γ Q ( s t + 1 , π ( s t + 1 )) )作为动作价值网络输出的逼近值,使用动作价值网络输出和时序差分目标的均方误差作为动作价值网络的损失函数,USCB算法使用以下公式计算动作价值网络输出的逼近值: G = min ( ( R + V ) / R ∗ , 1.0 ) − ∑ j p j \mathcal{G}=\min((R+V)/R^*,1.0)-\sum_j{p_j} G = min (( R + V ) / R ∗ , 1.0 ) − ∑ j p j ,其中, R ∗ R^* R ∗ 为理论上可竞得广告流量奖励之和的最大值,并使用上述逼近值和动作价值网络输出的均方误差作为动作价值网络的损失函数,即尽量减小约束条件的惩罚值,增大广告流量的奖励值。
自动出价智能体与环境的每步交互中,先使用上述损失函数计算梯度更新动作价值网络的参数,再根据策略梯度更新策略网络的参数。
实验评估
USCB算法为不同类型约束条件下的自动出价问题提供了统一方案,因此,论文选择三种约束条件下的自动出价问题进行实验评估:
CB{clicks}:约束条件仅有预算约束(∑ i c i x i ≤ B \sum_{i}{c_ix_i}\le B ∑ i c i x i ≤ B ),流量价值为点击,因此该带约束出价问题是在预算约束下,最大化点击,其对于展现i i i 的最优出价公式为:
b i = w 0 pCTR i b_i=w_0\text{pCTR}_i b i = w 0 pCTR i
CB{click-CPC}:约束条件除预算约束外,增加单次点击成本约束,流量价值为点击,因此该带约束出价问题是在预算、单次点击成本约束下,最大化点击,其对于展现i i i 的最优出价公式为:
b i = w 0 pCTR i + w 1 k C P C pCTR i b_i=w_0\text{pCTR}_i+w_1\mathbf{k}_{CPC}\text{pCTR}_i b i = w 0 pCTR i + w 1 k CPC pCTR i
CB{conversion-CPC}:约束条件除预算约束外,增加单次点击成本约束,流量价值为转化,因此该带约束出价问题是在预算、单次点击成本约束下,最大化转化,其对于展现i i i 的最优出价公式为:
b i = w 0 pCVR i + w 1 k C P C pCTR i b_i=w_0\text{pCVR}_i+w_1\mathbf{k}_{CPC}\text{pCTR}_i b i = w 0 pCVR i + w 1 k CPC pCTR i
实验评估基于淘宝展现广告的线上竞价日志为上述三种约束条件下的自动出价问题分别构建数据集。每个数据集对应于某种自动出价问题,包含使用该种自动出价的数千个广告计划在8天内的竞价数据,每条竞价数据可表示为( t i , c i d , p C T R i , p C V R i , c i ) (t_i,cid,pCTR_i,pCVR_i,c_i) ( t i , c i d , pCT R i , pC V R i , c i ) ,其包含展现i i i 的时间戳t i t_i t i ,广告计划c i d cid c i d 在该展现中的预估点击率、预估点击率和费用成本。论文将每个数据集中,前7天的竞价数据作为训练和验证集,最后1天的竞价数据作为测试集。
实验评估的效果指标和USCB算法流程中动作价值网络的逼近值一致:
G = min ( R R ∗ , 1.0 ) − ∑ j p j G=\min(\frac{R}{R^*},1.0)-\sum_j{p_j} G = min ( R ∗ R , 1.0 ) − j ∑ p j
即算法应尽量减小约束条件的惩罚值,增大广告流量的奖励值。
实验评估的基线模型包括:
Fixed Parameter(FP):即根据历史数据计算最优出价参数,并在测试阶段保持参数不变;
Deep Reinforcement Learning to Bid(DRLB):即上一篇笔记中介绍的算法,此处不再介绍;
Model predictive PID(M-PID):模型预测控制算法。
论文进行了大量的实验以对比各基线模型、分析算法收敛性能和约束惩罚影响等,以下仅列出USCB算法和各基线模型的对比结果。从图中可以看出,在不同的出价参数初始值下,USCB在三种约束条件下的自动出价问题中均取得最好的效果。
个性化自动出价方案-PerBid
2023年阿里妈妈发表的论文《A Personalized Automated Bidding Framework for Fairness-aware Online Advertising》 指出不同的广告主其广告投放目标和过程并不相同,基于统一方案构建一个自动出价智能体并应用于多个广告主,可能会导致该智能体为各广告主自动出价所带来的投放效果参差不齐,影响广告投放的整体公平性,因此该论文在USCB算法的基础上,提出了个性化自动出价方案——PerBid,该方案首先通过广告计划画像网络输出广告计划画像表征,能够表征广告计划的静态属性特征和动态环境特征,在此基础上,将广告计划划分为多个类簇,为每个类簇构建一个自动出价智能体,并且每个自动出价智能体将广告计划画像表征作为状态输入之一、从而感知不同广告计划动态环境的上下文,论文通过实验论证,该方案在保障投放效果的同时,也能提升广告投放的公平性 。
问题建模
和USCB算法类似,本篇论文首先对带约束自动出价问题进行建模:
max x ∑ i = 1 n x i × v i s.t. ∑ i = 1 n x i × c o s t i ≤ B u d g e t ∑ i = 1 n x i × c o s t i ∑ i = 1 n x i × c t r i ≤ P P C x i ∈ { 0 , 1 } , ∀ i ∈ [ 1 , n ] \begin{align}
\max_{\mathbf{x}}{\sum_{i=1}^{n}{x_i\times v_i}}\\
\text{s.t.}\space\sum_{i=1}^{n}{x_i\times cost_i}\le Budget\\
\frac{\sum_{i=1}^{n}{x_i\times cost_i}}{\sum_{i=1}^{n}{x_i\times ctr_i}}\le PPC\\
x_i\in\{0,1\},\forall i\in[1,n]
\end{align} x max i = 1 ∑ n x i × v i s.t. i = 1 ∑ n x i × cos t i ≤ B u d g e t ∑ i = 1 n x i × c t r i ∑ i = 1 n x i × cos t i ≤ PPC x i ∈ { 0 , 1 } , ∀ i ∈ [ 1 , n ]
即在预算和单次点击成本约束下,最大化竞得的广告流量价值之和。
和USCB算法类似,本篇论文也推导出最优出价公式:
b i d i ∗ = ( α ∗ × v i c t r i a v e r a g e ( v i c t r i ) + β ∗ ) × P P C bid_i^*=\left(\alpha^*\times\frac{\frac{v_i}{ctr_i}}{average(\frac{v_i}{ctr_i})}+\beta^*\right)\times PPC bi d i ∗ = ( α ∗ × a v er a g e ( c t r i v i ) c t r i v i + β ∗ ) × PPC
其中,α ∗ \alpha^* α ∗ 和β ∗ \beta^* β ∗ 是需要求解的最优出价参数。
和USCB算法类似,本篇论文也将自动出价问题转化为马尔科夫决策过程,自动出价智能体在第t t t 步,根据状态s t s_t s t ,通过策略π \pi π ,输出动作a t a_t a t ,调节出价参数,随后根据出价参数计算出价并竞价,获得奖励r t r_t r t ,并在第t + 1 t+1 t + 1 步,状态转移至s t + 1 s_{t+1} s t + 1 。令根据状态s t s_t s t 选择动作a t a_t a t 所获得的长期价值期望为G ( s t , a t ) G(s_t,a_t) G ( s t , a t ) ,则策略π \pi π 的优化目标即最大化上述长期价值期望,即π ( s ) = arg max a G ( s , a ) \pi(s)=\arg\max_a{G(s,a)} π ( s ) = arg max a G ( s , a ) 。
进一步解释相关变量的含义:
s t s_t s t 表示广告计划在第t t t 步的实时状态,包括广告计划剩余投放时间、剩余预算、实时点击成本、平均点击成本等。
a t a_t a t 表示广告计划在第t t t 步对出价参数的调整值,即{ α t , β t } = { α t − 1 , β t − 1 } + a t \{\alpha_t,\beta_t\}=\{\alpha_{t-1},\beta_{t-1}\}+a_t { α t , β t } = { α t − 1 , β t − 1 } + a t ,其中,a t = ( a t α , a t β ) a_t=(a_t^\alpha,a_t^\beta) a t = ( a t α , a t β ) ,a t a_t a t 由s t s_t s t 通过策略π \pi π 得到,即a t = π ( s t ) a_t=\pi(s_t) a t = π ( s t ) 。
r t r_t r t 表示广告计划在第t t t 步和第t + 1 t+1 t + 1 步之间获得的奖励,令R t R_t R t 表示第t t t 步之前的累计奖励,R − t R_{-t} R − t 表示第t t t 步之后的累计奖励,P P P 表示违反单次点击成本约束的惩罚值,则长期价值期望为G ( s t , a t ) G(s_t,a_t) G ( s t , a t ) 可由下式表示,该式与USCB中动作价值网络的逼近值一致:
G ( s t , a t ) = R t + R − t R ∗ − P G(s_t,a_t)=\frac{R_t+R_{-t}}{R^*}-P G ( s t , a t ) = R ∗ R t + R − t − P
公平性分析
论文进一步分析了若使用一个自动出价智能体所带来的公平性问题。论文指出在阿里巴巴展示广告平台中使用一个自动出价智能体,则投放效果最差(尾部10%)的广告计划相比投放效果最好(头部10%)的广告计划,前者投放效果只有后者的76%。论文分析导致上述不公平问题的原因有两点:广告环境差异和状态探索不平衡。
广告环境差异是指不同广告计划的投放设置(例如目标人群)不同,导致不同广告计划的展示量和点击率差异很大,一个自动出价智能体并不能适用所有广告计划。
状态探索不平衡是指不同广告计划的广告环境差异较大,导致不同广告计划的状态分布差异也较大,一个自动出价智能体所探索的状态空间对于不同广告计划并不平衡,有的广告计划的状态空间被探索的多,有的广告计划的状态空间被探索的少,而强化学习需要与环境交互、探索尽可能多的状态,防止发生OOD问题。
论文指出可将广告计划分为三种类型:预算敏感型(更关注预算约束),占比59.61%;单次点击成本敏感型(更关注单次点击成本约束),占比20.20%;混合敏感型(同时关注预算和单次点击成本约束),占比20.19%。
而预算敏感型广告计划和单次点击成本敏感型广告计划的状态分布如图5所示,其中,横坐标是预算消耗速度,纵坐标是平均点击成本,从中可以看出,预算敏感型广告计划会采用预算平滑控制预算消耗速度,因此状态多分布于坐标轴的中右侧,而单次点击成本敏感型广告计划聚焦于成本控制,因此状态多分布于坐标轴的左上侧,两者的状态分布差异较大。
解决方案
整体框架
为解决公平性问题,论文提出了个性化自动出价方案——PerBid(Personalized Automated Bidding Framework),其整体框架如图6所示。该方案首先通过广告计划画像网络输出广告计划画像表征,能够表征广告计划的静态属性特征和动态环境特征,在此基础上,将广告计划划分为多个类簇,为每个类簇构建一个自动出价智能体,并且每个自动出价智能体将广告计划画像表征作为状态输入之一、从而感知不同广告计划动态环境的上下文。
广告计划画像网络
论文首先通过广告计划画像网络输出广告计划画像表征,该网络如图7所示。该网络同时考虑广告计划的静态属性特征和动态环境特征。广告计划的静态属性特征包括预算、单次点击成本和ID类特征(例如计划ID、目标人群、广告时间等),ID类特征的独热编码会通过Embedding层转化为相应的稠密向量。广告计划的动态环境特征包含广告计划在各个时间段的出价日志,是比较典型的序列特征,因此论文采用循环神经网络(具体采用GRU)对其进行序列建模,对每个时间段中的出价日志根据成本相关的效果指标(例如c o s t i v i \frac{cost_i}{v_i} v i cos t i 、c o s t i c t r i \frac{cost_i}{ctr_i} c t r i cos t i 等)进行降序排序,并按照前10%、前30%、前50%等分位计算各时间段内的分位指标值,再加上各时间段的平均竞胜价格,组成各时间段的向量E t E_t E t 。循环神经网络的输入是广告计划在各时间段的效果指标向量的集合{ E 1 , … , E T } \{E_1,\dots,E_T\} { E 1 , … , E T } ,输出是表征广告计划动态环境特征的隐状态h ( T ) h(T) h ( T ) 。循环神经网络的输出和广告计划的静态属性特征拼接在一起作为广告计划画像特征:
P r o f i l e i = ( h ( T i ) , B u d g e t i , P P C , Embedding ( I D _ f e a t u r e s i ) ) Profile_i=(h(T_i),Budget_i,PPC,\text{Embedding}(ID\_features_i)) P ro f i l e i = ( h ( T i ) , B u d g e t i , PPC , Embedding ( I D _ f e a t u re s i ))
论文将广告计划按照投放效果分为K K K 类,并使用独热编码y i y_i y i 标记广告计划i i i 的类别:y i = ( y i 1 , … , y i K ) y_i=\left(y_i^1,\dots,y_i^K\right) y i = ( y i 1 , … , y i K ) 。若y i j = 1 y_i^j=1 y i j = 1 ,则广告计划i i i 属于类别j j j 。论文将广告计划画像特征加上出价参数α \alpha α 和β \beta β ,通过一个全连接网络,对广告计划的类别进行预测,并使用交叉熵损失函数对上述分类任务进行训练,学习广告计划画像网络中的参数:
L o s s = − 1 N ∑ i = 1 N ∑ j = 1 K y i j log ( f j ( P r o f i l e i , α i , β i ) ) Loss=-\frac{1}{N}\sum_{i=1}^{N}{\sum_{j=1}^{K}{y_i^j\log(f_j(Profile_i,\alpha_i,\beta_i))}} L oss = − N 1 i = 1 ∑ N j = 1 ∑ K y i j log ( f j ( P ro f i l e i , α i , β i ))
上下文感知的出价策略
在得到广告计划画像特征的基础上,论文使用广告计划画像特征中的隐状态h ( t ) h(t) h ( t ) 扩充马尔科夫决策过程中的状态s t s_t s t ,使得出价策略能够感知广告计划动态竞价环境的上下文:
s t = { s t a t u s t , c o n t e x t t } c o n t e x t t = h ( t ) s t a t u s t = { r e m a i n _ t i m e t , r e m a i n _ b u d g e t t , s p e n d _ s p e e d t , a v e r a g e _ p p c t , p p c t , α t , β t } \begin{align}
&s_t=\{status_t,context_t\}\\
&context_t=h(t)\\
&status_t=\{remain\_time_t,remain\_budget_t,spend\_speed_t,average\_ppc_t,ppc_t,\alpha_t,\beta_t\}
\end{align} s t = { s t a t u s t , co n t e x t t } co n t e x t t = h ( t ) s t a t u s t = { re main _ t im e t , re main _ b u d g e t t , s p e n d _ s p ee d t , a v er a g e _ pp c t , pp c t , α t , β t }
候选出价策略构建
在出价策略能够感知广告计划动态竞价环境上下文的基础上,论文构建多个候选出价策略,每个候选出价策略适配一类广告计划。候选出价策略构建的流程如图8所示,包含三步:
类簇初始化,根据预定义规则将广告计划划分至不同的类簇。
自动出价智能体训练,并行为每个类簇训练一个自动出价智能体,每个自动出价智能体的训练流程和USCB算法一致,此处不再介绍。
类簇重分配,对当前类簇中的每个广告计划使用所有类簇的自动出价智能体在模拟竞价系统中进行广告投放,若某个广告计划获得最优投放效果的智能体非当前类簇的智能体,且最优投放效果和当前类簇的智能体所获得投放效果的差值超过一定阈值,则将该广告计划划分至获得最优投放效果的智能体所属的类簇中。
自动出价智能体训练和类簇重分配会迭代多次,直至收敛。
出价策略匹配
当某个广告计划在某天在线竞价时,从其过去若干天的历史投放数据中进行采样,并使用所有类簇的自动出价智能体在模拟竞价系统中对该计划进行广告投放,选取效果最好的自动出价智能体作为当天该计划的自动出价智能体。
实验评估
实验评估的效果指标如下:
R e s = min ( ∑ i = 1 T r i R ∗ × 1 max ( P P C _ r a t i o , 1 ) , 1 ) Res=\min\left(\frac{\sum_{i=1}^T{r_i}}{R^*}\times \frac{1}{\max(PPC\_ratio,1)},1\right) R es = min ( R ∗ ∑ i = 1 T r i × max ( PPC _ r a t i o , 1 ) 1 , 1 )
其中,P P C _ r a t i o PPC\_ratio PPC _ r a t i o 为实际单次点击成本和单次点击成本约束边界值的比例,上式的含义即算法应尽量增大广告流量的奖励值,减小单次点击成本。
另外引入基尼系数以衡量公平性,该值越小,公平性越高:
G i n i = ∑ i = 1 N ∑ j = 1 N ∣ R e s i − R e s j ∣ 2 × N 2 × R e s ‾ Gini=\frac{\sum_{i=1}^N{\sum_{j=1}^N{|Res_i-Res_j|}}}{2\times N^2\times \overline{Res}} G ini = 2 × N 2 × R es ∑ i = 1 N ∑ j = 1 N ∣ R e s i − R e s j ∣
论文比较了以下算法:
Baseline,即USCB算法;
Baseline w. Profile,在USCB算法基础上,使用广告计划画像特征中的隐状态扩充马尔科夫决策过程中的状态;
Fixed Agents(OPT),将广告计划固定分为多类,且为每类训练一个自动出价智能体;
PerBid(OPT),将广告计划分为多类,且为每类训练一个自动出价智能体,并在训练阶段进行类簇重分配;
PerBid(Match),将广告计划分为多类,且为每类训练一个自动出价智能体,并在训练阶段进行类簇重分配,在线竞价时根据历史投放数据的模拟竞价结果选择自动出价智能体。
结果如图9所示,PerBid(OPT)在取得较优投放效果的同时,公平性也较高。
参考文献