概述
广告主在投放效果广告时,会对广告流量设置一定的出价,而广告平台会基于多个广告主的出价进行广告流量的竞价,对竞价胜出的广告主,在广告流量上展示其广告,并进行计费。随着效果广告业务和技术的不断发展,广告主的出价功能也不断迭代。目前,不少广告平台都推出了自动出价功能,即广告主无需在展现、点击和转化上进行手动出价,仅需设置一定的约束条件,如每日广告投放预算,而由广告平台的投放系统根据广告流量和投放效果自动调整出价,为广告主实现广告流量价值的最大化,从而降低广告主的投放成本,提升广告主的投放效果。
在自动出价的具体实现上,由于广告流量和竞价环境的动态性,因此业界有较多工作基于强化学习进行自动出价,使用强化学习与环境交互、收集轨迹数据、迭代更新价值和策略函数的特点,解决广告流量和竞价环境动态性的问题。笔者之前梳理了基于强化学习的自动出价的相关论文,体系化地介绍了其发展历程,包括DRLB、USCB、PerBid、SOLA等算法,相关论文的阅读笔记地址已列在文末的参考文献中。
基于强化学习的自动出价将自动出价智能体和广告竞价环境的交互过程建模为马尔可夫决策过程,马尔可夫决策过程中的一个假设是下一个时刻的状态只与当前时刻的状态和动作相关,而从实际情况看,自动出价过程中的下一个时刻的状态与前序多个时刻的状态更加相关,并不完全满足马尔可夫决策过程的假设,因此,也有不少工作探索不基于强化学习的自动出价实现方案。
目前,AIGC及相应的生成式模型正在飞速发展,其中,扩散模型被广泛应用于图片、视频生成领域,取得了令人惊艳的效果,而扩散模型的基本原理是基于一定的条件(如图片的文字描述),从完全噪声开始逐步预测噪声并降噪,直至最终还原生成图片,其具体实现分为两步,第一步是正向扩散过程,从原始图片开始逐步增加噪声生成带噪声的图片,作为训练样本,训练模型用于预测噪声,第二步是反向扩散过程,从完全噪声开始逐步预测噪声并降噪,直至最终还原生成图片。
2024年阿里妈妈发表的论文《AIGB: Generative Auto-bidding via Diffusion Modeling》提出了DiffBid(Diffusion auto-bidding model)算法,实现了生成式的自动出价。具体实现上,其使用扩散模型,将图片替换为出价轨迹中的状态轨迹,将图片的文字描述替换为出价中的约束条件,从而通过扩散模型实现带约束条件的状态轨迹生成,并在生成状态轨迹的基础上,进一步通过逆转移模型预估从前序时刻状态到下一时刻状态所需采取的动作,以对出价进行调整,实现自动出价。论文通过实验验证了生成式的自动出价相比基于强化学习的自动出价,能为广告主带来更大的广告流量价值。
本文是对DiffBid这篇论文的阅读笔记,如有不足之处,请指正。
问题建模
首先定义带约束条件的自动出价问题,令一个周期(一般为1天)内共有次广告展现机会,对于第次展现机会,若广告主的出价高于其他广告主,则其获得该次展现机会,并展示其广告,进而获得该次展现的广告价值,并支付消耗。广告主的目标即在满足一定的约束条件下最大化获得的广告价值总和:
其中,表示广告主是否获得该次展现机会,而约束条件包括预算约束和其他业务指标的约束,预算约束可表示为:
其中,表示广告主一个周期内的预算,其他业务指标的约束可统一表示为:
其中,表示第个业务指标约束的上界,表示第个业务指标约束的值或常量,令共有个业务指标约束,则带约束条件的自动出价(Multi-constrained Bidding,MCB)问题可表示为:
USCB的论文中已推导出上述问题的最优出价公式,如下所示:
其中包含个待求解参数:。
基于强化学习的自动出价
基于强化学习的自动出价一般会设计一个智能体,将一个周期(一般为1天)划分为多个时刻,并将自动出价智能体和广告竞价环境的交互过程建模为马尔可夫决策过程,如图1所示,在每个时刻由智能体根据广告当前时刻的状态,由策略输出动作,对出价进行调整,然后通过与广告竞价环境的交互,获得奖励,并在下一个时刻进入状态,交互过程的状态转移可表示为。相关变量的进一步解释如下:
- 状态,表示广告在时刻的状态,包括广告的剩余时间、剩余预算、预算消耗速度、实时点击成本、平均点击成本等;
- 动作,表示智能体在时刻对最优出价公式中参数的调整,共有个参数,因此,动作可进一步表示为向量;
- 奖励,表示广告在时刻获得的奖励;
- 轨迹,一个轨迹由广告在一个周期(episode)内的多个时刻的状态、动作和奖励构成。
笔者之前梳理了基于强化学习的自动出价的相关论文,体系化地介绍了其发展历程,包括DRLB、USCB、PerBid、SOLA等算法,相关论文的阅读笔记地址已列在文末的参考文献中,下面仅对基于强化学习的自动出价各算法作简单的介绍:
- DRLB(Deep Reinforcement Learning to Bid)。2018年发表的论文《Budget Constrained Bidding by Model-free Reinforcement Learning in Display Advertising》提出了基于无模型强化学习的自动出价。这里的无模型是指不对环境进行建模、不直接计算状态转移概率,智能体只能和环境进行交互,通过采样得到的数据进行学习,这类学习方法统称为无模型的强化学习(Model-free Reinforcement Learning)。无模型的强化学习又可以分为基于价值和基于策略的算法,基于价值的算法主要是学习价值函数,然后根据价值函数导出一个策略,学习过程中并不存在一个显式的策略,而基于策略的算法则是直接显式地学习一个策略函数,另外,基于策略的算法中还有一类Actor-Critic算法,其会同时学习价值函数和策略函数。论文具体使用DQN算法,该算法将强化学习中基于价值的算法和深度学习相结合。另外,论文在该算法的基础上,针对自动出价场景的特点进行优化。
- USCB(Unified Solution to Constrained Bidding)。2021年阿里妈妈发表的论文《A Unified Solution to Constrained Bidding in Online Display Advertising》针对带约束自动出价除预算约束以外、还存在其他多种类型约束的问题,提出了带约束自动出价统一方案——USCB(Unified Solution to Constrained Bidding)。该方案对各种类型约束下的自动出价进行统一建模,推导出通用的出价计算公式,并使用无模型强化学习中同时学习价值函数和策略函数的Actor-Critic算法之一——DDPG算法,先离线与虚拟竞价系统交互进行训练、再在线与真实竞价系统交互进行预测,输出出价计算公式中各参数最优值,从而计算出价并竞价,最终实现各种类型约束下广告流量价值的最大化。
- PerBid(Personalized Automated Bidding Framework)。2023年阿里妈妈发表的论文《A Personalized Automated Bidding Framework for Fairness-aware Online Advertising》指出不同的广告主其广告投放目标和过程并不相同,基于统一方案构建一个自动出价智能体并应用于多个广告主,可能会导致该智能体为各广告主自动出价所带来的投放效果参差不齐,影响广告投放的整体公平性,因此该论文在USCB算法的基础上,提出了个性化自动出价方案——PerBid,该方案首先通过广告计划画像网络输出广告计划画像表征,能够表征广告计划的静态属性特征和动态环境特征,在此基础上,将广告计划划分为多个类簇,为每个类簇构建一个自动出价智能体,并且每个自动出价智能体将广告计划画像表征作为状态输入之一、从而感知不同广告计划动态环境的上下文,论文通过实验论证,该方案在保障投放效果的同时,也能提升广告投放的公平性。
- SOLA(Sustainable Online Reinforcement Learning for Auto-bidding)。上述所介绍的自动出价方案,均先离线与虚拟竞价系统交互进行训练、再在线与真实竞价系统交互进行预测,因此存在一个共性问题是如何保持虚拟竞价系统和真实竞价系统的一致性,而真实竞价系统存在复杂的拍卖机制、激励的出价竞争,虚拟竞价系统难以精确模拟真实竞价系统,而如果不能保持两个系统的一致性,则可能导致虚拟竞价系统下所训练的自动出价方案在真实竞价系统中非最优。2023年发表的论文《Sustainable Online Reinforcement Learning for Auto-bidding》提出了SOLA框架,将离线强化学习和在线安全探索相结合,同时解决了训练依赖虚拟竞价系统和在线探索出价安全性的问题。
基于强化学习的自动出价将自动出价智能体和广告竞价环境的交互过程建模为马尔可夫决策过程,马尔可夫决策过程中的一个假设是下一个时刻的状态只与当前时刻的状态和动作相关,而从实际情况看,自动出价过程中的下一个时刻的状态与前序多个时刻的状态更加相关,如图2所示,并不完全满足马尔可夫决策过程的假设,因此,也有不少工作探索不基于强化学习的自动出价实现方案。
2024年阿里妈妈发表的论文《AIGB: Generative Auto-bidding via Diffusion Modeling》另辟蹊径,提出了DiffBid(Diffusion auto-bidding model)算法,实现了生成式的自动出价。具体实现上,其使用扩散模型,将图片替换为出价轨迹中的状态轨迹,将图片的文字描述替换为出价中的约束条件,从而通过扩散模型实现带约束条件的状态轨迹生成,并在生成状态轨迹的基础上,进一步通过逆转移模型预估从前序时刻状态到下一时刻状态所需采取的动作,以对出价进行调整,实现自动出价。论文通过实验验证了生成式的自动出价相比基于强化学习的自动出价,能为广告主带来更大的广告流量价值。
扩散模型
DiffBid这篇论文具体使用了扩散模型中的DDPM模型以及Classifier-Free Guidance技术,因此,以下先对上述两个概念进行简单介绍。笔者之前已体系化梳理扩散模型的相关论文,相关论文的阅读笔记地址已列在文末的参考文献中,以供读者进一步了解扩散模型。
DDPM
扩散模型于2015年在论文《Deep Unsupervised Learning Using Nonequilibrium Thermodynamics》中被提出,并于2020年在论文《Denoising Diffusion Probabilistic Models》中被改进、用于图片生成。《Denoising Diffusion Probabilistic Models》中提出的扩散模型被称为DDPM。
正向扩散过程
令原始图片样本为,其满足分布。定义前向扩散过程,在步内,每步给样本增加一个小的满足高斯分布的噪声,从而产生个带噪声的样本,整个过程为一个一阶马尔可夫过程,只与有关,可用以下公式表示:
其中,表示给定时,的条件概率,即均值为、方差为的高斯分布,集合用于控制每步的噪声大小。进一步给定时,整个马尔科夫过程的条件概率为各步条件概率的连乘,可用以下公式表示:
正向扩散过程可由图3从右到左的过程表示,其中为原始图片,随着每步增加噪声,图片逐渐变得模糊。
对于上述正向扩散过程,可进一步令,且,则可用以下公式表示:
即是在的基础上,增加一个满足高斯分布的噪声,循环递归,即可进一步推导为在的基础上,增加一个满足高斯分布的噪声。这里使用了高斯分布的一个特性,即两个高斯分布合并后仍是一个高斯分布,例如分布和,合并后的分布为。
反向扩散过程
以上介绍了正向扩散过程,即图3从右到左,对原始图片逐步增加噪声,如果将过程逆向,即图3从左到右,那么就能从满足高斯分布的噪音逐步还原原始图片样本,这就是基于扩散模型生成图片的基本思想,即从到的每一步,在给定时,根据条件概率采样求解,直至最终得到。
而当正向扩散过程每步增加的噪声很小时,反向扩散过程的条件概率也可以认为满足高斯分布,但实际上,我们不能直接求解该条件概率,因为直接求解需要整体数据集合。除直接求解外,另一个方法是训练一个模型近似预估上述条件概率,可用以下公式表示:
从到的每一步,通过模型,输入和,预测的高斯分布的均值和方差,基于预测值,可以从的高斯分布中进行采样,从而得到的一个可能取值,如此循环,直至最终得到的一个可能取值。通过上述反向扩散过程,即可以实现从一个满足高斯分布的随机噪声,生成一张图片。而由于每次预测均是从一个概率密度函数中进行采样,因此,可以保证生成图片的多样性。
更进一步,论文进一步将模型预测的均值和方差转化为预测噪声,并推导出和的关系:
因此,可表示为:
论文将固定为常量,通过模型预测,并使用上述公式的概率密度函数进行采样,从降噪得到,这也是论文标题中“Denosing”的由来。
训练采样
训练
通过模型预测误差,损失函数采用均方误差(MSE,Mean-Squared Error):
模型训练的目标即最小化上述损失函数,即使模型预测出的噪声和真实噪声尽可能接近。
训练算法如图4所示,采用梯度下降算法,循环下述过程直至模型收敛:
- 对于样本,从中随机采样步数;
- 从高斯分布中采样真实噪声;
- 根据样本和真实噪声,使用前面推导出的公式计算第步正向扩散后带噪声的图片;
- 根据带噪声的图片和步数,使用模型预测噪声,即;
- 根据真实噪声和预测噪声计算损失函数的梯度,即;
- 根据梯度和学习率超参更新模型参数。
采样
采样算法如图5所示,过程如下:
- 从高斯分布中采样完全噪声图片;
- 循环步,步数从到1,直至计算得到,生成最终的图片,对于其中的某一步:
- 根据带噪声的图片和步数,使用模型预测噪声;
- 前面已推导出概率密度函数满足高斯分布,使用公式由噪声计算均值;
- 对于上述概率密度函数,指定方差为常量,根据该分布进行采样,从得到,即。
Classifier-Free Guidance
OpenAI后续对DDPM进行改进,在2021年随后又发表了论文《Diffusion Models Beat Gans on Image Synthesis》,在模型结构上进一步优化,同时引入Classifier Guidance技术,通过图片分类器的梯度调节反向扩散过程,在尽量保持图片生成多样性的前提下,提升准确性,从而在多个数据集的实验效果(FID)上超过了GAN,实现了SOTA。论文将改进后的模型称为ADM(Ablated Diffusion Model)。
在Classifier Guidance机制被提出后,紧接着Google又于2021年发表了论文《Classifier-Free Diffusion Guidance》。这篇论文指出Classifier Guidance仍存在以下不足:一是Classifier Guidance需要额外训练分类器,二是Classifier Guidance会导致基于梯度的对抗攻击,欺骗FID、IS这类基于分类器的评估指标。因此,这篇论文提出了一种不需要训练分类器、但仍可以基于类别信息指导反向扩散过程的机制——Classifier-Free Guidance。
之前ADM等扩散模型可使用类别信息进行有条件的图片生成,由模型基于和类别预测噪声,或是不使用类别信息进行无条件的图片生成,由模型仅基于预测噪声,但这两种情况需要分别训练模型,而Classifier-Free Guidance的思想是在模型训练时,按一定比例丢弃类别信息,使得模型能够同时学习有条件的图片生成和无条件的图片生成,这样在采样生成图片时,由同一个模型预测和,并使用两者的差值等价替换分类器输出的梯度对进行调整,调整公式如下:
再基于调整后的计算均值,并从高斯分布中采样得到。
基于扩散模型的自动出价
整体架构
DiffBid的整体架构如图6所示,其将自动出价划分为两个监督学习任务,第一个任务使用扩散模型,生成状态轨迹,在生成状态轨迹的基础上,第二个任务再通过逆转移模型预估从前序时刻状态到下一时刻状态所需采取的动作,以对出价进行调整,实现自动出价。
扩散过程
正向扩散过程
首先定义扩散过程中第步的状态轨迹如下:
其中包含广告在一个周期中个时刻的状态。和图片生成类似,正向扩散过程中第步的状态轨迹满足以下条件概率分布:
反向扩散过程
和图片生成类似,反向扩散过程中第步的状态轨迹 也满足以下条件概率分布:
其中,高斯分布的均值可转化为:
高斯分布的方差可转化为:
因此,可以通过扩散模型预测噪声,在预测噪声后,通过上述分布进行采样,得到降噪后的。论文这里使用了Classifier-Free Guidance技术,分别预测无条件的噪声和有条件的噪声,并基于上述两个值,得到最终的噪声:
广告投放周期中第个时刻出价通过反向扩散过程生成的过程如图7所示。首先从满足正态分布的完全随机噪声中进行采样,作为初始的状态轨迹:
对于反向扩散过程中的第步,由于前个时刻的状态已知,因此,将状态轨迹中前个时刻的状态替换为已知的真实状态:
然后使用扩散模型预测噪声,并根据噪声计算得到均值,再采样得到降噪后的第步的状态轨迹:
其中,。
上述反向扩散过程迭代多步,直至第0步,得到最终生成的状态轨迹。 接着,从这个状态轨迹中获取广告投放周期中第个时刻、即下一个时刻的状态,然后使用逆转移模型,根据第个时刻以及之前的共个时刻的状态,和反向扩散过程生成的第个时刻的状态,预估第个时刻的动作:
其中,,最后对出价进行调整。
模型训练
DiffBid训练流程如图8所示,其和扩散模型的训练流程类似,采样一批出价轨迹,对于其中每个出价轨迹的状态轨迹,随机采样扩散过程的步数和噪声,生成带噪声的状态轨迹,然后由扩散模型预估噪声,计算损失函数值和梯度,再梯度更新模型参数。
训练流程和扩散模型不同的是,由于DiffBid除扩散模型外,还包含逆转移模型,因此训练时还需由逆转移模型预估动作,并且损失函数中还需包括逆转移模型的损失,最后也还需梯度更新逆转移模型的参数。
整体损失函数如下所示:
其中,加号前面这部分是扩散模型的损失函数,即最小化预估噪声和实际噪声的偏差,加号后面这部分是逆转移模型的损失函数,即最小化预估动作和实际动作的偏差。
另外训练时还使用Classifier-Free Guidance技术,随机丢弃条件,使得扩散模型既能预估带条件的噪声,也能预估不带条件的噪声。
条件设计
对于带约束条件的状态轨迹生成,论文考虑了以下几种条件。
带广告收益的生成
广告收益为广告周期内各个时刻奖励之和,如下所示:
论文对广告收益进行归一化:
其中,和为数据集中分别已有的最小和最大的广告收益。论文将归一化后的广告收益加入条件中。,说明当前出价轨迹的广告收益最高,因此,在生成状态轨迹时,论文设置生成条件中的值为1,以使扩散模型尽可能生成高广告收益的状态轨迹。
带约束或反馈的生成
例如对于有点击成本约束的出价,可以定义二值标量用于表示最终的点击成本是否超过阈值:
将值加入条件中。,表示当前出价轨迹满足约束,点击成本不超过阈值,因此,在生成状态轨迹时,可以设置生成条件中的值为1,以使扩散模型生成满足点击成本约束的状态轨迹。
另外,广告主还可能有以下投放诉求。
平滑:广告主期望其消耗曲线尽可能平滑,避免突增或突降,定义消耗速度如下:
再定义消耗速度是否超过阈值的二值标量:
,表示当前出价轨迹满足约束,消耗速度不超过阈值,并将其加入条件中。
稍早/稍晚消耗:广告主也有可能期望其预算在某天的早晨或晚上消耗,定义上半天消耗在全天消耗中的占比:
另外,同上,也定义上半天消耗在全天消耗中的占比是否超过阈值的二值标量,并将其加入条件中。
生成时通过设置上述二值标量为1,以使扩散模型生成满足平滑消耗或者稍早/稍晚消耗的状态轨迹。
实验评估
实验环境
论文使用《Sustainable Online Reinforcement Learning for Auto-bidding》中介绍的真实竞价系统(Real-world Advertising System,RAS)作为实验环境。
真实竞价系统(Real-world Advertising System,RAS)和虚拟竞价系统(Virtual Advertising System,VAS)的不同,如图9所示,真实竞价系统采用两阶段竞价,第一阶段为粗排,从数十万广告中筛选出数百个广告,第二阶段为精排,从数百个广告中筛选出最终竞胜的广告,而虚拟竞价系统采用一阶段竞价,只使用线上精排日志模拟竞价环境;真实竞价系统存在多种拍卖机制,而虚拟竞价系统只采用GSP拍卖机制;真实竞价系统除当前广告主外、其余广告主也会不断调整出价,而虚拟竞价系统中,其余广告主的出价以市场价的形式被固定,不会变化。
真实竞价系统(Real-world Advertising System,RAS)的具体数值如图10所示,其中包含了30个广告主,对于每个广告主,一天为一个周期,被划分为96个时刻,各时刻之间间隔15分钟。
数据收集
论文使用《A Unified Solution to Constrained Bidding in Online Display Advertising》中提出的基于强化学习的自动出价算法——USCB算法,在线上广告系统中为广告主进行自动出价,从而收集出价轨迹,最终产出三个数据集:
- USCB-5K,包含5千个出价轨迹;
- USCBEx-5K,包含5千个出价轨迹,并且随机进行探索以增加动作空间;
- USCBEx-50K,包含5万个出价轨迹,并且随机进行探索以增加动作空间。
基线模型
基线模型除了USCB算法外,论文还选择了三个离线强化学习算法——BCQ、CQL和IQL,以及基于Transformer架构的生成式算法——DT算法。
评估方法
使用DiffBid和基线模型的智能体与使用USCB算法的智能体在真实竞价系统中进行竞价,并设置不同的预算,最终计算使用DiffBid和基线模型的智能体所获得的广告流量价值作为评估指标。
实验结果
实验结果如图11所示,其中,离线强化学习优于USCB算法,而DiffBid效果最好。USCBEx-5K和USCBEx-50K相比,说明数据集越大,效果越好。
参考文献
- 《AIGB: Generative Auto-bidding via Diffusion Modeling》
- 《基于强化学习的自动出价论文阅读笔记(1)》
- 《基于强化学习的自动出价论文阅读笔记(2)》
- 《基于强化学习的自动出价论文阅读笔记(3)》
- 《从DDPM到DALL-E2和Stable Diffusion——扩散模型相关论文阅读(1)》
- 《从DDPM到DALL-E2和Stable Diffusion——扩散模型相关论文阅读(2)》
- 《从DDPM到DALL-E2和Stable Diffusion——扩散模型相关论文阅读(3)》
- 《从DDPM到DALL-E2和Stable Diffusion——扩散模型相关论文阅读(4)》