论文《Behavior Sequence Transformer for E-commerce Recommendation in Alibaba》

285 阅读1分钟

阿里BST

论文地址:arxiv.org/pdf/1905.06…

19年阿里这篇推荐论文也是紧贴热点,将Transformer应用到提取用户序列上面,提出Transformer Layer,提取用户序列信息。

网络结构图如下 在这里插入图片描述 Transformer Layer其实是Transformer的encoder部分 在这里插入图片描述 用户序列的输入分为2种,一种叫Sequence Item Features,一种叫Positional Features Sequence Item Features:包括 item_id 和 category_id Positional Features:其实就是Transformer position Embedding的输入,item viv_i的的位置特征值表示为pos(vi)=t(vt)t(vi)pos(v_i) = t(v_t) - t(v_i)t(vt)t(v_t)表示当前推荐时间,t(vi)t(v_i)表示点击item viv_i时间

论文还实验了多个Transformer block的效果,发现1个block效果最好,给出的解释是用户序列相比NLP中的句子要简单些,一个block就能学到大部分信息。 在这里插入图片描述

加这样的结构比较简单,可以快速在业务中尝试,是个不错的选择