推荐系统中不得不说的 DSSM 双塔模型
前沿
DSSM 双塔模型,因为效果不错并且对工业界十分友好,被各大厂广泛应用在推荐领域。
1 为什么要学习 DSSM 双塔模型
每个推荐系统都离不开标签,在推荐系统的稀疏场景下,标签数据尤为重要。以广告平台为例,推荐算法主要的服务对象是广告主,服务目标是为广告主提供更好的后端广告转换效果。这里涉及到两种建模。
一种是自然兴趣建模,根据用户在终端(手机)的操作行为获得 user-item 关联,给不同的数据源(物品)打标获得 item-tag 关联,然后将上面两种关联进行 join 操作最终得到 user-tag 的关联,从而实现给用户打上兴趣标签,相当于是从标签维度为广告主圈定投放人群。
另一种就是商业兴趣建模,在自然兴趣建模的基础上,从广告维度为广告主推荐人群,那么就需要业界熟知的DSSM 双塔模型了。
以 YouTube 视频推荐系统举例,推荐系统中有两个必不可少的流程,召回和精排。
召回对应了召回模型,主要是进行初筛操作,从海量视频资源池中初步选择一部分用户可能感兴趣的视频数据子集,从数量上看可能是从千万级别筛选出百级别。
精排对应精排模型,主要作用是对上面找到的百级别的视频子集进一步精筛,从数量上看可能是从百级别筛选出几十级别。然后根据得分高低排序,生成一个排序列表作为用户的候选播放列表从而完成视频推荐任务。
广告推荐领域中使用的 DSSM 双塔模型是从广告维度为广告主推荐一定数量的人群,从数量上看是从数亿级别人群中找出百万级人群用于投放广告,所以是召回模型。
2 DSSM 模型理论知识
2.1 DSSM 模型的原理
DSSM(Deep Structured Semantic Models)也叫深度语义匹配模型,最早是微软2013发表的一篇应用于 NLP 领域中计算语义相似度任务的文章。
DSSM 深度语义匹配模型原理很简单:获取搜索引擎中的用户搜索 query 和 doc 的海量曝光和点击日志数据,训练阶段分别用复杂的深度学习网络构建 query 侧特征的 query embedding 和 doc 侧特征的 doc embedding,线上 infer 时通过计算两个语义向量的 cos 距离来表示语义相似度,最终获得语义相似模型。这个模型既可以获得语句的低维语义向量表达 sentence embedding,还可以预测两句话的语义相似度。
2.2 DSSM 深度语义匹配模型整体结构
DSSM 模型总的来说可以分成三层结构,分别是输入层、表示层和匹配层。结构如下图所示:
2.2.1 输入层
输入层主要的作用就是把文本映射到低维向量空间转化成向量提供给深度学习网络。NLP 领域里中英文有比较大的差异,在输入层处理方式不同。
(1) 英文场景
英文的输入层通过 Word Hashing 方式处理,该方法基于字母的 n-gram,主要作用是减少输入向量的维度。举例说明,假如现在有个词 boy,开始和结束字符分别用#表示,那么输入就是(#boy#)。将词转化为字母 n-gram 的形式,如果设置 n 为 3,那么就能得到(#bo,boy,oy#)三组数据,将这三组数据用 n-gram 的向量来表示。
使用 Word Hashing 方法存在的问题是可能造成冲突。因为两个不同的词可能有相同的 n-gram 向量表示。下图是在不同的英语词典中分别使用 2-gram 和 3-gram 进行 Word Hashing 时的向量空间以及词语碰撞统计:
可以看出在 50W 词的词典中如果使用 2-gram,也就是两个字母的粒度来切分词,向量空间压缩到 1600 维,产生冲突的词有 1192 个(这里的冲突是指两个词的向量表示完全相同,因为单词储量实在有限,本来想找几个例子说明下,结果没找到)。如果使用 3-gram 向量空间压缩到 3W 维,产生冲突的词只有 22 个。综合下来论文中使用 3-gram 切分词。
(2) 中文场景
中文输入层和英文有很大差别,首先要面临的是分词问题。如果要分词推荐 jieba 或者北大 pkuseg,不过现在很多模型已经不进行分词了,比如 BERT 中文的预训练模型就直接使用单字作为最小粒度了。
2.2.2 表示层
DSSM 模型表示层使用的是 BOW(bag of words)词袋模型,没有考虑词序的信息。不考虑词序其实存在明显的问题,因为一句话可能词相同,但是语义则相差十万八千里,比如“我爱女朋友”和“女朋友爱我”可能差距蛮大的(这个小伙伴们自己体会)。
下图是 DSSM 表示层的结构:
最下面的 Term Vector 到 Word Hashing 将词映射到 3W 维的向量空间中。然后分别经过两层 300 维度的隐藏层,最后统一输出 128 维度的向量。
2.2.3 匹配层
现在我们把 query 和 doc 统一转换成了两个 128 维的语义向量,接下来如何计算它们的语义相似度呢?通过 cos 函数计算这两个向量的余弦相似度就可以了,公式如下:
2.3 DSSM 模型的优缺点
先说说 DSSM 模型的优点:
解决了 LSA、LDA、Autoencoder 等方法存在的字典爆炸问题,从而降低了计算复杂度。因为英文中词的数量要远远高于字母 n-gram 的数量;中文方面使用字作为最细切分粒度,可以复用每个字表达的语义,减少分词的依赖,从而提高模型的泛化能力;字母的 n-gram 可以更好的处理新词,具有较强的鲁棒性;使用有监督的方法,优化语义 embedding 的映射问题;省去了人工特征工程;采用有监督训练,精度较高。传统的输入层使用 embedding 的方式(比如 Word2vec 的词向量)或者主题模型的方式(比如 LDA 的主题向量)做词映射,再把各个词的向量拼接或者累加起来。由于 Word2vec 和 LDA 都是无监督训练,会给模型引入误差。再说说 DSSM 模型的缺点:
Word Hashing 可能造成词语冲突;采用词袋模型,损失了上下文语序信息。这也是后面会有 CNN-DSSM、LSTM-DSSM 等 DSSM 模型变种的原因;搜索引擎的排序由多种因素决定,用户点击时 doc 排名越靠前越容易被点击,仅用点击来判断正负样本,产生的噪声较大,模型难以收敛;效果不可控。因为是端到端模型,好处是省去了人工特征工程,但是也带来了端到端模型效果不可控的问题。3. 推荐领域中的 DSSM 双塔模型
3.1 从 NLP 领域跨界到推荐领域的 DSSM
DSSM 深度语义匹配模型最早是应用于 NLP 领域中计算语义相似度任务。因为语义匹配本身是一种排序问题,和推荐场景不谋而合,所以 DSSM 模型被自然的引入到推荐领域中。DSSM 模型分别使用相对独立的两个复杂网络构建用户相关特征的 user embedding 和 item 相关特征的 item embedding,所以称为双塔模型。
3.2 朴素的 DSSM 双塔模型,2015
双塔模型最大的特点是 user 和 item 是独立的两个子网络,对工业界十分友好。将两个塔各自缓存,线上预测的时候只需要在内存中进行相似度运算即可。下面是 2015 年朴素的 DSSM 双塔模型结构:
3.3 百度的双塔模型
百度的双塔模型分别使用复杂的网络对用户相关的特征和广告相关的特征进行 embedding,分别形成两个独立的塔,在最后的交叉层之前用户特征和广告特征之间没有任何交互。这种方案就是训练时引入更多的特征完成复杂网络离线训练,然后将得到的 user embedding 和 item embedding 存入 Redis 这一类内存数据库中。线上预测时使用 LR、浅层 NN 等轻量级模型或者更方便的相似距离计算方式。这也是业界很多大厂采用的推荐系统的构造方式。
3.4 谷歌的双塔模型,2019
2019 年谷歌推出自己的双塔模型,文章的核心思想是:在大规模的推荐系统中,利用双塔模型对 user-item 对的交互关系进行建模,从而学习【用户,上下文】向量和【item】向量的关联。针对大规模流数据,提出 in-batch softmax 损失函数与流数据频率估计方法更好的适应 item 的多种数据分布。
利用双塔模型构建 YouTube 视频推荐系统,对于用户侧的塔根据用户观看视频特征构建 user embedding,对于视频侧的塔根据视频特征构建 video emebdding。两个塔分别是相互独立的网络。
4. 实战广告推荐的双塔模型
4.1 广告推荐业务场景
讲了上面一大堆,就是为了这一节构建咱们广告推荐的 DSSM 双塔模型。对应到咱们的广告业务就是构建 DSSM 双塔模型,用户侧输入用户对广告的历史行为特征(包括点击、下载、付费等)从而得到固定长度的 user embedding,同理广告侧输入广告特征得到相同长度的 ad embedding,分别存入 Redis 内存数据库中。
线上 infer 时给定一个广告 ad,然后分别和全量用户求相似度,找到“距离最近”的 user 子集,对这部分人群投放广告从而完成广告推荐任务。
4.2 广告推荐的 DSSM 双塔模型结构
模型整体结构如下图所示,也分成三层:输入层、表示层和匹配层。
4.2.1 输入层
模型训练分成两座不同的“塔”分别进行,其实也就是两个不同的神经网络。其中一座塔是用于生成 user embedding。输入用户特征训练数据,用户特征包括用户稠密特征和用户稀疏特征,其中用户稠密特征进行 one-hot 编码操作,用户稀疏特征进行 embedding 降维到低维空间(64 或者 32 维),然后进行特征拼接操作。广告侧和用户侧类似。
关于里面的特征,不在于你要什么,而在于你有什么。整个工程超级复杂的就是这块的特征工作。这里不再赘述。
4.2.2 表示层
得到拼接好的特征之后会提供给各自的深度学习网络模型。用户特征和广告特征经过各自的两个全连接层后转化成了固定长度的向量,这里得到了维度相同的 user embedding 和 ad embedding。各塔内部的网络层数和维度可以不同,但是输出的维度必须是一样的,这样才能在匹配层进行运算。项目中 user embedding 和 ad embedding 维度都是 32。
4.2.3 匹配层
模型训练好了之后会分别得到 user embedding 和 ad embedding,将它们存储到 Redis 这一类内存数据库中。如果要为某个特定的广告推荐人群,则将该广告的 ad embedding 分别和所有人群的 user embedding 计算 cos 相似度。选择距离最近的 N 个人群子集作为广告投放人群,这样就完成了广告推荐任务。模型训练过程中将 cos 函数得到的结果进入 sigmoid 函数和真实标签计算 logloss,查看网络是否收敛。模型评估主要使用 auc 指标。
小结下,本节讲了下我们使用 DSSM 双塔模型完成广告推荐任务。模型整体结构分成输入层、表示层和匹配层。首先在输入层处理数据获取特征;然后在表示层通过深度学习网络得到 user embedding 和 ad embedding;最后在匹配层进行广告推荐。
4.3 一点思考
DSSM 双塔模型有很多变种,比如 CNN-DSSM、LSTM-DSSM 等等。项目中表示层使用了两层全连接网络来作为特征抽取器。现在深度学习领域公认最强的特征抽取器是 Transformer,后续是否可以加入 Transformer。
5. 总结
本篇主要介绍了项目中用于商业兴趣建模的 DSSM 双塔模型。作为推荐领域中大火的双塔模型,最大的特点是效果不错并且对工业界十分友好,所以被各大厂广泛应用于推荐系统中。
通过构建 user 和 item 两个独立的子网络,将训练好的两个塔中的 user embedding 和 item embedding 各自缓存到内存数据库中。线上预测的时候只需要在内存中进行相似度运算即可。
首先,讲了下 DSSM 语义匹配模型的理论知识,最早是应用于 NLP 领域中用于语义相似度任务;然后,因为都是排序问题,所以引入到推荐领域。从朴素的 DSSM 双塔模型到各大长的双塔模型;最后,讲了下我们使用 DSSM 双塔模型实战到广告推荐场景。
更多:论文|从DSSM语义匹配到Google的双塔深度模型召回和广告场景中的双塔模型思考
如果你也喜欢这篇文章,还请多多鼓励
本文转自:
免责声明:
本文内容转自网络文章,转载内容仅为个人收藏,分享知识,如有侵权,请联系作者进行删除。
本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。
如果侵犯了你的权益请来信告知我们删除。邮箱:dacesmiling@qq.com