为君作磐石——人人都能搭建大规模推荐系统

219次阅读  |  发布于3年以前

前言

什么是个性化推荐?简单说,就是给用户推荐他喜欢的物品。近 10 年,移动互联网高速发展,个性化推荐扮演了很重要的角色。以运营一款内容类产品为例:用户增长团队通过广告投放等手段为产品拉新,提升 DAU;产品技术团队为用户分发感兴趣的内容,提升留存及停留时长;商业化团队分发用户可能感兴趣的广告,提升单位流量变现效率;商业化收入又用于用户增长,形成正向循环。个性化推荐技术贯穿每个环节,成为了很多公司的高速增长引擎。

怎么做个性化推荐?通常,对一项业务来说,首先会定义出多个优化目标(例如视频的播放时长、点赞、分享,电商的点击、加购、购买等),之后构建一个或多个模型来预估这些目标,最后融合多个目标的预估分来完成排序。对推荐系统来说,最核心的工作,便是构建精准的预估模型。这些年,业界的推荐模型一直朝着大规模、实时化、精细化的趋势不断演进。大规模是指数据量和模型非常大,训练样本达到百亿甚至数万亿,单个模型达到 TB 甚至 10TB 以上;实时化是指特征、模型、候选实时更新;精细化则在特征工程、模型结构、优化方法等多方面有所体现,各种创新思路层出不穷。

大规模推荐系统的落地,工程挑战很大。本文选择大家最关心的 Training 和 Serving 系统,介绍搭建过程中会遇到哪些挑战,我们做了哪些工作。对任何一家公司来说,从 0 搭建这样一套系统都绝非易事,投入非常大。在字节跳动内部,我们也经过了多年的探索与沉淀,有上千名工程师,不断迭代和优化推荐系统。那么,搭建推荐系统一般会遇到哪些问题?我们先来看一个故事:

A公司的故事

A是一家电商公司,他们的产品有300万DAU,有一个10人的算法团队,他们在搭建推荐系统的过程中,遇到了不少麻烦,我们具体来看看。

A公司想训练一个点击率模型,每天有1亿次曝光,100万次点击,他们想用3个月的数据训练模型,样本量级达到90亿。他们设计了200个特征,包含用户ID、商品ID、用户的点击序列等,想为每个特征分配16维的向量来表征,粗略计算下来模型大小为500G。分析之后,他们发现要做分布式训练和模型存储,于是调研了一些开源方案:

经过对比,A公司选择了Tensorflow来做分布式训练。但是,训练模型的时候发现速度非常慢,即使投入大量资源依然需要5天才能训完3个月的数据。他们花了很多时间研究Tensorflow,profiling训练过程,发现了一些问题:

虽然发现了不少性能问题,但优化起来并不十分容易。经过一段时间的努力,他们优化了部分问题,将训练时间从5天压缩到了3天,勉强可以接受。但是,当训练进行到第40小时的时候,因为一台机器OOM,训练任务挂了。他们多尝试了几次,发现训练成功率比较低, 分析之后发现主要原因是:

做好容错挑战不小,他们只能先隔离一个独立的集群,让训练尽量稳定一些。不能和其他任务混合调度,资源利用率自然也要低不少。

几经波折,勉强训好了一个500G的模型,他们想把模型推到线上去Serving,于是考虑在线系统的设计。经过一番讨论,他们认为Serving系统必须满足如下要求:

目前,没有开源系统能满足上述要求,各大公司都是自研,实际做起来投入也不小。A公司人力有限,经验也不足,只能先通过一些模型压缩的手段,让单机可以Serving,模型也不能做的太复杂。

模型上线之后,A公司又遇到一个新的问题:如何更新模型。定期全量重训成本很高,如果线上有多个同时ABTest的模型,更是会雪上加霜。所以,至少要做到天级的增量更新,实时更新自然更好。但增量/实时更新,实现起来也不太容易。其实,未来还有更多的问题等着A公司,比如:如何保证线上线下特征的一致性;上游数据流不稳定怎么办;如何解决模型越来越大的问题;如何做好多场景数据的混合训练;如何应对大规模候选的问题;如何解决转化事件大幅延迟的问题等等。

我们的工作

通过A公司的故事,大家能看到,开发一套大规模推荐系统,难度确实不小,成本也很高。那么,有没有一款产品可以直接覆盖数据校验、特征工程、模型开发、线上服务、AB测试等全流程,让业务轻松搭建一套一流的推荐系统,不再遭遇A公司的头疼问题呢?有。

字节跳动成立火山引擎之后,我们一直在努力,将字节的推荐技术开放给外部客户。如今,我们已经可以通过火山引擎的智能推荐平台,来帮助大家解决这些难点和痛点。目前这套平台也开放了部分名额供企业免费使用,具体信息可以在文末进行了解。

接下来,再展开介绍一下,智能推荐平台中的大规模Training和Serving方案,我们把它命名为Monolith(磐石),希望它能成为大家做推荐系统的坚实基础,如下是架构图:

从图中可以看出,Monolith是PS架构,下面看看这套架构是怎样运行的:

批量/增量训练

在线推理

综上所述,Monolith 包括了 Training/Serving/Parameter Sync等,是一套完整的系统。

与业界其它系统相比,Monolith成功应对了多方面的挑战,有如下特色:

解决了TensorFlow PS 通信瓶颈

在工业级的推荐模型中,我们常会使用几百甚至数千类特征,每类特征都需要创建哈希表去存储特征embeddings。直接为每类特征生成一张哈希表,同时对几百张表进行查找会导致两个问题:

  1. PS和Worker连接会产生过多的 send/recv op,大大影响分布式 runtime 的运行效率。
  2. 这些 ops 导致模型图节点过多,模型图过大,训练初始化时间过长。

针对如上问题,我们在框架层面做了优化:对于配置同构的哈希表(dim 相同、优化器参数相同),在python API 层面合并哈希表来减少表的数量,同时monolith会对通信op进行进一步的合并,从而极大的减少了send/recv ops,解决了原生TensorFlow PS 的通信问题。

针对异步训练,monolith还开发了变量与embedding预取以及梯度异步更新的功能,对于多数模型,能够更加有效的利用带宽与CPU,从而提高训练速度,优化资源利用率。

全方位容错

在服务发现的基础上,无论是Worker还是PS发生错误,都能得到快速恢复。对于Worker,Monolith不同worker节点之间并不直接进行通信,所以一个worker的失败并不会对别的worker产生影响;同时,worker会存储输入的进度,当worker因为意外原因失败时,输入的进度并不会丢失;当PS shard 节点失败,根据离线/在线任务的性质不同,支持部分恢复和全量恢复不同的模式,在正确性以及恢复速度上做一定的取舍。

分布式Serving

Monolith补齐了开源软件在分布式Serving方面的空白,提供了TB级模型的推理服务。支持多副本、高可用,Training PS在训练过程中,分钟级别将刚刚更新过的Embedding同步给Serving PS,从而实现近实时参数更新,提升了产品的推荐效果。

性能优化

除了上面提到的解决 TensorFlow PS 通信瓶颈之外,Monolith 在 Parameter Server 架构、底层 Hash Table 设计、网络传输、多线程加速、OP Fusion、指令集加速等方向也进行了非常细致的优化并取得了可观的性能收益。以异步训练为例,训练时整个过程示意如下:

目前,Monolith已通过推荐平台,成功应用在电商、社区、视频等多个行业的场景上,效果、稳定性、性能均得到了充足的验证。未来,我们也将继续保持高速迭代,不断优化用户体验和平台功能。

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8