电商平台供应链的业务场景非常复杂,技术中台需要支持非常复杂且不断变化的业务需求,构建了数量繁多且紧密耦合的业务链路,为技术架构的维护带来了压力。
上图是一个典型的业务架构,A域是上游域,B域和C域是下游域。A域在收到外部调用请求时,首先同步调用B域的服务接口完成同步业务逻辑,然后发送消息通知到MQ。C域异步消费消息后,反向调用A域的接口查询详细信息,完成异步业务逻辑。 这种架构的问题包括:
NBF[1] 是阿里巴巴供应链中台的基础技术团队打造的一个技术PaaS平台,全称是New-Retail Business Factory,她提供了微服务FaaS框架,低代码平台和中台基础设施等一系列的PaaS产品,旨在帮助业务伙伴快速复用和扩展中台能力,提升研发效能和对外的商业化输出。事件中心就是NBF系列技术产品中的一员。
本文首先介绍事件驱动架构的概念及适用场景,然后会介绍事件中心产品的设计和实现。
很多同学会将事件和消息混淆。在业务系统中,事件指的是领域事件,而消息可以是任意数据或数据片段。领域事件的特点包括:
和很多架构名词类似,事件驱动架构并没有一个明确的定义和能力范围。Martin Fowler在2017年的文章[2] 中描述了与事件驱动架构相关的一些主要模式。在本文中,事件驱动架构的概念具象为由领域事件驱动的业务流技术架构。每一个领域事件都对应一个业务流中的具体活动(如采购单建单),而事件就是活动发生导致的结果(如采购单建单完成事件),事件内容就是活动导致的完整状态变化(如采购单+子单列表)。
在Fundamentals of Software Architecture[3] 以及Microservices Patterns[4]等书中描述了事件驱动架构的一些明显特点,我们总结为以下几项:
1. 高度解耦
2. 广播能力
3. 纯异步调用(Fire and Forget)
4. 灵活扩展
5. 高处理性能
下面我们举几个例子来描述事件驱动架构的解耦和广播能力如何帮助解决现实工作中的问题:
在基于请求/响应方式的服务化架构中,上游服务按照约定的RPC接口调用下游服务,这样有一个比较严重的问题:上游服务作为数据(例如业务单据)的生产者,强依赖了作为数据消费方的下游服务所定义的接口,导致上游服务自身无法沉淀接口和数据标准。
一种更合理的方案是依赖倒置:由上游服务定义SPI,下游服务实现SPI,这样,上游服务终于有机会沉淀出自身的接口和数据标准,不再需要适配各个下游服务的接口,而是由下游服务的开发者按照接口文档来做实现。但这种设计仍然无法解决运行时上游服务仍然依赖下游服务的问题,下游服务的可用性、一致性、幂等性能力会直接影响上游服务的相关指标及实现方式,需要上下游服务开发者一起对齐方案,在出问题时一起解决。
使用事件驱动设计可以实现契约定义和运行时的全面解耦:上游服务可以沉淀自己的事件契约,在运行时无论是上游服务还是下游服务都只依赖事件Broker,下游服务的可用性和一致性等问题由事件Broker来保障。
在供应链中台这样复杂的微服务架构中,关键的上游服务往往有多个下游服务,上游服务一般需要顺序或并发调用所有的下游服务来完成一次完整的调用。
上游服务的开发者会面临多个难题:
1. 服务的可用性会被下游服务影响;
2. 服务的RT自己无法控制;
3. 下游服务之间的一致性如何保障;
4. 如何实现一套可靠的重试机制;
而下游服务的开发者也有自己的问题:
1. 每接入一个上游服务都需要跟服务开发者排期:谁来答疑,什么时候联调,什么时候上线;
2. 上游流量如何做过滤,高峰流量是否能抗得住;
3. 如何满足上游服务的可用性及RT要求;
使用事件驱动架构天然可以避免上述问题:
作为面向中台的事件中间件,事件中心集成了消息中间件MetaQ(RocketMQ),初始使用体感也与MQ很像,但事件中心有很多不同的功能设计:
事件中心运行态主要由以下部分组成:
1 . 事件中心服务/SDK
a) SDK:包含事件收发的主要逻辑,支持事务发送和普通发送,支持事件校验、压缩、本地备份;
b) Tunnel Service:一层很薄的数据库代理服务,支持按应用、事件、场景、IO维度的限流,支持数据库快速灵活扩容;
c) Index Service:事件索引服务,通过精卫(DataX)获取Binlog,解析为索引后写入索引表(Lindorm)。
2 . 阿里中间件 a) Diamond(Nacos):包含应用相关的全部配置信息,如发送、订阅关系、事件定义、中间件配置等;
b) SchedulerX:调度SDK执行事件重新发送、重新消费、事务异常状态问询;
c) MetaQ:主要的事件收发管道;
d) TDDL(RDS):事件内容及消费记录存储;
e) 精卫:用于生成索引、计算延迟等异步处理逻辑;
f) Lindrom(serverless):用于存放事件外部索引,serverless模式支持按量付费和弹性扩容,性能比较稳定。
下图为简化的运行时架构图,图中蓝色线条表示事件的正常收发链路(事务发送),红色线条表示事件的异常处理链路。
运行时的一条事件实例由三部分组成:
3 . 事件Body:JSON格式,包含由用户已定义的事件内容,事件内容要符合事件定义契约,否则会被拒绝发送。 运行时的事件可能有多个消费方,每个消费方会产生一条消费记录,消费记录包含:
事件ID
消费信息:消费状态、消费次数、下次消费时间等
事件中心支持事务发送和非事务发送两种模式,使用状态机驱动,API设计与MetaQ的API基本一致。以下以事务发送为例介绍发送流程,由于非事务发送的流程更简单,所以不再详细介绍。
事件消费流程也使用状态机驱动,API相比MetaQ有一些不同:
事件进入消费失败状态后,事件中心会周期调用用户Listener重新消费,消费周期以5s起始指数增加,最多重试15次,最大为5 * 214 = 81920秒(约22小时)。
事件中心使用了32分库的TDDL,按照HASH(事件ID)做分库,每个库上有以下几张表:
事件生命周期
事件发送历史列表、事件索引查询和事件重投是事件中心运维平台的主要功能。其中索引查询功能的查询速度快、查询结果准确,用户反馈一直比较好。
索引配置
用户在修改事件定义时,可以为其中任意基础类型字段配置为“查询字段”,事件中心会在运行时解析该字段的值,并创建索引;一个事件中的每个查询字段都会对应一条索引;即使没有配置查询字段,也会生成一条包含时间戳的索引,用于已发送事件的排序和分页。
索引结构
事件中心的索引为KV结构,使用Lindorm的宽表存储,按使用场景分为两种类型:
1. 不包含查询字段的索引;
2. Key格式为 HASH(租户id_事件code)_env_发送时间差值_事件ID;
3. Value为事件ID、事件头;
4. 包含查询字段的索引;
5. Key格式为 HASH(租户id_事件Code_字段路径_索引值)_env_发送时间差值_事件ID;
6. Value为事件ID、事件头;
其中
1. 发送时间差值 = Long.MAX_VALUE - 发送时间毫秒数,用于按发送时间倒序展示;
2. 字段路径是json path格式,例如 $.bizNo;
查询性能
通过目前事件中心运维平台99%的查询都可以在毫秒级别返回结果,Lindorm索引行数在十亿级别。
本文介绍了事件驱动架构在供应链执行链路的应用背景和实践过程,并介绍了NBF事件中心产品的设计和部分实现。目前事件中心每日事件发送量峰值在千万级别,平稳度过了双11、双12、年货节等流量高峰。
参考链接:
[1]https://www.infoq.cn/video/xXxlmqhTH5owSDRSx52p\
[2]https://martinfowler.com/articles/201701-event-driven.html\
[3]https://book.douban.com/subject/34464806/\
[4]https://book.douban.com/subject/26989027/
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8