最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
开启左侧

PB级电竞数据实时分析,大数据平台架构升级之路

[复制链接]
发表于 2018-12-4 18:11:30 | 显示全部楼层 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 168主编 于 2019-10-23 21:23 编辑

肖丁,VPGAME上海技术团队负责人,美国团队架构师,曾任职于UCloud,负责基础架构、中间件及分布式系统的工作。

电竞大数据时代,数据对比赛的观赏性和专业性都起到了至关重要的作用。同样的,这也对电竞数据的丰富性与实时性提出了越来越高的要求。

电竞数据的丰富性从受众角度来看,可分为赛事、战队和玩家数据;从游戏角度来看,维度可由英雄、战斗、道具以及技能等组成;电竞数据的实时性包括赛前两支战队的历史交战记录、赛中的实时比分、胜率预测、赛后比赛分析和英雄对比等。

因此多维度的数据支持、TB到PB级别的海量数据存储与实时分析都对底层系统的架构设计有着更高的要求,亦带来了更严峻的挑战。

本文将介绍电竞数据平台FunData架构演进中的设计思路及相关技术,包括大数据流处理方案、结构化存储转非结构化存储方案和数据API服务设计等。在其V1.0beta版本中,FunData为顶级MOBA类游戏DOTA2提供了相关的数据接口。

一、1.0架构

项目发展初期,依照MVP理论(最小化可行产品),我们迅速推出FunData的第一版系统(架构图如图1)。系统主要有两个模块:Master与Slave。



Master模块功能如下:


定时调用Steam接口获取比赛ID与基础信息;

通过In-Memory的消息队列分发比赛分析任务到Slave节点;

记录比赛分析进度,并探测各Slave节点状态。


Slave模块功能如下:


监听队列消息并获取任务,任务主要为录像分析,录像分析参考GitHub项目Clarity与Manta;

Clarity参考链接:

https://github.com/skadistats/clarity

Manta参考链接:

https://github.com/dotabuff/manta

分析数据入库。


系统上线初期运行相对稳定,各维度的数据都可快速拉取。然而随着数据量的增多,数据与系统的可维护性问题却日益突出:


新增数据字段需要重新构建DB索引,数据表行数过亿构建时间太长且造成长时间锁表;

系统耦合度高,不易于维护,Master节点的更新重启后,Slave无重连机制需要全部重启,同时In-Memory消息队列有丢消息的风险;

系统可扩展性低,Slave节点扩容时需要频繁地制作虚拟机镜像,配置无统一管理,维护成本高;

DB为主从模式且存储空间有限,导致数据API层需要定制逻辑来分库读取数据做聚合分析;

节点粒度大,Slave可能承载的多个分析任务,故障时影响面大。


在开始2.0架构设计与改造前,我们尝试使用冷存储方法,通过迁移数据的方式来减轻系统压力(架构设计如图2)。由于数据表数据量太大,并发多个数据迁移任务需要大量时间,清理数据的过程同样会触发重新构建索引,方案的上线并没有根本性地解决问题。



二、2.0架构

吸取1.0系统的经验,在2.0架构设计(架构图如图3)中,我们从维护性、扩展性和稳定性三个方面来考虑新数据系统架构应该具备的基本特性:


数据处理任务粒度细化,且支持高并发处理(全球一天DOTA2比赛的场次在120万场,录像分析相对耗时,串行处理会导致任务堆积严重);

数据分布式存储;

系统解耦,各节点可优雅重启与更新。



2.0版本的系统选择Google Cloud Platform来构建整个数据ETL系统,利用PubSub(类似Kafka)作为消息总线,任务被细化成多个Topic进行监听,由不同的Worker进行处理。

这样做,一方面减少了不同任务的耦合度,防止一个任务处理异常导致其他任务中断;另一方面,任务基于消息总线传递,不同的数据任务扩展性变得更好,性能不足时可快速横向扩展。

1、任务粒度细化

从任务粒度上看(如刚才的图3),数据处理分为基础数据处理与高阶数据处理两部分。


基础数据,即比赛的详情信息(KDA、伤害与补刀等数据)和录像分析数据(Roshan击杀数据、伤害类型与英雄分路热力图等数据),由Supervisor获取Steam数据触发,经过worker的清理后存入Google Bigtable;

高阶数据,即多维度的统计数据(如英雄、道具和团战等数据),录像分析后触发,并通过GCP的Dataflow和自建的分析节点(即worker)聚合,最终存入MongoDB与Google Bigtable。


从Leauge-ETL的细化架构看(如下图4),原有的单个Slave节点被拆分成4个子模块,分别是联赛数据分析模块、联赛录像分析模块、分析/挖掘数据DB代理模块和联赛分析监控模块。




联赛数据分析模块负责录像文件的拉取(Salt、Meta文件与Replay文件的获取)与比赛基本数据分析;

联赛录像分析模块负责比赛录像解析并将分析后数据推送至PubSub;

分析/挖掘数据DB代理负责接收录像分析数据并批量写入Bigtable;

联赛分析监控模块负责监控各任务进度情况并实时告警。


同时所有的模块选择Golang重构,利用其“天生”的并发能力,提高整个系统数据挖掘和数据处理的性能。

2、分布式存储

如上文提到,1.0架构中我们使用MySQL存储大量比赛数据及录像分析数据。MySQL在大数据高并发的场景下,整体应用的开发变得越来越复杂,如无法支持Schema经常变化,架构设计上需要合理地考虑分库分表的时机,子库的数据到一定量级时面临的扩展性问题。

参考Google的Bigtable,作为一种分布式的、可伸缩的大数据存储系统,Bigtable与HBase能很好的支持数据随机与实时读写访问,更适合FunData数据系统的数据量级和复杂度。



Bigtable与HBase的数据模型

在数据模型上,Bigtable与HBase通过RowKey、列簇列名及时间戳来定位一块数据(Cell,如图6)。



例如,在FunData数据系统中,比赛数据的RowKey以hash_key+match_id的方式构建,因为DOTA2的match_id是顺序增大的(数值自增量不唯一),每个match_id前加入一致性哈希算法算出的hash_key,可以防止在分布式存储中出现单机热点的问题,提升整个存储系统的数据负载均衡能力,做到更好的分片(Sharding),保障后续DataNode的扩展性。

如图7,我们在Hash环上先预设多个key值作为RowKey的前缀,当获取到match_id时,通过一致性哈希算法得到match_id对应在Hash环节点的key值,最后通过key值与match_id拼接构建RowKey。



时间戳的使用方便我们在聚合数据时对同一个RowKey和Column的数据重复写入,HBase/Bigtable内部有自定的GC策略,对于过期的时间戳数据会做清理,读取时取最新时间节点的数据即可。

这里大家可能会有个疑问,Bigtable与HBase只能做一级索引,RowKey加上hash_key之后,是无法使用row_range的方式批量读或者根据时间为维度进行批量查询的。在使用Bigtable与HBase的过程中,二级索引需要业务上自定义。在实际场景里,我们的worker在处理每个比赛数据时,同时会对时间戳-RowKey构建一次索引并存入MySQL,当需要基于时间批量查询时,先查询索引表拉取RowKey的列表,再获取对应的数据列表。

Bigtable/HBase的数据读写

在数据读写上,Bigtable/HBase与MySQL也有很大的不同。一般MySQL使用查询缓存,Schema更新时缓存会失效,另外查询缓存是依赖全局锁保护,缓存大量数据时,如果查询缓存失效,会导致表锁死。

如图8,以HBase为例子,读取数据时,Client先通过Zookeeper定位到RowKey所在的RegionServer,读取请求到达RegionServer之后,再由RegionServer来组织Scan的操作并最终归并查询结果返回数据。因为一次查询操作可能包括多个RegionServer和多个Region,数据的查找是并发执行的且HBase的LRUBlockCache,数据的查询不会出现全部锁死的情况。



基于新的存储架构,我们的数据维度从单局比赛扩展到了玩家、英雄、联赛等,如图9:



3、系统解耦

上文我们提到1.0架构中使用In-Memory的消息队列做数据传递,由于内存中队列数据没有持久化存储并与Master模块强耦合,Master节点更新或者异常Panic后会导致数据丢失,且恢复时间冗长。因此,在2.0架构中采用了第三方的消息队列作为消息总线,保障系统“上下游”节点解耦,可多次迭代更新,历史消息变得可追踪,基于云平台消息堆积也变得可视化(如图10)。



三、数据API层

1.0系统的数据API层为实现快速上线,在架构上未做太多的设计与优化,采用域名的方式实现负载均衡,并使用开源的DreamFactory搭建的ORM层,利用其RESTful的接口做数据访问。

该架构在开发和使用过程中遇到许多问题:


API层部署在国内阿里云上,数据访问需要跨洋;

ORM层提供的API获取表的全字段数据,数据粒度大;

无缓存,应对大流量场景(如17年震中杯与ESL)经常出现服务不可用;

多DB的数据聚合放在了API层,性能不足;

服务更新维护成本高,每次更新需要从域名中先剔除机器。


针对上述问题,我们从两个方面重构了1.0数据API层,如图11:



1、链路的稳定性

全球链路上,我们使用CDN动态加速保证访问的稳定性。同时利用多云厂商CDN做备份容灾,做到秒级切换。

在调度能力和恢复能力上,我们搭建了自己的灰度系统,将不同维度的数据请求调度到不同的数据API,减少不同维度数据请求量对系统的影响;借助灰度系统,API服务更新的风险和异常时的影响面也被有效控制。依赖云平台可用区的特性,灰度系统也能方便地实现后端API服务跨可用区,做到物理架构上的容灾。

另外,为保证内部跨洋访问链路的稳定性,我们在阿里云的北美机房搭建数据代理层,利用海外专线来提升访问速度。

2、数据高可用性

接入分布式存储系统后,对外数据API层也根据扩展的数据维度进行拆分,由多个数据API对外提供服务,例如比赛数据和联赛赛程等数据访问量大,应该与英雄、个人及道具数据分开,防止比赛/赛事接口异常影响所有数据不可访问。

针对热点数据,内部Cache层会做定时写入缓存的操作,数据的更新也会触发Cache的重写,保障赛事期间的数据可用。

四、结语

本文介绍了FunData数据平台架构演进的过程,分析了旧系统在架构上的缺点,以及在新系统中通过什么技术和架构手段来解决。

FunData自4月10日上线以来,已有300多位技术开发者申请了API-KEY。目前也正着力于新数据点的快速迭代开发,如联赛统计数据、比赛实时数据等。

作者:肖丁

楼主热帖
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-3-29 02:07

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表