Redian新闻
>
网易互娱出海之旅:大数据平台上云架构设计与实践

网易互娱出海之旅:大数据平台上云架构设计与实践

公众号新闻

2020 年初,随着网易互娱的海外业务增长与海外数据合规的需求,我们开始了网易互娱大数据离线计算平台迁移出海的工作。前期,我们采取了云主机裸机加上高性能 EBS 块存储的方案。但是,这个方案存储费用高昂,成本是国内自建机房的数十倍。

于是,我们决定在公有云上构建一个平台这个平台不仅需要更加适应当前业务场景、与历史业务更为兼容,还要比公有云的EMR托管方案更为经济。我们主要从存储、计算和数据分层生命周期管理三方面进行了成本优化,具体的优化方案将在下文为大家详细介绍。

最终,这个项目给下游数据业务和分析部门提供了完整 Hadoop 的兼容性,避免了所有业务逻辑推倒重来;给游戏数据业务出海节省了大量成本,存储成本为优化前的 50%,算力总成本为优化前的 40%,冷数据成本为优化后线上存储成本 33%。未来随着业务量的增加,成本节约按 10 倍比例节约相应的费用,为出海后的数据化运营等提供有力支持。

01.大数据平台海外上云方案设计 

在2020年,我们开始了一项紧急的出海任务。在国内,我们的业务一直以自建集群的方式进行部署和运行。为了在海外能够快速上线,我们紧急上线了一个与国内集群完全相同的解决方案,采用了物理节点构建的一套存算一体的系统。我们选用了裸金属服务器 M5.metal,并使用 EBS gp3 作为存储。

(海外存算一体集群) 

这套方案的缺点是成本非常高昂,但是它的好处是解决了一个非常痛苦的问题,即我们需要兼容所有历史业务,确保所有历史业务能够快速、立即地在海外运行。我们的上下游业务可以无缝迁移到海外,并支持每天接近30万个作业的调度。

但是,成本一直是一个不能忽视的问题。因此,我们需要重新选择方案,以获得性能更优、成本更低的解决方案,并确保兼容性。根据业务需求和大数据场景的特点,我们从以下几个方向评估如何进行方案选择:

  • • 以时间/空间换性能;

  • • 基于业务场景的实现部署优化;

  • • 加入中间件实现兼容性的整合;

  • • 充分利用云资源的特性优化成本。

Hadoop 上云

一般 Hadoop 上云有下面两种方案,EMR+EMRFS、Dataproc+GCS。这两种方案就是一个正常出海的姿势。或者使用一些云原生的平台,例如 BigQuery、Snowflake,Redshift 等做数据查询方案,但是我们没有去用这些方案。

为什么没有使用 EMR

因为我们所有的业务都非常依赖 Hadoop,我们目前使用的 Hadoop 版本是根据业务需求定制的内部版本,并实现了各种新版本功能向下兼容,有很多内部的需求和优化在 EMR 的 Hadoop 版本未能覆盖。至于云原生的BigQuery 等方案对业务来说,是一个改动更大更遥远的方向。

为什么没有直接使用 S3 存储

  1. 1. 由于对数据业务安全的高需求导致我们有复杂的业务权限设计,远超亚马逊 IAM(Identity and Access Management) ROLE 能够实现的上限。

  2. 2. S3 的性能受限,需要分桶和随机目录等优化措施,对业务使用不透明,调整目录 prefix 去适配 S3 分区或使用更多的桶的方案都需要业务调整已 有的使用方法,无法适配我们目前的目录设计。另外,作为对象存储实现的文件系统,直接对 S3 的目录进行 list 和 du 等操作在超大文件数据情况 下,基本上是不可用的,但是这又恰好是大数据 场景下大量使用的操作。

存储选型:
HDFS vs 对象存储 vs JuiceFS

我们主要从以下这些维度来评估存储组件。

业务兼容性:对于我们这种拥有大量存量业务需要出海的情况,兼容性是一个非常关键的考虑因素。其次,降本增效不仅仅指降低存储成本,还包括资源成本和人力成本的考虑。

一致性:在当时,我们对 S3 进行了调研,但在 2020 年第一季度之前,并没有实现强一致性,而目前也并非所有平台都能做到全一致性。

容量管理:对于我们当前自建的集群,有一个重要的问题是需要预留资源。也就是说,我们不可能使用到 100% 的资源,因此按需使用是一个非常节省成本的方向。

性能:基于HDFS可以达到我们国内自建的 HDFS 的性能水平。我们国内提供给业务的 SLA 是在单集群下 4 万 QPS 的情况下,能够实现 p90 在 10 毫秒以内的 RPC 性能。但是对于类似 S3 的情况,实现这样的性能非常困难。

权限认证:在自建集群中,使用 Kerberos 和 Ranger 做认证和权限管理。但 S3 当时并不支持。JuiceFS 开源版本同样也不支持。

数据可靠性:HDFS 使用三副本来确保数据可靠性。当时我们测试时 JuiceFS 元数据引擎使用的是 Redis。我们发现,在高可用模式下,如果发生主节点切换,存储会出现卡顿,这对我们来说是很难接受的。

成本:块设备这样的方案成本很高。我们的目标是要使用 S3,如果每个人都只使用 S3,成本当然是最低的。如果使用 JuiceFS,后面的架构会有一定的额外成本,因此我们后面会解释为什么它的成本不是最低的。

(HDFS vs S3 vs JuiceFS)

02.Hadoop 海外多云迁移方案 

存储层:
存算分离- Hadoop + JuiceFS + S3 

JuiceFS 与 Hadoop 的结合 可以降低业务的兼容的成本,快速实现已有的业务出海。许多用户在使用 JuiceFS 方案时,是通过 SDK 加上 Hadoop 开源版本来实现的。但这样使用会有一个权限认证的问题,JuiceFS 社区版不支持 Ranger 和 Kerberos 的权限认证。因此,我们还是使用了 Hadoop 的整个框架。维护成本看上去很高,但在国内我们有一套自建的组件在维护着,所以对我们来说差不多没有成本。如下图所示,我们使用 Fuse 将 JuiceFS 挂载到 Hadoop,再使用 S3 存储。

先简单对比我们与基于 EBS 自建单集群的性能。

  • • 在 4 万 QPS 的情况下可以达到 p90 10ms;

  • • 单节点能够承受 30000 IOPS。

一开始我们上云时采用了HDD模式,具体来说就是 st1 存储类型。但很快我们发现,当节点数量较少时,实际的 IOPS 远远不能满足我们的要求。因此,我们决定将所有的st1存储类型全部升级到 gp3。

(Hadoop + JuiceFS + S3 部署架构图)

每块 gp3 默认提供大约 3000 个IOPS。为了提升性能,我们挂载了 10 块 gp3 存储卷,总共实现了 30000 IOPS 的性能。这个改进让我们的系统可以更好地满足 IOPS 的需求,不再受限于节点数量较少时的性能瓶颈。gp3 的高性能和灵活性使得它成为我们解决 IOPS 问题的理想选择。

每个节点目前的默认带宽是 10GB。但是不同的机型带宽也有所不同。我们取了一个基准,即 30000 个 IOPS 单节点,带宽为 10GB。我们的目标是要能够整合我们的 S3 存储,即在高性能的同时也要考虑存储的成本,数据最终会落在 S3 上面。

而最重要的是要兼容 Hadoop 访问,也就是所有的业务其实都不需要做任何修改,可以直接上云解决兼容性问题。对于一些历史业务来说,它可能有一定的业务价值,但是我们要评估业务的改造成本和平台兼容的成本,在我们场景业务中重构所有历史业务的人力成本当前是大于平台兼容成本,而且不可能短时间完成。

我们对 JuiceFS 的挂载方式与官网可能有所不同。我们在每台机器上都部署了本地的 JuiceFS 和 Redis(如下图所示)。这样做是为了最大化 JuiceFS 的性能,并将本地元数据的损耗降到最低。我们曾尝试过使用 Redis 集群和 TiDB 集群,但发现元数据性能差了好几个数量级。因此,我们一开始就决定采用本地的部署方式。

另一个好处是我们的系统与 DNO(Data Node Object)绑定。我们可以控制每个 DNO 的文件数量,即单个节点的文件数量,使其稳定在一个合理的水平范围内。例如,我们一个 DNO 大约有 3 百万到 8 百万个元数据文件的上限,所以元数据单节点大约为 20GB。这样,我们不需要过于关注其膨胀情况,将一个大规模的分布式 Redis 需求转化为单节点元数据可控的 Redis 需求。但稳定性也是一个问题,如果单节点出现稳定性问题,我们就会面临丢失的风险。

为了解决单节点的宕机问题,我们与 DNO 进行了绑定,并利用了 HDFS 多副本机制,在我们集群有两种副本模式,一种是三副本,一种是 EC(Erasure Coding)副本。不同模式下,都通过副本的机制实现数据的高可靠性:在多副本的部署方案下,即使某个节点完全挂掉,我们也可以直接剔除它,而不影响整体运行和数据的可靠性。

在实践中,将单节点部署在本地,同时使用 JuiceFS 和单节点 Redis,是能够获得最佳性能的方式。因为我们需要与 HDFS 和 EBS 方案的性能进行对标。

我们通过基于 HDFS 的分布式水平扩展和 JuiceFS 的缓存与读写策略优化,实现了高性能的 HDFS。优化部分如下

  1. 1. 使用 JuiceFS 替换 gp3 的目录,以一块小的 gp3 存储作为 JuiceFS 的缓存目录,实现了 IOPS 对齐 gp3 的水平;

  2. 2. 通过优化 JuiceFS 缓存机制,定制的异步删除,异步合并上传,S3 目录 TPS 预置等优化减少落到 S3 的情况,低成本存储的 S3 替换 gp3;

  3. 3. 基于 HDFS 集群的分布式实现节点水平扩展;

  4. 4. 利用 Hadoop 异构存储的特性,根据业务特性拆解 IO,以优化性能和成本。
    我们将 HDFS 存储拆分为两个部分,"DISK" 和 "SSD"。"SSD" 存储类型对应的是使用 JuiceFS 的 EBS 缓存与 S3 整合的混合存储。"DISK" 存储类型被配置为写入 DN 的 EBS 存储的目录。在那些会频繁覆写的目录,例如 Stage 目录,我们会将这些目录设置成使用 DISK 进行存储。EBS 存储更适合频繁擦写,对比 S3 的少了额外 OP 费用,而且这些目录对存储的总量要求是可控的,因此这个场景我们保留了一小部分 EBS 存储。

计算层:
Spot 节点与按需节点混合部署方案

首先,当我们将国内自建的 YARN 集群迁移到云上时,它无法适应云上的资源特性以实现成本优化。因此,我们基于 YARN 的智能动态伸缩方案与标签调度相结合,同时采用 Spot 节点与按需节点混合部署方案,来优化计算资源的使用。

  1. 1. 调整调度器策略为容量调度(CapacityScheduler);

  2. 2. 划分按需节点分区和 Spot 节点分区;

  3. 3. 调整有状态的节点到按需节点的分区 ,让不同状态的任务跑在不同的区域;

  4. 4. 使用按需节点兜底;

  5. 5. 回收通知与 GracefulStop,当抢占节点在回收之前会提前收到回收的通知,调用与 GracefulStop 停止业务,避免与用户作业直接失败;

  6. 6. Spark+RSS,减少当节点回收的时候,数据本来在动态节点上面从而去导致要重算作业的概率。

基于我们的业务需求去做了一些动态智能伸缩的方案。和原生方案对比,我们更关注的方向是:基于业务的状态去做动态伸缩,因为云厂商不可能知道业务的热点时间。

  1. 1. 基于内部运维工具 Smarttool 的周期性预测,实现智能伸缩。我们取前三周的一个历史数据,去做一次简单的拟合,然后通过 Smarttool 预置的算法得到拟合残差序列 resid,以及预测值 ymean。通过这个工具预测某一天某个时间点它的资源使用应该是什么样子,然后去实现动态伸缩容。

  2. 2. 基于时间规则的定时伸缩,例如针对特定时间做预伸缩:每月 1 号的月报表生成时间、大促等特定的时间做提前的容量预置。

  3. 3. 基于使用率的动态伸缩,使用容量在一定时间内大于阈值上限,或小于阈值的下限,会触发自动扩容和缩容,实现非预期的用量需求兜底。尽量保障我们的业务在云上面是能够得到一个稳定的,但是成本相对比较低的,计算资源的方案。


生命周期管理:
数据分层,实现存储成本优化

我们实际上是基于副本机制将 JuiceFS 和 S3 整合的数据可靠性。不论是三副本还是 1.5 副本的 EC,都会有额外的存储支出成本,但是我们考虑到一些数据热度的情况,一旦数据过了一定的生命周期,其对 IO 的需求可能不再那么高。因此,我们引入了一层 Alluxio +S3 的单副本层,来处理这些数据。但是需要注意,如果不改变目录架构,这一层的性能其实比使用 JuiceFS 要差很多。尽管如此,在冷数据的场景下我们仍然可以接受这样的性能。

因此,我们自主开发了一个数据治理和组织分层的服务,通过对数据进行异步处理,实现了对不同生命周期数据的管理和成本优化。我们称这个服务为数据生命周期管理工具 BTS。


(生命周期管理工具BTS 架构)

BTS 的设计基于我们的文件数据库、元数据以及审计日志数据,通过对表格及其热度的管理,来实现数据生命周期管理。用户可以使用上层的 DAYU Rulemanager 自定义规则以及使用数据的热度来生成规则。这些规则指定哪些数据被视为冷数据,哪些数据被视为热数据。

根据这些规则,我们会对数据执行压缩、合并、转换、归档、或删除等不同的生命周期管理操作,并将它们分发到调度器去执行。数据生命周期管理工具 BTS 提供了以下能力:

  • • 数据重组织,将小文件合并为大文件,优化 EC 存储的效率和 namenode 压力;

  • • 表存储和压缩方式的转换:异步将表从 Text 存储格式转换为 ORC 或 Parquet 存储格式,并将压缩方式从 None 或 Snappy 转换为 ZSTD,可以提高存储和性能效率。BTS 支持按分区进行异步表转换;

  • • 异构数据迁移,将数据异步在不同架构的存储之间迁移,为数据分层提供组织能力;

存储分层架构我们简单地分为三层。

  • • 性能最好的是 HDFS on JuiceFS(热), 3副本;

  • • 其次是 HDFS on JuiceFS EC 的模式(温热)1.5副本;

  • • 再次是 Alluxio on S3(低频冷数据)1副本;

  • • 在所有数据消亡之前,它们都会被归档到 Alluxio on S3 并变为单副本。



(存储分层架构)

目前,数据生命周期治理效果如下:

  • • 60%冷,30%温热,10%热

  • • 平均的副本数(70% * 1 + 20% * 1.5 + 10% * 3) = 1.3 在归档这样对性能要求不高的场景,我们能够实现约 70%的数据。使用 EC 副本时,大约 20%的数据,而使用三副本时约为 10%的。我们整体上控制了副本的数量,平均副本数维持在约 1.3 个。

  03.出海新架构的上线效果: 
性能与成本

在测试中,JuiceFS 在大文件的读写方面能够达到相当高的带宽。特别是在多线程模型下,大文件读取的带宽接近客户端的网卡带宽上限。

在小文件场景下,随机写入的 IOPS 性能较好(得益于 gp3 磁盘作为缓存),而随机读的 IOPS 性能相比之下较低,大约差了 5 倍。


(JuiceFS 读写性能测试结果)

EBS 方案与 JuiceFS+S3 方案在业务实测的对比,测试用例为我们生产环境下的业务 SQL, 可以看出 JuiceFS + S3 基本与 EBS 差别不大,部分 SQL 甚至更优。所以 JuiceFS + S3 能够替换掉全量 EBS 。


(性能测试:EBS vs JuiceFS + S3)

使用 S3+EBS 混合分层的存算分离方案替换原来的 EBS 方案,通过数据治理和数据分层,从原来的 Hadoop 三副本的机制下降到平均 1.3 个副本,节省 55% 的多副本成本,整体存储成本下降 72.5%。


(成本对比:EBS vs JuiceFS + S3

通过智能动态伸缩实现了 85% 集群使用率和使用 95%的 Spot 实例替换了按需节点,总体计算成本对比优化前优化超过 80%


(Yarn 队列 Allocated 内存监控

04.总结与展望: 
迈向云原生

相比原生的 JuiceFS 方案,Hadoop+JuiceFS 使用额外的副本实现了储性能优化和实现兼容性与高可用的支持。DN 只写一个副本的方案, 依赖 JuiceFS 在可靠性上的迭代优化。

虽然已经在不同云上实现一套多云兼容、对比 EMR 更好的方案,但是对于混合多云和云原生的方案还需要更多的迭代。

对于未来大数据云原生场景的展望,目前我们采取的解决方案并非终极版本,而是一个过渡性方案,旨在解决兼容性和成本问题。未来,我们计划采取以下措施:

  1. 1. 推进业务向更云原生的方案迁移,实现 Hadoop 环境的解耦,并将数据湖和云上计算紧密结合在一体。

  2. 2.推动更高层次的混合多云计算和混合存储方案,实现真正的整合,而不仅仅是现在的兼容性。这将为上层业务部门带来更多的价值和灵活性。

关于网易互娱

网易2001年正式成立在线游戏事业部,经过20多年的快速发展,网易已跻身全球七大游戏公司之一。自2018年以来,网易游戏全球影响力进一步提升,多次登顶中国发行商出海收入排行榜首。

关于作者

柯维鸿,网易互娱数据与平台服务部,数据服务组离线业务负责人。负责离线数据平台的整体构建和技术演进,提供数据治理、存储、查询和上层数据产品构建,支撑网易互娱游戏数据分析业务。


往期推荐



Go 2永远不会给Go 1带去破坏性变化
中国程序员拒写赌博程序被拔14颗牙,全身损伤达88%
字节首个大模型独立App亮相,Grace更名 “豆包”



这里有最新开源资讯、软件更新、技术干货等内容

点这里 ↓↓↓ 记得 关注✔ 标星⭐ 哦


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
网易互娱这样用AIGC, 爆款游戏只是牛刀小试|量子位智库对话AIGC时代的算力基石,未来的数据平台将如何演进?道富Alpha数据平台分析新计算范式下,Databricks、Snowflake、Doris、字节跳动的数据平台落地实践|QCon数据平台流量回放最佳实践涉案企业合规整改计划的设计与实施谈谈电商库存系统架构设计与实践蚂蚁 SOFAServerless 微服务新架构的探索与实践探讨大模型趋势对行业数据平台的影响 |ArchSummit破局之作:首部开源 AIGC 软件工程应用电子书《构筑大语言模型应用:应用开发与架构设计》新冠、流感、RSV卷土重来,组团进犯!华州启动新版三合一呼吸道疾病数据平台热点探测技术架构设计与实践对话黄东旭、关涛、李远策:AI热潮下,用户到底需要怎样的数据平台?|GGView存算成本各降低 50%+:网易游戏大数据平台上云架构设计计算范式巨变前夜,云器发布多云及一体化数据平台云器 Lakehouse |GGV Family计算范式巨变前夜,云器发布多云及一体化数据平台云器 Lakehouse美东跨年倒数团:青春之旅:好友、情侣、留学生;慈祥之旅:中老年人慢节奏出行;梦想之旅:亲子出游;尊贵之旅:高端人士极致臻享出行比 Spark 快 9 倍,超越 ClickHouse,在大语言模型时代构建全新数据平台创业内幕 | 按秒收费!这家数据平台凭什么如此“强势”?智算中心网络架构设计实践(2023)误以为真的一张P照案例分享:To B产品商业化,架构设计和项目管理是关键Hadoop 上云: 存算分离架构设计与迁移实践一定要按启动键故国2023,依旧闺蜜“多”维演进:智能化编码架构的研究与实践Prompt 驱动架构设计:探索复杂 AIGC 应用的设计之道?进迭时空CPU设计总监费晓龙:高性能RISC-V核X100的架构设计与虚拟化实现|公开课预告T晨,男 ,陕西师范大学,软件研发与架构设计,年入税前40万+,95年,高181,深圳Cloudflare 的 Kafka 之旅:万亿级消息处理实践得物 Redis 设计与实践夏夜的温柔东方美学之旅:大卫·霍克尼最喜欢的中国都会是?MediaUni——面向未来的流媒体传输网络设计与实践后院玫瑰情·2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。