阿里云云原生数据湖体系全解读——元原生数据湖体系

阿⾥云云原⽣数据湖体系全解读——元原⽣数据湖体系
阿⾥云⾸次发布云原⽣数据湖体系,基于对象存储OSS、数据湖构建Data Lake Formation和E-MapReduce产品的强强组合,提供存储与计算分离架构下,涵盖湖存储、湖加速、湖管理和湖计算的企业级数据湖解决⽅案。
数据湖
“数据湖”正在被越来越多⼈提起, 尽管定义并不统⼀, 但企业们都已纷纷下⽔实践,⽆论是 AWS 还是阿⾥云、 华为。我们认为: 数据湖是⼤数据和 AI 时代融合存储和计算的全新体系。数据量爆发式增长的今天, 数字化转型成为 IT ⾏业的热点, 数据需要更深度的价值挖掘, 因此需要确保数据中保留的原始信息不丢失, 应对未来不断变化的需求。当前以 Oracle 为代表的数据库中间件已经逐渐⽆法适应这样的需求, 于是业界也不断地产⽣新的计算引擎, 以便应对⼤数据时代的到来。
企业开始纷纷⾃建开源 Hadoop 数据湖架构, 原始数据统⼀存放在 HDFS 系统上, 引擎以 Hadoop 和 Spark 开源⽣态为主, 存储和计算⼀体。缺点是需要企业⾃⼰运维和管理整套集, 成本⾼且集稳定性较差。在这种情况下, 云上托管 Hadoop 数据湖架构( 即 EMR 开源数据湖) 应运⽽⽣。 底层物理服务器和开源软件版本由云⼚商提供和管理, 数据仍统⼀存放在 HDFS 系统上, 引擎以 Hadoop 和Spark 开源⽣态为主。这个架构通过云上 IaaS 层提升了机器层⾯的弹性和稳定性, 使企业的整体运维
成本有所下降, 但企业仍然需要对HDFS 系统以及服务运⾏状态进⾏管理和治理, 即应⽤层的运维⼯作。因为存储和计算耦合在⼀起, 稳定性不是最优, 两种资源⽆法独⽴扩展, 使⽤成本也不是最优。
同时, 受到开源软件本⾝能⼒的限制, 传统数据湖技术⽆法满⾜企业⽤户在数据规模、存储成本、 查询性能以及弹性计算架构升级等⽅⾯的需求, 也⽆法达到数据湖架构的理想⽬标。企业在这个时期需要更低廉的数据存储成本、 更精细的数据资产管理、 可共享的数据湖元数据、 更实时的数据更新频率以及更强⼤的数据接⼊⼯具。云原⽣时代到来, 我们可以有效利⽤公有云的基础设施, 数据湖平台也有了更多的技术选择。 ⽐如云上纯托管的存储系统逐步取代 HDFS, 成为数据湖的存储基础设施, 并且引擎丰富度也不断扩展。
赤龙剑心除了 Hadoop 和 Spark 的⽣态引擎之外, 各云⼚商还发展出⾯向数据湖的引擎产品。如分析类的数据湖引擎有 AWS Athena 和华为DLI, AI 类的有 AWS Sagemaker。这个架构仍然保持了⼀个存储和多个引擎的特性, 所以统⼀元数据服务⾄关重要。基于此, 阿⾥云正式发布了云原⽣数据湖体系, 由对象存储 OSS、 数据湖构建 Data Lake Formation、 E-MapReduce 产品强强组合, 提供存储与计算分离架构下, 湖存储、
中国鲎湖加速、 湖管理、 湖计算的企业级数据湖解决⽅案。
数据湖存储⽤云上的对象存储 OSS 加上 JindoFS 取代 HDFS, 提升数据规模、降低存储成本、 实现计算和存储分离架构;
数据湖构建( DLF) 服务提供统⼀元数据和统⼀的权限管理, ⽀持多套引擎接⼊;
EMR 上 Spark 等计算引擎的云原⽣化, 可以更好的利⽤弹性计算资源;
云上的数据开发治理平台 DataWorks 解决了数据湖元数据治理、 数据集成、 数据开发等问题。
数据是最好的佐证: 阿⾥云云原⽣数据湖体系可⽀持 EB 级别的数据湖, 存储超过 10万 Database、 1 亿 Table 以及 10 亿级别的Partition, 每天⽀持超过 30 亿次的元数据服务请求, ⽀持超过 10 个开源计算引擎以及 MaxCompute 和 Hologres 等云原⽣数仓引擎。同时, 阿⾥云数据湖存储成本相对于⾼效云盘下降 10 倍以上, 查询性能相对于传统对象存储提速 3 倍以上, 并且查询引擎有着极⾼的弹性, 能在 30 秒内启动超过 1000 个Spark Executor。 由此可见, 阿⾥云强⼤的存储和计算能⼒共同打造了业界领先的数据湖体系。这些背后都在告诉我们: 想在⼤数据时代占据先机, 你需要有⼀套系统, 能够在保留数据的原始信息情况下, ⼜能快速对接多种不同的计算平台。在此之际, 我们推出云原⽣数据湖技术系列专题, 将告诉⼤家如何基于阿⾥云 OSS、JindoFS 和数据湖构建( DataLakeFormation, DLF) 等基础服务, 结合阿⾥云上丰富的计算引擎, 打造⼀个全新云原⽣数据湖体系。
总体架构——计算存储分离
什么是计算存储分离?
数据湖存储OSS:阿⾥云对象存储 OSS 是数据湖的统⼀存储层, 它基于 12 个 9 的可靠性设计, 可存储任意规模的数据, 可对接业务应⽤、 各类计算分析平台, ⾮常适合企业基于 OSS 构建数据湖。 相对于 HDFS 来说, OSS 可以存储海量⼩⽂件, 并且通过冷热分层、⾼密度存储、⾼压缩率算法等先进技术极⼤降低单位存储成本。 同时 OSS 对 Hadoop ⽣态友好, 且⽆缝对接阿⾥云各计算平台。 针对数据分析场景, OSS 推出 OSS Select、 ShallowCopy 和多版本等功能, 加速数据处理速度, 增强数据⼀致性能⼒。OSS 具有与平台⽆关的 RESTful API接⼝, 您可以在任何应⽤、 任何时间、 任何地点存储和访问任意类型的数据。
云原⽣计算引擎:当前阿⾥云上众多云原⽣计算引擎已经接⼊或准备接⼊数据湖构建服务, 包括阿⾥云 EMR 上 的 开 源 计 算 引 擎Spark 、 Hive 、 Presto 、 Flink 以 及⼤数据计算服务MaxCompute、 数据洞察Databricks引擎和数据湖分析(DLA) 等。 以最常⽤的开源引擎 Spark 为例, 阿⾥云 Spark 可以直接对接数据湖构建的元数据服务, 运⾏在多集或多平台上的阿⾥云 Spark 任务共享同⼀个数据湖元数据视图。 并且 EMR 为 Spark推出了 Shuffle Service 服务, Spark 引擎因此获得云原黑龙江中医药大学图书馆
醇基液体燃料⽣平台上的弹性扩缩容能⼒。 云原⽣计算引擎结合数据湖架构可以获得更⾼的灵活度并极⼤的降低数据分析成本。
之前我⼀直认为计算存储分离是数据库和磁盘不在同⼀主机上,看到这⾥才知道计算存储分离指的是数据库和数据分析引擎的分离。
数据湖加速:对象存储系统在架构设计上和 HDFS 等分布式⽂件系统存在⼀定差异, 同时存储和计算分离架构中 OSS 是远端的存储服务, 在⼤数据计算层⾯缺少对数据本地化的⽀持。 因此, 在 OSS 对象存储服务的基础上, 阿⾥云定制了⾃研的⼤数据存储服务 ——JindoFS, 极⼤的提升数据湖上的引擎分析性能, 在 TPC-DS、 Terasort 等常见的benchmark 测试中, 采⽤计算存储分离架构的JindoFS 性能已经达到或超过了本地部署的 HDFS。 同时 JindoFS 完全兼容 Hadoop ⽂件系统接⼝, 给客户带来更加灵活、 ⾼效的计算存储⽅案, ⽬前已验证⽀持 Hadoop 开源⽣态中最主流的计算服务和引擎: Spark、Flink、 Hive、 MapReduce、 Presto、 Impala 等。 当前 JindoFS 存储服务包含在阿⾥云 EMR 产品中, 未来 JindoFS 会有更多的产品形态服务于数据湖加速场景。
这⾥引⼊数据湖加速的作⽤:如果没有该中间件,每个计算节点上的计算引擎都需要向OSS请求数据,还需要对请求数据在计算节点进⾏本地的管理。引⼊该中间件后可对OSS请求的数据进⾏缓存,并且其完全兼容 Hadoop ⽂件系统接⼝,也就直接⽀持了Spark等计算服务和引擎了。
四川商情网
数据湖构建:传统的数据湖架构⾮常强调数据的统⼀存储, 但对数据的 Schema 管理缺乏必要的⼿段和⼯具, 需要上层分析和计算引擎各⾃维护元数据, 并且对数据的访问没有统⼀的权限管理, ⽆法满⾜企业级⽤户的需求。 数据湖构建( DLF) 服务是阿⾥云在 2020 年 9⽉推出的针对数据湖场景的核⼼产品, 主要为了解决构建数据湖过程中⽤户对数据资产的管理需求。 DLF 对 OSS 中存储的数据提供统⼀的元数据视图和统⼀的权限管理, 并提供实时数据⼊湖和清洗模板, 为上层的数据分析引擎提供⽣产级别的元数据服务。
数据湖治理:DataWorks 数据综合治理可为阿⾥云客户提供统⼀的数据视图, ⽤于掌握数据资产的现状、 助⼒数据质量的提升、 提⾼获取数据的效率、 保障数据安全的合规并提升数据查询的分析效率。 可以有效⽀撑离线⼤数据仓库的构建、 数据联邦的查询和分析处理、 海量数据的低频交互式查询和智能报表的构建, 以及数据湖⽅案的实现。
爱可

本文发布于:2024-09-22 23:31:44,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/37947.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:数据   计算   引擎   架构   需要   构建   云原
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议