大数据Apache Druid(二):Druid数据结构及架构原理
mhr18 2025-01-03 17:28 33 浏览 0 评论
Druid数据结构及架构原理
一、Druid数据结构
Druid中的数据存储在datasource中,类似RDBMS中的table,每个datasource中按照时间划分,每个时间范围称为一个chunk(一般一天为一个chunk),在一个chunk中数据根据维度的Hash或者范围被分成一个或者多个segment,每个segment都是一个单独的文件,通常包含几百万行数据,这些segment是按照时间组织成的,所以在按照时间查询数据时,效率非常高。实际上,datasource和chunk都是抽象的,Druid底层存储就是Segment,一旦一个Segment生成后就无法被修改,只能通过生成一个新的Segment来代替旧版本的Segment。
Segment内部采用列式存储,并不是每个列都对应一个独立的文件,而是每列都有独立的数据结构,这些列存储在一个文件中。
在Segment中数据类型有三种:时间戳、维度列、指标列,举例如下:
对于时间戳和指标列,实际存储是一个数组。对于维度列而言,由于需要支持filter和group by操作,所以Druid使用了字典编码(Dictionary Encoding)和位图索引(Bitmap Index)来存储每个维度列。每个维度列需要三个数据结构:
- 需要一个字典数据结构,将维度值映射成一个整数ID
- 使用上面的字典编码,将该列所有维值放在一个列表中。
- 对于列中不同的值,使用bitmap数据结构标识哪些行包含这些值。
例如,有如下表数据:
时间戳 | 维度列 | 指标列 | |
dt(时间) | loc(位置) | item(物品) | amount(金额) |
2022-07-01 | 北京 | 书籍 | 100 |
2022-07-01 | 北京 | 电脑 | 200 |
2022-07-01 | 上海 | 电脑 | 300 |
2022-07-01 | 广州 | 手机 | 400 |
2022-07-01 | 杭州 | 水果 | 500 |
2022-07-01 | 北京 | 书籍 | 600 |
Druid将以上数据存储构建的位图索引如下,来实现数据快速查找:
- 将维度列中的值映射成一个个整数ID
维度列有loc,item两列,其中的不重复值有:北京、上海、广州、杭州、书籍、电脑、手机、水果,假设映射后的整数ID组成的字典编码如下:
北京-0,上海-1,广州-2,杭州-3,书籍-4,电脑-5,手机-6,水果-7
- 构建的位图索引如下
原始列值 key | 列值对应字典编码value | bitmap 位图 | |||||
北京 | 0 | 1 | 1 | 0 | 0 | 0 | 1 |
上海 | 1 | 0 | 0 | 1 | 0 | 0 | 0 |
广州 | 2 | 0 | 0 | 0 | 1 | 0 | 0 |
杭州 | 3 | 0 | 0 | 0 | 0 | 1 | 0 |
书籍 | 4 | 1 | 0 | 0 | 0 | 0 | 1 |
电脑 | 5 | 0 | 1 | 1 | 0 | 0 | 0 |
手机 | 6 | 0 | 0 | 0 | 1 | 0 | 0 |
水果 | 7 | 0 | 0 | 0 | 0 | 1 | 0 |
我们要过滤找到“北京”并且“电脑”的数据,那么只需要在位图索引中找到北京对应的行和广州对应的行做与运算即可。假设根据上表数据我们查询sql如下:
select sum(amount) as totalamount
from tbl
where loc = “北京”and “item”=“电脑”
那么根据以上位图,我们可以看到条件“loc=北京”对应的bitmap位图为(110001),”item=电脑”对应的位图为(011000),查询条件就是(110001) and(011000)结果就是找(010000)所对应的行,也就是找出第2行数据即可。
同理,如果要按照“loc”和”“item”分组,只需要找到“loc”下各个值与“item”下各个值进行与运算即可。
Segment命名可以让我们在大量的Segment文件中快速找到我们查询的Segment文件,Segment命名包含四个部分:数据源(DataSource)、时间间隔(包含开始时间和结束时间两部分)、版本号和分区(当一个Chunk中有多个Segment时会有分区号)。
例如:
kafkadata_2022-07-30T00:00:00.000Z_2022-07-31T00:00:00.000Z_2022-08-02T12:02:03.456Z_1
- kafkadata : DataSource名称。
- 2022-07-30T00:00:00.000Z:开始时间,该Segment存储最早的数据。
- 2022-07-31T00:00:00.000Z:结束时间,该Segment存储最晚的数据。
- 2022-08-02T12:02:03.456Z:版本号,该Segment启动时间,由于Druid支持批量覆盖操作,当批量摄入与之前相同数据源,相同时间间隔数据时,数据就会被覆盖,这时候版本号就会被更新。在Druid中,如果只是追加数据,那么每个时间chunk只有一个版本,如果覆盖数据时,Druid会加载全部新数据生成一个新的版本号,然后会删除旧的Segment。
- 1:分区号,如果分区号为0,会省略,分区的表现其实就是分目录。
注意:单机运行Druid,Druid生成的Segment都在$DRUID_HOME/var/druid/segment目录下。
二、Druid架构原理
下图是Druid的架构图,蓝色代表Druid服务,黄色代表Druid的进程,每个进程所在的节点我们也可以称为当前进程节点,例如:Borker进程所在节点,可以称为该节点为Broker节点。整体来看Druid可以分为四类节点和三个依赖。
1、四类节点
1.1、实时节点(RealTime Node)
实时类节点包含很多进程角色,也可以称为很多,为了防止单点故障,所以这些角色没有在一台节点启动,实时类节点包含的进程如下:
- Overlord(统治进程)
该进程监视MiddleManager进程,并且是数据摄入Druid的控制器,负责将提取任务分配给MiddleManagers并协调Segement发布。类似Yarn中的ResourceManager,负责集群资源的管理和分配。
- MiddleManager(中间管理进程)
类似Yarn中NodeManager,负责单个节点的资源管理和分配。该进程负责接收实时数据和批数据,生成Segment数据文件。
- Router
该进程可以将请求路由到Broker、Coordinator、Overlord。
1.2、协调节点(Coodinator Node)
- Coordinator(协调进程)
主要负责Historical的数据负载均衡,以及通过规则(Rule)管理数据的生命周期。默认每隔1分钟同步元数据库,感知新生成的Segment,将待加载的Segment信息保存在Zookeeper目录中(此目录是对应在线的Historical Node在Zookeeper中的目录),Historical Node感知到需要加载新的Segment时,首先去本地磁盘目录下检查该Segment是否已下载,如果没有,会从zookeeper中获取对应的元数据(该Segment存储在何处,如果解压等)获取该文件并加载到内存中,同时在zookeeper对应目录下标记声明该Segment已被加载,从而该Segment可以被查询。
协调进程除了告诉Historical加载新数据之外,还会负责协调卸载过期数据、复制数据、和为了负载均衡移动数据。
如果集群内所有的Coordinator Node都停止服务,整个集群对外依然有效,不过新Segment不会被加载,过期的Segment也不会被丢弃,即整个集群内的数据拓扑会一直保持不变,直到新的Coordinator Node服务上线。
1.3、历史节点(Historical Node)
- Historical(历史进程)
该进程负责存储已生成好的Segment数据文件,以供数据查询。当收到Coordinator进程通知的时候,检查本地缓存中已经存在的Segment数据文件,然后从DeepStorage中下载其他不在本地的Segment数据文件加载到内存提供查询。Historical进程是整个集群查询性能的核心所在,承担大部分的Segment查询。
1.4、查询节点(Broker Node)
- Borker(查询进程)
该进程负责客户端数据的查询,并将这些查询转发给Historical和middleManager。
Druid进程可以以任意方式进行部署,为了方便部署,建议分为三种服务器类型:主服务器(Master)、查询服务器(Query)、数据服务器(Data)。
- Master:运行Coordinator和Overlord进程,负责集群可用和读取数据。
- Query:运行Broker和Router进程,负责处理外部客户端的查询。
- Data:运行Historical和Middle Manager进程,负责数据接收和所有可查询数据的存储。
2、??????三个外部依赖
2.1、Metadata Storage
元数据存储,存储Druid集群的元数据信息,比如:Segment的相关信息,一般用MySQL或者PostgreSQL。
2.2、Zookeeper
为Druid集群提供协调服务,例如:
- Broker Node查询节点通过Zookeeper来感知实时节点和历史节点的存在,提供查询服务。
- 协调节点通过zookeeper感知历史节点,实现负载均衡。
- Overlords 统治节点、Coordinators协调节点的Leader的选举。
2.3、Deep Storage
数据文件存储,存放生成的Segment数据文件,并供Historical节点进行下载,对于单节点集群可以使本地磁盘,对于分布式集群一般是HDFS,也可以是NFS挂载磁盘、S3等。
3、??????????????数据写入及读取原理
上图中描述了Druid集群内部实时/批量数据写入以及查询的请求过程。当实时数据达到Realtime Node后,在时间窗口内的数据会停留在RealTime Node内存中,而时间窗口外的数据会组织成Segment存储到Deep Storage中,同时Segment的元数据信息会被注册到元数据库中(这里是MySQL),Coordinator Nodes会定期(默认1分钟)去同步原信息库,感知新生成的Segment,并通知Historical Nodes去加载Segment,Zookeeper也会更新整个集群内部数据元数据信息。
当用户在客户端查询信息时,会将请求提交给Broker Node,Broker Node会请求Zookeeper获取集群内数据分布信息,从而获取将请求发送给哪些Historical Node以及Realtime Node,汇总各节点的返回数据并将最终结果返回给用户。
相关推荐
- 【预警通报】关于WebLogic存在远程代码执行高危漏洞的预警通报
-
近日,Oracle官方发布了2021年1月关键补丁更新公告CPU(CriticalPatchUpdate),共修复了包括CVE-2021-2109(WeblogicServer远程代码执行漏洞)...
- 医院信息系统突发应急演练记录(医院信息化应急演练)
-
信息系统突发事件应急预案演练记录演练内容信息系统突发事件应急预案演练参与人员信息科参与科室:全院各部门日期xxxx-xx-xx时间20:00至24:00地点信息科记录:xxx1、...
- 一文掌握怎么利用Shell+Python实现完美版的多数据源备份程序
-
简介:在当今数字化时代,无论是企业还是个人,数据的安全性和业务的连续性都是至关重要的。数据一旦丢失,可能会造成无法估量的损失。因此,如何有效地对分布在不同位置的数据进行备份,尤其是异地备份,成为了一个...
- docker搭建系统环境(docker搭建centos)
-
Docker安装(CentOS7)1.卸载旧版Docker#检查已安装版本yumlistinstalled|grepdocker#卸载旧版本yumremove-ydocker.x...
- 基础篇:数据库 SQL 入门教程(sql数据库入门书籍推荐)
-
SQL介绍什么是SQLSQL指结构化查询语言,是用于访问和处理数据库的标准的计算机语言。它使我们有能力访问数据库,可与多种数据库程序协同工作,如MSAccess、DB2、Informix、M...
- Java21杀手级新特性!3行代码性能翻倍
-
导语某券商系统用这招,交易延迟从12ms降到0.8ms!本文揭秘Oracle官方未公开的Record模式匹配+虚拟线程深度优化+向量API神操作,代码量直降70%!一、Record模式匹配(代码量↓8...
- 一文读懂JDK21的虚拟线程(java虚拟线程)
-
概述JDK21已于2023年9月19日发布,作为Oracle标准Java实现的一个LTS版本发布,发布了15想新特性,其中虚拟线程呼声较高。虚拟线程是JDK21中引入的一项重要特性,它是一种轻量级的...
- 效率!MacOS下超级好用的Linux虚拟工具:Lima
-
对于MacOS用户来说,搭建Linux虚拟环境一直是件让人头疼的事。无论是VirtualBox还是商业的VMware,都显得过于笨重且配置复杂。今天,我们要介绍一个轻巧方便的纯命令行Linux虚拟工具...
- 所谓SaaS(所谓三维目标一般都应包括)
-
2010年前后,一个科技媒体的主编写一些关于云计算的概念性问题,就可以作为头版头条了。那时候的云计算,更多的还停留在一些概念性的问题上。而基于云计算而生的SaaS更是“养在深闺人未识”,一度成为被IT...
- ORA-00600 「25027」 「x」报错(报错0xc0000001)
-
问题现象:在用到LOB大对象的业务中,进行数据的插入,失败了,在报警文件中报错:ORA-00600:内部错误代码,参数:[25027],[10],[0],[],[],[],[],[...
- 安卓7源码编译(安卓源码编译环境lunch失败,uname命令找不到)
-
前面已经下载好源码了,接下来是下载手机对应的二进制驱动执行编译源码命令下载厂商驱动https://developers.google.com/android/drivers?hl=zh-cn搜索NGI...
- 编译安卓源码(编译安卓源码 电脑配置)
-
前面已经下载好源码了,接下来是下载手机对应的二进制驱动执行编译源码命令下载厂商驱动https://developers.google.com/android/drivers?hl=zh-cn搜索NGI...
- 360 Vulcan Team首战告捷 以17.5万美金强势领跑2019“天府杯“
-
2019年11月16日,由360集团、百度、腾讯、阿里巴巴、清华大学与中科院等多家企业和研究机构在成都联合主办了2019“天府杯”国际网络安全大赛暨2019天府国际网络安全高峰论坛。而开幕当日最激荡人...
- Syslog 日志分析与异常检测技巧(syslog发送日志配置)
-
系统日志包含有助于分析网络设备整体运行状况的重要信息。然而,理解并从中提取有效数据往往颇具挑战。本文将详解从基础命令行工具到专业日志管理软件的全流程分析技巧,助你高效挖掘Syslog日志价值。Gr...
- 从Oracle演进看数据库技术的发展(从oracle演进看数据库技术的发展的过程)
-
数据库技术发展本质上是应用需求驱动与基础架构演进的双向奔赴,如何分析其技术发展的脉络和方向?考虑到oracle数据库仍然是这个领域的王者,以其为例,管中窥豹,对其从Oracle8i到23ai版本的核...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- oracle位图索引 (74)
- oracle基目录 (50)
- oracle批量插入数据 (65)
- oracle事务隔离级别 (53)
- oracle主从同步 (55)
- oracle 乐观锁 (51)
- redis 命令 (78)
- php redis (88)
- redis 存储 (66)
- redis 锁 (69)
- 启动 redis (66)
- redis 时间 (56)
- redis 删除 (67)
- redis内存 (57)
- redis并发 (52)
- redis 主从 (69)
- redis 订阅 (51)
- redis 登录 (54)
- redis 面试 (58)
- 阿里 redis (59)
- redis 搭建 (53)
- redis的缓存 (55)
- lua redis (58)
- redis 连接池 (61)
- redis 限流 (51)