博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
GreenPlum简单性能测试与分析
阅读量:5919 次
发布时间:2019-06-19

本文共 4967 字,大约阅读时间需要 16 分钟。

hot3.png

版权声明:本文由黄辉原创文章,转载请注明出处: 

文章原文链接:

来源:腾云阁 

 

如今,多样的交易模式以及大众消费观念的改变使得数据库应用领域不断扩大,现代的大型分布式应用系统的数据膨胀也对数据库的海量数据处理能力和并行处理能力提出了更高的要求,如何在数据呈现海量扩张的同时提高处理速度和应用系统的可用性,使客户能同时得到更高的处理速度、更高的数据可用性和更大的数据集,是数据库系统面临的一个挑战。

通过TPC-H基准测试,可获得数据库单位时间内的性能处理能力,为评估数据库系统的现有性能服务水平提供有效依据,通过横向对比促进数据库系统的整体质量提升,能更好地在重大信息化工程中实现推广。

一.TPC-H原理简介

TPC-H是由TPC(Transaction Processing Performance Council)事务处理性能委员会公布的一套针对数据库决策支持能力的测试基准,通过模拟数据库中与业务相关的复杂查询和并行的数据修改操作考察数据库的综合处理能力,获取数据库操作的响应时间和每小时执行的查询数指标(QphH@Size)。

TPC-H基准模型中定义了一个数据库模型,容量可以在1GB~10000GB的8个级别中进行选择。数据库模型包括CUSTOMER、LINEITEM、NATION、ORDERS、PART、PARTSUPP、REGION和SUPPLIER 8张数据表,涉及22条复杂的select查询流语句和2条带有insert和delete程序段的更新流语句。

二.目的

1.比较在同等资源条件下具有分布式属性的GreenPlum与单机版mysql在进行TPC-H类测试的性能区别。

2.分析两种DB造成性能区别的原因。

三.测试环境与配置信息

测试环境:腾讯云

测试对象:GreenPlum、Mysql,两者的配置信息统计如下:

指标 参数
文本1 文本2
操作系统 CentOS 6.7 64位
cpu Intel(R) Xeon(R) CPU E5-26xx v3 8核
内存 24GB
公网带宽 100Mbps
IP 123.207.228.51
版本 MySql5.6

表2 Mysql服务器

四.测试数据量统计

表名称 数据条数
customer 150000
lineitem 6001215
nation 25
orders 1500000
part 200000
partsupp 800000
region 5
supplier 10000

表3 各测试表数据量统计

五.执行时间统计

执行的sql GeenPlum执行时间(单位:秒) Mysql执行时间(单位:秒)
Q1 4.01 12.66
Q2 0.50 3.27
Q3 1.35 5.06
Q4 0.11 0.01
Q5 0.19 27.29
Q6 0.01 2.50
Q7 6.06 10.79
Q8 1.46 39.78
Q9 4.00 >12小时
Q10 0.14 4.74
Q11 0.30 7.90
Q12 0.08 2.35
Q13 1.04 >12小时
Q14 0.04 9.37
Q15 0.07 4.76
Q16 0.51 2.90
Q17 3.21 48697.95
Q18 14.23 >12小时
Q19 0.95 23.12
Q20 0.16 >12小时
Q21 7.23 >12小时
Q22 0.96 8540.22

表4 22条sql执行时间统计

六.性能对比分析

根据执行时间的统计,我们可以看出两种数据库在进行TPC-H类测试有着较大差异,下面我们将选取两个典型的事例SQL,分析GreenPlum与Mysql在执行该类SQL的性能差异原因。

示例一

我们选取Q3,从执行时间统计可以看出GreenPlum的执行速度大概是Mysql的4倍左右。首先,查看下Q3语句,如下图1所示。

图1 Q3语句

然后,explain下Q3,得到结果分别如图2和图3。

图2 GreenPlum执行explain Q3的结果

图3 Mysql执行explain Q3的结果

从以上的执行过程解释可以看出,GreenPlum上的执行步骤主要有:

  1. 在所有segment(这里为4个)同时进行条件查询Filter;
  2. 两表做关联时,会进行数据广播,每个segment将查询到的结果广播到其他所有segment,每个segment得到该表Filter后的所有结果(全量数据),后会进行一次hash;
  3. 在所有segment上同时做hash join,因为还要和其他表做join,会继续将结果广播到所有segment上;
  4. 进行group by聚合操作。首先在所有segment上根据group by条件进行一次HashAggregate聚合(目的是减少重分布的数据量),然后将结果数据按group by字段进行重分布,最后,每个segment再按条件聚合一次得到最终结果;
  5. 根据order by条件,在所有segment上同时进行sort,根据Limit条件选取数据,这里是Limit 10,每个segment都选取10条数据汇总到master上,由master再选取前10条;
  6. 进行Merge,所有segment将结果发给master,由master进行一次归并,根据Limit条件选取结果的前10条数据,返回。

整个过程耗时的点主要有:

  1. 做了两次广播,总量为(30178+144314=174492)17万条;
  2. 根据group by的条件Redistribute一次,数量约为8万条;
  3. hash join两次,都是在两个表之间进行的hash join,在单个segment上,两表之间的hash join量分别大约是18万与3万、84万与14万;
  4. sort一次,单个segment的sort从8万条数据中取出前10条记录。

Mysql的执行过程比较简单,首先是在lineitem表做一次where过滤,获取结果计算出revenue值,由于order by的值是revenue,因此,需要一次非关键字(revenue)排序,排序的量为3271974(约320万),这里非常耗时。然后在order表和customer表做一些where过滤。

从以上执行过程可以看出,主要的耗时点应该在sort操作上,GreenPlum是在所有segment上同时进行一次8万条记录的sort,而Mysql则是直接进行一次320万记录的sort。由于Mysql是在单个服务器上搭建的,该服务器的性能(8核CPU、24GB内存)远高于GreenPlum的单个segment(1核CPU、4GB内存),因此,如果充分利用服务器的性能,两者的sort时间应该相差不大,可是事实如此吗?接下来我们查看下Mysql所在服务器的CPU使用情况,得到执行Q3前后的结果如图4所示:

图4 Mysql执行Q3前后其所在服务器的CPU使用时间情况

可以看出,执行Q3前后,只有CPU6的使用时间有较大变化,变化时间大概为500jiffies即5秒,与总的sql执行时间(5.06秒)基本吻合,因此,执行Q3 过程中,mysql所在的服务器只使用了一个CPU来进行计算。

综上,Mysql和GreenPlum的耗时区别主要体现在sort操作上,Mysql对320万条记录做了一次sort,但只能使用单个CPU计算,没有发挥服务器本身多核CPU的性能优势,整体执行时间较长。而GreenPlum由于采用了分布式的结构,每个segment对应一个CPU,数据均匀分布到各个segment,在各节点并行执行Filter、hash join、group by,sort等操作,充分利用了每个CPU的计算能力,然后将结果进行广播,或对整体数据进行重分布再进行计算,最后由master归并各segment的结果数据。在进行广播或者重分布时,会在segment节点间进行数据传输,消耗了一定的时间,但由于GreenPlum对sql的优化更好,以及并行计算的能力,因此,相比于Mysql,总的执行时间更短。

示例二

我们再选取一个典型的事例——Q17,根据执行时间统计,Mysql的执行时间是GreenPlum的1.5万倍,这是一个相当大的差距!究竟是什么原因会导致如此大的区别,我们首先查看Q17的sql语句如下图5所示。

图5 Q17语句

与Q3不同的是Q17涉及到了子查询,依旧,我们在mysql和GreenPlum上explain下sql,得到的结果如图6、图7所示。

图6 GreenPlum执行explain Q17的结果

图7 Mysql执行explain Q17的结果

子查询sql(select l_partkey as agg_partkey, 0.2 * avg(l_quantity) as avg_quantity from lineitem group by l_partkey)里面涉及group by,我们来看一下两者在聚合上的区别:

Mysql:由于group by的是非索引关键字,所以直接进行了filesort lineitem(600万条记录)。

GreenPlum:首先在每个segment(有该表150万条记录)做一次group by l_partkey,采用了更高效的HashAggregate聚合方式。为了所有segment可以并行做join,会将lineitem表的数据做一次重分布(5万条记录),每个segment得到的是hash分布到自身的记录。

可以看出,Mysql在聚合上的效率要明显低于GreenPlum。

然后,子查询结果会与现表做join操作,我们来继续看下两者在join上的区别:
Mysql:把子查询结果作为临时表(20万条记录)与现表lineitem(600万条记录)直接做了join,将产生600万×20万=1.2万亿的数据量.......

GreenPlum:首先对sql进行了优化,先执行了where条件,减少了part表的数据到260条(单个segment的量,总量为4×260条,接下来的数据量都为单个segment的)。

采用了更高效的join方式hash join。

如果使用临时表与lineitem表直接hash join,会产生50万左右的数据量,但GreenPlum并没有这么做,而是利用part表来进行join,因为part表经过where过滤后数据量非常小,和part表做hash join,数据量也相对较小。总共做了两次hash join:

  • part表与临时表part_agg,产生数据量246条;
  • part表与lineitem表,产生数据量2598条;

两者一对比,GreenPlum做join的数据量为(246+2598)×4=11376条,远小于Mysql的1.2万亿条,两者的性能不言而喻。

综上,在执行Q17时,Mysql和GreenPlum的效率差别除了GreenPlum具有并行计算能力外,还体现在聚合和关联这两个操作的优化上面。

七.总结

根据以上的统计结果和性能对比分析,可以看出,GreenPlum在TPC-H类的测试性能会远远高于单机版的Mysql,说明具有分布式属性的GreenPlum在关于复杂语句(涉及到多表属性查询、group by、order by 、join、子查询等)的查询效率较高,且可以充分利用系统CPU资源来提升查询速度,更适用于OLAP。

八.其他事项

  1. 由于原生的TPC-H的测试用例不直接支持GreenPlum和Mysql,因此需要修改测试脚本,生成新的建表语句如《附录一》所示,测试sql如《附录二》。
  2. GreenPlum各节点间的带宽要尽可能大,一般查询中会涉及到广播或者重分布动作,需要在节点间传输数据,如果带宽过小,易在此造成性能瓶颈。
  3. 测试语句不要过于简单,并且测试数据量不要太少,否则GreenPlum在做数据传输的时间会远高于计算时间。

转载于:https://my.oschina.net/u/2987407/blog/786250

你可能感兴趣的文章
Ambari & HDP 完整安装手册
查看>>
利用远程来修复本地计算机无法登陆的问题
查看>>
连接两个点云中的字段或数据形成新点云以及Opennni Grabber初识
查看>>
利用备份离线部署额外域控制器
查看>>
苹果第一季财报:中国市场成其关键 印度市场营收创纪录
查看>>
存储知识学习之--IP网络存储iSCSI的概念与工作原理
查看>>
安装系统之后无法识别网卡
查看>>
H3C无线控制器与Windows2008NPS结合实现无线终端的802.1X认证
查看>>
用GNS3和主机搭建一个实验环境来验证单网卡多IP多路由的可行性
查看>>
HP服务器命名规则
查看>>
java中short s=s+1和s+=1的区别
查看>>
Bash data exfiltration through DNS (using bash builtin functions)
查看>>
OSPF基本介绍和配置
查看>>
SWIFT中获取当前经伟度
查看>>
android ScrollView中嵌套listview listview可点击处理,可展开
查看>>
构建单页面应用
查看>>
API一键搭建智能时光相册,记录你的美
查看>>
【MongoDB学习笔记24】MongoDB的explain和hint函数
查看>>
AWK命令介绍
查看>>
利用Python SocketServer写的时间同步服务端与客户端
查看>>