侵权投诉
订阅
纠错
加入自媒体

向量化执行使表达式性能提升10倍成为可能

2021-12-06 11:03
yzsDBA
关注

向量化执行使表达式性能提升10倍成为可能

查询执行引擎对数据库系统性能非常重要。TIDB是一个开源兼容MySQL的HTAP数据库,部署广泛使用的火山模型来执行查询。不幸的是,当查询一个大库时,向量化模型会造成较高的解释开销以及较低的CPU CACHE命中率。

受MonetDB/X100: Hyper-Pipelining Query Execution论文启发,在TIDB中部署向量化执行引擎以提高查询性能。(建议学习 Andy Pavlo 的Query Execution课程,其中详细介绍了有关执行模型和表达式计算的原理)。

2017年年末,我们对TIDB的SQL执行引擎完成了3项优化:

1) 在执行引擎中完成列式存储。类似Apache的Arrow。

2) 将一次一个tuple的迭代模式(火山模型)改成一次一批(1024个tuple)

3) 基于向量化执行原则,优化各种查询操作符

得益于这些优化,与TIDB1.0相比,TIDB2.0显著提升了查询分析的性能。可以查看TPC-H性能

最近我们release了TiDB2.1和3.0,向量化执行引擎更加稳定。现在正在开发TiDB4.0,包括向量化表达式。

本文,深入分析了为什么使用向量化引擎,如何实现它以及如何与社区贡献者合作完成多于360个函数的向量化,还有对未来的看法。

为什么使用向量化

之前TiDB实现了火山模型的执行引擎。这个迭代模型使用标准数据访问接口。在各个算子之间执行open()-next()-close(),一行一行处理数据。火山模型简单且可扩展。

但是,当执行大型查询时,火山模型会带来较高的解析代价。另外,也不能重复你利用现代CPU硬件的特性,如CPU CACHE、分支预测、指令流水线。

向量化执行使用单指令在内存中执行一组连续的相似的数据项。与火山模型相比,向量化模型大大降低了解释开销。因此我们选择了向量化执行引擎。

本节中,使用表达式colA*0.8 + colB来展示基于行的执行和基于向量化执行之间的开销差距。

TIDB根据算术运算符和运算符优先级,将此表达式解析为表达式求值树。在这个树中,每个非叶子节点代表一个算术运算符,叶节点代表数据源。每个非叶节点要么是一个常量如0.8,要么是表中的一个字段如colA。节点之间的父子关系表示计算上的依赖关系:子节点的结算结果是父节点的输入数据。

表达式求值树

每个节点的计算逻辑可以抽象成下面接口:

type Node interface

{    evalReal(row Row) (val float64, isNull bool)

以*,0.8,col节点为例,3个节点都实现了上面的接口,伪代码如下:

image.png

基于行执行的解释开销

和火山模型类似,上面讨论的表达式实现是对行进行迭代。

逐行迭代的解释开销是多少?下面我们来看一个函数在TiDB中的实现。

builtinArithmeticMultiplyRealSig函数实现2个浮点数相乘。下面的代码块描述了这个函数的实现。右边的数组表示对应行的汇编指令数,是代码汇编后得到的。要注意,此块仅包含在正常条件下迭代的行,并忽略错误处理的逻辑:

下面列出了builtinArithmeticMultiplyRealSig每个功能任务及执行它的汇编指令数量。

每次这个函数执行乘法时,82条指令中仅有8条在执行“真正的”乘法,这仅占总指令的10%左右,其他90%被视为解释开销。一旦将这个函数向量化,它的性能提高了仅9倍。

向量化减少解释开销

和SQL算子的向量化优化一样,我们可以一次处理并返回一批数据。这减少了表达式计算过程中的解释开销。

假设一批数据有1024行,优化后每次调用一个函数处理这1024行数据,然后返回。函数调用的解释开销变成原来的1/1024.

因此,我们可以添加以下接口来向量化表达式计算:

type Node interface {

batchEvalReal(rows []Row) (vals []float64, isNull []bool)

我们的向量化处理接口长什么样?为什么?

真正的源代码和上面显示的模型并不完全一样。它看起来像这样:

type VecNode interface {

vecEvalReal(input *Chunk, result *Column)

想知道为什么?

为了说明原因,先介绍下TiDB的chunk结构。也就是查询执行阶段数据在内存中的表示。

2017年底,在进行向量化优化,引入了chunk概念。一个chunk由多列组成。列由两种类型:

1) 固定长度的列,数据时固定长度,不能改变

2) 变长列,数据长度可变

不管数据长度是固定的还是变长的,列中数据在Column.data字段(即数组)中是连续存储在内存中的。如果数据长度变化,column.offset记录数据偏移量。如果数据是固定长度,则不需要记录偏移量。

下图说明了我们最近为chunk引入的新向量访问接口:

1) 对于定长数据,如int64,Golang的unsafe包直接转换column.data为[]int64([]int64中的Int64s()),返回结果。读取或更改column.data的用户可以直接操作这个数组。这是访问固定长度数据的最有效方式。

2) 对于变长数据,例如字符串,可以使用GetString(rowIdx int) string来获取对应行的数据,仅能以追加的方式更新。随机更改变长数据列中一个元素,需要移动后续所有数据。这会带来巨大开销。为了提升性能,此操作未在column中。

再返回来看下接口设计。

基于chunk的实现以及Golang的特性,我们优化了表达式计算以下几个方面:

1) 直接通过*chunk而不是[]Row,避免创建大量Row对象。降低了Golang垃圾回收的压力并提高了性能

2) column.data通过column而不是Row,减少函数调用次数。帮助减少解释开销和加速访问数据。

3) 将用于存储数据的列放到参数中并传递,而不是直接返回[]float64和[]bool数组。提高了内存利用率,减少了Golang GC开销。

基于这些优化,我们的向量化表达式计算接口变成了今天这个样子。

怎么实现向量化执行引擎?

本节介绍如何实现向量化。

以multiplyRealNode为例:

对于这个功能:

1) 前2行:cache pool中的ColumnBuffer用于缓冲右孩子(第二个参数)的数据。左孩子的数据存储再result指针指向的内存中。

2) Columns.MergeNulls(cols...)合并多列的NULL标签。这个方法类似result.nulls[i] = result.nulls[i] || buf.nulls[i]。Column内部使用一个bitmap来维护NULL标签。当调用这个函数时,一个列来做一个按位操作来核并NULLs。

3) 一个循环直接将左右字节的的数据相乘。

4) 再乘法过程中中,该函数调用左右子接口来获取他们的数据。

这种实现方式通过向量化减少了解释开销,对现代CPU更有利:

1) 顺序访问一个向量数据,减少了CPU CACHE的miss

2) 大多数计算工作在一个简单循环中,有助于CPU分支预测与指令流水线。

向量化执行和基于行的执行引擎性能比较

本节使用TiDB源码进行基准测试,并比较向量化前后的性能。使用相同数据(2列浮点数组成的1024行)分别col0*0.8 + col1计算:

上面的结果表明向量化执行比基于行的执行引擎快4倍。下图对比了LT向量化前后各种小于(LT)函数的性能。横轴表示LT用于测试的函数,纵轴表示完成操作持续的时间(单位纳秒)

下面比较了向量化前后算术函数的性能:

我们测试了300多个向量化函数后,发现这些函数中有超过50%的函数性能提高了1倍以上,18.7%的函数实现了10的性能提升。

如何将360+个内置函数向量化?

迈向4.0的过程中,表达式向量化是一个巨大的工程。因为涉及500多个内置函数。开发人员相当少-完成相当困难。位更有效开发代码,使用Golang将尽可能多的内置函数向量化test/template。此模板生成向量化函数的源码。位让更多人参与这个项目,我们在开发者社区中成立了向量化表达式工作组。通过这种方法,社区贡献者承担了向量化过程中大部分工作。

在我们的努力下,重构了仅三分之二的内置函数,大部分都有显著的性能提升。有些甚至能有一两个数量级的性能提升。

使用一个模板进行向量化

当我们对内置函数进行向量化时,我们发现很多函数都有相似之处。例如,大多数LT( <)、GT( >) 和LE( <=) 函数具有相似的逻辑。它们仅使用的运算符不同。因此,可以使用模板来生成这些函数的代码。目前,Golang 不支持泛型类型和宏定义,所以我们使用text/template包来生成代码。基于Golang模板的语法,我们将要生成的函数抽象成模板。例如,这里是比较函数的模板,如LTand GT:

针对不同类型数据和算子,模板生成相应代码。这个模板在expression/generator包里。

社区帮助完成向量化

除了使用模板向量化内置函数外,还在社区开始了向量化活动,让更多人参与进来。编写了一个脚本,为所有内置函数生成向量化接口:

func (b *builtinCastStringAsIntSig) vecEvalInt(input *chunk.Chunk, result *chunk.Column) error {

return errors.Errorf("not implemented")

func (b *builtinCastStringAsDurationSig) vectorized() bool {

return false

保留函数接口可以避免合并代码时不同pull request同时修改同一个文档引起的冲突。我们还编写了一个测试框架。贡献者将函数向量化后,他们可以使用框架来测试内置函数的正确性和性能,只需编写几行简单的配置即可。

如下代码所示,贡献者只需要在vecBuiltinArithemeticCases

接下来,它们可以按照我们编写的两个函数运行。然后,他们可以执行正确性和性能测试。

正确性和性能测试都直接生成随机数据,并比较向量化执行和基于行执行的性能。上述两个操作可以帮助贡献者轻松向量化我们的内置函数。在社区的帮助下,我们在短短两个月内对 360 多个函数进行了向量化处理。在此期间,我们的社区贡献者提交了 256 份 PR。该活动还产生了九名活跃贡献者(他们在一年内合并了至少 8 个 PR)和两个审阅者(他们在一年内合并了至少 30 个 PR)。

下一步做什么

通过引入向量化执行,我们显着提高了表达式执行的性能。目前,默认情况下,我们的主分支上启用了向量化执行。一旦表达式的所有内置函数都支持向量化执行,该表达式将使用向量化执行。未来我们也会使用向量化执行来提升 TiDB 的 HTAP 能力。

请注意,上面的所有性能测试数据都在内存中。如果数据存储在磁盘上,读取它可能会导致高开销。在这种情况下,向量化执行的好处可能不太明显。但总的来说,向量化执行明显提升了 TiDB 表达式评估的性能。

此外,当我们对表达式进行向量化时,我们发现向量化执行可以应用于许多其他情况以提高性能。例如:

在哈希连接中,我们为内部数据(参见PR #12076)和外部数据(参见PR #12669)向量计算哈希键。在某些场景下,性能分别提升7%和18%。我们要感谢一位名叫sduzh的社区贡献者,他独自完成了这些改进。

在哈希聚合中,我们对数据进行了向量化编码。在本地测试中,性能比以前快了20%到60%。有关详细信息,请参阅PR #12729。

在StreamAggregation运算符中,我们将数据向量划分为组。在本地测试中,性能提升了约 60%。有关详细信息,请参阅PR #12903。

原文

image.png

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    电子工程 猎头职位 更多
    扫码关注公众号
    OFweek电子工程网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号