PostgreSQL 数据离散性 与 索引扫描性能(btree and bitmap index scan)

本文涉及的产品
云原生数据库 PolarDB MySQL 版,Serverless 5000PCU 100GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介:

标签

PostgreSQL , 数据离散性 , 扫描性能 , 重复扫 , bitmap index scan , 排序扫描


背景

PostgreSQL中数据的扫描方法很多,常见的有:

1、全表顺序扫描(seqscan)

2、索引+回表扫描(index scan)

3、索引扫描(index only scan)

4、bitmap扫描(bitmap index + block sorted heap scan)

那么对于同一张表,返回同样的记录数,不同的索引,效率有什么差别呢?

回答是和数据的存储线性相关性有关。(PostgreSQL的bitmap scan就是用来解这个问题的)

例子

1、构造一份数据,1000万记录,其中一个字段存储线性相关(时序),另一个字段乱序。

postgres=# create table corr_test(c1 int, c2 int);  
CREATE TABLE  
postgres=# insert into corr_test select generate_series(1,10000000) , random()*10000000;  
INSERT 0 10000000  

2、创建索引

postgres=# create index idx_corr_test_1 on corr_test (c1);  
CREATE INDEX  
postgres=# create index idx_corr_test_2 on corr_test (c2);  
CREATE INDEX  

3、记录如下

postgres=# select count (distinct c1), count(distinct c2) from corr_test ;  
-[ RECORD 1 ]---  
count | 10000000  
count | 6321273  

4、查看两个字段的存储线性相关性(correlation)

《PostgreSQL 计算 任意类型 字段之间的线性相关性》

《PostgreSQL 统计信息之 - 逻辑与物理存储的线性相关性》

《索引顺序扫描引发的堆扫描IO放大背后的统计学原理与解决办法 - PostgreSQL index scan enlarge heap page scans when index and column correlation small.》

postgres=# analyze corr_test ;  
ANALYZE  
postgres=# select * from pg_stats where tablename='corr_test';  
-[ RECORD 1 ]----------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------  
schemaname             | public  
tablename              | corr_test  
attname                | c1  
inherited              | f  
null_frac              | 0  
avg_width              | 4  
n_distinct             | -1  
most_common_vals       |   
most_common_freqs      |   
histogram_bounds       | {264,92701,193390,294012,388058,485346,593684,685077,789274,894145,997995,1089782,1200355,1283219,1378625,1483703,1579768,1686405,1784210,1881611,1986283,2081148,2174498,2283021,2374024,2488115,2595505,2692236,2786642,2885331,2986908,3084688,3189282,3286800,3391763,3498828,3590785,3680583,3783899,3899023,3986142,4086260,4182787,4279303,4376024,4474895,4557993,4658238,4769987,4860761,4952944,5060715,5167068,5268284,5368289,5478782,5576872,5682785,5777336,5882893,5979896,6092909,6192493,6283722,6386922,6481272,6590049,6684505,6784638,6877767,6977433,7073017,7169473,7267987,7374703,7467565,7572386,7674582,7770014,7866422,7977399,8086125,8193108,8289676,8391245,8493604,8600614,8697894,8800583,8899375,9003507,9112105,9205179,9296198,9397346,9498380,9594476,9690568,9788951,9895128,9999848}  
correlation            | 1   # 线性相关  
most_common_elems      |   
most_common_elem_freqs |   
elem_count_histogram   |   
-[ RECORD 2 ]----------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------  
schemaname             | public  
tablename              | corr_test  
attname                | c2  
inherited              | f  
null_frac              | 0  
avg_width              | 4  
n_distinct             | -0.51138  
most_common_vals       | {426318,766194,855444,1149657,1200975,1220163,1365550,2088174,2140281,2763150,3056426,3112825,3121883,3155120,3215926,3301333,3560657,4426775,4594877,4777035,5252068,5677480,5854408,6189177,6218589,6244509,6302874,6739846,6791877,7114618,7339405,7868148,8246024,8401824,8581341,8804281,9126954,9441793,9478704,9596435,9695680,9878570,9971294}  
most_common_freqs      | {6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05,6.66667e-05}  
histogram_bounds       | {271,106225,201567,294497,392824,494367,588776,678500,770927,868980,969487,1070023,1163902,1263888,1370143,1469104,1560941,1663822,1774042,1878441,1968698,2062914,2165452,2269587,2379207,2488012,2588110,2687086,2794150,2901621,3008186,3110180,3209342,3310782,3405087,3496885,3595592,3703924,3809056,3912808,4005481,4106138,4198143,4299460,4389301,4488847,4586914,4678114,4783071,4874577,4967846,5068838,5157910,5258764,5360550,5461419,5549937,5652323,5748370,5850884,5956837,6062955,6164560,6260734,6359909,6464077,6563959,6656376,6757534,6846335,6939362,7033698,7137829,7252307,7356135,7453579,7553301,7656348,7766475,7860057,7960997,8067532,8176088,8278098,8378888,8473638,8589748,8697667,8797619,8894596,8999418,9101559,9200533,9305406,9394744,9497708,9598103,9699825,9803509,9901242,9999667}  
correlation            | 0.00410469  # 线性不相关  
most_common_elems      |   
most_common_elem_freqs |   
elem_count_histogram   |   

这两个字段的相关性反差非常明显,C1字段的存储完全线性相关,C2字段完全不相干。

如果按索引顺序扫描这张表,使用C1索引,由于存储线性相关,因此在HEAP上的BLOCK扫描也几乎是线性的。

然而C2字段由于存储完全不相关,如果使用C2字段的索引扫描,会导致IO重复扫描,导致放大。

5、强制模拟索引扫描:

postgres=# set enable_seqscan=off;  
SET  
postgres=# set enable_bitmapscan =off;  
SET  
  
线性扫描,扫描71573个数据块  
postgres=# explain (analyze,verbose,timing,costs,buffers) select * from corr_test where c1 between 1 and 10000000;  
                                                                       QUERY PLAN                                                                         
--------------------------------------------------------------------------------------------------------------------------------------------------------  
 Index Scan using idx_corr_test_1 on public.corr_test  (cost=0.43..274413.40 rows=10000033 width=8) (actual time=0.017..1919.720 rows=10000000 loops=1)  
   Output: c1, c2  
   Index Cond: ((corr_test.c1 >= 1) AND (corr_test.c1 <= 10000000))  
   Buffers: shared hit=71573  
 Planning time: 0.142 ms  
 Execution time: 2771.570 ms  
(6 rows)  
  
  
离散扫描,每个BLOCK几乎都被重复扫描了140次,一个BLOCK刚好存储140条记录,说明这140条记录在顺序上完全离散。  
postgres=# explain (analyze,verbose,timing,costs,buffers) select * from corr_test where c2 between 1 and 10000000;  
                                                                    QUERY PLAN                                                                       
---------------------------------------------------------------------------------------------------------------------------------------------------  
 Index Scan using idx_corr_test_2 on public.corr_test  (cost=0.43..36296.14 rows=50000 width=8) (actual time=0.029..6563.525 rows=9999999 loops=1)  
   Output: c1, c2  
   Index Cond: ((corr_test.c2 >= 1) AND (corr_test.c2 <= 10000000))  
   Buffers: shared hit=10027095  
 Planning time: 0.089 ms  
 Execution time: 7421.801 ms  
(6 rows)  

6、PostgreSQL对于这种数据,会使用位图扫描,位图扫描的原理是从索引中得到HEAP BLOCK ID,然后按HEAP BLOCK ID 排序后顺序扫描。

排序扫描后,按两个字段的索引扫描,扫描的BLOCK就一样多了。不会有重复扫描的现象。

postgres=# set enable_bitmapscan =on;  
SET  
  
postgres=# explain (analyze,verbose,timing,costs,buffers) select * from corr_test where c1 between 1 and 10000000;  
                                                                   QUERY PLAN                                                                      
-------------------------------------------------------------------------------------------------------------------------------------------------  
 Bitmap Heap Scan on public.corr_test  (cost=2844700.77..3038949.27 rows=10000033 width=8) (actual time=440.230..1691.523 rows=10000000 loops=1)  
   Output: c1, c2  
   Recheck Cond: ((corr_test.c1 >= 1) AND (corr_test.c1 <= 10000000))  
   Heap Blocks: exact=44248  
   Buffers: shared hit=71573  
   ->  Bitmap Index Scan on idx_corr_test_1  (cost=0.00..2842200.77 rows=10000033 width=0) (actual time=433.548..433.548 rows=10000000 loops=1)  
         Index Cond: ((corr_test.c1 >= 1) AND (corr_test.c1 <= 10000000))  
         Buffers: shared hit=27325  
 Planning time: 0.144 ms  
 Execution time: 2510.658 ms  
(10 rows)  
  
  
postgres=# explain (analyze,verbose,timing,costs,buffers) select * from corr_test where c2 between 1 and 10000000;  
                                                                   QUERY PLAN                                                                     
------------------------------------------------------------------------------------------------------------------------------------------------  
 Bitmap Heap Scan on public.corr_test  (cost=2844700.76..3038949.24 rows=10000032 width=8) (actual time=688.150..1939.259 rows=9999998 loops=1)  
   Output: c1, c2  
   Recheck Cond: ((corr_test.c2 >= 1) AND (corr_test.c2 <= 10000000))  
   Heap Blocks: exact=44248  
   Buffers: shared hit=71573  
   ->  Bitmap Index Scan on idx_corr_test_2  (cost=0.00..2842200.75 rows=10000032 width=0) (actual time=681.488..681.488 rows=9999998 loops=1)  
         Index Cond: ((corr_test.c2 >= 1) AND (corr_test.c2 <= 10000000))  
         Buffers: shared hit=27325  
 Planning time: 0.147 ms  
 Execution time: 2758.621 ms  
(10 rows)  

但是大家请注意BITMAP SCAN会引入一个recheck的过程,因为按BLOCK顺序扫描时,只有BLOCK ID,并不知道这个BLOCK里面哪条记录是匹配的。所以必须要recheck。

因此BITMAP SCAN降低了IO放大,但是引入了recheck。

在成本评估时,起作用的两个成本因子:

1、random_page_cost,离散扫描成本,乘以要扫描的块数。

2、cpu_operator_cost,函数或操作符的基本成本,评估的记录数乘以这个值再乘以函数或操作符的基本成本系数(pg_proc.procost)。

小结

PostgreSQL使用索引扫描时,如果索引顺序与数据存储顺序的相关性很差,会导致HEAP BLOCK扫描的放大(由于乱序导致一个BLOCK被多次读取)。

使用bitmap scan,可以消除HEAP BLOCK扫描的放大问题(按BLOCK ID排序后扫描一遍),但是会引入一个问题,需要rechek。

所以仅仅当评估满足条件的记录数与BLOCK内实际含的记录数相比,比例较大时,使用bitmap scan带来的效果非常好,如果比例较小,那么就当operator带来的消耗比扫描IO带来的消耗小时更划算。

(例如评估出来满足条件的有1000条,扫描100个BLOCK每个BLOCK有50条记录,那么实际上比例就是0.2=1000/(100*50))

除了考虑数据存储的离散性,索引页本身的组织也是离散的,详见:

《深入浅出PostgreSQL B-Tree索引结构》

《PostgreSQL 黑科技 - 空间聚集存储, 内窥GIN, GiST, SP-GiST索引》

https://www.postgresql.org/docs/10/static/pageinspect.html

参考

《PostgreSQL pg_stats used to estimate top N freps values and explain rows》

《PostgreSQL 统计信息pg_statistic格式及导入导出dump_stat - 兼容Oracle》

《PostgreSQL pg_stat_ pg_statio_ 统计信息(scan,read,fetch,hit)源码解读》

《PostgreSQL 计算 任意类型 字段之间的线性相关性》

《PostgreSQL 统计信息之 - 逻辑与物理存储的线性相关性》

《索引顺序扫描引发的堆扫描IO放大背后的统计学原理与解决办法 - PostgreSQL index scan enlarge heap page scans when index and column correlation small.》

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
25天前
|
关系型数据库 分布式数据库 数据库
PolarDB常见问题之加了索引但是查询没有使用如何解决
PolarDB是阿里云推出的下一代关系型数据库,具有高性能、高可用性和弹性伸缩能力,适用于大规模数据处理场景。本汇总囊括了PolarDB使用中用户可能遭遇的一系列常见问题及解答,旨在为数据库管理员和开发者提供全面的问题指导,确保数据库平稳运行和优化使用体验。
|
25天前
|
存储 关系型数据库 分布式数据库
PolarDB常见问题之PolarDB冷存数据到OSS之后恢复失败如何解决
PolarDB是阿里云推出的下一代关系型数据库,具有高性能、高可用性和弹性伸缩能力,适用于大规模数据处理场景。本汇总囊括了PolarDB使用中用户可能遭遇的一系列常见问题及解答,旨在为数据库管理员和开发者提供全面的问题指导,确保数据库平稳运行和优化使用体验。
|
1月前
|
SQL 关系型数据库 分布式数据库
在PolarDB中,行数评估是通过对表的统计数据、基数估计以及算子代价模型来进行估算的。
【2月更文挑战第14天】在PolarDB中,行数评估是通过对表的统计数据、基数估计以及算子代价模型来进行估算的。
82 1
|
5天前
|
人工智能 Cloud Native 算法
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
AI与云数据库的深度结合是数据库发展的必然趋势,基于AI能力的加持,云数据库未来可以实现更快速的查询和决策,帮助企业更好地利用海量数据进行业务创新和决策优化。
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
|
22天前
|
关系型数据库 MySQL OLAP
PolarDB +AnalyticDB Zero-ETL :免费同步数据到ADB,享受数据流通新体验
Zero-ETL是阿里云瑶池数据库提供的服务,旨在简化传统ETL流程的复杂性和成本,提高数据实时性。降低数据同步成本,允许用户快速在AnalyticDB中对PolarDB数据进行分析,降低了30%的数据接入成本,提升了60%的建仓效率。 Zero-ETL特性包括免费的PolarDB MySQL联邦分析和PolarDB-X元数据自动同步,提供一体化的事务处理和数据分析,并能整合多个数据源。用户只需简单配置即可实现数据同步和实时分析。
|
2月前
|
SQL 算法 关系型数据库
PolarDB-X的XPlan索引选择
对于数据库来说,正确的选择索引是基本的要求,选错索引轻则导致查询缓慢,重则导致数据库整体不可用。PolarDB-X存在多种不同的索引,局部索引、全局索引、列存索引、归档表索引。本文主要介绍一种CN上的局部索引算法:XPlan索引选择。
125703 13
PolarDB-X的XPlan索引选择
|
2月前
|
关系型数据库 分布式数据库 PolarDB
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
85 3
|
2月前
|
关系型数据库 分布式数据库 PolarDB
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
73 1
|
2月前
|
关系型数据库 分布式数据库 PolarDB
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
电子书阅读分享《PolarDB开发者大会:PolarDB在线数据实时分析加速》
87 1
|
3月前
|
人工智能 算法 关系型数据库
PolarDB for AI助力菜鸟实现一站式数据智能
菜鸟通过应用PolarDB for AI,实现云资源成本降低了50%
159 2

相关产品

  • 云原生数据库 PolarDB