专栏名称: OSC开源社区
OSChina 开源中国 官方微信账号
目录
相关文章推荐
OSC开源社区  ·  DeepSeek团队莫不是有神仙? ·  3 天前  
程序员之家  ·  急了!ChatGPT开放色情内容生成。。。 ·  4 天前  
程序员的那些事  ·  工资12000,下家给15000,我说考虑下 ... ·  3 天前  
51好读  ›  专栏  ›  OSC开源社区

PostgreSQL 18新特性前瞻

OSC开源社区  · 公众号  · 程序员  · 2025-02-28 18:18

正文

前言

距离 PostgreSQL 17 正式发布已近半年,按照每年发布一个大版本的惯例,PostgreSQL 18 预计将在 2025 年底发布。距离正式发布还有一段时间,社区的开发工作仍在如火如荼地进行中。

虽然本文中列举的许多新特性最终可能会有变化,但这并不妨碍我们展望 PostgreSQL 18 中可能引入的新特性,让我们一览为快 ~

可观测性

pg_stat_all_tables

在 pg_stat_all_tables 中新增了 (auto) vacuum 和 (auto) analyze 的相关耗时指标,这对于我们诊断 VACUUM 问题的时候无疑大有裨益。

内存上下文

在 pg_backend_memory_contexts 视图中新增了 type、path 和 parent 三个字段,关于内存上下文就不再赘述,感兴趣的可以阅读: https://smartkeyerror.com/PostgreSQL-MemoryContext [1]

pg_stat_checkpointer

在 pg_stat_checkpointer 视图中,新增了 num_done 字段,pg_stat_checkpointer 中现有的 num_timed 和 num_requested 计数器用于跟踪已完成和跳过的检查点,但无法仅计数已完成的检查点。

因为在 PostgreSQL 中,检查点也有 skip 机制,当非停库、REDO 完成或者强制触发检查点时,如果数据库没有写入操作,则直接返回,不需要再去遍历一下 shared buffer 去刷脏,提升检查点的性能。

    /*     * If this isn't a shutdown or forced checkpoint, and if there has been no     * WAL activity requiring a checkpoint, skip it.  The idea here is to     * avoid inserting duplicate checkpoints when the system is idle.     */    if ((flags & (CHECKPOINT_IS_SHUTDOWN | CHECKPOINT_END_OF_RECOVERY |                  CHECKPOINT_FORCE)) == 0)    {        if (last_important_lsn == ControlFile->checkPoint)        {            END_CRIT_SECTION();            ereport(DEBUG1,                    (errmsg_internal("checkpoint skipped because system is idle")));            return;        }    }

但是现有的 num_timed 是无法区分的,所以此次提交引入了 num_done 计数器,它仅跟踪已完成的检查点,从而更容易查看实际执行了多少个检查点。

Note that checkpoints may be skipped if the server has been idle since the last one, and this value counts both completed and skipped checkpoints

pg_stat_database

pg_stat_database 中新增了如下两个字段

parallel_workers_to_launch parallel_workers_launched

顾名思义,看到这个数据库中并行的使用情况。

另外,在 pg_stat_statements 中也新增了额外两个类似指标

pg_stat_subscription_stats

主要新增了一些用于观察冲突的列:

confl_insert_exists confl_update_origin_differs confl_update_exists confl_update_missing confl_delete_origin_differs confl_delete_missing

在日志中也有所体现:

pg_stat_get_backend_io

新增了 pg_stat_get_backend_io 函数,用于返回指定后端进程的 I/O 统计信息

结合 pg_stat_activity,如虎添翼:

postgres=SELECT *             FROM pg_stat_get_backend_io( pg_backend_pid() )            WHERE backend_type = 'client backend'              AND object = 'relation'              AND context = 'normal';-[ RECORD 1 ]--+---------------backend_type   | client backendobject         | relationcontext        | normalreads          | 122read_time      | 0writes         | 0write_time     | 0writebacks     | 0writeback_time | 0extends        | 49extend_time    | 0op_bytes       | 8192hits           | 11049evictions      | 0reuses         | fsyncs         | 0fsync_time     | 0stats_reset    | 

统计信息

对于 ANALYZE,在 18 版本中可以看到资源消耗情况以及 WAL 的使用情况

其次还新增了 ONLY 关键字,目的是解决在处理分区表时,VACUUM 和 ANALYZE 操作的一些不便之处。默认情况下,Autovacuum 进程不会自动对分区表执行 ANALYZE,用户必须手动执行。然而手动执行时,又会递归去分析每个分区,对于较大的分区表无疑会十分耗时,尤其是当表的列数很多时。为了解决这个问题,18 中引入了 ONLY 关键字,指定仅对主表进行操作,跳过对分区的处理。这样,用户可以避免在分区表上执行递归分析,节省时间。

这个行为让我想起了在 Greenplum 中,有个针对根分区的 optimizer_analyze_root_partition 参数。

对于分区表,当在表上运行 ANALYZE 命令时收集根分区的统计信息。GPORCA 使用根分区统计信息来生成一个查询计划。而遗传查询优化器并不使用这些数据。

性能

Hash Right Semi Join

在 18 中,支持了 Hash Right Semi Join (也支持并行),是的 Richard Guo 大佬。

以下是 17 中的例子,优化器选择了基于大表 ticket_flights 进行 HASH,这无疑会消耗更多资源

=# EXPLAIN (costs off, analyze)SELECT * FROM flightsWHERE flight_id IN (SELECT flight_id FROM ticket_flights);                                           QUERY PLAN                                           ------------------------------------------------------------------------------------------------ Hash Join (actual time=2133.122..2195.619 rows=150588 loops=1)   Hash Cond: (flights.flight_id = ticket_flights.flight_id)   ->  Seq Scan on flights (actual time=0.018..10.301 rows=214867 loops=1)   ->  Hash (actual time=2132.969..2132.970 rows=150588 loops=1)         Buckets: 262144 (originally 131072)  Batches: 1 (originally 1)  Memory Usage: 7343kB         ->  HashAggregate (actual time=1821.476..2114.218 rows=150588 loops=1)               Group Key: ticket_flights.flight_id               Batches: 5  Memory Usage: 10289kB  Disk Usage: 69384kB               ->  Seq Scan on ticket_flights (actual time=7.200..655.356 rows=8391852 loops=1) Planning Time: 0.325 ms Execution Time: 2258.237 ms(11 rows)

在 18 中,第四行我们可以看到,优化器选择了 Parallel Hash Right Semi Join,基于 flights 去构建了 HASH,执行时间也有倍数的提升。

                                           QUERY PLAN                                             --------------------------------------------------------------------------------------------------- Gather (actual time=56.771..943.233 rows=150590 loops=1)   Workers Planned: 2   Workers Launched: 2   ->  Parallel Hash Right Semi Join (actual time=41.754..909.894 rows=50197 loops=3)         Hash Cond: (ticket_flights.flight_id = flights.flight_id)         ->  Parallel Seq Scan on ticket_flights (actual time=0.047..221.511 rows=2797284 loops=3)         ->  Parallel Hash (actual time=40.309..40.309 rows=71622 loops=3)               Buckets: 262144  Batches: 1  Memory Usage: 23808kB               ->  Parallel Seq Scan on flights (actual time=0.008..6.631 rows=71622 loops=3) Planning Time: 0.555 ms Execution Time: 949.831 ms(11 rows)

Self-Join Elimination

当查询中的表与自身进行内连接时,如果可以证明该连接在查询结果中没有实际作用,可以用扫描操作代替这个自连接。这种优化有助于减少查询计划的复杂度,特别是在涉及分区表时。该优化的主要效果包括:

减少范围表的长度 :特别是对于分区表,消除不必要的自连接有助于减少表列表中的项数。 减少限制条件的数量 :从而减少了选择性估算,并可能提高查询计划的预测准确性。

这项优化通过替代自连接为更高效的扫描操作来减少查询计划的复杂性,尤其在处理分区表时具有显著的性能优势。搭配上 Hash Right Semi Join,使得 18 中的优化器能力更上一层楼。

UUID v7

在 18 中,另一个比较令人惊喜的是 v7 UUID 的支持 — 结合了以毫秒为单位的 Unix 时间戳和随机位,提供唯一性和可排序性,UUID v7 采用时间戳作为生成 UUID 的核心部分,这意味着它是有序的。与 UUID v4 的随机性不同,UUID v7 生成的 UUID 在时间上具有自然的顺序。这样的有序性在数据库和分布式系统中具有重要优势,特别是在数据插入、索引和查询时,有序的 UUID 使得数据可以更好地分布和排序,避免了 UUID v4 生成的随机分布可能导致的性能问题。

非 V7 的 UUID 其危害我已经写过不少文章进行阐述了,那么在 18 以前如何实现 v7 呢?可以参照 Howtos 里面的相关文章:

https://postgres-howto.cn/#/./docs/64?id=how-to-use-uuid [2] https://postgres-howto.cn/#/./docs/65?id=uuid-v7-and-partitioning-timescaledb [3]

使用唯一索引检测冗余的 GROUP BY 列

原本在 GROUP BY 包含关系表的所有主键列时,所有其他不属于主键的列可以从 GROUP BY 子句中移除,因为这些列在功能上依赖于主键,并且主键本身足以确保组的唯一性。这个优化特性被扩展到不仅适用于主键索引,还支持任何唯一索引。也就是说,如果表上存在一个唯一索引,优化器可以使用该索引来移除 GROUP BY 中冗余的列。

针对这个,让我想起了另一个内核知识点,我们知道,对于 group by,非聚合列必须包含在 group by 子句中,否则会报如下错误 xxx must appear in the GROUP BY clause or be used in an aggregate function

postgres=create table test(id int primary key,info text);                                                                                                                                                                                                 CREATE TABLE                                                                                                                                                                                                                                                postgres=insert into test values(1,'hello');                                                                                                                                                                                                              INSERT 0 1                                                                                                                                                                                                                                                                                                                                                                                                                                                                        postgres=insert into test values(2,'world');                                                                                                                                                                                                              INSERT 0 1                                                                                                                                                                                                                                                                                                                                                                                                                                                                        postgres=insert into test values(3,'postgres');                                                                                                                                                                                                           




    
INSERT 0 1                                                                                                                                                                                                                                                  postgres=insert into test values(4,'postgres');                                                                                                                                                                                                           INSERT 0 1                                                                                                                                                                                                                                                  postgres=select * from test;                                                                                                                                                                                                                               id |   info                                                                                                                                                                                                                                                ----+----------                                                                                                                                                                                                                                               1 | hello                                                                                                                                                                                                                                                   2 | world                                                                                                                                                                                                                                                   3 | postgres                                                                                                                                                                                                                                                4 | postgres                                                                                                                                                                                                                                              (4 rows)                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               

当非聚合列不包含在 group by 子句中会报错,但是如果按照主键的话,就不会报错

postgres=select id,count(*from test group by info;                                                                                                                                                                                                      ERROR:  column "test.id" must appear in the GROUP BY clause or be used in an aggregate function                                                                                                                                                             LINE 1select id,count(*from test group by info;                                                                                                                                                                                                                   ^                 postgres=select id,info,count(*from test group by id;                                                                                                                                                                                                    id |   info   | count                                                                                                                                                                                                                                      ----+----------+-------                                                                                                                                                                                                                                       2 | world    |     1                                                                                                                                                                                                                                        3 | postgres |     1                                                                                                                                                                                                                                        4 | postgres |     1                                                                                                                                                                                                                                        1 | hello    |     1                                                                                                                                                                                                                                      (4 rows) 
postgres=# select id,info,count(*) from test group by id,info;                                                                                                                                                                                               id |   info   | count                                                                                                                                                                                                                                      ----+----------+-------                                                                                                                                                                                                                                       2 | world    |     1                                                                                                                                                                                                                                        3 | postgres |     1                                                                                                                                                                                                                                        4 | postgres |     1                                                                                                                                                                                                                                        1 | hello    |     1                                                                                                                                                                                                                                      (4 rows) 

因为如果是按照主键进行分组,由于主键的原因,那么该行必然是唯一的,即使加上其他的列,也是固定的分组。但是比较可惜的是,截止目前只能是主键,唯一约束 + not null 也不行,虽然语义是一样的,代码里有说明 👇🏻

/* * remove_useless_groupby_columns *      Remove any columns in the GROUP BY clause that are redundant due to *      being functionally dependent on other GROUP BY columns. * * Since some other DBMSes do not allow references to ungrouped columns, it's * not unusual to find all columns listed in GROUP BY even though listing the * primary-key columns would be sufficient.  Deleting such excess columns * avoids redundant sorting work, so it's worth doing.  When we do this, we * must mark the plan as dependent on the pkey constraint (compare the * parser's check_ungrouped_columns() and check_functional_grouping()). * * In principle, we could treat any NOT-NULL columns appearing in a UNIQUE * index as the determining columns.  But as with check_functional_grouping(), * there's currently no way to represent dependency on a NOT NULL constraint, * so we consider only the pkey for now. */static voidremove_useless_groupby_columns(PlannerInfo *root){    Query      *parse = root->parse;    Bitmapset **groupbyattnos;    Bitmapset **surplusvars;    ListCell   *lc;    int         relid;

值得一提的是,在 16 中支持了 any_value,用于解决这种问题。

pg_set_relation_stats

截止最新版 17,PostgreSQL 中还没有官方方法来手动调整优化器统计信息,在 18 中已经可以初步做到了

以这篇文章的例子为例 https://www.dbi-services.com/blog/postgresql-18-tweaking-relation-statistics/ [4]

postgres=create table t ( a int, b text );CREATE TABLEpostgres=insert into t values (1,'aa');INSERT 0 1postgres=insert into t select i, 'bb' from generate_series(2,100) i;INSERT 0 99postgres=# analyze t;ANALYZEpostgres=create index i on t(b);CREATE INDEXpostgres=# \d t                 Table "public.t" Column |  Type   | Collation | Nullable | Default--------+---------+-----------+----------+--------- a      | integer |           |          |  b      | text    |           |          | Indexes:    "i" btree (b)
postgres=# select relpages,reltuples from pg_class where relname = 't'; relpages | reltuples ----------+-----------        1 |       100(1 row)
postgres=# explain select * from t where b = 'aa';                   QUERY PLAN                    ------------------------------------------------- Seq Scan on t  (cost=0.00..2.25 rows=1 width=7)






请到「今天看啥」查看全文