# 4. ClickHouse 表引擎

表引擎是 ClickHouse 的一大特色。可以说, 表引擎决定了如何存储表的数据。包括:

  • 数据的存储方式和位置,写到哪里以及从哪里读取数据;
  • 支持哪些查询以及如何支持;
  • 并发数据访问;
  • 索引的使用(如果存在);
  • 是否可以执行多线程请求;
  • 数据复制参数;

表引擎的使用方式就是必须显式在创建表时定义该表使用的引擎,以及引擎使用的相关参数。

WARNING

特别注意:引擎的名称大小写敏感。

# 4.1 TinyLog

以列文件的形式保存在磁盘上,不支持索引,没有并发控制。一般保存少量数据的小表, 生产环境上作用有限。可以用于平时练习测试用。

CREATE TABLE t_tinylog ( id String, name String) ENGINE=TinyLog;

# 4.2 Memory

内存引擎,数据以未压缩的原始形式直接保存在内存当中,服务器重启数据就会消失。 读写操作不会相互阻塞,不支持索引。简单查询下有非常非常高的性能表现(超过 10G/s)。

一般用到它的地方不多,除了用来测试,就是在需要非常高的性能,同时数据量又不太大(上限大概 1 亿行)的场景。

# 4.3 MergeTree

ClickHouse 中最强大的表引擎当属 MergeTree 引擎及该系列(MergeTree)中的其他引擎,支持索引分区,地位可以相当于 Innodb 之于 MySQL。而且基于 MergeTree, 还衍生除了很多小弟,也是非常有特色的引擎。

# 4.3.1 基本使用

  • 建表

    CREATE TABLE t_order_mt(
       id UInt32,
       sku_id String,
       total_amount Decimal(16,2),
       create_time Datetime
    ) ENGINE =MergeTree
    PARTITION BY toYYYYMMDD(create_time) 
    PRIMARY KEY (id)
    ORDER BY (id,sku_id);
    
  • 插入数据

    INSERT INTO t_order_mt VALUES
    (101,'sku_001',1000.00,'2020-06-01 12:00:00') , 
    (102,'sku_002',2000.00,'2020-06-01 11:00:00'), 
    (102,'sku_004',2500.00,'2020-06-01 12:00:00'), 
    (102,'sku_002',2000.00,'2020-06-01 13:00:00'),
    (102,'sku_002',12000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',600.00,'2020-06-02 12:00:00');
    
  • 查询数据

    SELECT * FROM t_order_mt;
    

    输出:

    SELECT *
    FROM t_order_mt
    
    Query id: 2a5e5ca0-9597-4f57-acb9-1b9dbb0ffaa8
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    6 rows in set. Elapsed: 0.331 sec. 
    

# 4.3.2 分区 partition by(可选项)

  • 作用

    学过 hive 的应该都不陌生,分区的目的主要是降低扫描的范围,优化查询速度。

  • 默认

    如果不填分区,只会使用一个分区。

  • 分区目录

    MergeTree 是以列文件 + 索引文件 + 表定义文件组成的,但是如果设定了分区那么这些文件就会保存到不同的分区目录中。

  • 并行

    分区后,面对设计跨分区的查询统计,ClickHouse 会以分区为单位并行处理。

  • 数据写入与分区合并

    任何一个批次的数据写入都会产生一个临时分区,不会纳入任何一个已有的分区。写入后的某个时刻(大概 10-15 分钟后),ClickHouse 会自动执行合并操作(等不及也可以手动通过 optimize 执行),把临时分区的数据,合并到已有分区中。

    OPTIMIZE TABLE xxx final;
    
  • 示例

    在上述例子的基础上,再插入数据:

    INSERT INTO t_order_mt VALUES
    (101,'sku_001',1000.00,'2020-06-01 12:00:00') , 
    (102,'sku_002',2000.00,'2020-06-01 11:00:00'), 
    (102,'sku_004',2500.00,'2020-06-01 12:00:00'), 
    (102,'sku_002',2000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',12000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',600.00,'2020-06-02 12:00:00');
    

    查看数据,会发现它们并没有被纳入任何分区:

    SELECT *
    FROM t_order_mt
    
    Query id: dbec28cb-0ca0-4fd8-adc1-99ea4d8fe1ff
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    12 rows in set. Elapsed: 0.008 sec. 
    

    手动合并:

    OPTIMIZE TABLE t_order_mt FINAL;
    

    再次查询:

    SELECT *
    FROM t_order_mt
    
    Query id: 2386e7a2-f2c4-41b2-b96d-06dfb3d202cd
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    12 rows in set. Elapsed: 0.004 sec. 
    

补充:分区的存储

[root@localhost t_order_mt]# pwd
/var/lib/clickhouse/data/default/t_order_mt
[root@localhost t_order_mt]# ll
total 4
drwxr-x--- 2 clickhouse clickhouse 203 Mar  1 06:52 20200601_1_3_1
drwxr-x--- 2 clickhouse clickhouse 203 Mar  1 06:52 20200602_2_4_1
drwxr-x--- 2 clickhouse clickhouse   6 Mar  1 06:39 detached
-rw-r----- 1 clickhouse clickhouse   1 Mar  1 06:39 format_version.txt
[root@localhost t_order_mt]# cd 20200601_1_3_1/
[root@localhost 20200601_1_3_1]# ll
total 36
-rw-r----- 1 clickhouse clickhouse 260 Mar  1 06:52 checksums.txt
-rw-r----- 1 clickhouse clickhouse 118 Mar  1 06:52 columns.txt
-rw-r----- 1 clickhouse clickhouse   2 Mar  1 06:52 count.txt
-rw-r----- 1 clickhouse clickhouse 217 Mar  1 06:52 data.bin
-rw-r----- 1 clickhouse clickhouse 144 Mar  1 06:52 data.mrk3
-rw-r----- 1 clickhouse clickhouse  10 Mar  1 06:52 default_compression_codec.txt
-rw-r----- 1 clickhouse clickhouse   8 Mar  1 06:52 minmax_create_time.idx
-rw-r----- 1 clickhouse clickhouse   4 Mar  1 06:52 partition.dat
-rw-r----- 1 clickhouse clickhouse   8 Mar  1 06:52 primary.idx

分区的文件夹名称:PartitionId_MinBlockNum_MaxBlockNum_Level(分区值_最小分区块编号_最大分区块编号_合并层级)

  • PartitionId

    数据分区 ID,数据分区规则由分区 ID 决定,分区 ID 由 PARTITION BY 分区键决定。根据分区键字段类型,ID生成规则可分为:

    • 未定义分区键

      没有定义 PARTITION BY,默认生成一个目录名为 all 的数据分区,所有数据均存放在 all 目录下。

    • 整型分区键

      分区键为整型,那么直接用该整型值的字符串形式做为分区 ID。

    • 日期类分区键

      分区键为日期类型,或者可以转化成日期类型。

    • 其他类型分区键

      String、Float 类型等,通过 128 位的 Hash 算法取其 Hash 值作为分区 ID。

  • MinBlockNum

    最小分区块编号,自增类型,从 1 开始向上递增。每产生一个新的目录分区就向上递增一个数字。

  • MaxBlockNum

    最大分区块编号,新创建的分区 MinBlockNum 等于 MaxBlockNum 的编号。

  • Level

    合并的层级,被合并的次数。合并次数越多,层级值越大。

分区目录下的各个文件:

  • bin 文件:数据文件

  • mrk 文件:标记文件

    标记文件在 idx 索引文件和 bin 数据文件之间起到了桥梁作用。

    以 mrk2 结尾的文件,表示该表启用了自适应索引间隔。

  • primary.idx 文件:主键索引文件,用于加快查询效率。

  • minmax_create_time.idx:分区键的最大最小值。

  • checksums.txt:校验文件,用于校验各个文件的正确性。存放各个文件的 size 以及 hash 值。

# 4.3.3 主键 primary key(可选项)

ClickHouse 中的主键,只提供数据的一级索引,没有提供唯一约束。这意味着是可以存在相同的 primary key 的数据的。

主键的设定主要依据是查询语句中的 where 条件。

根据条件通过对主键进行某种形式的二分查找,能够定位到对应的 index granularity,避免了全表扫描。

  • index granularity:直接翻译的话就是索引粒度,指在稀疏索引中两个相邻索引对应数据的间隔。

    ClickHouse 中的 MergeTree 默认是 8192。官方不建议修改这个值,除非该列存在大量重复值,比如在一个分区中几万行才有一个不同数据。

ClickHouse 中的索引粒度采用的是:稀疏索引:

image-20220302161405388

稀疏索引的好处就是可以用很少的索引数据,定位更多的数据,代价就是只能定位到索引粒度的第一行,然后再进行进行扫描。

# 4.3.4 排序 order by(必选项)

order by 设定了分区内的数据按照哪些字段顺序进行有序保存。

order by 是 MergeTree 中唯一一个必填项,甚至比 primary key 还重要,因为当用户不设置主键的情况,很多处理会依照 order by 的字段进行处理(比如去重和汇总)。

注意

主键必须是 order by 字段的前缀字段。

比如 order by 字段是 (id,sku_id),那么主键必须是 id 或者 (id,sku_id)。

# 4.3.5 二级索引

二级索引就是对一级索引再次建索引。

CREATE TABLE t_order_mt2(
  id UInt32,
	sku_id String,
	total_amount Decimal(16,2), 
  create_time Datetime,
  INDEX a total_amount TYPE minmax GRANULARITY 5
 ) ENGINE=MergeTree
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY (id)
ORDER BY (id, sku_id);
  • INDEX a total_amount TYPE minmax GRANULARITY 5
    • INDEX:关键字
    • a:索引名称
    • total_amount:字段名
    • TYPE:关键字
    • minmax:二级索引类型
    • GRANULARITY:设定二级索引对于一级索引粒度的粒度
    • 5:每 5 个建一个索引

# 4.3.6 数据 TTL

TTL 即 Time To Live,MergeTree 提供了可以管理数据表或者列的生命周期的功能。

  • 列级

    CREATE TABLE t_order_mt3(
      id UInt32,
    	sku_id String,
    	total_amount Decimal(16,2) TTL create_time+interval 10 SECOND, 
      create_time Datetime
     ) ENGINE=MergeTree
     PARTITION BY toYYYYMMDD(create_time)
     PRIMARY KEY (id)
     ORDER BY (id, sku_id);
    
  • 表级

    ALTER TABLE t_order_mt3 MODIFY TTL create_time + INTERVAL 10 SECOND;
    

# 4.4 ReplacingMergeTree

ReplacingMergeTree 是 MergeTree 的一个变种,它存储特性完全继承 MergeTree,只是多了一个 去重 的功能。 尽管 MergeTree 可以设置主键,但是 primary key 其实没有唯一约束的功能。如果你想处理掉重复的数据,可以借助这个 ReplacingMergeTree。

# 4.4.1 去重时机

数据的去重只会在合并的过程中出现。合并会在未知的时间在后台进行,所以你无法预先作出计划。有一些数据可能仍未被处理。

# 4.4.2 去重范围

如果表经过了分区,去重只会在分区内部进行去重,不能执行跨分区的去重。所以 ReplacingMergeTree 能力有限, ReplacingMergeTree 适用于在后台清除重复的数据以节省空间,但是它不保证没有重复的数据出现。

# 4.4.3 案例演示

  1. 建表

    CREATE TABLE t_order_rmt
    (
        `id` UInt32,
        `sku_id` String,
        `total_amount` Decimal(16, 2),
        `create_time` Datetime
    )
    ENGINE = ReplacingMergeTree(create_time)
    PARTITION BY toYYYYMMDD(create_time)
    PRIMARY KEY  (id)
    ORDER BY (id, sku_id);
    

    ReplacingMergeTree() 填入的参数为版本字段,重复数据保留版本字段值最大的。 如果不填版本字段,默认按照插入顺序保留最后一条。

  2. 插入数据

    INSERT INTO t_order_rmt VALUES 
    (101,'sku_001',1000.00,'2020-06-01 12:00:00') , 
    (102,'sku_002',2000.00,'2020-06-01 11:00:00'), 
    (102,'sku_004',2500.00,'2020-06-01 12:00:00'), 
    (102,'sku_002',2000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',12000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',600.00,'2020-06-02 12:00:00');
    
  3. 执行第一次查询

    SELECT *
    FROM t_order_rmt
    
    Query id: e6dbee31-0efe-4f71-895a-37b0ffadc351
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    6 rows in set. Elapsed: 0.009 sec.
    
  4. 手动合并

    OPTIMIZE TABLE t_order_rmt FINAL;
    
  5. 再执行一次查询

    SELECT *
    FROM t_order_rmt
    
    Query id: 095b8af2-2db9-48b7-b4ed-84d2a0827d96
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    4 rows in set. Elapsed: 0.003 sec.
    
  6. 结论

    • 实际上是使用 order by 字段作为唯一键;
    • 去重不能跨分区;
    • 只有同一批插入(新版本)或合并分区时才会进行去重;
    • 认定重复的数据保留,版本字段值最大的;
    • 如果版本字段相同则按插入顺序保留最后一笔;

# 4.5 SummingMergeTree

对于不查询明细,只关心以维度进行汇总聚合结果的场景。如果只使用普通的 MergeTree 的话,无论是存储空间的开销,还是查询时临时聚合的开销都比较大。

ClickHouse 为了这种场景,提供了一种能够“预聚合”的引擎 SummingMergeTree。

  1. 创建表

    CREATE TABLE t_order_smt
    (
        `id` UInt32,
        `sku_id` String,
        `total_amount` Decimal(16, 2),
        `create_time` Datetime
    )
    ENGINE = SummingMergeTree(total_amount)
    PARTITION BY toYYYYMMDD(create_time)
    PRIMARY KEY (id)
    ORDER BY (id, sku_id)
    
  2. 插入数据

    INSERT INTO t_order_smt VALUES 
    (101,'sku_001',1000.00,'2020-06-01 12:00:00'), 
    (102,'sku_002',2000.00,'2020-06-01 11:00:00'), 
    (102,'sku_004',2500.00,'2020-06-01 12:00:00'), 
    (102,'sku_002',2000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',12000.00,'2020-06-01 13:00:00'), 
    (102,'sku_002',600.00,'2020-06-02 12:00:00');
    
  3. 执行第一次查询

    SELECT * FROM t_order_smt FINAL;
    

    输出:

    SELECT *
    FROM t_order_smt
    
    Query id: ea1c76ba-33ce-4f91-8aa2-08042f0d2fad
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 11:00:00 │
    │ 102 │ sku_002 │      2000.002020-06-01 13:00:00 │
    │ 102 │ sku_002 │     12000.002020-06-01 13:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    4 rows in set. Elapsed: 0.003 sec. 
    
  4. 手动合并

    OPTIMIZE TABLE t_order_smt FINAL;
    
  5. 再执行一次查询

    SELECT *
    FROM t_order_smt
    
    Query id: ea1c76ba-33ce-4f91-8aa2-08042f0d2fad
    
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 101 │ sku_001 │      1000.002020-06-01 12:00:00 │
    │ 102 │ sku_002 │     16000.002020-06-01 11:00:00 │
    │ 102 │ sku_004 │      2500.002020-06-01 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    ┌──id─┬─sku_id──┬─total_amount─┬─────────create_time─┐
    │ 102 │ sku_002 │       600.002020-06-02 12:00:00 │
    └─────┴─────────┴──────────────┴─────────────────────┘
    
    4 rows in set. Elapsed: 0.003 sec. 
    
  6. 结论

    • 以 SummingMergeTree() 中指定的列作为汇总数据列;
    • 可以填写多列,必须是数字列,如果不填,以所有非维度列且为数字列的字段为汇总数据列;
    • 以 order by 的列为准,作为维度列;
    • 其他的列按插入顺序保留第一行;
    • 不在一个分区的数据不会被聚合;
    • 只有在同一批次插入(新版本)或分片合并时才会进行聚合;
  7. 使用场景

    设计聚合表的话,唯一键值、流水号可以去掉,所有字段全部是维度、度量或者时间戳。

  8. 问题

    能不能直接执行以下 SQL 得到汇总值?

    SELECT total_amount FROM XXX WHERE province_name=’’ AND create_date=’xxx’
    

    不行,可能会包含一些还没来得及聚合的临时明细。

    如果要是获取汇总值,还是需要使用 sum 进行聚合,这样效率会有一定的提高,但本身 ClickHouse 是列式存储的,效率提升有限,不会特别明显。

    SELECT SUM(total_amount) FROM province_name=’’ AND create_date=‘xxx’
    
上次更新: 3/2/2022, 10:39:21 PM