关于数据库:超详细-Clickhouse-负载过高问题快速排查思路教程

54次阅读

共计 7946 个字符,预计需要花费 20 分钟才能阅读完成。

机器配置

Clickhouse 配置内存大小: 250G

Zookeeper 配置内存大小:24G

发现问题

企业相干开发人员通过 Grafana 监控 Clickhouse 指标察看到,从 12 点左右呈现了大量的碎片写入,从而引起了相干指标的疾速回升。查看云智慧的数字化运维数据平台 DODB(以下简称 DODB)概览页也未查看出异样呈现源头,而当查看服务器负载状况时,曾经回升至 900+。

开始排查

  1. 查看是否为执行 SQL 太多

当遇到此类问题时,广泛状况下均会猜想是 SQL 执行太多导致。因而,团队开发人员查看了 Clickhouse 的 Process 表,以此判断运行中的 SQL 是否过多。与此同时与算法部门的共事进行沟通,最终确认是通过 DODB 写入数据的。随后又查问了一下执行中的 SOL,发现两台机器上运行中的 SOL 不太平衡。

  1. 查问 Clickhouse 日志

当查看 Clickhouse 日志时,看到有很多 warn 的日志,但并没有呈现有价值的日志。

  1. 查问 Zookeeper 日志

当查看 Zookeeper 日志时,发现数据同步有比拟大的提早,超过了 1 -2s。

排查同步数据提早是因为须要判断是 load 值上来导致提早还是因为提早导致的 load 值上来。可能是一个大查问导致 load 值上来后,引起 Zookeeper 呈现问题,从而导致数据无奈同步呈现数据沉积的状况。因而,在此时查看了监控的读写状况,是因为 load 值上来后导致写入变慢。

  1. SQL 语句查问

在 Clickhouse 中,所有被执行 Query 均会记录到 system.query_log 表中。因而可通过该表监控集群的查问状况。以下列举几种用于监控的罕用 SQL。

最近查问

SELECT   
    event_time,   
    user,   
    query_id AS query,   
    read_rows,   
    read_bytes,   
    result_rows,   
    result_bytes,   
    memory_usage,   
    exception  
FROM clusterAllReplicas('cluster_name', system, query_log)  
WHERE (event_date = today()) AND (event_time >= (now() - 60)) AND (is_initial_query = 1) AND (query NOT LIKE 'INSERT INTO%')  
ORDER BY event_time DESC  
LIMIT 100

慢查问

SELECT   
    event_time,   
    user,   
    query_id AS query,   
    read_rows,   
    read_bytes,   
    result_rows,   
    result_bytes,   
    memory_usage,   
    exception  
FROM clusterAllReplicas('cluster_name', system, query_log)  
WHERE (event_date = yesterday()) AND query_duration_ms > 30000 AND (is_initial_query = 1) AND (query NOT LIKE 'INSERT INTO%')  
ORDER BY query_duration_ms desc  
LIMIT 100

Top10 大表

SELECT   
    database,   
    table,   
    sum(bytes_on_disk) AS bytes_on_disk  
FROM clusterAllReplicas('cluster_name', system, parts)  
WHERE active AND (database != 'system')  
GROUP BY   
    database,   
    table  
ORDER BY bytes_on_disk DESC  
LIMIT 10

Top10 查问用户

SELECT   
    user,   
    count(1) AS query_times,   
    sum(read_bytes) AS query_bytes,   
    sum(read_rows) AS query_rows  
FROM clusterAllReplicas('cluster_name', system, query_log)  
WHERE (event_date = yesterday()) AND (is_initial_query = 1) AND (query NOT LIKE 'INSERT INTO%')  
GROUP BY user  
ORDER BY query_times DESC  
LIMIT 10

应用慢查问的 SQL 查问

查问后果进去,查看所执行 SQL 具体情况,发现很多都是“异样容器”的。

下图为作战地图所查大屏表,且为 left JOIN 表。因为 life 的 JOIN 在网络及其他因素条件有要求,因而比方才查问更耗费资源。随后通过时间段查问判断出现异常工夫是否匹配,比照发现工夫上有些差别。

查问 SQL 查问次数,判断哪次查问 工夫 最长以及查问的均匀时长。

select left(query, 100) as sql, count() as queryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where event_time > toDateTime("2022-09-23 12:00:00") and event_time < toDateTime("2022-09-23 17:00:00") group by sql order by queryNum desc limit 10

通过该 SQL 查问,发现 5 个小时 SQL 查问了将近 4 万次,且同类型查问执行次数均较高,均匀执行工夫也比拟长。此外,也有许多 5 个小时执行两三千次的 SQL 查问,该类查问均匀每次耗时均在二三十秒。

查问不蕴含 insert into 语句的 5 个小时查问次数超过 1000 次的 SQL

select * from (select LEFT(query, 100) as sql, count() as quneryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where event_time > toDateTime('2022-09-23 12:00:00') and event_time < toDateTime('2022-09-23 17:00:00') and query not like '%INSERT INTO%' group by sql order by avgTime desc) where queryNum > 1000 limit 50

因为上述 SQL 均做了截取,故需依据所查问 SQL 进一步匹配 SQL。

select query from system.query_log where event_time > toDateTime('2022-09-23 12:00:00') and event_time < toDateTime('2022-09-23 17:00:00') and query like '% 须要匹配的 sql 查问 %' limit 5;

应用第三条 SQL 用 queryNum 排序,查问出执行次数多且均匀耗时比拟大的 SQL,随后定位 SQL。以第二条记录为例:5 个小时查问了 38000+ 次,耗时 12s,每分钟查 120+ 次。

应用第三条 SQL ,将 工夫 范畴改到上午 8 点到上午 12 查问。 查问后果比照发现,执行耗时在上午时均很短,但到中午 12 点当前就变的十分慢了。

因为之前查问发现有局部 left JOIN 的查问,故查问了“异样容器”的 left JOIN 的查问,,随后将读取条数为 0 的排除掉。

select * from (select LEFT(query, 100) as sql, count() as quneryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where sql like '% 异样容器 %' and read_rows != 0 and event_time > toDateTime('2022-09-23 12:00:00') and event_time < toDateTime('2022-09-23 17:00:00') and query not like '%INSERT INTO%' group by sql order by queryNum desc)

依据小时 聚合 每个小时 / 分钟段查问次数耗时

-- 依照每小时聚合
select toHour(event_time) as t, count() as queryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where event_time > toDateTime('2022-09-23 08:00:00') and event_time < toDateTime('2022-09-23 17:00:00') and query not like '%INSERT INTO%' and query like '% 异样容器 %' and read_rows != 0 group by t limit 50
-- 依照每分钟聚合
select toMinute(event_time) as t, count() as queryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where event_time > toDateTime('2022-09-23 12:00:00') and event_time < toDateTime('2022-09-23 13:00:00') and query not like '%INSERT INTO%' and query like '% 异样容器 %' and read_rows != 0 group by t limit 50

查问后果如下:10 点开始有,12 点查问响应工夫翻了 10 倍。

从 32s 开始,响应工夫变为 24s 多,前面的工夫也逐步变长。

查问 left JOIN 的查问个数。

select * from (select LEFT(query, 100) as sql, count() as quneryNum, sum(query_duration_ms) as totalTime, totalTime/queryNum as avgTime from system.query_log ql where query like '% JOIN%' and read_rows != 0 and event_time > toDateTime('2022-09-23 12:00:00') and event_time < toDateTime('2022-09-23 21:00:00') and query not like '%INSERT INTO%' group by sql order by queryNum desc)

发现有问题的表时,查问该表构造。

show create table "shard_2"."cw_db_zabbix_metric_data01_replica"

经查问发现该表创立的比拟差,order by 仅有一个 UUID。且该表 JOIN 的 SQL 也比拟多,每次查问的读取的条数也特地大。

停掉 SQL ,察看后果

通过观察,发现有不少相似的 JOIN 的 SQL。当停掉一个异样容器指标的 SQL 时会发现 load 值有些许变动,偶然会降到 700 多。因为指标治理都是通过 gatewayAPI 调用,停掉 SQL 最快的办法便是间接将 gatewayAPI 停掉,这样只会影响指标 SQL 调,不会影响其余性能应用。将 gatewayAPI 停掉后就不会呈现指标调用 SQL 也全副停掉,此时发现 load 值已升高

总结

遇到此类问题可先查看日志,首先在(Clickhouse 日志 Zookeeper 日志)日志中看是否找到有用的信息,例如间接报错信息等,如果在日志中找不到太多有用的信息的话,能够从上面动手。

个别遇到 load 值比拟高的状况时,基本上都是产生在查问下面。当遇到这种问题时可先查问带有 JOIN 的 SQL 语句是不是很多。随后通过 query_log 表中的一些字段去查问重要信息,通过对字段应用一些函数来获取有用的信息,如获取查问的 SQL,SQL 执行次数、执行工夫等。

本次排查过程次要应用 query_log 表,上面为重要字段:

event_time — 查问开始工夫.

query_duration_ms — 查问耗费的工夫(毫秒).

read_rows— 从参加了查问的所有表和表函数读取的总行数.

query — 查问语句.


Clickhouse query_log 表中所有字段

  • type (Enum8) — 执行查问时的事件类型. 值:

    • 'QueryStart' = 1 — 查问胜利启动.
    • 'QueryFinish' = 2 — 查问胜利实现.
    • 'ExceptionBeforeStart' = 3 — 查问执行前有异样.
    • 'ExceptionWhileProcessing' = 4 — 查问执行期间有异样.
  • event_date (Date) — 查问开始日期.
  • event_time (DateTime) — 查问开始工夫.
  • event_time_microseconds (DateTime64) — 查问开始工夫(毫秒精度).
  • query_start_time (DateTime) — 查问执行的开始工夫.
  • query_start_time_microseconds (DateTime64) — 查问执行的开始工夫(毫秒精度).
  • query_duration_ms (UInt64) — 查问耗费的工夫(毫秒).
  • read_rows (UInt64) — 从参加了查问的所有表和表函数读取的总行数. 包含:一般的子查问, INJOIN的子查问. 对于分布式查问 read_rows 包含在所有正本上读取的行总数。每个正本发送它的 read_rows 值,并且查问的服务器 - 发起方汇总所有接管到的和本地的值。缓存卷不会影响此值。
  • read_bytes (UInt64) — 从参加了查问的所有表和表函数读取的总字节数. 包含:一般的子查问, INJOIN的子查问. 对于分布式查问 read_bytes 包含在所有正本上读取的字节总数。每个正本发送它的 read_bytes 值,并且查问的服务器 - 发起方汇总所有接管到的和本地的值。缓存卷不会影响此值。
  • written_rows (UInt64) — 对于 INSERT 查问,为写入的行数。对于其余查问,值为 0。
  • written_bytes (UInt64) — 对于 INSERT 查问时,为写入的字节数。对于其余查问,值为 0。
  • result_rows (UInt64) — SELECT 查问后果的行数,或INSERT 的行数。
  • result_bytes (UInt64) — 存储查问后果的 RAM 量.
  • memory_usage (UInt64) — 查问应用的内存.
  • query (String) — 查问语句.
  • exception (String) — 异样信息.
  • exception_code (Int32) — 异样码.
  • stack_trace (String) — Stack Trace. 如果查问胜利实现,则为空字符串。
  • is_initial_query (UInt8) — 查问类型. 可能的值:

    • 1 — 客户端发动的查问.
    • 0 — 由另一个查问发动的,作为分布式查问的一部分.
  • user (String) — 发动查问的用户.
  • query_id (String) — 查问 ID.
  • address (IPv6) — 发动查问的客户端 IP 地址.
  • port (UInt16) — 发动查问的客户端端口.
  • initial_user (String) — 初始查问的用户名(用于分布式查问执行).
  • initial_query_id (String) — 运行初始查问的 ID(用于分布式查问执行).
  • initial_address (IPv6) — 运行父查问的 IP 地址.
  • initial_port (UInt16) — 发动父查问的客户端端口.
  • interface (UInt8) — 发动查问的接口. 可能的值:

    • 1 — TCP.
    • 2 — HTTP.
  • os_user (String) — 运行 clickhouse-client 的操作系统用户名.
  • client_hostname (String) — 运行 clickhouse-client 或其余 TCP 客户端的机器的主机名。
  • client_name (String) — clickhouse-client 或其余 TCP 客户端的名称。
  • client_revision (UInt32) — clickhouse-client 或其余 TCP 客户端的 Revision。
  • client_version_major (UInt32) — clickhouse-client 或其余 TCP 客户端的 Major version。
  • client_version_minor (UInt32) — clickhouse-client 或其余 TCP 客户端的 Minor version。
  • client_version_patch (UInt32) — clickhouse-client 或其余 TCP 客户端的 Patch component。
  • http_method (UInt8) — 发动查问的 HTTP 办法. 可能值:

    • 0 — TCP 接口的查问.
    • 1 — GET
    • 2 — POST
  • http_user_agent (String) — The UserAgent The UserAgent header passed in the HTTP request。
  • quota_key (String) — 在 quotas 配置里设置的“quota key”(见 keyed).
  • revision (UInt32) — ClickHouse revision.
  • ProfileEvents (Map(String, UInt64))) — Counters that measure different metrics. The description of them could be found in the table 零碎。流动
  • Settings (Map(String, String)) — Names of settings that were changed when the client ran the query. To enable logging changes to settings, set the log_query_settings 参数为 1。
  • thread_ids (Array(UInt64)) — 参加查问的线程数.
  • Settings.Names (Array(String)) — 客户端运行查问时更改的设置的名称。要启用对设置的日志记录更改,请将 log_query_settings 参数设置为 1。
  • Settings.Values (Array(String)) — Settings.Names 列中列出的设置的值

开源我的项目举荐

云智慧已开源数据可视化编排平台 FlyFish。通过配置数据模型为用户提供上百种可视化图形组件,零编码即可实现合乎本人业务需要的炫酷可视化大屏。同时,飞鱼也提供了灵便的拓展能力,反对组件开发、自定义函数与全局事件等配置,面向简单需要场景可能保障高效开发与交付。

如果喜爱咱们的我的项目,请不要遗记点击下方代码仓库地址,在 GitHub / Gitee 仓库上点个 Star,咱们须要您的激励与反对。此外,即刻参加 FlyFish 我的项目奉献成为 FlyFish Contributor 的同时更有万元现金等你来拿。

GitHub 地址: https://github.com/CloudWise-…

Gitee 地址: https://gitee.com/CloudWise/f…

微信扫描辨认下方二维码,备注【飞鱼】退出 AIOps 社区飞鱼开发者交换群,与 FlyFish 我的项目 PMC 面对面交换~

正文完
 0