关于数据库:ClickHouse分布式集群搭建指南

6次阅读

共计 6742 个字符,预计需要花费 17 分钟才能阅读完成。

本文首发于: 行者 AI

浏览此文,你会理解 ClickHouse 的相干常识及 ClickHouse 分布式集群部署计划的搭建指南,如果你对 ClickHouse 感兴趣或是对数据分析有本人的想法,欢送关注咱们哦~

1. ClickHouse 是什么 ?

ClickHouse 是 Yandex(俄罗斯最大的搜索引擎)开源的一个用于实时数据分析的基于列存储的数据库,其解决数据的速度比传统办法快 100-1000 倍。ClickHouse 的性能超过了目前市场上可比的面向列的 DBMS,每秒钟每台服务器每秒解决数亿至十亿多行和数十千兆字节的数据。

ClickHouse 的一些个性

  • 疾速:ClickHouse 会充分利用所有可用的硬件,以尽可能快地解决每个查问。单个查问的峰值解决性能超过每秒 2 TB(解压缩后,仅应用的列)。在分布式设置中,读取是在衰弱正本之间主动均衡的,以防止减少提早。
  • 容错:ClickHouse 反对多主机异步复制,并且能够跨多个数据中心进行部署。所有节点都相等,这能够避免出现单点故障。单个节点或整个数据中心的停机工夫不会影响零碎的读写可用性。
  • 可伸缩:ClickHouse 能够在垂直和程度方向上很好地缩放。ClickHouse 易于调整以在具备数百或数千个节点的群集上或在单个服务器上,甚至在小型虚拟机上执行。以后,每个单节点装置的数据量超过数万亿行或数百兆兆字节。
  • 易用:ClickHouse 简略易用,开箱即用。它简化了所有数据处理:将所有结构化数据排汇到零碎中,并且立刻可用于构建报告。SQL 容许表白冀望的后果,而无需波及某些 DBMS 中能够找到的任何自定义非标准 API。
  • 充分利用硬件:ClickHouse 与具备雷同的可用 I/O 吞吐量和 CPU 容量的传统的面向行的零碎相比,其解决典型的剖析查问要快两到三个数量级。列式存储格局容许在 RAM 中包容更多热数据,从而缩短了响应工夫。
  • 进步 CPU 效率:向量化查问执行波及相干的 SIMD 处理器指令和运行时代码生成。解决列中的数据会进步 CPU 行缓存的命中率。
  • 优化磁盘拜访:ClickHouse 能够最大水平地缩小范畴查问的次数,从而进步了应用旋转磁盘驱动器的效率,因为它能够放弃间断存储数据。最小化数据传输:ClickHouse 使公司无需应用专门针对高性能计算的专用网络即可治理其数据

2. 集群搭建

2.1 机器筹备

环境:centos 6 or centos 7 三台机器(ZooKeeper 也须要高可用)

主机 ip 装置 soft 备注
bgdata.operate.ck-0001 172.20.1.39 ClickHouse-server ClickHouse-client jdk1.8 ZooKeeper
bgdata.operate.ck-0002 172.20.1.246 ClickHouse-server ClickHouse-client jdk1.8 ZooKeeper
bgdata.operate.ck-0003 172.20.1.173 jdk1.8 ZooKeeper 因为机器资源无限,只做 ZooKeeper 高可用机器,理论中能够作为一个 ck 节点

设置 hosts 文件解析(这里是大坑,ck 同步表数据的时候会去 ZooKeeper 外面查问,ZooKeeper 外面存储的是 hosts 域名,不是 IP,不解析会导致能够同步表然而无奈同步表数据), 三台操作
vi /etc/hosts

172.20.1.246    bgdata.operate.ck-0002
172.20.1.39     bgdata.operate.ck-0001
172.20.1.173    bgdata.operate.ck-0003

2.2 搭建 ZooKeeper 集群,三台操作

yum install -y java-1.8.0-openjdk-devel
mkdir /data
cd /data
wget https://downloads.apache.org/zookeeper/zookeeper-3.6.2/apache-zookeeper-3.6.2.tar.gz && tar -xf apache-zookeeper-3.6.2.tar.gz 
ln -s apache-zookeeper-3.6.2 zookeeper
cd zookeeper
# 新建配置文件
cp conf/zoo_sample.cfg conf/zoo.cfg
# 创立 ZooKeeper 数据目录
mkdir data

批改配置文件 conf/zoo.cfg,三台一样

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/zookeeper/data
clientPort=2181
server.1=172.20.1.39:2888:3888
server.2=172.20.1.246:2888:3888
server.3=172.20.1.173:2888:3888

创立 myid 在 ZooKeeper 数据目录, 三台不一样,对应下面 server.1 这个数字

echo 1 > /data/zookeeper/data/myid  # 其余机器别离是 2 3

启动并查看

./bin/zkServer.sh start
./bin/zkServer.sh status

2.3 搭建 ClickHouse 一分片一副本的集群

bgdata.operate.ck-0001 bgdata.operate.ck-0002 机器执行

装置 clickhose

yum install yum-utils
rpm --import https://repo.yandex.ru/ClickHouse/ClickHouse-KEY.GPG
yum-config-manager --add-repo https://repo.yandex.ru/ClickHouse/rpm/stable/x86_64
yum install ClickHouse-server ClickHouse-client
mkdir /data/ClickHouse
chown -R ClickHouse.ClickHouse /data/ClickHouse/  #批改权限 

配置,批改 vim /etc/ClickHouse-server/config.xml

批改 listen_host

<!-- Listen specified host. use :: (wildcard IPv6 address), if you want to accept connections both with IPv4 and IPv6 from everywhere. -->
    <!-- <listen_host>::</listen_host> -->
    <!-- Same for hosts with disabled ipv6: -->
    <!-- <listen_host>0.0.0.0</listen_host> -->

    <!-- Default values - try listen localhost on ipv4 and ipv6: -->
    <!--
    <listen_host>::1</listen_host>
    <listen_host>127.0.0.1</listen_host>
    -->
    <listen_host>0.0.0.0</listen_host> <!-- 新增所有地址能够拜访 -->
    <!-- Don't exit if ipv6 or ipv4 unavailable, but listen_host with this protocol specified -->
    <!-- <listen_try>0</listen_try> -->

    <!-- Allow listen on same address:port -->
    <!-- <listen_reuse_port>0</listen_reuse_port> -->

    <!-- <listen_backlog>64</listen_backlog> -->

批改存储门路

<!-- Path to data directory, with trailing slash. -->
    <path>/data/ClickHouse/</path>  <!-- 批改存储门路 -->

    <!-- Path to temporary data for processing hard queries. -->
    <tmp_path>/data/ClickHouse/tmp/</tmp_path>  

增加集群配置

<remote_servers>
    <bigdata> <!-- 集群名字,自定义 -->
        <shard> <!-- 定义一个分片 -->
            <!-- Optional. Shard weight when writing data. Default: 1. -->
            <weight>1</weight>
            <!-- Optional. Whether to write data to just one of the replicas. Default: false (write data to all replicas). -->
            <internal_replication>false</internal_replication>
            <replica> <!-- 这个分片的正本存在在哪些机器上 -->
                <host>172.20.1.39</host>
                <port>9000</port>
            </replica>
            <replica>
                <host>172.20.1.246</host>
                <port>9000</port>
            </replica>
        </shard>
      <!--  
        <shard>
            <weight>2</weight>
            <internal_replication>true</internal_replication>
            <replica>
                <host>172.20.1.39</host>
                <port>9000</port>
            </replica>
            <replica>
                <host>172.20.1.246</host>
                <port>9000</port>
            </replica>
        </shard>
        -->
    </bigdata>
</remote_servers>  

增加 zookeeper 配置

<!-- ZooKeeper is used to store metadata about replicas, when using Replicated tables.
Optional. If you don't use replicated tables, you could omit that.
 
See https://clickhouse.yandex/docs/en/table_engines/replication/
-->
 
<zookeeper incl="zookeeper-servers" optional="true" />
<zookeeper>
    <node index="1">
        <host>172.20.1.39</host>
        <port>2181</port>
    </node>
    <node index="2">
        <host>172.20.1.246</host>
        <port>2181</port>
    </node>
    <node index="3">
        <host>172.20.1.173</host>
        <port>2182</port>
    </node>
</zookeeper>   

配置分片 macros 变量

 <macros incl="macros" optional="true" />
    <!-- 配置分片 macros 变量,在用 client 创立表的时候回主动带入 -->
    <macros>
      <shard>1</shard>
      <replica>172.20.1.39</replica> <!-- 这里指定以后集群节点的名字或者 IP -->
    </macros>

启动

systemctl start ClickHouse-server.service
systemctl enable ClickHouse-server.service

检测

[root@bgdata zookeeper]# ClickHouse-client -h 172.20.1.246 -m
ClickHouse client version 20.3.2.1 (official build).
Connecting to 172.20.1.246:9000 as user default.
Connected to ClickHouse server version 20.3.2 revision 54433.
bgdata.operate.ck-0002 :) select * from system.clusters ;

SELECT *
FROM system.clusters

┌─cluster─┬─shard_num─┬─shard_weight─┬─replica_num─┬─host_name────┬─host_address─┬─port─┬─is_local─┬─user────┬─default_database─┬─errors_count─┬─estimated_recovery_time─┐
│ bigdata │         1 │            1 │           1 │ 172.20.1.39  │ 172.20.1.39  │ 9000 │        0 │ default │                  │            0 │                       0 │
│ bigdata │         1 │            1 │           2 │ 172.20.1.246 │ 172.20.1.246 │ 9000 │        1 │ default │                  │            0 │                       0 │
└─────────┴───────────┴──────────────┴─────────────┴──────────────┴──────────────┴──────┴──────────┴─────────┴──────────────────┴──────────────┴─────────────────────────┘

2 rows in set. Elapsed: 0.001 sec.

测试

两台都别离创立数据库 create database test1;

一台建表建设数据

CREATE TABLE t1 ON CLUSTER bigdata
(
    `ts` DateTime,
    `uid` String,
    `biz` String
)
ENGINE = ReplicatedMergeTree('/ClickHouse/test1/tables/{shard}/t1', '{replica}')
PARTITION BY toYYYYMMDD(ts)
ORDER BY ts
SETTINGS index_granularity = 8192
###### 阐明 {shard} 主动获取对应配置文件的 macros 分片设置变量 replica 一样  ENGINE = ReplicatedMergeTree,不能为之前的 MergeTree
######'/ClickHouse/test1/tables/{shard}/t1' 是写入 zk 外面的地址,惟一,留神命名标准

INSERT INTO t1 VALUES ('2019-06-07 20:01:01', 'a', 'show');
INSERT INTO t1 VALUES ('2019-06-07 20:01:02', 'b', 'show');
INSERT INTO t1 VALUES ('2019-06-07 20:01:03', 'a', 'click');
INSERT INTO t1 VALUES ('2019-06-08 20:01:04', 'c', 'show');
INSERT INTO t1 VALUES ('2019-06-08 20:01:05', 'c', 'click');

第二台机器查看数据,如果数据查问到了,并且统一,则胜利,否则需从新查看配置

3. 总结

  • 正本集是针对的表,不是库也不上整个 ck,所以能够一些表用 ReplicatedMergeTree 也能够间接不复制,所以数据库都须要创立
  • 和 ES 分片和正本机器散布有区别,CK 的每台机器只能一个分片的正本,所以如果要搭建 2 分片 2 正本须要 2 * 2 的机器,不然报错
  • 测试读写数据的时候发现,新建的表会同步,然而数据没有同步,通过查 CK log 以及 zk 外面对应 host 发现 zk 存储的是主机名,不是 ip,所以就无奈找到主机写入,须要改 hosts 文件
  • 测试 python ClickHouse_driver 连贯集群,发现须要高版本的 ClickHouse_driver,不然没有 alt_hosts 参数
  • 增删数据库每台须要手动执行,增删表须要加上 ON CLUSTER bigdata,增删数据是实时异步

python 连贯 ck 集群范例

from ClickHouse_driver import Client
client = Client("172.20.1.39",database="test1",alt_hosts="172.20.1.246") # 这里 alt_hosts 代表其余正本机器以, 宰割,shit 源码看到的
print(client.execute("show tables"))
正文完
 0