共计 11652 个字符,预计需要花费 30 分钟才能阅读完成。
本文首发于 Nebula Graph Community 公众号
本次实际是基于业务需要及后续扩大,通过技术选型确定了 Nebula Graph 图数据库,首先须要验证 Nebula Graph 数据库在理论业务场景下批量导入性能并验证。通过 Spark On Yarn 分布式工作执行导入工作,CSV 文件放在 HDFS 上,分享下集体 Nebula Spark Connector 最佳实际。。
一、Nebula Spark Connector 概念、实用场景、劣势
这里不做赘述,仅截图展现,更多详情可参考:https://docs.nebula-graph.com.cn/nebula-spark-connector/。
二、环境信息
- 硬件环境
名称 | 值 | 举荐 |
---|---|---|
本地磁盘 SSD | 2 T | 至多 2 T |
CPU | 16 C * 4 | 128 C |
内存 | 128 GB | 128 G |
- 软件环境
名称 | 版本号 |
---|---|
Nebula Graph | 3.0.0 |
Nebula Spark Connector | 3.0.0 |
Hadoop | 2.7.2U17-10 |
Spark | 2.4.5U5 |
- 数据量级
名称 | 值 |
---|---|
数据量 | 200 G |
实体 Vertext | 9.3 亿 |
关系 Edge | 9.7 亿 |
三、部署计划
- 部署形式:分布式,3 个节点
- 参考官网即可:https://docs.nebula-graph.com.cn/3.0.1/4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster/
大体也就三部曲:
- 下载内核 RPM 包并装置;
- 批量批改配置文件;
- 启动集群服务。
以下操作应用的 root,非 root 就加个 sudo 执行即可。
下载 Nebula Graph RPM 包并装置
执行上面命令:
wget https://os-cdn.nebula-graph.com.cn/package/3.0.0/nebula-graph-3.0.0.el7.x86_64.rpm
wget https://oss-cdn.nebula-graph.com.cn/package/3.0.0/nebula-graph-3.0.0.el7.x86_64.rpm.sha256sum.txt
rpm -ivh nebula-graph-3.0.0.el7.x86_64.rpm
注:默认装置门路:/usr/local/nebula/
,务必保障所在磁盘空间短缺。
批量批改配置文件
sed -i 's?--meta_server_addrs=127.0.0.1:9559?--meta_server_addrs=172.16.8.15:9559,172.16.8.176:9559,172.16.10.149:9559?g' *.conf
sed -i 's?--local_ip=127.0.0.1?--local_ip=172.16.10.149?g' *.conf
sed -i 's?--meta_server_addrs=127.0.0.1:9559?--meta_server_addrs=172.16.8.15:9559,172.16.8.176:9559,172.16.10.149:9559?g' *.conf
sed -i 's?--local_ip=127.0.0.1?--local_ip=172.16.8.15?g' *.conf
sed -i 's?--meta_server_addrs=127.0.0.1:9559?--meta_server_addrs=172.16.8.15:9559,172.16.8.176:9559,172.16.10.149:9559?g' *.conf
sed -i 's?--local_ip=127.0.0.1?--local_ip=172.16.8.176?g' *.conf
注:ip 地址是内网地址,用来集群间通信。
启动之后,减少 Storage 服务:
ADD HOSTS 172.x.x.15:9779,172.1x.x.176:9779,172.x.1x.149:9779;
注:减少 Storage 服务为 v3.x 版本以上所需操作,如果你应用的是 v2.x 可疏忽本步骤。
启动集群服务
/usr/local/nebula/scripts/nebula.service start all
上述命令启动服务,执行上面命令查看服务是否启动胜利:
ps aux|grep nebula
后果如下 3 个服务过程:
/usr/local/nebula/bin/nebula-metad --flagfile /usr/local/nebula/etc/nebula-metad.conf
/usr/local/nebula/bin/nebula-graphd --flagfile /usr/local/nebula/etc/nebula-graphd.conf
/usr/local/nebula/bin/nebula-storaged --flagfile /usr/local/nebula/etc/nebula-storaged.conf
注:如果少于 3 个,就多执行几次 /usr/local/nebula/scripts/nebula.service start all
,再不行就 restart
。
三、可视化服务
我抉择的是 Nebula Graph Studio,拜访:http://n01v:7001 即可应用 Studio(注:这里是我本人的网络环境,读者不可拜访)
- 登录:
10.x.x.1(任意节点):9669
- 用户名 / 明码:root/nebula
这里能够浏览下官网文档的罕用 nGQL 命令:https://docs.nebula-graph.com.cn/3.0.1/2.quick-start/4.nebula-graph-crud
开始应用 Nebula Graph
注册 Nebula 集群:
ADD HOSTS 172.x.x.121:9779, 172.16.11.218:9779,172.16.12.12:9779;
列出所有节点,查看 STATUS 列是否为 ONLINE,可通过 SHOW HOSTS;
或 SHOW HOSTS META;
。
创立 Space,等价于传统数据库 database:
CREATE SPACE mylove (partition_num = 15, replica_factor = 3, vid_type = FIXED_STRING(256));// 分区数举荐为节点数的 5 倍关系,正本数为基数,个别设置为 3,vid 如果为 string 类型,长度尽量够用就行,否则占用磁盘空间太多。
创立 Tag,等价于实体 Vertex:
CREATE TAG entity (name string NULL, version string NULL);
创立 Edge,等价于关系 Edge:
CREATE EDGE relation (name string NULL);
查问时,务必增加 LIMIT
,否则容易查死库:
match (v) return v limit 100;
四、(本文重点)应用 Spark Connector 读取 CSV 及入库
这里能够参考 2 份材料:
- 官网的 NebulaSparkWriterExample(scala-json 格局):https://github.com/vesoft-inc/nebula-spark-utils/blob/master/example/src/main/scala/com/vesoft/nebula/examples/connector/NebulaSparkWriterExample.scala
- 大神提供的 NebulaSparkWriterExample(java-json 格局):https://www.jianshu.com/p/930e0343a28c
附上 NebulaSparkWriterExample 的示例代码:
import com.facebook.thrift.protocol.TCompactProtocol
import com.vesoft.nebula.connector.{
NebulaConnectionConfig,
WriteMode,
WriteNebulaEdgeConfig,
WriteNebulaVertexConfig
}
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.slf4j.LoggerFactory
object NebulaSparkWriter {private val LOG = LoggerFactory.getLogger(this.getClass)
var ip = ""
def main(args: Array[String]): Unit = {val part = args(0)
ip = args(1)
val sparkConf = new SparkConf
sparkConf
.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
.registerKryoClasses(Array[Class[_]](classOf[TCompactProtocol]))
val spark = SparkSession
.builder()
.master("local")
.config(sparkConf)
.getOrCreate()
spark.sparkContext.setLogLevel("WARN")
if("1".equalsIgnoreCase(part)) writeVertex(spark)
if("2".equalsIgnoreCase(part)) writeEdge(spark)
spark.close()}
def getNebulaConnectionConfig(): NebulaConnectionConfig = {
val config =
NebulaConnectionConfig
.builder()
.withMetaAddress(ip + ":9559")
.withGraphAddress(ip + ":9669")
.withTimeout(Integer.MAX_VALUE)
.withConenctionRetry(5)
.build()
config
}
def writeVertex(spark: SparkSession): Unit = {LOG.info("start to write nebula vertices: 1 entity")
val df = spark.read.option("sep", "\t").csv("/home/2022/project/origin_file/csv/tag/entity/").toDF("id", "name", "version")
val config = getNebulaConnectionConfig()
val nebulaWriteVertexConfig: WriteNebulaVertexConfig = WriteNebulaVertexConfig
.builder()
.withSpace("mywtt")
.withTag("entity")
.withVidField("id")
.withVidAsProp(false)
.withUser("root")
.withPasswd("nebula")
.withBatch(1800)
.build()
df.coalesce(1400).write.nebula(config, nebulaWriteVertexConfig).writeVertices()}
def writeEdge(spark: SparkSession): Unit = {LOG.info("start to write nebula edges: 2 entityRel")
val df = spark.read.option("sep", "\t").csv("/home/2022/project/origin_file/csv/out/rel/relation/").toDF("src", "dst", "name")
val config = getNebulaConnectionConfig()
val nebulaWriteEdgeConfig: WriteNebulaEdgeConfig = WriteNebulaEdgeConfig
.builder()
.withSpace("mywtt")
.withEdge("relation")
.withSrcIdField("src")
.withDstIdField("dst")
.withSrcAsProperty(false)
.withDstAsProperty(false)
.withUser("root")
.withPasswd("nebula")
.withBatch(1800)
.build()
df.coalesce(1400).write.nebula(config, nebulaWriteEdgeConfig).writeEdges()}
}
重点详解 NebulaSparkWriterExample 示例代码
这里解说一些函数项:
spark.sparkContext.setLogLevel("WARN")
:设置日志打印级别,避免 INFO 烦扰;withTimeout(Integer.MAX_VALUE)
:连贯超时工夫尽量大一些,默认为 1 分钟,超时次数大于重试次数后,Spark 工作就失败了;option("sep", "\t")
:指定 CSV 文件的分隔符,否则就默认为 1 列了;toDF("src", "dst", "name")
:数据集指定 Schema,即Dataset<Row>
转DataFrame
,否则就不能指定VidField
了;withVidField("id")
:因为该函数只反对设置列名称,所以必须定义 Schema;withVidAsProp(false)
:默认 ID 为 VID 字段,数据就不必反复存储为属性了,占用磁盘空间;withSrcIdField("src")
:设置起始节点的IdField
;withDstIdField("dst")
:设置终止节点的IdField
;withSrcAsProperty(false)
:节俭空间withDstAsProperty(false)
:节俭空间withBatch(1000)
:批量大小,WriteMode.UPDATE
默认 <=512,WriteMode.INSERT
能够设置大一些(千兆网卡 / 带宽 5Gbps / 本地 SSD = 1500)coalesce(1500)
:可依据工作并发数调节。单个 partition 数据量过大,容易导致 executor OOM;
五、提交工作到 Spark 集群
nohup spark-submit --master yarn --deploy-mode client --class com.xxx.nebula.connector.NebulaSparkWriter --conf spark.dynamicAllocation.enabled=false --conf spark.executor.memoryOverhead=10g --conf spark.blacklist.enabled=false --conf spark.default.parallelism=1000 --driver-memory 10G --executor-memory 12G --executor-cores 4 --num-executors 180 ./example-3.0-SNAPSHOT.jar > run-csv-nebula.log 2>&1 &
辅助监控 iotop 命令
Total DISK READ : 26.61 K/s | Total DISK WRITE : 383.77 M/s
Actual DISK READ: 26.61 K/s | Actual DISK WRITE: 431.75 M/s
辅助监控 top 命令
top - 16:03:01 up 8 days, 28 min, 1 user, load average: 6.16, 6.53, 4.58
Tasks: 205 total, 1 running, 204 sleeping, 0 stopped, 0 zombie
%Cpu(s): 28.3 us, 14.2 sy, 0.0 ni, 56.0 id, 0.6 wa, 0.0 hi, 0.4 si, 0.5 st
KiB Mem : 13186284+total, 1135004 free, 31321240 used, 99406592 buff/cache
KiB Swap: 0 total, 0 free, 0 used. 99641296 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
27979 root 20 0 39.071g 0.026t 9936 S 564.6 20.8 83:22.03 nebula-storaged
27920 root 20 0 2187476 804036 7672 S 128.2 0.6 17:13.75 nebula-graphd
27875 root 20 0 6484644 1.990g 8588 S 58.5 1.6 14:14.22 nebula-metad
其余资源监控
服务优化
nebula-storaged.conf 配置优化
这里我批改了 nebula-storaged.conf
配置项:
# 一个批处理操作的默认保留字节
--rocksdb_batch_size=4096
# BlockBasedTable 中应用的默认块缓存大小
# 单位为 MB. 服务器内存 128G,个别设置为三分之一
--rocksdb_block_cache=44024
############## rocksdb Options ##############
--rocksdb_disable_wal=true
# rocksdb DBOptions 在 json 中,每个 option 的名称和值都是一个字符串,如:“option_name”:“option_value”,逗号分隔
--rocksdb_db_options={"max_subcompactions":"3","max_background_jobs":"3"}
# rocksdb ColumnFamilyOptions 在 json 中,每个 option 的名称和值都是字符串,如:“option_name”:“option_value”,逗号分隔
--rocksdb_column_family_options={"disable_auto_compactions":"false","write_buffer_size":"67108864","max_write_buffer_number":"4","max_bytes_for_level_base":"268435456"}
# rocksdb BlockBasedTableOptions 在 json 中,每个选项的名称和值都是字符串,如:“option_name”:“option_value”,逗号分隔
--rocksdb_block_based_table_options={"block_size":"8192"}
# 每个申请最大的处理器数量
--max_handlers_per_req=10
# 集群间心跳间隔时间
--heartbeat_interval_secs=10
--raft_rpc_timeout_ms=5000
--raft_heartbeat_interval_secs=10
--wal_ttl=14400
# 批量大小最大值
--max_batch_size=1800
# 参数配置减小内存利用
--enable_partitioned_index_filter=true
# 数据在最底层存储层间接做了过滤,生产环境避免遇到查到超级节点的困扰
--max_edge_returned_per_vertex=10000
Linux 系统优化
ulimit -c unlimited
ulimit -n 130000
sysctl -w net.ipv4.tcp_slow_start_after_idle=0
sysctl -w net.core.somaxconn=2048
sysctl -w net.ipv4.tcp_max_syn_backlog=2048
sysctl -w net.core.netdev_max_backlog=3000
sysctl -w kernel.core_uses_pid=1
六、验证导入后果
SUBMIT JOB STATS;
SHOW JOB ${ID}
SHOW STATS;
- 实体插入速率大概
27,837 条 /s
(仅实用本次导入性能计算) - 关系插入速率大概
26,276 条 /s
(仅实用本次导入性能计算) - 如果服务器配置更好,性能会更好;另外带宽、是否跨数据中心、磁盘 IO 也是影响性能因素,甚至是网络稳定等。
[root@node02 nebula]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 50G 2.2G 48G 5% /
/dev/sdb1 2.0T 283G 1.6T 16% /usr/local/nebula
tmpfs 13G 0 13G 0% /run/user/62056
七、性能测试
-
依据属性查问指定节点:
MATCH (v:entity) WHERE v.entity.name == 'Lifespan' RETURN v;
执行工夫耗费 0.002558 (s)
-
一跳
MATCH (v1:entity)-[e:propertiesRel]->(v2:attribute) WHERE id(v1) == '70da43c5e46f56c634547c7aded3639aa8a1565975303218e2a92af677a7ee3a' RETURN v2 limit 100;
执行工夫耗费 0.003571 (s)
-
两跳
MATCH p=(v1:entity)-[e:propertiesRel*1..2]->(v2) WHERE id(v1) == '70da43c5e46f56c634547c7aded3639aa8a1565975303218e2a92af677a7ee3a' RETURN p;
执行工夫耗费 0.005143 (s)
-
获取边的所有属性值
FETCH PROP ON propertiesRel '70da43c5e46f56c634547c7aded3639aa8a1565975303218e2a92af677a7ee3a' -> '0000002d2e88d7ba6659db83893dedf3b8678f3f80de4ffe3f8683694b63a256' YIELD properties(edge);
执行工夫耗费 0.001304 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*1]->(v2) return p;
执行工夫耗费 0.02986 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*2]->(v2) return p;
执行工夫耗费 执行工夫耗费 0.07937 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*3]->(v2) return p;
执行工夫耗费 0.269 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*4]->(v2) return p;
执行工夫耗费 3.524859 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*1..2]->(v2) return p;
执行工夫耗费 0.072367 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*1..3]->(v2) return p;
执行工夫耗费 0.279011 (s)
match p=(v:entity{name:"张三"})-[e:entityRel|propertiesRel*1..4]->(v2) return p;
执行工夫耗费 3.728018 (s)
-
查问点 A_vid 到点 B_vid 的最短门路 (双向),携带点和边的属性:
FIND SHORTEST PATH WITH PROP FROM "70da43c5e46f56c634547c7aded3639aa8a1565975303218e2a92af677a7ee3a" TO "0000002d2e88d7ba6659db83893dedf3b8678f3f80de4ffe3f8683694b63a256" OVER * BIDIRECT YIELD path AS p;
执行工夫耗费 0.003096 (s)
FIND ALL PATH FROM "70da43c5e46f56c634547c7aded3639aa8a1565975303218e2a92af677a7ee3a" TO "0000002d2e88d7ba6659db83893dedf3b8678f3f80de4ffe3f8683694b63a256" OVER * WHERE propertiesRel.name is not EMPTY or propertiesRel.name >=0 YIELD path AS p;
执行工夫耗费 0.003656 (s)
八、遇到的问题:
1.guava 依赖包版本抵触问题
Caused by: java.lang.NoSuchMethodError: com.google.common.base.Stopwatch.createStarted()Lcom/google/common/base/Stopwatch;
经排查发现依赖的一个模块应用 guava 版本 22.0,而 Spark 集群自带 14.0,导致抵触,而无奈失常工作。运行在 Spark 集群上的工作,Spark 加载 guava 包优先级高于本人的包。
咱们依赖的包应用到 guava 版本 22.0 中比拟新的办法,而在 14.0 版本还没有这样的办法。在不能批改对方代码的前提下,有如下计划:
- spark 集群的包降级一下,危险较高,容易造成未知问题。
- 另外一种形式是利用 Maven 插件重命名本人的 guava 包。
这里采纳了第二种形式,利用 Maven 插件 shade(链接:https://maven.apache.org/plugins/maven-shade-plugin/)重命名包解决问题。
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>3.2.4</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<relocations>
<relocation>
<pattern>com.google.common</pattern>
<shadedPattern>my_guava.common</shadedPattern>
</relocation>
</relocations>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/maven/**</exclude>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
</configuration>
</execution>
</executions>
</plugin>
2.Spark 黑名单机制问题
Blacklisting behavior can be configured via spark.blacklist.*.
spark.blacklist.enabled,默认值 false。如果这个参数这为 true,那么 Spark 将不再会往黑名单外面的执行器调度工作。黑名单算法能够由其余 spark.blacklist
配置选项进一步管制,详情参见上面的介绍。
交换反馈
* 欢送到论坛与作者探讨交换:https://discuss.nebula-graph.com.cn