使用Kettle导入数据到ADB-for-PostgreSQL

33次阅读

共计 2566 个字符,预计需要花费 7 分钟才能阅读完成。

摘要: 文章介绍了使用 Kettle 将数据导入到 AnalyticDB for PostgreSQL,包括使用表输出方式 (INSERT) 和批量加载方式 (COPY) 导入到 AnalyticDB for PostgreSQL 的详细步骤和操作流程。

Kettle 简介

Kettle(现也称为 Pentaho Data Integration,简称 PDI)是一款非常受欢迎的开源 ETL 工具软件,主要用于数据整合、转换和迁移。Kettle 除了支持各种关系型数据库,HBase MongoDB 这样的 NoSQL 数据源外,它还支持 Excel、Access 这类小型的数据源。并且通过这些插件扩展,kettle 可以支持各类数据源。

下图显示了 Kettle 和 ADB for PostgreSQL 之间的关系,数据源通过 Kettle 进行 ETL 或数据集成操作以后可以和 ADB for PostgreSQL 进行交互:

Kettle 支持的数据来源非常丰富,主要包括以下分类:​

  • 表输入
  • 文本文件输入
  • 生成记录 / 自定义常量
  • 获取系统信息
  • 各类格式文件输入
  • Json 输入
  • 以及其他输入

更详细的输入可以从界面中的“核心对象”的“输入”分类中查看。

Kettle 支持的表输入来源自数据库连接中使用 SQL 语句获取,其中数据库连接支持非常丰富的连接方式,包括:

  • Native(JDBC)连接
  • ODBC 连接
  • OCI 连接
  • JNDI 连接

通过这些连接方式,可以支持连接大多数主流数据库,如 Oracle, SQL Server, MySQL, DB2, PostgreSQL, Sybase, Teradata 等等,更详细的连接信息可以参考官方文档:https://help.pentaho.com/Documentation/8.2/Setup/Configuration/Define_Data_Connections

Kettle 导入到 ADB for PostgreSQL

Kettle 支持导入到 ADB for PostgreSQL 的方式

目前,Kettle 支持的数据导入到 ADB for PostgreSQL 的方式有:

导入方式说明
表输出
(INSERT 方式)采用 JDBC 作为导入方式 支持批量插入,批量插入使用 JDBC 的 batch insert 方法
批量加载
(COPY 方式)采用 COPY 作为导入方式 对于大表,COPY 方式性能达到批量插入性能的 10 倍左右

表输出 (INSERT 方式) 导入会流过 Master 节点并做解析之后分布到对应的 Segment 节点上,这种方式相对较慢并且不适合导入大量数据。批量加载 (COPY 方式) 导入方式比 INSERT 语句插入多行的效率更高。

以下将分别介绍如何通过这两种方式将外部数据迁移到 AnalyticDB for PostgresSQL。

准备工作

使用 Kettle 将外部数据导入 AnalyticDB for PostgresSQL 之前,需要完成以下准备工作。

  • 在本地主机中安装 kettle
  • 在 AnalyticDB for PostgreSQL 中创建目标数据库、模式和表。

表输出方式导入数据到 ADB for PostgreSQL

Kettle 采用表输出方式,支持使用通用的 JDBC 接口,从各种数据库源导入到 ADB for PostgreSQL 中。以下就以 MySQL 为例说明如何通过 JDBC 接口导入数据到 ADB for PostgreSQL 中。

1. 在 Kettle 中新建一个转换。
2. 在转换中新建一个 MySQL 数据库连接作为输出源,详细的参数配置如下表所示。
配置参数时,不要勾选 Use Result Streaming Cursor。

配置项说明
连接名称数据连名
连接类型选择 MySQL
连接方式选择 Native(JDBC)
主机名MySQL 的连接地址
数据库名称MySQL 的数据库名
端口号连接地址对应的端口号
用户名用户名
密码用户密码

3. 完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
4. 在转换中新建一个 Greenplum 数据库连接作为输入源,详细的参数配置如下表所示。

配置项说明
连接名称数据连名
连接类型选择 Greenplum
连接方式选择 Native(JDBC)
主机名AnalyticDB for PostgreSQL 的连接地址
数据库名称AnalyticDB for PostgresSQL 的数据库名
端口号连接地址对应的端口号
用户名用户名
密码用户密码

5.​完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
6. 在 kettle 左侧核心对象的输入中,找到表输入,并将其拖动入到工作区。

7. 双击工作区的表输入,在表输入对话框中进行参数配置。

8. 在 Kettle 左侧核心对象的输出中,找到表输出,并将其拖动入到工作区。

9. 双击工作区的表输出,在表输出对话框中进行参数配置。

10. 新建一条表输入到表输出的连接线。

11. 单击白色三角箭头运行转换,观察运行日志和运行状态。

待 MySQL 数据成功导入 AnalyticDB for PostgreSQL 后,您就可以使用 AnalyticDB for PostgreSQL 进行数据分析。

批量加载方式导入数据到 ADB for PostgreSQL

Kettle 支持使用批量加载方式(COPY 方式)导入数据到 ADB for PostgreSQL 中。下面步骤举例说明通过从外部文件中批量加载数据到 ADB for PostgreSQL 中。

1. 在 Kettle 中新建一个转换。
2. 在转换中新建一个文本文件输入作为输出源。

3. 双击文本文件输入的图表,选择输入的文本文件。

4. 在“内容”选项卡中配置输入文件的分隔符。

5. 在“字段”选项卡定义输入文件表中的字段。

6. 在转换中新建一个 Greenplum 数据库连接作为输入源,详细的参数配置如下表所示。

7. 完成上述参数配置后,单击测试测试连通性,测试通过后单击确认。
8. 在 Kettle 左侧核心对象的批量加载中,找到 PostgreSQL 批量加载,并将其拖动入到工作区。

9. 新建一条文件输入到 PostgreSQL 批量记载的连接线。

10. 双击工作区的 PostgreSQL 批量加载图表,在批量加载对话框中进行参数配置:

11. 单击白色三角箭头运行转换,观察运行日志和运行状态

待数据成功导入 AnalyticDB for PostgreSQL 后,您就可以使用 AnalyticDB for PostgreSQL 进行数据分析。


本文作者:陆封

阅读原文

本文为云栖社区原创内容,未经允许不得转载。

正文完
 0