type
status
date
summary
slug
tags
category
password
icon
第1章 DataX简介
1.1 DataX概述
DataX
是阿里巴巴开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。1.2 DataX支持的数据源
DataX目前已经有了比较全面的插件体系,主流的RDBMS数据库、NOSQL、大数据计算系统都已经接入,目前支持数据如下图:
类型 | 数据源 | Reader(读) | Writer(写) |
RDBMS 关系型数据库 | MySQL | √ | √ |
ㅤ | Oracle | √ | √ |
ㅤ | OceanBase | √ | √ |
ㅤ | SQLServer | √ | √ |
ㅤ | PostgreSQL | √ | √ |
ㅤ | DRDS | √ | √ |
ㅤ | 通用RDBMS | √ | √ |
阿里云数仓数据存储 | ODPS | √ | √ |
ㅤ | ADS | ㅤ | √ |
ㅤ | OSS | √ | √ |
ㅤ | OCS | √ | √ |
NoSQL数据存储 | OTS | √ | √ |
ㅤ | Hbase0.94 | √ | √ |
ㅤ | Hbase1.1 | √ | √ |
ㅤ | Phoenix4.x | √ | √ |
ㅤ | Phoenix5.x | √ | √ |
ㅤ | MongoDB | √ | √ |
ㅤ | Hive | √ | √ |
ㅤ | Cassandra | √ | √ |
无结构化数据存储 | TxtFile | √ | √ |
ㅤ | FTP | √ | √ |
ㅤ | HDFS | √ | √ |
ㅤ | Elasticsearch | ㅤ | √ |
时间序列数据库 | OpenTSDB | √ | ㅤ |
ㅤ | TSDB | √ | √ |
第2章 DataX架构原理
2.1 DataX设计理念
为了解决异构数据源同步问题,DataX将复杂的网状的同步链路变成了星型数据链路,DataX作为中间传输载体负责连接各种数据源。
当需要接入一个新的数据源的时候,只需要将此数据源对接到DataX,便能跟已有的数据源做到无缝数据同步。
2.2 DataX框架设计
DataX本身作为离线数据同步框架,采用Framework + plugin架构构建。
将数据源读取和写入抽象成为Reader/Writer插件,纳入到整个同步框架中。
2.3 DataX运行流程
下面用一个DataX作业生命周期的时序图说明DataX的运行流程、核心概念以及每个概念之间的关系。
2.4 DataX调度决策思路
举例来说,用户提交了一个DataX作业,并且配置了总的并发度为20,目的是对一个有100张分表的mysql数据源进行同步。
DataX的调度决策思路是:
- DataX Job根据分库分表切分策略,将同步工作分成100个Task。
- 根据配置的总的并发度20,以及每个Task Group的并发度5,DataX计算共需要分配4个TaskGroup。
- 4个TaskGroup平分100个Task,每一个TaskGroup负责运行25个Task。
2.5 DataX与Sqoop对比
功能 | DataX | Sqoop |
运行模式 | 单进程多线程 | MR |
分布式 | 不支持,可以通过调度系统规避 | 支持 |
流控 | 有流控功能 | 需要定制 |
统计信息 | 已有一些统计,上报需定制 | 没有,分布式的数据收集不方便 |
数据校验 | 在core部分有校验功能 | 没有,分布式的数据收集不方便 |
监控 | 需要定制 | 需要定制 |
第3章 DataX部署
1)下载DataX安装包并上传到hadoop102的
/opt/software
2)解压datax.tar.gz到/opt/module
3)自检,执行如下命令
出现如下内容,则表明安装成功
第4章 DataX使用
4.1 DataX使用概述
4.1.1 DataX任务提交命令
DataX的使用十分简单,用户只需根据自己同步数据的数据源和目的地选择相应的Reader和Writer,并将Reader和Writer的信息配置在一个json文件中,然后执行如下命令提交数据同步任务即可。
4.2.2 DataX配置文件格式
可以使用如下命名查看DataX配置文件模板。
配置文件模板如下,json最外层是一个job,job包含setting和content两部分
- setting用于对整个job进行配置
- content用户配置数据源和目的地
Reader和Writer的具体参数可参考官方文档,地址如下:
类型 | 数据源 | Reader(读) | Writer(写) | 文档 |
RDBMS 关系型数据库 | MySQL | √ | √ | |
ㅤ | Oracle | √ | √ | |
ㅤ | OceanBase | √ | √ | |
ㅤ | SQLServer | √ | √ | |
ㅤ | PostgreSQL | √ | √ | |
ㅤ | DRDS | √ | √ | |
ㅤ | Kingbase | √ | √ | |
ㅤ | 通用RDBMS(支持所有关系型数据库) | √ | √ | |
阿里云数仓数据存储 | ODPS | √ | √ | |
ㅤ | ADS | ㅤ | √ | |
ㅤ | OSS | √ | √ | |
ㅤ | OCS | ㅤ | √ | |
ㅤ | Hologres | ㅤ | √ | |
ㅤ | AnalyticDB For PostgreSQL | ㅤ | √ | 写 |
阿里云中间件 | datahub | √ | √ | 读 、写 |
ㅤ | SLS | √ | √ | 读 、写 |
阿里云图数据库 | GDB | √ | √ | |
NoSQL数据存储 | OTS | √ | √ | |
ㅤ | Hbase0.94 | √ | √ | |
ㅤ | Hbase1.1 | √ | √ | |
ㅤ | Phoenix4.x | √ | √ | |
ㅤ | Phoenix5.x | √ | √ | |
ㅤ | MongoDB | √ | √ | |
ㅤ | Cassandra | √ | √ | |
数仓数据存储 | StarRocks | √ | √ | 读 、写 |
ㅤ | ApacheDoris | ㅤ | √ | |
ㅤ | ClickHouse | ㅤ | √ | 写 |
ㅤ | Hive | √ | √ | |
ㅤ | kudu | ㅤ | √ | |
无结构化数据存储 | TxtFile | √ | √ | |
ㅤ | FTP | √ | √ | |
ㅤ | HDFS | √ | √ | |
ㅤ | Elasticsearch | ㅤ | √ | |
时间序列数据库 | OpenTSDB | √ | ㅤ | |
ㅤ | TSDB | √ | √ | |
ㅤ | TDengine | √ | √ |
4.2 同步MySQL数据到HDFS案例
案例要求:同步gmall数据库中base_province表数据到HDFS的/base_province目录
需求分析:要实现该功能,需选用MySQLReader和HDFSWriter,MySQLReader具有两种模式
- TableMode
- 使用table,column,where等属性声明需要同步的数据
- QuerySQLMode
- 使用一条SQL查询语句声明需要同步的数据
下面分别使用两种模式进行演示
4.2.1 MySQLReader之TableMode
1)编写配置文件
(1)创建配置文件base_province.json
(2)配置文件内容如下
2)配置文件说明
(1)Reader参数说明
(2)Writer参数说明
注意事项:
HFDS Writer并未提供nullFormat参数
- 用户并不能自定义null值写到HFDS文件中的存储格式
- 默认情况下,HFDS Writer会将null值存储为空字符串('')
- 而Hive默认的null值存储格式为\N
- 所以后期将DataX同步的文件导入Hive表就会出现问题
解决该问题的方案有两个:
- 一是修改DataX HDFS Writer的源码,增加自定义null值存储格式的逻辑
- 二是在Hive中建表时指定null值存储格式为空字符串(''),例如:
(3)Setting参数说明
3)提交任务
(1)在HDFS创建/base_province目录
使用DataX向HDFS同步数据时,需确保目标路径已存在
(2)进入DataX根目录
(3)执行如下命令
4)查看结果
(1)DataX打印日志
(2)查看HDFS文件
4.2.2 MySQLReader之QuerySQLMode
1)编写配置文件
(1)修改配置文件base_province.json
(2)配置文件内容如下
2)配置文件说明
(1)Reader参数说明
3)提交任务
(1)清空历史数据
(2)进入DataX根目录
(3)执行如下命令
4)查看结果
(1)DataX打印日志
(2)查看HDFS文件
4.2.3 DataX传参
通常情况下,离线数据同步任务需要每日定时重复执行,故HDFS上的目标路径通常会包含一层日期,以对每日同步的数据加以区分,也就是说每日同步数据的目标路径不是固定不变的,因此DataX配置文件中HDFS Writer的path参数的值应该是动态的。为实现这一效果,就需要使用DataX传参的功能。
DataX传参的用法如下,在JSON配置文件中使用${param}引用参数,在提交任务时使用-p"-Dparam=value"传入参数值,具体示例如下。
1)编写配置文件
(1)修改配置文件base_province.json
(2)配置文件内容如下sh
2)提交任务
(1)创建目标路径
(2)进入DataX根目录
(3)执行如下命令
3)查看结果
4.3 同步HDFS数据到MySQL案例
案例要求:同步HDFS上的/base_province目录下的数据到MySQL gmall 数据库下的test_province表。
需求分析:要实现该功能,需选用HDFSReader和MySQLWriter。
1)编写配置文件
(1)创建配置文件test_province.json
(2)配置文件内容如下
2)配置文件说明
(1)Reader参数说明
(2)Writer参数说明
3)提交任务
(1)在MySQL中创建gmall.test_province表
(2)进入DataX根目录
(3)执行如下命令
4)查看结果
(1)DataX打印日志
(2)查看MySQL目标表数据
第5章 DataX优化
5.1 速度控制
DataX3.0提供了包括通道(并发)、记录流、字节流三种流控模式,可以随意控制你的作业速度,让你的作业在数据库可以承受的范围内达到最佳的同步速度。
关键优化参数如下:
参数 | 说明 |
job.setting.speed.channel | 并发数 |
job.setting.speed.record | 总record限速 |
job.setting.speed.byte | 总byte限速 |
core.transport.channel.speed.record | 单个channel的record限速,默认值为10000(10000条/s) |
core.transport.channel.speed.byte | 单个channel的byte限速,默认值1024*1024(1M/s) |
注意事项:
1.若配置了总record限速,则必须配置单个channel的record限速
2.若配置了总byte限速,则必须配置单个channe的byte限速
3.若配置了总record限速和总byte限速,channel并发数参数就会失效。因为配置了总record限速和总byte限速之后,实际channel并发数是通过计算得到的:
计算公式为:
min(总byte限速/单个channel的byte限速,总record限速/单个channel的record限速)
配置示例:
5.2 内存调整
当提升DataX Job内Channel并发数时,内存的占用会显著增加,因为DataX作为数据交换通道,在内存中会缓存较多的数据。
- 例如Channel中会有一个Buffer,作为临时的数据交换的缓冲区,而在部分Reader和Writer的中,也会存在一些Buffer,为了防止OOM等错误,需调大JVM的堆内存。
建议将内存设置为4G或者8G,这个也可以根据实际情况来调整。
调整JVM xms xmx参数的两种方式:
- 一种是直接更改datax.py脚本;
- 另一种是在启动的时候,加上对应的参数,如下:
- 作者:PH3C
- 链接:https://notion.966699.xyz//article/DataX
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。