Sqoop的导入导出

sqoop的功能架构

sqoop是能够在hdfs和关系型数据库之间进行数据量大的数据转换工具,底层运行的是mapreduce项目,是Apache的顶级项目。

《Sqoop的导入导出》 hive3.png

从架构图可以看出,sqoop相当于是hadoop中mapreduce的客户端,在sqoop client中执行命令,命令会被解析成转换为mapreduce任务(一般只涉及map任务,不会涉及到reduce任务),然后打成jar包提交给YARN运行。因为hive和hbase的底层还是hdfs,所以也可以让关系型数据和hvie、hbase之间进行数据转换。

sqoop的使用要点

在sqoop的命令行中执行命令,进行数据的导入和导出。

《Sqoop的导入导出》 hive2.png

  • 连接关系型数据库需要jdbc路径、用户名、密码、表名信息。
  • 数据是导入还是导出,是相对于hadoop中的hdfs来说的,而不是关系型数据库。
  • 数据不仅可以转换到HDFS中,还可以直接转换至hive、hbase中。

导入数据到HDFS

sqoop执行命令时,首先到关系型数据库中获取表的相关元数据,然后启动只包含map的mapreduce任务并行的导入数据。

  • mysql中创建的测试数据

create database if not exists sqoop;
use sqoop;
create table if not exists tohdfs;
insert into tohdfs values(‘1′,’aa’);
insert into tohdfs values(‘2′,’bb’);
insert into tohdfs values(‘3′,’cc’);
insert into tohdfs values(‘4′,’dd’);

《Sqoop的导入导出》 hive4.png

  • 默认情况下导入到HDFS家目录中

    《Sqoop的导入导出》 hive5.png
    《Sqoop的导入导出》 hive6.png

    如果没有指定数据存储到什么目录,默认情况下是HDFS的用户主目录,因为此时执行命令的是wulei,所以目录为/user/wulei/。因为只生成了一个mapper任务,所以tohdfs目录下只有一个文件。同时可以发现数据转移到HDFS后,默认的列分隔符为”,”。

  • 指定目录、mapper个数和分隔符。

bin/sqoop import
–connect jdbc:mysql://bigdata-00:3306/sqoop
–username root
–password 123456
–table tohdfs \

–target-dir /user/wulei/sqoop/input
–num-mappers 3
–fields-terminated-by “\t”
–delete-target-dir

《Sqoop的导入导出》 hive7.png

《Sqoop的导入导出》 hive8.png

其中–target-dir为指定目录 –num-mappers 指定mapper的个数 –fields-terminated-by 指定列分隔符。需要注意的是,此时这个目录一定不能已经存在,否则会报错;可以添加–delete-target-dir参数提前删除这个目录。
** 数据文件会导入到用户家目录,然后再移动到指定的目标目录 **

  • 使用–direct快速导入。利用了数据库的导入工具,如mysql的mysqlimport,可以比jdbc连接后导入的方式更加高效的导入到HDFS中。
    没用–direct的时间:

    《Sqoop的导入导出》 hive9.png

    使用–direct的时间:

bin/sqoop import
–connect jdbc:mysql://bigdata-00:3306/sqoop
–username root
–password 123456
–table tohdfs
–target-dir /user/wulei/sqoop/input
–num-mappers 3
–fields-terminated-by “\t”
–delete-target-dir
–direct

《Sqoop的导入导出》 hive10.png

  • 增量导入
    –check-column (col) 检查指定的列,根据此列判断哪些记录是新数据且需要导入的,列不能是字符相关类型
    –incremental (mode) 指定增量模式,mode包含两种方式:append和lastmodified
  • append: 当表中的记录是以id持续增加导入新的记录的时候,可以使 用append模式,–check-column id 用于检查id
  • lastmodified: 表有时候也会执行更新操作,此时可以使用lastmodified导入

–last-value (value): 指定某个值,将大于该值的检查列记录导入,以确定仅将新的或者更新后的记录导入新的文件系统

《Sqoop的导入导出》 hive12.png

《Sqoop的导入导出》 hive11.png

导出数据到关系型数据库中

bin/sqoop export
–connect jdbc:mysql://bigdata-00:3306/sqoop
–username root
–password 123456
–table tomysql
–num-mappers 1
–input-fields-terminated-by “\t”
–export-dir /user/wulei/sqoop/input/part-m-00000

《Sqoop的导入导出》 hive13.png

从MySQL导入数据到Hive

** 会先将mysql中的数据存储到hdfs用户目录下,然后再移动到Hive对应的HDFS目录中**

bin/sqoop import
–connect jdbc:mysql://bigdata-00:3306/sqoop
–username root
–password 123456
–table tohdfs
–num-mappers 1
–fields-terminated-by “\t”
–delete-target-dir
–hive-import
–hive-database tohive_db
–hive-table tohive

《Sqoop的导入导出》 hive15.png

从Hive中导出数据到MySQL

** 和hdfs导出数据到mysql相同,把导出目标目录转换为表路径 **

bin/sqoop export –connect jdbc:mysql://bigdata-00:3306/sqoop
–username root
–password 123456
–table tomysql
–num-mappers 1
–input-fields-terminated-by “\t”
–export-dir /user/wulei/sqoop/input/

    原文作者:心_的方向
    原文地址: https://www.jianshu.com/p/3a7a1aa8c2c5
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞