Sqoop 数据迁移工具 --4.Sqoop 数据导入

Sqoop 数据导入 

“导入工具”导入单个表从 RDBMS 到 HDFS。表中的每一行被视为 HDFS 的记录。所有记录 都存储为文本文件的文本数据(或者 Avro、sequence 文件等二进制数据) 

下面的语法用于将数据导入 HDFS 

sqoop import  (generic-args)  (import-args) 

Sqoop 数据迁移工具 --4.Sqoop 数据导入

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

1、导入 MySQL 数据到 HDFS 

 1.1、普通导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入

如果我们没有给该命令指定导出的文件的存储路径,那么默认会保存在 HDFS 上的 

/user/hadoop/help_keyword 目录中 其中,第一个 user 是固定的,第二个 hadoop,表示链接的用户名,第三个表示表名

查看结果: 

Sqoop 数据迁移工具 --4.Sqoop 数据导入  

也可以使用 hadoop 命令查看: hadoop fs -cat /user/hadoop/help_keyword/part-m-00000 

从以上结果可以得出一个结论:如果没有指定路径,则会按默认规则生成路径,如果没有 指定分隔符,默认按照逗号分隔 

1.2、指定分隔符和导入路径 

Sqoop 数据迁移工具 --4.Sqoop 数据导入

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

1.3、导入 where 条件数据 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

1.4、导入 Query 结果数据 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

2、导入 MySQL 到 HIVE 

Sqoop 导入关系型数据到 hive 的过程是先导入到 hdfs,然后再 load 进入 hive 

2.1、普通导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

2.2、增量导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

3、导入 MySQL 数据到 HBase 

Sqoop 数据迁移工具 --4.Sqoop 数据导入 

看结果: 

Sqoop 数据迁移工具 --4.Sqoop 数据导入