Sqoop 数据迁移工具 --4.Sqoop 数据导入
Sqoop 数据导入
“导入工具”导入单个表从 RDBMS 到 HDFS。表中的每一行被视为 HDFS 的记录。所有记录 都存储为文本文件的文本数据(或者 Avro、sequence 文件等二进制数据)
下面的语法用于将数据导入 HDFS
sqoop import (generic-args) (import-args)
1、导入 MySQL 数据到 HDFS
1.1、普通导入
如果我们没有给该命令指定导出的文件的存储路径,那么默认会保存在 HDFS 上的
/user/hadoop/help_keyword 目录中 其中,第一个 user 是固定的,第二个 hadoop,表示链接的用户名,第三个表示表名
查看结果:
也可以使用 hadoop 命令查看: hadoop fs -cat /user/hadoop/help_keyword/part-m-00000
从以上结果可以得出一个结论:如果没有指定路径,则会按默认规则生成路径,如果没有 指定分隔符,默认按照逗号分隔
1.2、指定分隔符和导入路径
1.3、导入 where 条件数据
1.4、导入 Query 结果数据
2、导入 MySQL 到 HIVE
Sqoop 导入关系型数据到 hive 的过程是先导入到 hdfs,然后再 load 进入 hive
2.1、普通导入
2.2、增量导入
3、导入 MySQL 数据到 HBase
看结果: