eclipse下 操作hdfs JavaAPI

第一步:安装插件

找到eclipse操作hadoop的插件,eclipse-xxxx-hadoop-plugin.jar ,把它放到eclipse的安装路径的plugin文件夹中,然后重启eclipse。

第二步:配置hadoop环境变量

一、安装JDK

二、配置Java环境变量

测试 : 打开命令行cmd    java -version 

可以得到java版本信息即可。具体不展开了。

三、下载Hadoop

1、下载路径:http://hadoop.apache.org/releases.html

2、解压到D:\ssl\大数据\Hadoop-2.3

三、配置Hadoop环境变量

1、HADOOP_HOME : D:\ssl\大数据\Hadoop-2.3

2、path : 添加 %HADOOP_HOME%\bin;

3、测试:打开命令行cmd ,在任意路径下输入hadoop命令,返回一下结果即配置正确

注:如果提示JAVA_HOME路径不对,请修改 %HADOOP_HOME%\etc\hadoop\hadoop-env.cmd下的set JAVA_HOME=%JAVA_HOME%。

如果配置过程出现错误请看这篇文章

https://blog.****.net/sunshunli/article/details/106321447

第二步:连接hadoop

重启eclipse后,你会发现多了一个大象的图标

eclipse下 操作hdfs JavaAPI

点击之后连接hadoop,如图所示

eclipse下 操作hdfs JavaAPI

host是你集群namenode的ip地址,端口号看你的配置信息,core-site.xml.连接时上,看一下有没有显示你的hdfs文件系统中的文件。如果可以显示,连接成功。

eclipse下 操作hdfs JavaAPI

第三步:创建项目,使用hdfs javaAPI操作文件系统

导入hadoop目录下的share/hadoop中common、hdfs、tools中的jar包及lib文件下的jar包,记得build path。

然后可以进行代码的操作。