eclipse下 操作hdfs JavaAPI
第一步:安装插件
找到eclipse操作hadoop的插件,eclipse-xxxx-hadoop-plugin.jar ,把它放到eclipse的安装路径的plugin文件夹中,然后重启eclipse。
第二步:配置hadoop环境变量
一、安装JDK
二、配置Java环境变量
测试 : 打开命令行cmd java -version
可以得到java版本信息即可。具体不展开了。
三、下载Hadoop
1、下载路径:http://hadoop.apache.org/releases.html
2、解压到D:\ssl\大数据\Hadoop-2.3
三、配置Hadoop环境变量
1、HADOOP_HOME : D:\ssl\大数据\Hadoop-2.3
2、path : 添加 %HADOOP_HOME%\bin;
3、测试:打开命令行cmd ,在任意路径下输入hadoop命令,返回一下结果即配置正确
注:如果提示JAVA_HOME路径不对,请修改 %HADOOP_HOME%\etc\hadoop\hadoop-env.cmd下的set JAVA_HOME=%JAVA_HOME%。
如果配置过程出现错误请看这篇文章
https://blog.****.net/sunshunli/article/details/106321447
第二步:连接hadoop
重启eclipse后,你会发现多了一个大象的图标
点击之后连接hadoop,如图所示
host是你集群namenode的ip地址,端口号看你的配置信息,core-site.xml.连接时上,看一下有没有显示你的hdfs文件系统中的文件。如果可以显示,连接成功。
第三步:创建项目,使用hdfs javaAPI操作文件系统
导入hadoop目录下的share/hadoop中common、hdfs、tools中的jar包及lib文件下的jar包,记得build path。
然后可以进行代码的操作。