90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

01 ssh免密安装

02 jdk安装

03 hadoop伪分布式安装

04 hadoop全分布式

05 hadoop高可用

前面的文章把hadoop集群已经配置起来了,并且也通过zookeeper做了高可用了。现在就要基于我们部署的hdfs进行一些开发工作。今天我们要介绍的就是如何配置,搭建开发需要的环境。如何通过java代码调用hadoop提供的api进行目录建立和文件上传的工作。

准备

windows系统

hadoop的安装文件

hadoop的配置文件:core-site.xml hdfs-site.xml

eclispe以及对应的hadoop插件:(这个需要各位去网上寻找,我这里不给大家链接了)

配置windows环境变量

如果在windows上面开发hadoop需要配置一些环境变量,例如hadoop的位置,以及访问的用户。

系统变量,HADOOP_HOME 的配置,这个是你hadoop安装文件的地址。也就是我们在linux服务器上面安装的hadoop文件,需要copy一份到windows上。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

系统变量,HADOOP_USER 的配置。这里需要指明是root用户来访问hadoop服务器

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

系统变量,PATH中把HADOOP_HOME的配置加到最后。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

这里由于需要直接访问hadoop的几台服务器,之前我们的几台服务器中,node01,node02分别为主备namenode服务器。需要在windows的hosts中配置ip和服务器名字的对应。

在文件中

C:\Windows\System32\drivers\etc\hosts

把下面的配置加上,方便后面的访问。

192.168.146.101 node01

192.168.146.102 node02

192.168.146.103 node03

192.168.146.104 node04

Eclipse 配置hadoop连接

这里我们事先安装了hadoop的插件。这个大家可以在网上搜索一下,我这里不提供传送门了。安装好插件以后会在eclipse的右上方出现一个小象的标志,我们点一下,会出在ide下方出现一个Map/Reduce Location 的窗口,右键点击空白处,选择“New Hadoop Location”

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

在弹出的窗口中输入namenode节点的IP和端口。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

这个节点的IP和端口可以通过,hadoop的web监控网站得知。之前通过ha高可用的方式建立了两个namenode 做主备。现在打开浏览器查看连个namenode的主备情况,寻找那个作为主namenode的节点填入就可以了。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

这一步完成以后,可以在左边的菜单中看到“DFS Location”的文件夹,会发现下面有一个小象的图标,右键点击“reconnect”可以看到hadoop上的文件目录情况了。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

你也可以尝试右键点击创建文件夹和文件。

eclipese项目配置

配置好了以后就可以看写代码了。但是在写之前,我们需要先引入一下hadoop的jar包,这些jar包里面包括访问hadoop的一些方法和对象,是后面我们需要使用的。并且还需要把之前配置的hadoop集群的配置,导入到项目中,程序才能知道如何访问namenode节点获取数据。

建立user lib,这里需要把hadoop安装文件中对应的jar包先copy到指定的目录中。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

这里我建议把hadoop安装文件share/hadoop下面的文件夹中的jar文件都统一copy到一个专门的目录,用作user lib的建立。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

这是我自己copy的文件目录,有100多个jar吧,如果有同名的就覆盖。

然后回到eclipse中,引入这些jar包。

新建一个hadoop的项目,随便起个名字,我这里叫test02.然后,选择eclipse菜单“windows-Preferences-Java-Build Path-User Libraries”new 一个user lib,起一个喜欢的名字,这里我用的名字是“hadoop”,然后把刚才copy出来的所有hadoop的jar包都加入进来就好了。以后有其他的项目需要使用hadoop的sdk,就直接使用这个user lib就好了,不用再把这些jar包copy来copy去了。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

在项目下面建立一个conf目录用来存放Hadoop的配置文件,由于我们用的是ha的方式,所以再建立一个ha文件夹。把之前在hadoop中配置好的core-site.xml 和hdfs-site.xml 文件都copy到这个ha目录下面。这样我们的java项目就知道hadoop的配置情况了,就可以通过hadoop的sdk连接到对应的namenode上了。最后对ha目录点击右键,“Build Path-Use a Source Folder”把这些配置加入到项目中去。

90%程序员都应该知道的hadoop开发,动手搭建Hadoop

 

Java代码操控hadoop的hdfs

我们这里需要做几个操作,新建一个hadoop的文件夹;上传一个文件;读取一个文件。代码相对简单。先新建一个java 类,通过FileSystem对象从配置中读取数据创建和hadoop的链接。直接调用hadoop的mkdir命令创建目录;打开本地的文件创建文件流,通过hadoop的copyutils命令上传;getFileBlockLocations命令读取文件信息。

后面附上源代码,大家可以参考,文章就到这里完了。

有兴趣的朋友点个关注,下次见。

package test02;

import java.io.BufferedInputStream;

import java.io.File;

import java.io.FileInputStream;

import java.io.IOException;

import java.io.InputStream;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.BlockLocation;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.junit.After;

import org.junit.Before;

import org.junit.Test;

public class TestHDFS {

Configuration conf;

FileSystem fs;

@Before

public void connect() throws Exception{

conf = new Configuration(true);

fs =FileSystem.get(conf);

}

@After

public void close() throws Exception{

fs.close();

}

@Test

public void mkdir() throws Exception{

Path ifile = new Path("hello");

if (fs.exists(ifile)){

fs.delete(ifile,true);

}

fs.mkdirs(ifile);

}

@Test

public void uploadFile() throws Exception{

Path f = new Path("/hello/123.txt");

FSDataOutputStream output = fs.create(f);

InputStream input = new BufferedInputStream(new FileInputStream(new File("C:\\123.txt")));

IOUtils.copyBytes(input, output, conf,true);

}

@Test

public void readFile() throws Exception{

Path i =new Path("/hello/123.txt");

FileStatus ifile = fs.getFileStatus(i);

BlockLocation[] blks =fs.getFileBlockLocations(ifile, 0, ifile.getLen());

for(BlockLocation b :blks){

System.out.println(b);

}

FSDataInputStream in = fs.open(i);

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

}

}