CDH版本Hadoop重新编译

为什么要编译Hadoop

由于CDH的所有安装包版本都给出了对应的软件版本,一般情况下是不需要自己进行编译的,但是由于CDH给出的Hadoop的安装包没有提供带C程序访问的接口,所以我们在使用本地库(本地库可以用来做压缩,以及支持C程序等等)的时候就会出问题,好了废话不多说,接下来看如何编译

由于后续课程需要使用snappy进行压缩数据,而CDH给出的Hadoop的安装包没有提供带C程序访问的接口,无法使用snappy,所以使用本地库(本地库可以用来做压缩,以及支持C程序等等)的时候就会出问题,所系需要重新编译使其支持snappy。

 准备编译环境linux环境

准备一台linux环境,内存4G或以上,硬盘40G或以上,我们这里使用的是Centos6.9  64位的操作系统(注意:一定要使用64位的操作系统)

虚拟机联网,关闭防火墙,关闭selinux

关闭防火墙命令:

service  iptables   stop

chkconfig   iptables  off

关闭selinux

vim /etc/selinux/config

CDH版本Hadoop重新编译

 

安装jdk1.7

注意:亲测证明hadoop-2.6.0-cdh5.14.0 这个版本的编译,只能使用jdk1.7,如果使用jdk1.8那么就会报错

查看centos6.9自带的openjdk

rpm -qa | grep java

CDH版本Hadoop重新编译

 

将所有这些openjdk全部卸载掉

rpm -e java-1.6.0-openjdk-1.6.0.41-1.13.13.1.el6_8.x86_64 tzdata-java-2016j-1.el6.noarch java-1.7.0-openjdk-1.7.0.131-2.6.9.0.el6_8.x86_64

 

注意:这里一定不要使用jdk1.8,亲测jdk1.8会出现错误

将我们jdk的安装包上传到/export/softwares(我这里使用的是jdk1.7.0_71这个版本)

解压我们的jdk压缩包

统一两个路径

mkdir -p /export/servers

mkdir -p /export/softwares

cd /export/softwares

tar zxvf jdk-7u75-linux-x64.tar.gz   -C ../servers/

 

 

配置环境变量       

vim /etc/profile.d/java.sh

 

在java.sh内添加一下内容,保存退出

export JAVA_HOME=/export/servers/jdk1.7.0_75

export PATH=:$JAVA_HOME/bin:$PATH

注意:

         有种办法是将配置信息追加到系统配置文件/etc/profile内的最后,此方法也行,但profile是系统核心配置文件,若修改时不小心损坏了配置文件,会导致系统很多基本功能失效,此方法风险较高,不建议使用。

 

让修改立即生效

source /etc/profile

安装maven

这里使用maven3.x以上的版本应该都可以,不建议使用太高的版本,强烈建议使用3.0.5的版本即可

将maven的安装包上传到/export/softwares

然后解压maven的安装包到/export/servers

cd /export/softwares/

tar -zxvf apache-maven-3.0.5-bin.tar.gz -C ../servers/

 

配置maven的环境变量

vim /etc/profile.d/maven.sh

 

export MAVEN_HOME=/export/servers/apache-maven-3.0.5

export MAVEN_OPTS="-Xms4096m -Xmx4096m"

export PATH=:$MAVEN_HOME/bin:$PATH

CDH版本Hadoop重新编译

 

让修改立即生效

source /etc/profile

解压maven的仓库,我已经下载好了的一份仓库,用来编译Hadoop会比较快

tar -zxvf mvnrepository.tar.gz -C /export/servers/

 

修改maven的配置文件

cd  /export/servers/apache-maven-3.0.5/conf

vim settings.xml

指定我们本地仓库存放的路径

CDH版本Hadoop重新编译

 

<localRepository>/export/servers/mvnrepository</localRepository>

 

 

添加一个阿里云的镜像地址,会让我们下载jar包更快

    <mirror>

      <id>alimaven</id>

      <name>aliyun maven</name>

      <url>http://maven.aliyun.com/nexus/content/groups/public/</url>

      <mirrorOf>central</mirrorOf>

    </mirror>

CDH版本Hadoop重新编译

 

安装findbugs

下载findbugs

cd  /export/softwares

 

解压findbugs

tar -zxvf findbugs-1.3.9.tar.gz -C ../servers/

 

配置findbugs的环境变量

vim /etc/profile.d/findbugs.sh

 

export FINDBUGS_HOME=/export/servers/findbugs-1.3.9

export PATH=:$FINDBUGS_HOME/bin:$PATH

CDH版本Hadoop重新编译

 

让修改立即生效

 source  /etc/profile

 

在线安装一些依赖包

yum install -y autoconf automake libtool cmake

yum install -y ncurses-devel

yum install -y openssl-devel

yum install -y lzo-devel zlib-devel gcc gcc-c++

 

bzip2压缩需要的依赖包

yum install -y  bzip2-devel

安装protobuf

protobuf下载百度网盘地址 https://pan.baidu.com/s/1pJlZubT

下载之后上传到  /export/softwares,解压protobuf并进行编译。

cd  /export/softwares

 

tar -zxvf protobuf-2.5.0.tar.gz -C ../servers/

 

cd   /export/servers/protobuf-2.5.0

 

./configure

 

make && make install

安装snappy

snappy下载地址:http://code.google.com/p/snappy/

 

cd /export/softwares/

 

tar -zxvf snappy-1.1.1.tar.gz  -C ../servers/

 

cd ../servers/snappy-1.1.1/

 

./configure

 

make && make install

下载cdh源码准备编译

源码下载地址为:  http://archive.cloudera.com/cdh5/cdh/5/Hadoop-2.6.0-cdh5.14.0-src.tar.gz

下载源码进行编译

 

cd  /export/softwares

 

tar -zxvf hadoop-2.6.0-cdh5.14.0-src.tar.gz -C ../servers/

 

cd  /export/servers/hadoop-2.6.0-cdh5.14.0

编译不支持snappy压缩:

mvn package -Pdist,native -DskipTests –Dtar  

编译支持snappy压缩:

mvn package -DskipTests -Pdist,native -Dtar -Drequire.snappy -e -X

编译完成之后我们需要的压缩包就在下面这个路径里面

/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-dist/target

CDH版本Hadoop重新编译

 

常见编译错误

如果编译时候出现这个错误: An Ant BuildException has occured: exec returned: 2

CDH版本Hadoop重新编译

 

这是因为tomcat的压缩包没有下载完成,需要自己下载一个对应版本的apache-tomcat-6.0.53.tar.gz的压缩包放到指定路径下面去即可

这两个路径下面需要放上这个tomcat的 压缩包

/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads

/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-common-project/hadoop-kms/downloads

 

CDH版本Hadoop重新编译