Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0

JDK版本导致Unsupported major.minor version 52.0 error

一:问题描述

在Hive开发UDF函数时,将ecslipe下生成的jar包导入hive下出现问题:

hive>add JAR /home/hadoop/hiveudf.jar;

hive>create temporary function getProvince as 'hiveudf.toProvince' ;

Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0

 

Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0

 

二:出现问题原因-->>分析 { JDK版本不一致的问题 }

原因:ecslipe下编译的jdk版本是1.8,而hadoop用的是1.7,版本不一致导致出错,调整jdk版本一致

  • 在eclipse中开发的项目有个Java build path中可以配置的JDK
  • java compiler中可以配置compiler level{eclipse>windows>preferences>java>compiler>compiler compliance level}

Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0

 

Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0

两个是有区别的:

  • build path的JDK版本是你开发的时候编译器需要使用到的,就是你在eclipse中开发代码,给你提示报错的,编译的过程;
  • java compiler compliance level中配置的编译版本号,这个编译版本号的作用是,你这个项目将来开发完毕之后,要放到服务器上运行,那个服务器上JDK的运行版本。

问题就是,build path中配置1.7的JDK,java compiler compliance level中配置的1.7,但是程序运行需要的是1.8的JDK,就报了那个错误,反之亦然。

build path的JDK版本是你开发的时候编译器需要使用到的,例如用的JDK1.4就不能使用泛型。而java compiler compliance level设置的是你写好的JAVA代码按照什么JDK版本级别编译,例如:设置的是1.4,编译出来的class文件可以在1.4以上的JRE上运行,如果用的是5.0级别编译,就不能运行在1.4的环境里面。

在eclipse中进行开发的时候,build path 中JDK进行类库的编译(就是你使用类在不在这个JDK中),java compiler compliance level是对这个项目语法的编译(就是你的项目中语法的正确与否),在开发的过程中,这两个地方是都起作用的。所以说,build path 和 java complier compliance level和服务器配置的JDK保持一致,就不会出现任何问题的

调整jdk版本一致:

eclipse>windows>preferences>java>compiler>compiler compliance level 1.7

你的项目右键>properties>java compiler>1.7

跟你本地的保持一致即可

三.修改后效果(关联成功)

Hive开发UDF时遇到:执行创建临时函数与开发好的java class关联出现问题:Unsupported major.minor version 52.0