Hadoop和Spark中怎么设置用户访问hdfs

本篇文章为大家展示了Hadoop和Spark中怎么设置用户访问hdfs,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。


1.对于hadoop而言
如果hadoop没有启Kerberos或者从Kerberos获取的用户为null,那么获取HADOOP_USER_NAME环境变量,并将它的值作为Hadoop执行用户。如果我们没有设置HADOOP_USER_NAME环境变量,那么程序将调用whoami来获取当前用户,并用groups来获取用户所在组。

所以可以设置环境变量:

export HADOOP_USER_NAME=hdfs
1
或者在程序中设置:

System.setProperty("HADOOP_USER_NAME", "hdfs");
1
2.对于Spark
Spark默认将用户程序运行所在系统的当前登录用户作为用户程序的关联用户。
所以可以采用一下两种方法:
1.修改当前用户名为: hdfs
2.代码中添加:

System.setProperty("user.name", "hdfs");

上述内容就是Hadoop和Spark中怎么设置用户访问hdfs,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注行业资讯频道。