Flink部署后启动不成功错误
案例:Flink1.9
启动Flink
查看jps发现没有启动
Master
Slave
如果启动成功
Master应该有StandaloneSessionClusterEntrypoint
Slave应该有TaskManagerRunner
查看启动日志
异常日志
org.apache.flink.core.fs.UnsupportedFileSystemSchemeException: Could not find a file system implementation for scheme 'hdfs'. The scheme is not directly supported by Flink and no Hadoop file system to support this scheme could be loaded.
日志表明:无法加载hadoop的hdfs,Flink不支持。
解决方案
下载Flink对应的hadoop插件,放入flink的lib中。
在lib中不存在hadoop的插件
下载插件的官网地址:https://flink.apache.org/downloads.html
如:我的hadoop版本是2.7,下载hadoop的插件放到flink的lib中。
重新启动Flink
启动成功
再登录Master:8082查看Web界面(一般是8081,只是我这边安装了Spark,避免发生冲突改成使用8082)
到此问题解决