没有这样的文件或目录 - Hadoop或HDFS错误
我想从我的本地文件系统复制文件到HDFS,但它给出了错误消息。没有这样的文件或目录 - Hadoop或HDFS错误
的命令是:
hadoop的FS -copyFromLocal /Users/admin/a.txt username98642
错误是:
copyFromLocal:`/用户/管理员/一个。 txt':没有这样的文件或目录
我有本地文件系统上存在文件a.txt。我试过了命令的排列组合和命令组合。 另外我也有在服务器上创建的文件夹。但它仍然显示这个错误。这可能是错误的,因为我正在遵循的教程有这个工作。
产出
第一终端:
管理员的Mac迷你:〜ADMIN $ LS -LA u.txt
-rwxrwxrwx 1管理人员17年4月4日16:13ü。 TXT
其他终端
hirwuser150430 @ IP-171-30-45-205:〜$ Hadoop的FS -copyFromLocal /Users/admin/u.txt样品
copyFromLocal:`/Users/admin/u.txt“:没有这样的文件或目录 hirwuser150430 @ IP-171-30-45-205:〜$
该文件(u.txt)必须存在于(或到达从)同一个文件系统,你正在运行的copyFromLocal
命令的一个(ip-171-30-45-205)。使用scp
将文件复制到远程计算机,然后将其上载到HDFS。
通过在ip-171-30-45-205机器上使用ls来检查文件是否在您认为的路径中。
ls /Users/admin/u.txt
看来,其他终端上的用户名是hirwuser150430而不是管理员...
显示的输出来自同一台计算机(我的本地计算机)。我已经打开了2个终端。我使用用户名和密码连接到在IP 171-30-45-205上运行的Hadoop。该文件在我的本地系统上。我以为会将它复制到hadoop。该文件不在171-30-45-205上。 ls命令返回'No such file'消息。 – LearneriOS
请查看本地文件的目录和文件的权限。 –
另外请检查您是否正确地给目标hadoop路径 –
嗨,我已经改变了权限..still没有工作。此外,“hadoop fs -ls”命令正在工作。这个hadoop正在AWS上运行。我已使用用户名和密码登录。这足以让它工作吗?目标hadoop路径信息是什么意思? – LearneriOS