问题: 求助Hadoop集群模式下,编写java程序出问题。Wrong FS: hdfs://localhost:, expected: hdfs://Master:9
描述:

已将core-site.xml和hdfs-site.xml两个文件放在eclipse的bin目录下,如何解决。具体报错如下
log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
java.lang.IllegalArgumentException: Wrong FS: hdfs://localhost:, expected: hdfs://Master:9000
at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:648)
at org.apache.hadoop.hdfs.DistributedFileSystem.getPathName(DistributedFileSystem.java:194)
at org.apache.hadoop.hdfs.DistributedFileSystem.access$000(DistributedFileSystem.java:106)
at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1305)
at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1301)
at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1301)
at org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:1426)
at Chapter.main(Chapter.java:25)

上一篇hadoop 281 在win上安装单节点的问题
下一篇cinder 多后端存储 方案
明星图片
相关文章
《 求助Hadoop集群模式下,编写java程序出问题。Wrong FS: hdfs://localhost:, expected: hdfs://Master:9》由码蚁之家搜集整理于网络,
联系邮箱:mxgf168#qq.com(#改为@)