基本上我有大量的文件要放入HDFS.它如此之大,以至于我常常会在完成之前失去连接.我想做的只是做一个文件上传的“简历”.但是,hadoop fs -put将只重新上传整个目录(或者如果存在则进行抱怨).@H_403_3@
任何人都有一个很好的方法来继续不完整的hdfs上传?@H_403_3@
也可以构建一个仅限本地的hdfs,然后使用distcp.@H_403_3@