如何把hdfs上的多个目录下的文件合并为一个文件
答案:2 悬赏:0 手机版
解决时间 2021-03-20 10:11
- 提问者网友:回忆在搜索
- 2021-03-19 19:09
如何把hdfs上的多个目录下的文件合并为一个文件
最佳答案
- 五星知识达人网友:舊物识亽
- 2021-03-19 20:04
版本 2.程序集 窗口程序集1.子程序 __启动窗口_创建完毕编辑框1.是否允许多行 = 真编辑框1.内容 = 到文本 (读入文件 (取运行目录 () + “\指定文件.txt”))
全部回答
- 1楼网友:西岸风
- 2021-03-19 21:04
hdfs dfs -cat /folderpath/folder* | hdfs dfs -copyFromLocal - /newfolderpath/file
1
1
这样可以把文件hdfs上 /folderpath目录下的/folder开头的文件,还不合并到/newfolderpath目录下的file一个文件中 注意/folder*必须是文件,而不能是文件夹,如果是文件夹,可以/folder*/*
cat test.txt | ssh test@masternode "hadoop dfs -put - hadoopFoldername/"
1
1
可以这样把本机的文件put到HDFS上面,而不用先复制文件到集群机器上
1
1
这样可以把文件hdfs上 /folderpath目录下的/folder开头的文件,还不合并到/newfolderpath目录下的file一个文件中 注意/folder*必须是文件,而不能是文件夹,如果是文件夹,可以/folder*/*
cat test.txt | ssh test@masternode "hadoop dfs -put - hadoopFoldername/"
1
1
可以这样把本机的文件put到HDFS上面,而不用先复制文件到集群机器上
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯