hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。
答案:1 悬赏:80 手机版
解决时间 2021-03-24 10:59
- 提问者网友:相思似海深
- 2021-03-23 21:25
hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。
最佳答案
- 五星知识达人网友:雪起风沙痕
- 2021-03-23 22:24
先凑足块大小,先分64M,当然会根据日志文件的完整性,不会在行中分割;最后剩余不足64M的部分划成一个块。假如200M:64M,64M,64M,8M。其中64M不一定是准确的64M,而是最接近64M,但是不大于64M的一个分块。
已经在那边帮你解答了哦追问您的意思是说首先会按照64MB来截取数据但是如果最终将一行记录没读完的话就会放弃这行记录?这样就是最接近64MB?有具体的源代码么?
已经在那边帮你解答了哦追问您的意思是说首先会按照64MB来截取数据但是如果最终将一行记录没读完的话就会放弃这行记录?这样就是最接近64MB?有具体的源代码么?
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯