如何大量数据频繁写入Hadoop
答案:2 悬赏:70 手机版
解决时间 2021-03-20 08:32
- 提问者网友:戎马万世
- 2021-03-19 15:23
如何大量数据频繁写入Hadoop
最佳答案
- 五星知识达人网友:洒脱疯子
- 2021-03-19 15:34
hadoop一般对频繁写不怎么支持,如果你要及时错了还是用其他东东比较好,不过你可将数据全部写的一个文件上,定时上传。
全部回答
- 1楼网友:鸠书
- 2021-03-19 15:42
hadoop本身是分布式框架,如果在hadoop框架下,需要配合hbase,hive等工具来进行大数据计算。如果具体深入还要了解hdfs,map/reduce,任务机制等等。如果要分析还要考虑其他分析展现工具。
大数据还有分析才有价值
用于分析大数据的工具主要有开源与商用两个生态圈。开源大数据生态圈:1、hadoop hdfs、hadoopmapreduce, hbase、hive 渐次诞生,早期hadoop生态圈逐步形成。2、. hypertable是另类。它存在于hadoop生态圈之外,但也曾经有一些用户。3、nosql,membase、mongodb商用大数据生态圈:1、一体机数据库/数据仓库:ibm puredata(netezza), oracleexadata, sap hana等等。2、数据仓库:teradataasterdata, emc greenplum, hpvertica 等等。3、数据集市:qlikview、 tableau 、 以及国内的yonghong data mart 。
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯