talend可否直接读取hadoop数据
答案:2 悬赏:80 手机版
解决时间 2021-03-14 22:01
- 提问者网友:轻浮
- 2021-03-14 06:15
talend可否直接读取hadoop数据
最佳答案
- 五星知识达人网友:躲不过心动
- 2021-03-14 07:26
talend可否直接读取hadoop数据
双向绑定的目的是大大提高我们开发者的效率, 却因为当今浏览器引擎的"缺陷"( 无法真正理解事件影响范围 ), 而只能采用最笨拙的思路:
只要有事件触发, 就全面执行一次所有的监听( watcher ), 如果监听中有新的值出现, 则再次执行所有的监听, 进行重新计算, 反复最多 10 次.
这里就不解释原理了. 简而易见, 这里可能有性能问题.
但经过测试, 只要绑定对象不超过 2000 次, 则每一次 loop 都不会超出 50 ms. 这个时间差对我们人眼是无感知的.
但我认为, 比起这一点潜在的性能问题( 而且是可以轻松调优的, chrome 下有很好用的插件 ), 我们还是值得去学习应用 AngularJS 的.
双向绑定的目的是大大提高我们开发者的效率, 却因为当今浏览器引擎的"缺陷"( 无法真正理解事件影响范围 ), 而只能采用最笨拙的思路:
只要有事件触发, 就全面执行一次所有的监听( watcher ), 如果监听中有新的值出现, 则再次执行所有的监听, 进行重新计算, 反复最多 10 次.
这里就不解释原理了. 简而易见, 这里可能有性能问题.
但经过测试, 只要绑定对象不超过 2000 次, 则每一次 loop 都不会超出 50 ms. 这个时间差对我们人眼是无感知的.
但我认为, 比起这一点潜在的性能问题( 而且是可以轻松调优的, chrome 下有很好用的插件 ), 我们还是值得去学习应用 AngularJS 的.
全部回答
- 1楼网友:青尢
- 2021-03-14 08:06
如何使用spark/scala读取hbase的数据 必须使用高亮参数启动spark-shell,否则当你遍历rdd时会出现如下的exception java.io.notserializableexception: org.apache.hadoop.hbase.io.immutablebyteswritable spark-shell--conf spark.serializer=org.apache.spark.serializer.kryoserializer 以下代码,经过maprdb实测通过 import org.apache.spark._ import org.apache.spark.rdd.newhadooprdd import org.apache.hadoop.hbase.{hbaseconfiguration, htabledescriptor} import org.apache.hadoop.hbase.client.hbaseadmin import org.apache.hadoop.hbase.mapreduce.tableinputformat import org.apache.hadoop.fs.path; import org.apache.hadoop.hbase.hcolumndescriptor import org.apache.hadoop.hbase.util.bytes import org.apache.hadoop.hbase.client.put; import org.apache.hadoop.hbase.client.htable; val tablename = "/app/subscriptionbillingplatform/transac_id" val conf = hbaseconfiguration.create() conf.set(tableinputformat.input_table, tablename) //create rdd val hbaserdd = sc.newapihadooprdd(conf, classof[tableinputforma...
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯