当前位置:  开发笔记 > 运维 > 正文

无法在spark包HBaseContext中找到类

如何解决《无法在spark包HBaseContext中找到类》经验,为你挑选了1个好方法。

我试图通过火花使用"HBaseContext",但不能很好的细节所有细节都空白

[ https://hbase.apache.org/apidocs/org/apache/hadoop/hbase/spark/example/hbasecontext/] [1 ]

我正在尝试实现这里解释的一些方法 http://blog.cloudera.com/blog/2015/08/apache-spark-comes-to-apache-hbase-with-hbase-spark-module/

任何人都可以帮助谁实施任何这些



1> 小智..:

虽然HBaseContext已经实施和HBase的参考指南中介绍的,但作者/社区还没有释放它,但你可以从这个链接查看HBaseContext提交历史,在社会上仍在工作日前(有项目没有更新SparkOnHBase为很长一段时间),对于HBase的任何下载版本,根本不包括hbase-spark模块.

这对于初学者来说是一个很大的混乱,希望社区可以改进它,从Spark RDD访问HBase,你可以认为它是普通的Hadoop DataSource,HBase确实为此提供了TableInputFormat和TableOutputFormat.

推荐阅读
围脖上的博博_771
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有