当前位置:  开发笔记 > 大数据 > 正文

如何在DataFrame Spark 1.6中加载特定的Hive分区?

如何解决《如何在DataFrameSpark1.6中加载特定的Hive分区?》经验,为你挑选了1个好方法。

要使用Spark 1.6在DataFrame中添加特定分区,我们必须执行以下第一个设置basePath,然后提供需要加载的分区路径

DataFrame df = hiveContext.read().format("orc").
               option("basePath", "path/to/table/").
               load("path/to/table/entity=xyz")

因此,上面的代码只会加载DataFrame中的特定分区.



1> Umesh Kacha..:

要使用Spark 1.6在DataFrame中添加特定分区,我们必须执行以下第一个设置basePath,然后提供需要加载的分区路径

DataFrame df = hiveContext.read().format("orc").
               option("basePath", "path/to/table/").
               load("path/to/table/entity=xyz")

因此,上面的代码只会加载DataFrame中的特定分区.

推荐阅读
手机用户2402852307
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有