标签:pyspark AnalysisException self hive conf found spark config SPARK
解决
pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_promotion`
第一步:启动 hive的metastore元数据服务
hive --service metastore
第二步:配置hive的元数据
conf = SparkConf() # 创建spark config 对象 config = ( ("spark.app.name",self.SPARK_APP_NAME), # 设置启动spark 的app名字 ("spark.executor.memory",self.SPARK_EXECUTOR_MEMORY), # 设置app启动时占用的内存用量 ('spark.executor.cores',self.SPARK_EXECUTOR_CORE), # 设置spark executor使用的CPU核心数,默认是1核心 ("spark.master", self.SPARK_URL), # spark master的地址 ("spark.executor.instances", self.SPARK_EXECUTOR_INSTANCES), # ("spark.sql.warehouse.dir",self.HIVE_URL), ("hive.metastore.uris",self.HIVE_METASTORE), ) conf.setAll(config)
第三步:设置配置
SparkSession.builder.config(conf=conf).enableHiveSupport().getOrCreate()
标签:pyspark,AnalysisException,self,hive,conf,found,spark,config,SPARK 来源: https://www.cnblogs.com/Live-up-to-your-youth/p/15919069.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。