取消
顯示的結果
而不是尋找
你的意思是:

我設置的分區模式在蜂巢nonstrict但火花不是看到它

max522over
新的貢獻者二世

我有一個表我想添加一些數據和partitoned。我想使用動態分區但我得到這個錯誤

org.apache.spark。SparkException:動態分區嚴格模式至少需要一個靜態分區列。關掉這組hive.exec.dynamic.partition.mode = nonstrict

org.apache.spark.sql.hive.execution.InsertIntoHiveTable.sideEffectResult lzycompute美元(InsertIntoHiveTable.scala: 168)

org.apache.spark.sql.hive.execution.InsertIntoHiveTable.sideEffectResult (InsertIntoHiveTable.scala: 127)

org.apache.spark.sql.hive.execution.InsertIntoHiveTable.doExecute (InsertIntoHiveTable.scala: 263)

我已經設置

hive.exec.dynamic.partition.mode = nonstrict

在洋麻nonstrict我重啟蜂巢。但是當我重新運行spark-shell工作我還是錯誤?

我應該把它在其他地方,在蜂房裏配置?

這是命令

df2.write.mode(“追加”)。partitionBy .saveAsTable (“p_date”、“p_store_id”) (“TLD.ticket_pa

yment_testinsert”)

df2 dataframe有一堆csv數據讀入。

我試著將它設置在我的spark-shell命令

spark-shell——主yarn-client包com.databricks: spark-csv_2.11:1.4.0——num-executors 4——5 executor-cores executor-memory 8 g——隊列hadoop-capq參看“hive.exec.dynamic.partition.mode = nonstrict”

但我得到這個警告

警告:忽略non-spark配置屬性:hive.exec.dynamic.partition.mode = nonstrict

1接受解決方案

接受的解決方案

User16789201666
因素二世

試試這個:

hiveContext.setConf (“hive.exec.dynamic。分區”、“真實”)hiveContext.setConf (“hive.exec.dynamic.partition。模式”、“nonstrict”)

http://stackoverflow.com/questions/31341498/save-spark-dataframe-as-dynamic-partitioned-table-in-hiv..。

在原帖子查看解決方案

3回複3

User16789201666
因素二世

試試這個:

hiveContext.setConf (“hive.exec.dynamic。分區”、“真實”)hiveContext.setConf (“hive.exec.dynamic.partition。模式”、“nonstrict”)

http://stackoverflow.com/questions/31341498/save-spark-dataframe-as-dynamic-partitioned-table-in-hiv..。

jinyong_lu
新的貢獻者二世

我也遇到類似問題了,通過上麵的方法解決了,謝謝@peyman !

類JavaSparkSessionSingletonUtil{私有靜態瞬態SparkSession實例=零;公共靜態SparkSession getInstance(字符串瀏覽器名稱){SparkSession.clearDefaultSession ();如果(實例= = null){實例= SparkSession.builder () .appName . config (“hive.exec.dynamic(瀏覽器名稱)。分區”、“真實”). config (“hive.exec.dynamic.partition。/ / config模式”、“nonstrict”) (“spark.sql.warehouse。dir”,新文件(“spark-warehouse”) .getAbsolutePath ()) / / config (“spark.driver。allowMultipleContexts”、“true”) .enableHiveSupport () .getOrCreate ();}返回實例;}}

max522over
新的貢獻者二世

我明白了工作。這正是我所需要的。謝謝@Peyman Mohajerian

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map