Databricks Runtime和Databricks SQL
AMBIGUOUS_FIELD_NAME
字段名是歧義的,在結構中有匹配字段。
<消息>。如有必要,將設置為" false "(除ANSI間隔類型外)以繞過此錯誤。
CANNOT_CAST_DATATYPE
不能將轉換為。
CANNOT_CHANGE_DECIMAL_PRECISION
不能表示為Decimal(, )。如有必要,將設置為" false "以繞過此錯誤。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
不能刪除由CHECK約束共享的名稱的約束
和一個主鍵或外鍵約束。您可以刪除主鍵或
查詢的外鍵約束:
ALTER TABLE . .刪除主鍵或
ALTER TABLE . .刪除外鍵..
CANNOT_PARSE_DECIMAL
不能解析小數
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
無法從安全提供程序讀取敏感密鑰“<密鑰>”
CANNOT_UP_CAST_DATATYPE
不能將從向上轉換為。
<詳細>
CAST_OVERFLOW
由於溢出,類型的值< >不能強製轉換為。使用try_cast
允許溢出並返回NULL。如有必要,將設置為" false "以繞過此錯誤。
CONCURRENT_QUERY
此查詢的另一個實例剛剛由並發會話啟動。
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
無效的計劃> <方案。COPY INTO源加密目前隻支持s3/s3n/s3a/wasbs/abfss。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO源憑據必須指定。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
在並發COPY INTO操作中提交了重複的文件。請稍後再試。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
無效的計劃> <方案。COPY INTO源碼加密目前隻支持s3/s3n/s3a/abfss。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO加密隻支持ADLS Gen2或abfss://文件方案
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO源加密必須指定' <密鑰> '。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
加密選項無效。COPY INTO源加密必須指定' ' = ' '。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
除了追加數據之外,COPY INTO不允許與其他事務並發運行。請稍後再試。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO加載狀態失敗,最大重試次數超過。
DATETIME_OVERFLOW
Datetime操作溢出:<操作>。
除零。使用try_divide
允許除數為0並返回NULL。如果需要,將設置為" false " (ANSI間隔類型除外)以繞過此錯誤。
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT列被解析並期望為StructType,但發現類型。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT列表中的列必須是不同的且不重疊的。
FAILED_EXECUTE_UDF
執行用戶定義的函數失敗(: () => )
FAILED_RENAME_PATH
將重命名為失敗,因為目的地已存在。處理步驟
FAILED_SET_ORIGINAL_PERMISSION_BACK
事件解釋將原權限<權限>設置回創建的路徑:<路徑>失敗。例外:<消息>
FORBIDDEN_OPERATION
<語句>操作不允許在: 上執行
GRAPHITE_SINK_INVALID_PROTOCOL
無效的石墨協議:<協議>
GRAPHITE_SINK_PROPERTY_MISSING
石墨水槽要求“<屬性>”屬性。
GROUPING_COLUMN_MISMATCH
分組列(<分組>)無法在分組列中找到
GROUPING_ID_COLUMN_MISMATCH
grouping_id ()的列不匹配分組列()
GROUPING_SIZE_LIMIT_EXCEEDED
分組集大小不能大於
INCOMPARABLE_PIVOT_COLUMN
無效的主列。主列必須是可比較的。
INCOMPATIBLE_DATASOURCE_REGISTER
檢測到不兼容的DataSourceRegister。請從類路徑中刪除不兼容的庫或升級它。錯誤:<消息>
INCORRECT_NUMBER_OF_ARGUMENTS
, 至少需要參數,最多需要參數。
INDEX_OUT_OF_BOUNDS
Index 必須在0和ArrayData的長度之間。
INVALID_AGGREGATE_FUNCTION_USAGE_IN_SQL_FUNCTION
SQL函數中無效的聚合函數使用:
索引超出邊界。數組有元素。如有必要,將設置為" false "以繞過此錯誤。
索引超出邊界。數組有元素。使用try_element_at
允許在無效索引處訪問元素並返回NULL。如有必要,將設置為" false "以繞過此錯誤。
INVALID_BUCKET_FILE
無效的桶文件:<路徑>
INVALID_CLONE_PATH
CLONE的目標位置需要是絕對路徑或表名。使用一個
絕對路徑而不是<路徑>。
INVALID_FIELD_NAME
字段名無效:<路徑>不是結構體。
INVALID_FRACTION_OF_SECOND
秒的分數必須為零。有效範圍是[0,60]。如有必要,將設置為" false "以繞過此錯誤。
INVALID_JSON_SCHEMA_MAP_TYPE
輸入模式隻能包含STRING作為MAP的鍵類型。
INVALID_PANDAS_UDF_PLACEMENT
組聚合熊貓UDF 不能與其他非熊貓聚合函數一起調用。
INVALID_PARAMETER_VALUE
中參數' <參數> '的值無效:<預期>
INVALID_PROPERTY_KEY
是一個無效的屬性鍵,請使用引號,例如SET =
INVALID_PROPERTY_VALUE
是一個無效的屬性值,請使用引號,例如SET =
INVALID_S3_COPY_CREDENTIALS
COPY INTO憑據必須包括AWS_ACCESS_KEY, AWS_SECRET_KEY和AWS_SESSION_TOKEN。
INVALID_SQL_FUNCTION_PLAN_STRUCTURE
無效的SQL函數計劃結構
<計劃>
INVALID_SQL_SYNTAX
錯誤的SQL語法:
Key 不存在。使用try_element_at
允許不存在的鍵並返回NULL。如有必要,將設置為" false "以繞過此錯誤。
MISSING_COLUMN
列“”不存在。你是指以下其中之一嗎?(<提議>)
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK約束必須有名稱。
MISSING_STATIC_PARTITION_COLUMN
未知靜態分區列:
MULTIPLE_LOAD_PATH
Databricks Delta在load() API中不支持多輸入路徑。
路徑:< pathList >。通過加載來構建單個數據幀
來自同一個Delta表的多條路徑,請加載的根路徑
Delta表和相應的分區過濾器。如果多條路徑
來自不同的Delta表,請使用數據集的union()/unionByName() api
來組合由單獨的load() API調用生成的數據幀。
MULTIPLE_MATCHING_CONSTRAINTS
找到至少兩個與給定條件匹配的約束。
MULTI_UDF_INTERFACE_ERROR
不允許實現多個UDF接口,UDF類<類>
MULTI_VALUE_SUBQUERY_ERROR
由用作表達式的子查詢返回的多行:
NON_LITERAL_PIVOT_VALUES
pivot值需要文字表達式,找到' '
NON_PARTITION_COLUMN
PARTITION子句不能包含非分區列名:
NOT_A_TABLE_FUNCTION
不是表函數。請檢查函數的使用情況:DESCRIBE function
NOT_A_VALID_DEFAULT_EXPRESSION
的默認表達式> < functionName
.< parameterName >
不支持,因為它包含子查詢。
NOT_A_VALID_DEFAULT_PARAMETER_POSITION
在常規> < functionName
參數< parameterName >
with DEFAULT後麵不能跟parameter< nextParameterName >
沒有違約。
NOT_SUPPORTED_WITH_DB_SQL
SQL <倉庫>上不支持<操作>。
NO_HANDLER_FOR_UDAF
沒有UDAF ' '的處理程序。使用sparkSession.udf.register(…)。
NO_UDF_INTERFACE_ERROR
UDF類<類>不實現任何UDF接口
NULL_COMPARISON_RESULT
比較結果為空。如果您想將null處理為0(等於),您可以設置“spark.sql.legacy.”allowNullComparisonResultInArraySort”到“真正的”。
OPERATION_REQUIRES_UNITY_CATALOG
操作<操作>需要啟用Unity Catalog。
PARSE_CHAR_MISSING_LENGTH
DataType <類型>需要一個長度參數,例如<類型>(10)。請指定長度。
PARSE_EMPTY_STATEMENT
語法錯誤,意外的空語句
PARSE_SYNTAX_ERROR
語法錯誤在附近
PARTITION_SCHEMA_IN_ICEBERG_TABLES
在轉換冰山表時無法指定分區模式
PIVOT_VALUE_DATA_TYPE_MISMATCH
無效的主值“<值>”:值數據類型與主列數據類型不匹配
RENAME_SRC_PATH_NOT_FOUND
未能找到重命名為
RESERVED_CDC_COLUMNS_ON_WRITE
寫入包含使用的保留列
在內部作為更改數據提要的元數據。要寫入表,可以選擇rename/drop
或通過設置禁用表上的“更改數據提要”
<設置>為假。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
' '函數的第二個參數需要是一個整數。
UNABLE_TO_ACQUIRE_MEMORY
無法獲取< requestdbytes >字節的內存,獲取
UNRECOGNIZED_SQL_TYPE
無法識別的SQL類型
UNRESOLVED_MAP_KEY
無法將列解析為映射鍵。如果鍵是字符串文字,請在其周圍加上單引號。否則,您是指以下列之一嗎?(<提議>)
UNSUPPORTED_CONSTRAINT_CLAUSES
不支持約束子句<子句>。
UNSUPPORTED_CONSTRAINT_TYPE
不支持的約束類型。隻支持
UNSUPPORTED_DATATYPE
不支持的數據類型
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id()隻能與GroupingSets/Cube/Rollup一起使用
UNTYPED_SCALA_UDF
您正在使用無類型的Scala UDF,它沒有輸入類型信息。Spark可能會盲目地將null傳遞給帶有基元類型參數的Scala閉包,而閉包將看到null參數的Java類型的默認值,例如。udf (x):Int)= >x,IntegerType)
,對於空輸入,結果為0。要消除這個錯誤,你可以:
使用類型化的Scala UDF api(沒有返回類型參數),例如:udf (x):Int)= >x)
使用Java UDF api,例如udf(新UDF1(字符串,整數){覆蓋def調用(s:字符串):整數=s.length ()},IntegerType)
,如果輸入類型都是非基元的
設置“spark.sql.legacy。allowUntypedScalaUDF為" true ",並謹慎使用此API
WRITING_JOB_ABORTED
寫工作中止
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy列不存在。
三角洲湖
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
找不到活躍的SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
當一個txn已經處於活動狀態時,不能將新的txn設置為活動狀態
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
索引添加列小於0
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
在位置<位置>處未找到結構
DELTA_AGGREGATE_IN_GENERATED_COLUMN
找到< sqlExpr >。生成的列不能使用聚合表達式
DELTA_AGGREGATION_NOT_SUPPORTED
<操作> <謂詞>中不支持聚合函數。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN不支持將字段修改為字段
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
不允許的操作:不允許對S3上的托管Delta表執行ALTER TABLE RENAME TO操作,因為S3上的最終一致性可能會破壞Delta事務日誌。如果您堅持這樣做,並且確定以前從未有過具有新名稱的Delta表,您可以通過將設置為true來啟用此功能。
DELTA_AMBIGUOUS_PARTITION_COLUMN
歧義分區列<列>可以。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE包含兩個不同的位置:和。
可以從CREATE TABLE語句或集合中刪除LOCATION子句
to true跳過此檢查。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
不能為以下不存在的列刪除bloom過濾器索引:
DELTA_CANNOT_CHANGE_DATA_TYPE
不能更改數據類型:
DELTA_CANNOT_CHANGE_LOCATION
不能使用SET TBLPROPERTIES更改Delta表的“位置”。請使用ALTER TABLE SET LOCATION代替。
DELTA_CANNOT_CHANGE_PROVIDER
' provider '是一個保留的表屬性,不能被修改。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
無法為以下不存在的列創建bloom過濾器索引:
DELTA_CANNOT_CREATE_LOG_PATH
不能創建<路徑>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
無法描述視圖的曆史。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
不能在非索引列上刪除綻放篩選器索引:
DELTA_CANNOT_EVALUATE_EXPRESSION
無法計算表達式:<表達式>
DELTA_CANNOT_FIND_BUCKET_SPEC
期望有一個桶Delta表,但在表中找不到桶規範
DELTA_CANNOT_FIND_VERSION
無法在中找到' sourceVersion '
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
不能為表達式生成代碼:<表達式>
DELTA_CANNOT_GENERATE_UPDATE_EXPRESSIONS
在不生成列的情況下調用應該總是為每個列返回一個更新表達式
DELTA_CANNOT_MODIFY_APPEND_ONLY
該表被配置為隻允許附加。如果你想允許更新或刪除,使用' ALTER TABLE SET TBLPROPERTIES (=false) '。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
在事務日誌中發現了一個不能轉換為相對路徑的uri ()。
DELTA_CANNOT_RELATIVIZE_PATH
路徑(<路徑>)不能與在
事務日誌。請以以下方式重新運行:
% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“< userPath >”,真的)
然後還要運行:
% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)
DELTA_CANNOT_RENAME_PATH
不能將重命名為
DELTA_CANNOT_REPLACE_MISSING_TABLE
表不能被替換,因為它不存在。使用CREATE或REPLACE TABLE創建表。
DELTA_CANNOT_RESOLVE_COLUMN
無法解析<架構>中的列
DELTA_CANNOT_RESOLVE_SOURCE_COLUMN
無法在源查詢中解析合格的源列。請聯係Databricks技術支持。
DELTA_CANNOT_RESTORE_TABLE_VERSION
無法將表恢複到版本<版本>。可用版本:[, ]。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
不能將表恢複到時間戳(< requestdtimestamp >),因為它是在可用的最新版本之後。請在()之前使用時間戳
DELTA_CANNOT_UPDATE_ARRAY_FIELD
無法更新%1$s字段%2$s類型:通過更新%2$s元素來更新元素
DELTA_CANNOT_UPDATE_MAP_FIELD
無法更新%1$s字段%2$s類型:通過更新%2$s來更新映射。鍵或% 2 s.value美元
DELTA_CANNOT_UPDATE_STRUCT_FIELD
不能update field type:通過添加、刪除或更新其字段來更新struct
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
不能對分區列使用所有列
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
配置三角洲。不能設置enableChangeDataFeed。Delta的更改數據還不可用。
DELTA_CLONE_AMBIGUOUS_TARGET
克隆目標提供了兩條路徑,因此使用哪一條是不明確的。一個外部
CLONE的location是在和路徑同時提供的
< targetIdentifier >。
DELTA_COLUMN_NOT_FOUND
找不到列< columnName >
鑒於[< columnList >)
DELTA_COLUMN_NOT_FOUND_IN_MERGE
無法從INSERT列中找到目標表的“”列:。INSERT子句必須為目標表的所有列指定值。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
無法找到列:
< tableSchema >
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
結構列
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
在列中發現嵌套的NullType,該列的<數據類型>。Delta不支持在複雜類型中寫入NullType。
DELTA_CONFLICT_SET_COLUMN
這些SET列有衝突:。
DELTA_CONSTRAINT_ALREADY_EXISTS
約束' '已經作為CHECK約束存在。請先刪除舊的約束。
古老的約束:
< checkCondition >
DELTA_CONSTRAINT_DOES_NOT_EXIST
無法從表中刪除不存在的約束。要避免拋出錯誤,請提供參數IF EXISTS或將SQL會話配置設置為。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
配置' '不能設置為<模式>
當使用CONVERT TO DELTA時。
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA隻支持拚花表,但您正在嚐試轉換源:
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
您試圖創建一個外部表
從<路徑>
方法時沒有指定模式
輸入路徑為空。
要了解更多關於Delta的信息,請參閱
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
您試圖創建一個外部表
從% 2 $ s
使用Delta,但是沒有事務日誌
% 2 $ s / _delta_log
.檢查上遊作業,以確保它正在寫入using
格式(" delta "),並且該路徑是表的根。
要了解更多關於Delta的信息,請參閱
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定的模式與<路徑>的現有模式不匹配。
= = = =指定
< specifiedSchema >
現有= = = =
< existingSchema >
= = = =的差異
< schemaDifferences >
如果您的意圖是保留現有模式,則可以省略
創建表命令中的Schema。否則,請確保
模式匹配。
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定的屬性與<路徑>處的現有屬性不匹配。
= = = =指定
< specificiedProperties >
現有= = = =
< existingProperties >
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
無法創建表(' ')。關聯的位置(' ')不是空的,但它不是一個Delta表
DELTA_DUPLICATE_COLUMNS_FOUND
發現重複列:
DELTA_DUPLICATE_COLUMNS_ON_INSERT
在INSERT子句中重複列名
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<消息>
在更新表之前,請刪除重複的列。
DELTA_EMPTY_DATA
用於創建Delta表的數據沒有任何列。
DELTA_EMPTY_DIRECTORY
目錄中沒有找到文件:<目錄>。
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
超出char/varchar類型長度限製
DELTA_EXPRESSIONS_NOT_FOUND_IN_GENERATED_COLUMN
無法在生成的列中找到表達式
DELTA_FAILED_CAST_PARTITION_VALUE
轉換分區值失敗<值>
<數據類型>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLLUMNS
無法在現有的目標輸出中找到 < targetoutputcolumns >
DELTA_FAILED_INFER_SCHEMA
未能從給定的文件列表推斷模式。
DELTA_FAILED_MERGE_SCHEMA_FILE
日誌含義合並<文件>的架構失敗:
<模式>
DELTA_FAILED_RECOGNIZE_PREDICATE
無法識別謂詞' <謂詞> '
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
期望對Delta源代碼的最新版本進行完整掃描,但發現版本的曆史掃描
DELTA_FAILED_TO_MERGE_FIELDS
合並字段“”和“”失敗。< fieldChild >
DELTA_FAIL_RELATIVIZE_PATH
無法相對化路徑(<路徑>)。這可能發生在絕對路徑
將它寫入事務日誌,事務日誌從方案開始
s3://, wasbs://或adls://。這是一個在DBR 5.0之前就存在的bug。
要解決此問題,請將您的寫入器作業升級到DBR 5.0,並運行:
% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)。
如果該表是通過跨文件係統的淺克隆創建的
(不同的桶/容器)和這個表不是在生產中使用,你可以
設置SQL配置spark.databricks.delta.vacuum.relativize.ignoreError
為true。使用這種SQL配置可能會導致意外數據丟失,
因此,我們不建議使用此標誌,除非
這是一個用於測試目的的淺克隆。
DELTA_FILE_ALREADY_EXISTS
已存在文件路徑<路徑>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
不能同時指定文件列表和模式字符串。
DELTA_FILE_NOT_FOUND
文件路徑<路徑>
DELTA_FILE_OR_DIR_NOT_FOUND
沒有這樣的文件或目錄:<路徑>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
要重寫的文件(<路徑>)在候選文件中找不到:
< pathList >
DELTA_FOUND_MAP_TYPE_COLUMN
找到了一個MapType。為了訪問MapType的鍵或值,請指定一個
:
< >鍵或
<值>
後跟列的名稱(僅當該列是結構類型時)。
例如mymap.key.mykey
如果列是基本類型,則為mymap。鍵或關聯。價值是充分的。
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Column 為已生成的列或已生成的列使用的列。數據類型為。它不接受數據類型
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成的列的表達式類型為,但列類型為
DELTA_ILLEGAL_FILE_FOUND
在dataChange中發現的非法文件=假事務。文件:<文件>
DELTA_ILLEGAL_USAGE
當<操作>是Delta表時,不允許使用<選項>。
DELTA_INCOMPLETE_FILE_COPY
文件()沒有完全複製。期望文件大小:, found: 。通過忽略文件大小檢查集來繼續操作spark.databricks.delta.clone.checkWrite
為假。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta bucket表的BucketSpec與元數據中的BucketSpec不匹配。預期:< >。實際實際:< >。
DELTA_INCORRECT_ARRAY_ACCESS
錯誤地訪問ArrayType。使用arrayname.element.elementname position來
添加到數組中。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
找到了一個ArrayType。為了訪問ArrayType的元素,指定
< rightName >
而不是< wrongName >
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
錯誤通常發生在默認的LogStore實現,即
is,即HDFSLogStore,用於在非hdfs存儲係統上寫入Delta表。
為了在表更新上獲得事務性ACID保證,您必須使用
正確實現適合您的存儲係統的LogStore。
詳見。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
要刪除列的索引<位置>等於或大於結構長度:<長度>
DELTA_INDEX_LARGER_THAN_STRUCT
索引<索引>用於添加列大於結構長度:
DELTA_INSERT_COLUMN_ARITY_MISMATCH
不能寫入' ', ;目標表有列,但插入的數據有列(s)
DELTA_INSERT_COLUMN_MISMATCH
在INSERT中沒有指定列
DELTA_INVALID_BUCKET_COUNT
無效桶計數:。桶數應該是一個正數,等於2的冪,至少等於8。您可以使用代替。
DELTA_INVALID_BUCKET_INDEX
在分區列中找不到桶列
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Interval不能為空或空。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
屬性名“”包含“,;{}()\n\t=”中的無效字符。請使用別名重新命名。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
在模式的列名中',;{}()nt= '中發現無效字符。<通知>
DELTA_INVALID_COMMITTED_VERSION
提交的版本是,但當前版本是。請聯係Databricks技術支持。
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成的列不能使用不存在的列或其他生成的列
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
冪等數據幀的無效選項寫入:
DELTA_INVALID_ISOLATION_LEVEL
無效隔離級別' '
DELTA_INVALID_LOGSTORE_CONF
(spark.delta.logStore.class
)和(< schemeConfig >
)不能同時設置。請隻設置一組。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
您正在嚐試創建一個托管表
使用Delta,但沒有指定模式。
要了解更多關於Delta的信息,請參閱
DELTA_INVALID_PARTITIONING_SCHEMA
AddFile包含與表的分區模式不同的分區模式
預期:< neededPartitioning >
實際:< specifiedPartitioning >
禁用此檢查集 To " false "
DELTA_INVALID_PARTITION_COLUMN
不是表中的有效分區列。
DELTA_INVALID_PARTITION_PATH
分區路徑片段的形式應該是這樣的part1 = foo / part2 = bar
.分區路徑:<路徑>
DELTA_INVALID_PROTOCOL_DOWNGRADE
協議版本不能從降到
DELTA_INVALID_SOURCE_VERSION
sourceVersion(<版本>)是無效的
DELTA_INVALID_V1_TABLE_CALL
基於路徑的不需要調用
DELTA_ITERATOR_ALREADY_CLOSED
迭代器是關閉的
DELTA_MAX_ARRAY_SIZE_EXCEEDED
請使用小於Int的限製。MaxValue - 8。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
這個提交失敗,因為它已經嚐試了次,但沒有成功。
這可能是由於Delta表被許多並發數據連續提交造成的
提交。
Commit started at version:
提交失敗在版本:
嚐試提交的操作數:
嚐試提交的總時間: ms
DELTA_MAX_LIST_FILE_EXCEEDED
文件列表必須有最多條目,有。
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
合並十進製類型與不兼容的失敗
DELTA_MERGE_INVALID_WHEN_NOT_MATCHED_CLAUSE
<子句>子句不能成為MERGE INTO中的WHEN NOT MATCHED子句的一部分。
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
意外賦值鍵:< expectedkeyclass > - < expectedkeyobject >
DELTA_MISSING_CHANGE_DATA
獲取範圍[, ]的更改數據錯誤,因為更改數據不是
已記錄版本[<版本>]。如果您在這個表上啟用了更改數據提要,
使用描述曆史
查看它第一次啟用的時間。
否則,要開始記錄更改數據,使用' ALTER TABLE table_name SET TBLPROPERTIES
(<鍵> = true)”。
DELTA_MISSING_COLUMN
無法在表列中找到:
DELTA_MISSING_DELTA_TABLE
不是一個Delta表。
DELTA_MISSING_FILES_UNEXPECTED_VERSION
Delta表中的流期望來自版本的進程數據,
但最早的可用版本在δ日誌目錄為<最早版本>。的文件
在事務中,日誌可能已由於日誌清理而被刪除。為了避免輸
數據,我們建議您使用一個新的檢查點位置重新啟動流,然後
增加你的三角洲。logRetentionDuration設置,如果您顯式地將其設置為30以下
天。
如果您想忽略丟失的數據並從它離開的地方繼續您的流
關閉,你可以設置.option("
你的readStream語句。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
列具有NOT NULL約束,寫入表的數據中缺少它。
DELTA_MISSING_PARTITION_COLUMN
分區列< columnName >
沒有在架構中找到
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA隻支持拚花桌子。請將你的目標改寫為拚花。<路徑>
如果是拚花目錄。
DELTA_MISSING_SET_COLUMN
SET column 沒有找到給定的列:。
DELTA_MODE_NOT_SUPPORTED
不支持指定模式' '。支持的模式有:
DELTA_MULTIPLE_CDC_BOUNDARY
為CDC讀取提供多個< startgorending >參數。請提供一個< startgorending >時間戳或< startgorending >版本。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
多個bloom過濾器索引配置傳遞給命令用於
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
無法執行合並,因為多個源行匹配並試圖修改相同的行
在Delta表中以可能衝突的方式調用目標行。通過Merge的SQL語義,
當多個源行在同一目標行上匹配時,結果可能是模糊的
由於不清楚應該使用哪一個源行來更新或刪除匹配
目標行。可以對源表進行預處理,以消除
多個匹配。請參考
< usageReference >
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
以下列名僅為Delta bucket表內部使用保留:
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
<操作>條件不支持嵌套子查詢。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
中的行違反了新的CHECK約束()
DELTA_NEW_NOT_NULL_VIOLATION
中的行違反了上新的NOT NULL約束
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
<操作> <表達式>中不支持非確定性函數
DELTA_NON_GENERATED_COLUMN_MISSING_UPDATE_EXPR
不是一個生成的列,但是缺少它的更新表達式
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
當MERGE語句中有多個MATCHED子句時,隻有最後一個MATCHED子句可以省略條件。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
當MERGE語句中有多個NOT MATCHED子句時,隻有最後一個NOT MATCHED子句可以省略條件
DELTA_NON_PARSABLE_TAG
無法解析<標記>的標記。
文件標簽是:
DELTA_NON_PARTITION_COLUMN_ABSENT
寫入Delta的數據需要包含至少一個非分區列
DELTA_NON_PARTITION_COLUMN_REFERENCE
謂詞引用非分區列' '。隻有分區列可以被引用:[]
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
不是一個Delta表。如果您想用Databricks Delta創建此表,請先刪除它。
DELTA_NOT_A_DELTA_TABLE
不是一個Delta表。如果你想用三角洲湖重建它,請先放下這張桌子。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
不能為空的列沒有在結構中找到:<結構>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
列違反NOT NULL約束。
DELTA_NO_COMMITS_FOUND
在處未發現提交
DELTA_NO_NEW_ATTRIBUTE_ID
無法為列找到新的屬性ID。這應該更早檢查。
DELTA_ONEOF_IN_TIMETRAVEL
請為時間旅行提供“timestampAsOf”或“versionAsOf”。
DELTA_ONLY_OPERATION
<操作>隻支持Delta表。
DELTA_OPERATION_MISSING_PATH
請為<操作>提供路徑或表標識符。
DELTA_OPERATION_NOT_ALLOWED
操作不允許:<操作>
是否不支持Delta表
DELTA_OPERATION_NOT_ALLOWED_DETAIL
操作不允許:<操作>
不支持Delta表:
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
不支持在引用包含生成列的Delta表的臨時視圖上執行命令。請直接在Delta表上運行命令
DELTA_PARTITION_COLUMN_CAST_FAILED
無法轉換值<值>
來<數據類型>
分區列< columnName >
DELTA_PATH_DOES_NOT_EXIST
<路徑>不存在
DELTA_POST_COMMIT_HOOK_FAILED
提交到Delta表版本<版本>成功,但在執行提交後鉤子<消息>時出錯
DELTA_PROTOCOL_PROPERTY_NOT_INT
協議屬性需要為整數。發現價值> <
DELTA_READ_TABLE_WITHOUT_COLUMNS
您試圖使用Delta讀取一個表,但沒有列。
用選項寫一些數據mergeSchema=真正的
啟用後續讀訪問。
DELTA_REGEX_OPT_SYNTAX_ERROR
請重新檢查' '的語法
DELTA_REPLACE_WHERE_IN_OVERWRITE
不能將replaceWhere與過濾器覆蓋結合使用
DELTA_REPLACE_WHERE_MISMATCH
寫入的數據不匹配replaceWhere ' '。
<消息>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
在DataFrameWriter選項中不能同時設置' replaceWhere '表達式和' partitionOverwriteMode ' = ' dynamic '。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
當' dataChange '被設置為false時,' replaceWhere '不能與數據過濾器一起使用。過濾器:< dataFilters >
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
自DataFrame以來,Delta表的模式已以不兼容的方式更改
或DeltaTable對象被創建。請重新定義DataFrame或DeltaTable對象。
變化:
< schemaDiff > < legacyFlagMessage >
DELTA_SCHEMA_NOT_CONSISTENT_WITH_TARGET
表模式與目標屬性不一致
DELTA_SCHEMA_NOT_SET
未設置表模式。將數據寫入其中或使用CREATE TABLE設置模式。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新Delta位置的模式與當前表模式不同。
原始模式:
原始> <
目標模式:
<目標>
如果這是一個有意的更改,你可以通過運行以下命令關閉這個檢查:
%%sql set = true
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
不允許在未分區的表上執行SHOW PARTITIONS:
DELTA_SOURCE_IGNORE_DELETE
檢測到版本< >的流源中刪除的數據(例如)。這是目前不支持的。如果你想忽略刪除,設置選項' ignoredeletion '為' true '。
DELTA_SPARK_SESSION_NOT_SET
激活SparkSession未設置。
DELTA_SPARK_THREAD_NOT_FOUND
沒有在Spark任務線程上運行
DELTA_STATE_RECOVER_ERROR
重構時無法恢複增量表的<操作>
版本:<版本>。您是否手動刪除了δ日誌目錄嗎?
設置為“false”
跳過驗證。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
無法在表上啟用更改數據捕獲。該表已經包含
保留列 that will
在內部用作表的Change Data Feed的元數據。要啟用
更改表上的數據提要,重命名/刪除這些列。
DELTA_TABLE_ALREADY_EXISTS
表已經存在。
DELTA_TABLE_FOUND_IN_EXECUTOR
DeltaTable不能在執行程序中使用
DELTA_TABLE_NOT_FOUND
Delta表不存在。請刪除流查詢檢查點並重新啟動。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
<操作>中不支持表。請使用路徑代替。
DELTA_TABLE_ONLY_OPERATION
不是一個Delta表。<操作>隻支持Delta表。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
所提供的時間戳()位於可用於此操作的最新版本之後
表(<表名>)。請在之前或在處使用時間戳。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
需要是一個有效的開始值。
DELTA_TRUNCATED_TRANSACTION_LOG
:由於手動刪除或日誌保留策略(=< logretention>)和檢查點保留策略(=< checkpointretention>),事務日誌已被截斷,因此無法在版本< >上重建狀態。
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
不允許操作:Delta表上的TRUNCATE TABLE不支持分區謂詞;使用DELETE刪除特定的分區或行。
DELTA_UNEXPECTED_ACTION_IN_OPTIMIZE
類型的意外操作<操作>。優化應該隻有AddFiles和RemoveFiles。
DELTA_UNEXPECTED_ATTRIBUTE_REFERENCE
期望AttributeReference但得到
DELTA_UNEXPECTED_CHANGE_FILES_FOUND
更改在dataChange = false事務中找到的文件。文件:
<文件列表>
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
期望分區列(s): < expectedcols>,但發現分區列(s): < parsedcols>從解析文件名:<路徑>
DELTA_UNEXPECTED_PARTIAL_SCAN
預計會對Delta源進行全麵掃描,但發現了部分掃描。路徑:<路徑>
DELTA_UNKNOWN_CONFIGURATION
指定未知配置:
DELTA_UNRECOGNIZED_INVARIANT
未識別的不變的。請升級您的Spark版本。
DELTA_UNRECOGNIZED_LOGFILE
無法識別的日誌文件
DELTA_UNSET_NON_EXISTENT_PROPERTY
試圖取消設置表中不存在的屬性' <屬性> '
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
不支持添加具有絕對路徑的文件
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
不支持ALTER TABLE REPLACE COLUMNS操作。原因:<詳細>
更改架構失敗:
< oldSchema >
:
< newSchema >
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
您試圖用CLONE替換現有表()。這個操作是
不受支持的。為CLONE嚐試一個不同的目標或刪除當前目標上的表。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
不支持將列映射模式從“”更改為“”。
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
當前的表協議版本不支持更改列映射模式
使用< config >。
列映射所需的Delta協議版本:
< requiredVersion >
您的表的當前Delta協議版本:
< currentVersion >
請使用ALTER table SET TBLPROPERTIES升級表的協議版本,然後重試。
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
檢測到架構更改:
舊模式:
< oldTableSchema >
新模式:
< newTableSchema >
在更改列映射模式期間不允許更改模式。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
不支持以列映射方式寫入數據。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
不支持在類型的列上創建綻放過濾器索引:
DELTA_UNSUPPORTED_DATA_TYPES
發現列使用不支持的數據類型:。您可以設置' '為' false '來禁用類型檢查。禁用這種類型檢查可能允許用戶創建不受支持的Delta表,並且隻應該在嚐試讀寫遺留表時使用。
DELTA_UNSUPPORTED_DROP_COLUMN
Delta表不支持DROP COLUMN。<通知>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
不允許刪除分區列()。
DELTA_UNSUPPORTED_EXPRESSION
不支持的表達式類型(),用於。支持的類型是[]。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<表達式>不能在生成的列中使用
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
隻有StructType支持更新嵌套字段,但是您正在嚐試更新的字段,它的類型是:。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
不支持除StructTypes以外的嵌套字段上的不變量。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix不可用
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
對於利用列映射的表,不支持清單生成,因為外部讀取器無法讀取這些Delta表。有關更多細節,請參閱Delta文檔。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
具有模式演化的MERGE INTO操作目前不支持編寫CDC輸出。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
<操作>條件不支持多列In謂詞。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
目前不支持在嵌套列上創建綻放文件器索引:
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
<操作> (field = )中不支持嵌套字段。
DELTA_UNSUPPORTED_OUTPUT_MODE
數據源不支持輸出模式
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
不支持在分區列上創建綻放篩選器索引:
DELTA_UNSUPPORTED_RENAME_COLUMN
Delta表不支持列重命名。<通知>
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
對Delta bucket表不支持SORTED BY
DELTA_UNSUPPORTED_SOURCE
<操作>目的地隻支持Delta源。
<計劃>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
在插入期間,目前不支持在分區規範中指定靜態分區
DELTA_UNSUPPORTED_STRATEGY_NAME
不支持的策略名稱:<策略>
DELTA_UNSUPPORTED_SUBQUERY
<操作> (condition = )中不支持子查詢。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
分區謂詞中不支持子查詢。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
不能對視圖、子查詢或流進行時間旅行。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
不支持截斷樣例表
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
在清理增量表時,請提供基本路徑()。目前不支持清空特定分區。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
表實現不支持寫入:
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
不支持寫入樣例表
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
無法將轉換為。所有嵌套列必須匹配。
DELTA_VERSIONS_NOT_CONTIGUOUS
版本()不是連續的。
DELTA_VERSION_NOT_CONTIGUOUS
版本()不是連續的。當從Delta日誌中手動刪除文件時,可能會發生這種情況。請聯係Databricks支持修複表。
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
檢查約束 <表達式>被帶值的行違反:
<值>
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
是一個視圖。不能將數據寫入視圖。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
數據模式中不存在的z排序列。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
上的z順序是
無效,因為我們目前不收集這些列的統計信息。請參考
<鏈接>
有關數據跳過和z排序的更多信息。你可以禁用
通過設置
' %%sql set = false '
DELTA_ZORDERING_ON_PARTITION_COLUMN
為分區列。z排序隻能在數據列上執行
自動裝卸機
CF_ADD_NEW_NOT_SUPPORTED
當指定模式時,不支持模式演化模式。要使用這種模式,可以通過以下方式提供模式cloudFiles.schemaHints
代替。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
發現(默認)目錄的通知設置身份驗證選項
清單模式:
<選項>
如果您希望使用文件通知模式,請顯式設置:
.option(“cloudFiles。< useNotificationsKey >”,“真正的”)
或者,如果您想跳過選項的驗證並忽略這些選項
認證選項,您可以設置:
.option(“cloudFiles。ValidateOptionsKey >”,“假”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式(cloudFiles.)
和文件通知(cloudFiles.)
已同時啟用。
請確保您隻選擇一個。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure需要adlsBlobSuffix和adlsDfsSuffix
CF_BUCKET_MISMATCH
文件事件中的< fileEvent >
與來源所期望的不同:源> <
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
當模式日誌為空時,無法演化模式。架構日誌位置:
CF_CANNOT_RESOLVE_CONTAINER_NAME
無法從路徑<路徑>解析容器名,解析uri:
CF_CANNOT_RUN_DIRECTORY_LISTING
當有異步回填線程運行時,無法運行目錄列表
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
不能打開cloudFiles。cleanSource cloudFiles。allowoverwritten在同一時間。
CF_DUPLICATE_COLUMN_IN_DATA
試圖推斷表的分區模式時出錯。在數據和分區路徑中複製了相同的列。要忽略分區值,請使用:.option(" cloudFiles. ")顯式提供分區列。< partitionColumnsKey >”、“{comma-separated-list}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
當輸入路徑時不能推斷模式<路徑>
是空的。請嚐試在輸入路徑中有文件時啟動流,或指定模式。
CF_EVENT_GRID_AUTH_ERROR
創建事件網格訂閱失敗。請確保您的服務
>事件網格訂閱。詳情請瀏覽:
<不再>
CF_EVENT_GRID_CREATION_FAILED
創建事件網格訂閱失敗。請確保微軟。EventGrid是
在訂閱中注冊為資源提供者。詳情請瀏覽:
<不再>
CF_EVENT_GRID_NOT_FOUND_ERROR
創建事件網格訂閱失敗。請確認您的儲物櫃
帳戶()在您的資源組()下
存儲帳戶為“StorageV2(通用v2)”帳戶。詳情請瀏覽:
<不再>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
不支持的事件通知設置。
CF_FAILED_TO_CHECK_STREAM_NEW
檢查流是否新的失敗。處理步驟
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
創建訂閱失敗:< subscriptionName >
.具有相同名稱的訂閱已經存在,並且與另一個主題相關聯:< otherTopicName >
.你想要的主題是< proposedTopicName >
.要麼刪除現有訂閱,要麼創建具有新資源後綴的訂閱。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
創建主題失敗:< topicName >
.已存在同名的主題。刪除現有的主題或使用其他資源後綴重試
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
刪除帶有id的通知失敗< notificationId >
在鬥< bucketName >
為主題< topicName >
.請重試或通過GCP控製台手動刪除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
從字符串“”反序列化持久模式失敗
CF_FAILED_TO_EVOLVE_SCHEMA
沒有模式日誌就不能發展模式。
CF_FAILED_TO_FIND_PROVIDER
未能找到的提供者
CF_FAILED_TO_INFER_SCHEMA
未能從輸入路徑<路徑>中的現有文件推斷format 的模式。請確保正確配置了選項或顯式指定了模式。
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
寫入位置<路徑>的架構日誌失敗。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
發現多個()訂閱與Auto Loader前綴的主題< topicName >
:
< subscriptionList >
每個主題隻能有一個訂閱。請手動確保您的主題沒有多個訂閱。
CF_GCP_AUTHENTICATION
請提供以下所有:, ,
和或不提供它們中的任何一個以使用默認值
用於使用GCP資源進行身份驗證的GCP憑證提供程序鏈。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多標簽()為GCP資源。每個資源的最大標簽數。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
架構日誌中的日誌文件不完整
CF_INCORRECT_SQL_PARAMS
cloud_files方法接受兩個必需的字符串參數:加載路徑和文件格式。文件讀取器選項必須在字符串鍵值映射中提供。例如cloud_files(“路徑”、“json”地圖(“option1”、“value1”))。收到:<參數>
CF_INVALID_CHECKPOINT
此檢查點不是有效的CloudFiles源
CF_INVALID_CLEAN_SOURCE_MODE
清潔源選項<值>的模式無效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
無效的GCP資源標簽鍵:< >鍵
.密鑰必須以小寫字母開頭,長度不超過1 ~ 63個字符,且隻能包含小寫字母、數字、“_”和“-”。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
無效的GCP資源標簽值:<值>
.長度範圍為0 ~ 63個字符,隻能包含小寫字母、數字、“_”和“-”。
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles。必須是{中的一個
“< addNewColumns >”
“< failOnNewColumns >”
“救援> <”
“< noEvolution > "}
CF_INVALID_SCHEMA_HINTS_OPTION
模式提示隻能指定特定列一次。
在本例中,重新定義列:
多次在schemaHints:
< schemaHints >
CF_INVALID_SCHEMA_HINT_COLUMN
模式提示不能用於覆蓋映射和數組的嵌套類型。
矛盾列:< columnName >
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset應該在此源上使用ReadLimit調用。
CF_MAX_MUST_BE_POSITIVE
Max一定是正的
CF_MISSING_PARTITION_COLUMN_ERROR
分區列在提供的架構中不存在:
<模式>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式時沒有向CloudFiles源提供路徑,請使用.schema()指定模式。另外,如果要讓Auto Loader推斷模式,請在.load()中提供一個基本路徑。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
發現主題的現有通知< topicName >
在鬥< bucketName >
:
通知、身份證
< notificationList >
為避免意外事件汙染訂閱者,請刪除上述通知後重試。
CF_NEW_PARTITION_ERROR
從您的文件推斷出新的分區列:[]。請提供模式中的所有分區列,或提供您想要提取值的分區列列表,方法是:.option(" cloudFiles. properties ")partitionColumns”、“{comma-separated-list |空字符串}”)
CF_PARTITON_INFERENCE_ERROR
試圖推斷當前批文件的分區模式時出錯。請使用:.option(" cloudFiles. ")顯式提供分區列。< partitionColumnOption >”、“{comma-separated-list}”)
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
禁用異步回填後,不支持定時回填。您可以通過設置啟用異步回填/目錄列表spark.databricks.cloudFiles.asyncDirListing
為真
CF_PREFIX_MISMATCH
發現不匹配事件:鍵<鍵>沒有前綴:<前綴>
CF_PROTOCOL_MISMATCH
<消息>
如果您不需要對代碼進行任何其他更改,那麼請設置SQL
配置:' = '
以恢複您的流。請參考:
<不再>
為更多的細節。
CF_REGION_NOT_FOUND_ERROR
無法獲得默認AWS區域。請使用cloudFiles指定一個區域。地區的選擇。
CF_RESOURCE_SUFFIX_EMPTY
創建通知服務失敗:資源後綴不能為空。處理步驟
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
創建通知服務失敗:資源後綴隻能有字母數字、中劃線(-)和下劃線(_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
創建通知服務失敗:資源後綴隻能有小寫字母、數字和破折號(-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
創建通知服務失敗:資源後綴隻能有字母數字字符、連字符(-)、下劃線(_)、句點(.)、波浪號(~)和百分號()。
CF_RESOURCE_SUFFIX_LIMIT
創建通知服務失敗:資源後綴不能超過個字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
創建通知服務失敗:資源後綴必須在和之間。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
發現受限製的GCP資源標記鍵(< >鍵
).以下GCP資源標簽鍵對Auto Loader有限製:[< limittedkeys >]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration不能大於cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
為主題創建通知失敗:<主題>
前綴:<前綴>
.已經有一個具有相同名稱和另一個前綴的主題:< oldPrefix >
.嚐試使用不同的資源後綴進行設置或刪除現有的設置。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
請提供帶有選項的源目錄路徑路徑
CF_SOURCE_UNSUPPORTED
雲文件源目前隻支持S3、Azure Blob Storage (wasb/wasbs)和Azure Data Lake Gen1 (adl)和Gen2 (abfs/abfss)路徑。路徑:' <路徑> ',解析uri: ' '
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
無法從源檢查點位置派生流檢查點位置:
CF_UNABLE_TO_LIST_EFFICIENTLY
收到路徑<路徑>的目錄重命名事件,但我們無法有效地列出該目錄。為了讓流繼續,設置選項“cloudFiles”。ignoreDirRenames '為true,並考慮啟用cloudFiles的常規回填。處理此數據的backfillInterval。
CF_UNKNOWN_OPTION_KEYS_ERROR
發現未知選項鍵:
< optionList >
請確保所有提供的選項鍵都是正確的。如果你想跳過
驗證您的選項並忽略這些未知選項,您可以設置:
.option(“cloudFiles。< validateOptions >”,“假”)
CF_UNKNOWN_READ_LIMIT
未知ReadLimit: < ReadLimit >
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:最大支持的日誌版本是v,但遇到v<版本>。日誌文件是由DBR的新版本產生的,不能被該版本讀取。請升級。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
模式演化模式<模式>不支持format: 。