數據庫中的錯誤條件

這是一個由Databricks返回的常見的命名錯誤條件的列表。

Databricks Runtime和Databricks SQL

AMBIGUOUS_FIELD_NAME

字段名是歧義的,在結構中有匹配字段。

ARITHMETIC_OVERFLOW

<消息>。如有必要,將設置為" false "(除ANSI間隔類型外)以繞過此錯誤。

CANNOT_CAST_DATATYPE

不能將轉換為

CANNOT_CHANGE_DECIMAL_PRECISION

不能表示為Decimal()。如有必要,將設置為" false "以繞過此錯誤。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

不能刪除由CHECK約束共享的名稱的約束

和一個主鍵或外鍵約束。您可以刪除主鍵或

查詢的外鍵約束:

ALTER TABLE . .刪除主鍵或

ALTER TABLE . .刪除外鍵..

CANNOT_PARSE_DECIMAL

不能解析小數

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

無法從安全提供程序讀取敏感密鑰“<密鑰>”

CANNOT_UP_CAST_DATATYPE

不能將向上轉換為

<詳細>

CAST_INVALID_INPUT

類型的值不能強製轉換為,因為它是畸形的。根據語法糾正值,或更改其目標類型。使用try_cast允許錯誤的輸入並返回NULL。如有必要,將設置為" false "以繞過此錯誤。

CAST_OVERFLOW

由於溢出,類型的值< >不能強製轉換為。使用try_cast允許溢出並返回NULL。如有必要,將設置為" false "以繞過此錯誤。

CONCURRENT_QUERY

此查詢的另一個實例剛剛由並發會話啟動。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

無效的計劃> <方案。COPY INTO源加密目前隻支持s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

COPY INTO源憑據必須指定

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

在並發COPY INTO操作中提交了重複的文件。請稍後再試。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

無效的計劃> <方案。COPY INTO源碼加密目前隻支持s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

COPY INTO加密隻支持ADLS Gen2或abfss://文件方案

COPY_INTO_ENCRYPTION_REQUIRED

COPY INTO源加密必須指定' <密鑰> '。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

加密選項無效。COPY INTO源加密必須指定' ' = ' '。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

除了追加數據之外,COPY INTO不允許與其他事務並發運行。請稍後再試。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

COPY INTO加載狀態失敗,最大重試次數超過。

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

源文件格式必須為CSV、JSON、AVRO、ORC、PARQUET、TEXT或BINARYFILE中的一種。不支持在Delta表上使用COPY INTO作為源,因為在OPTIMIZE操作之後可能會攝入重複的數據。可以通過運行SQL命令關閉此檢查spark.databricks.delta.copyInto.formatCheck.enabled

DATETIME_OVERFLOW

Datetime操作溢出:<操作>。

DIVIDE_BY_ZERO

除零。使用try_divide允許除數為0並返回NULL。如果需要,將設置為" false " (ANSI間隔類型除外)以繞過此錯誤。

DUPLICATE_KEY

發現重複鍵

EXCEPT_NESTED_COLUMN_INVALID_TYPE

EXCEPT列被解析並期望為StructType,但發現類型

EXCEPT_OVERLAPPING_COLUMNS

EXCEPT列表中的列必須是不同的且不重疊的。

FAILED_EXECUTE_UDF

執行用戶定義的函數失敗(: () => )

FAILED_RENAME_PATH

重命名為失敗,因為目的地已存在。處理步驟

FAILED_SET_ORIGINAL_PERMISSION_BACK

事件解釋將原權限<權限>設置回創建的路徑:<路徑>失敗。例外:<消息>

FORBIDDEN_OPERATION

<語句>操作不允許在: 上執行

GRAPHITE_SINK_INVALID_PROTOCOL

無效的石墨協議:<協議>

GRAPHITE_SINK_PROPERTY_MISSING

石墨水槽要求“<屬性>”屬性。

GROUPING_COLUMN_MISMATCH

分組列(<分組>)無法在分組列中找到

GROUPING_ID_COLUMN_MISMATCH

grouping_id ()的列不匹配分組列()

GROUPING_SIZE_LIMIT_EXCEEDED

分組集大小不能大於

INCOMPARABLE_PIVOT_COLUMN

無效的主列。主列必須是可比較的。

INCOMPATIBLE_DATASOURCE_REGISTER

檢測到不兼容的DataSourceRegister。請從類路徑中刪除不兼容的庫或升級它。錯誤:<消息>

INCONSISTENT_BEHAVIOR_CROSS_VERSION

您可能會得到不同的結果,由於升級到

更多詳情請參見INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

至少需要參數,最多需要參數。

INDEX_OUT_OF_BOUNDS

Index 必須在0和ArrayData的長度之間。

INTERNAL_ERROR

<消息>

INVALID_AGGREGATE_FUNCTION_USAGE_IN_SQL_FUNCTION

SQL函數中無效的聚合函數使用:

INVALID_ARRAY_INDEX

索引超出邊界。數組有元素。如有必要,將設置為" false "以繞過此錯誤。

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

索引超出邊界。數組有元素。使用try_element_at允許在無效索引處訪問元素並返回NULL。如有必要,將設置為" false "以繞過此錯誤。

INVALID_BUCKET_FILE

無效的桶文件:<路徑>

INVALID_CLONE_PATH

CLONE的目標位置需要是絕對路徑或表名。使用一個

絕對路徑而不是<路徑>。

INVALID_FIELD_NAME

字段名無效:<路徑>不是結構體。

INVALID_FRACTION_OF_SECOND

秒的分數必須為零。有效範圍是[0,60]。如有必要,將設置為" false "以繞過此錯誤。

INVALID_JSON_SCHEMA_MAP_TYPE

輸入模式隻能包含STRING作為MAP的鍵類型。

INVALID_PANDAS_UDF_PLACEMENT

組聚合熊貓UDF 不能與其他非熊貓聚合函數一起調用。

INVALID_PARAMETER_VALUE

中參數' <參數> '的值無效:<預期>

INVALID_PROPERTY_KEY

是一個無效的屬性鍵,請使用引號,例如SET =

INVALID_PROPERTY_VALUE

是一個無效的屬性值,請使用引號,例如SET =

INVALID_S3_COPY_CREDENTIALS

COPY INTO憑據必須包括AWS_ACCESS_KEY, AWS_SECRET_KEY和AWS_SESSION_TOKEN。

INVALID_SQL_FUNCTION_PLAN_STRUCTURE

無效的SQL函數計劃結構

<計劃>

INVALID_SQL_SYNTAX

錯誤的SQL語法:

INVALID_TIMESTAMP_FORMAT

提供的時間戳與預期的語法不匹配。

MAP_KEY_DOES_NOT_EXIST

Key 不存在。使用try_element_at允許不存在的鍵並返回NULL。如有必要,將設置為" false "以繞過此錯誤。

MISSING_COLUMN

列“”不存在。你是指以下其中之一嗎?(<提議>)

MISSING_NAME_FOR_CHECK_CONSTRAINT

CHECK約束必須有名稱。

MISSING_STATIC_PARTITION_COLUMN

未知靜態分區列:

MULTIPLE_LOAD_PATH

Databricks Delta在load() API中不支持多輸入路徑。

路徑:< pathList >。通過加載來構建單個數據幀

來自同一個Delta表的多條路徑,請加載的根路徑

Delta表和相應的分區過濾器。如果多條路徑

來自不同的Delta表,請使用數據集的union()/unionByName() api

來組合由單獨的load() API調用生成的數據幀。

MULTIPLE_MATCHING_CONSTRAINTS

找到至少兩個與給定條件匹配的約束。

MULTI_UDF_INTERFACE_ERROR

不允許實現多個UDF接口,UDF類<類>

MULTI_VALUE_SUBQUERY_ERROR

由用作表達式的子查詢返回的多行:

NON_LITERAL_PIVOT_VALUES

pivot值需要文字表達式,找到' '

NON_PARTITION_COLUMN

PARTITION子句不能包含非分區列名:

NOT_A_TABLE_FUNCTION

不是表函數。請檢查函數的使用情況:DESCRIBE function

NOT_A_VALID_DEFAULT_EXPRESSION

的默認表達式> < functionName< parameterName >不支持,因為它包含子查詢。

NOT_A_VALID_DEFAULT_PARAMETER_POSITION

在常規> < functionName參數< parameterName >with DEFAULT後麵不能跟parameter< nextParameterName >沒有違約。

NOT_SUPPORTED_WITH_DB_SQL

SQL <倉庫>上不支持<操作>。

NO_HANDLER_FOR_UDAF

沒有UDAF ' '的處理程序。使用sparkSession.udf.register(…)。

NO_UDF_INTERFACE_ERROR

UDF類<類>不實現任何UDF接口

NULL_COMPARISON_RESULT

比較結果為空。如果您想將null處理為0(等於),您可以設置“spark.sql.legacy.”allowNullComparisonResultInArraySort”到“真正的”。

OPERATION_REQUIRES_UNITY_CATALOG

操作<操作>需要啟用Unity Catalog。

PARSE_CHAR_MISSING_LENGTH

DataType <類型>需要一個長度參數,例如<類型>(10)。請指定長度。

PARSE_EMPTY_STATEMENT

語法錯誤,意外的空語句

PARSE_SYNTAX_ERROR

語法錯誤在附近

PARTITION_SCHEMA_IN_ICEBERG_TABLES

在轉換冰山表時無法指定分區模式

PIVOT_VALUE_DATA_TYPE_MISMATCH

無效的主值“<值>”:值數據類型與主列數據類型不匹配

RENAME_SRC_PATH_NOT_FOUND

未能找到重命名為

RESERVED_CDC_COLUMNS_ON_WRITE

寫入包含使用的保留列

在內部作為更改數據提要的元數據。要寫入表,可以選擇rename/drop

或通過設置禁用表上的“更改數據提要”

<設置>為假。

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

' '函數的第二個參數需要是一個整數。

UNABLE_TO_ACQUIRE_MEMORY

無法獲取< requestdbytes >字節的內存,獲取

UNRECOGNIZED_SQL_TYPE

無法識別的SQL類型

UNRESOLVED_MAP_KEY

無法將列解析為映射鍵。如果鍵是字符串文字,請在其周圍加上單引號。否則,您是指以下列之一嗎?(<提議>)

UNSUPPORTED_CONSTRAINT_CLAUSES

不支持約束子句<子句>。

UNSUPPORTED_CONSTRAINT_TYPE

不支持的約束類型。隻支持

UNSUPPORTED_DATATYPE

不支持的數據類型

UNSUPPORTED_DESERIALIZER

反序列化器不受支持:

更多詳情請參見UNSUPPORTED_DESERIALIZER

UNSUPPORTED_FEATURE

不支持該特性:

更多詳情請參見UNSUPPORTED_FEATURE

UNSUPPORTED_GENERATOR

不支持生成器:

更多詳情請參見UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

grouping()/grouping_id()隻能與GroupingSets/Cube/Rollup一起使用

UNSUPPORTED_SAVE_MODE

不支持保存模式:

更多詳情請參見UNSUPPORTED_SAVE_MODE

UNTYPED_SCALA_UDF

您正在使用無類型的Scala UDF,它沒有輸入類型信息。Spark可能會盲目地將null傳遞給帶有基元類型參數的Scala閉包,而閉包將看到null參數的Java類型的默認值,例如。udf (x):Int)= >x,IntegerType),對於空輸入,結果為0。要消除這個錯誤,你可以:

  1. 使用類型化的Scala UDF api(沒有返回類型參數),例如:udf (x):Int)= >x)

  2. 使用Java UDF api,例如udf(新UDF1(字符串,整數)覆蓋def調用(s:字符串):整數s.length ()},IntegerType),如果輸入類型都是非基元的

  3. 設置“spark.sql.legacy。allowUntypedScalaUDF為" true ",並謹慎使用此API

WRITING_JOB_ABORTED

寫工作中止

ZORDERBY_COLUMN_DOES_NOT_EXIST

ZOrderBy列不存在。

三角洲湖

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

找不到活躍的SparkSession

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

當一個txn已經處於活動狀態時,不能將新的txn設置為活動狀態

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

索引添加列小於0

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

在位置<位置>處未找到結構

DELTA_AGGREGATE_IN_GENERATED_COLUMN

找到< sqlExpr >。生成的列不能使用聚合表達式

DELTA_AGGREGATION_NOT_SUPPORTED

<操作> <謂詞>中不支持聚合函數。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

ALTER TABLE CHANGE COLUMN不支持將字段修改為字段

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

不允許的操作:不允許對S3上的托管Delta表執行ALTER TABLE RENAME TO操作,因為S3上的最終一致性可能會破壞Delta事務日誌。如果您堅持這樣做,並且確定以前從未有過具有新名稱的Delta表,您可以通過將設置為true來啟用此功能。

DELTA_AMBIGUOUS_PARTITION_COLUMN

歧義分區列<列>可以

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

CREATE TABLE包含兩個不同的位置:

可以從CREATE TABLE語句或集合中刪除LOCATION子句

to true跳過此檢查。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

不能為以下不存在的列刪除bloom過濾器索引:

DELTA_CANNOT_CHANGE_DATA_TYPE

不能更改數據類型:

DELTA_CANNOT_CHANGE_LOCATION

不能使用SET TBLPROPERTIES更改Delta表的“位置”。請使用ALTER TABLE SET LOCATION代替。

DELTA_CANNOT_CHANGE_PROVIDER

' provider '是一個保留的表屬性,不能被修改。

DELTA_CANNOT_CONVERT_TO_FILEFORMAT

無法將轉換為FileFormat。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

無法為以下不存在的列創建bloom過濾器索引:

DELTA_CANNOT_CREATE_LOG_PATH

不能創建<路徑>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

無法描述視圖的曆史。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

不能在非索引列上刪除綻放篩選器索引:

DELTA_CANNOT_EVALUATE_EXPRESSION

無法計算表達式:<表達式>

DELTA_CANNOT_FIND_BUCKET_SPEC

期望有一個桶Delta表,但在表中找不到桶規範

DELTA_CANNOT_FIND_VERSION

無法在中找到' sourceVersion '

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

不能為表達式生成代碼:<表達式>

DELTA_CANNOT_GENERATE_UPDATE_EXPRESSIONS

在不生成列的情況下調用應該總是為每個列返回一個更新表達式

DELTA_CANNOT_MODIFY_APPEND_ONLY

該表被配置為隻允許附加。如果你想允許更新或刪除,使用' ALTER TABLE SET TBLPROPERTIES (=false) '。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

在事務日誌中發現了一個不能轉換為相對路徑的uri ()。

DELTA_CANNOT_RELATIVIZE_PATH

路徑(<路徑>)不能與在

事務日誌。請以以下方式重新運行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“< userPath >”,真的)

然後還要運行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)

DELTA_CANNOT_RENAME_PATH

不能將重命名為

DELTA_CANNOT_REPLACE_MISSING_TABLE

不能被替換,因為它不存在。使用CREATE或REPLACE TABLE創建表。

DELTA_CANNOT_RESOLVE_COLUMN

無法解析<架構>中的列

DELTA_CANNOT_RESOLVE_SOURCE_COLUMN

無法在源查詢中解析合格的源列。請聯係Databricks技術支持。

DELTA_CANNOT_RESTORE_TABLE_VERSION

無法將表恢複到版本<版本>。可用版本:[]。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

不能將表恢複到時間戳(< requestdtimestamp >),因為它是在可用的最新版本之後。請在()之前使用時間戳

DELTA_CANNOT_UPDATE_ARRAY_FIELD

無法更新%1$s字段%2$s類型:通過更新%2$s元素來更新元素

DELTA_CANNOT_UPDATE_MAP_FIELD

無法更新%1$s字段%2$s類型:通過更新%2$s來更新映射。鍵或% 2 s.value美元

DELTA_CANNOT_UPDATE_STRUCT_FIELD

不能update field type:通過添加、刪除或更新其字段來更新struct

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

不能對分區列使用所有列

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

配置三角洲。不能設置enableChangeDataFeed。Delta的更改數據還不可用。

DELTA_CLONE_AMBIGUOUS_TARGET

克隆目標提供了兩條路徑,因此使用哪一條是不明確的。一個外部

CLONE的location是在和路徑同時提供的

< targetIdentifier >。

DELTA_COLUMN_NOT_FOUND

找不到列< columnName >鑒於[< columnList >)

DELTA_COLUMN_NOT_FOUND_IN_MERGE

無法從INSERT列中找到目標表的“”列:。INSERT子句必須為目標表的所有列指定值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

無法找到列:

< tableSchema >

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

結構列不能插入字段中的

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

列中發現嵌套的NullType,該列的<數據類型>。Delta不支持在複雜類型中寫入NullType。

DELTA_CONFIGURE_SPARK_SESSION_WITH_EXTENSION_AND_CATALOG

這個Delta操作需要SparkSession配置

DeltaSparkSessionExtension和DeltaCatalog。請設置必要的

如下所示創建SparkSession時的配置。

SparkSession構建器()選項“spark.sql.extensions”“< sparkSessionExtensionName >”選項“< catalogKey >”“< catalogClassName >”...構建()

DELTA_CONFLICT_SET_COLUMN

這些SET列有衝突:

DELTA_CONSTRAINT_ALREADY_EXISTS

約束' '已經作為CHECK約束存在。請先刪除舊的約束。

古老的約束:

< checkCondition >

DELTA_CONSTRAINT_DOES_NOT_EXIST

無法從表中刪除不存在的約束。要避免拋出錯誤,請提供參數IF EXISTS或將SQL會話配置設置為

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

配置' '不能設置為<模式>當使用CONVERT TO DELTA時。

DELTA_CONVERT_NON_PARQUET_TABLE

CONVERT TO DELTA隻支持拚花表,但您正在嚐試轉換源:

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

您試圖創建一個外部表

<路徑>方法時沒有指定模式

輸入路徑為空。

要了解更多關於Delta的信息,請參閱

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

您試圖創建一個外部表

% 2 $ s使用Delta,但是沒有事務日誌

% 2 $ s / _delta_log.檢查上遊作業,以確保它正在寫入using

格式(" delta "),並且該路徑是表的根。

要了解更多關於Delta的信息,請參閱

DELTA_CREATE_TABLE_SCHEME_MISMATCH

指定的模式與<路徑>的現有模式不匹配。

= = = =指定

< specifiedSchema >

現有= = = =

< existingSchema >

= = = =的差異

< schemaDifferences >

如果您的意圖是保留現有模式,則可以省略

創建表命令中的Schema。否則,請確保

模式匹配。

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

指定的屬性與<路徑>處的現有屬性不匹配。

= = = =指定

< specificiedProperties >

現有= = = =

< existingProperties >

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

無法創建表(' ')。關聯的位置(' ')不是空的,但它不是一個Delta表

DELTA_DUPLICATE_COLUMNS_FOUND

發現重複列:

DELTA_DUPLICATE_COLUMNS_ON_INSERT

在INSERT子句中重複列名

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

<消息>

在更新表之前,請刪除重複的列。

DELTA_EMPTY_DATA

用於創建Delta表的數據沒有任何列。

DELTA_EMPTY_DIRECTORY

目錄中沒有找到文件:<目錄>。

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

超出char/varchar類型長度限製

DELTA_EXPRESSIONS_NOT_FOUND_IN_GENERATED_COLUMN

無法在生成的列中找到表達式

DELTA_EXTRACT_REFERENCES_FIELD_NOT_FOUND

提取引用時找不到字段

DELTA_FAILED_CAST_PARTITION_VALUE

轉換分區值失敗<值><數據類型>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLLUMNS

無法在現有的目標輸出中找到 < targetoutputcolumns >

DELTA_FAILED_INFER_SCHEMA

未能從給定的文件列表推斷模式。

DELTA_FAILED_MERGE_SCHEMA_FILE

日誌含義合並<文件>的架構失敗:

<模式>

DELTA_FAILED_RECOGNIZE_PREDICATE

無法識別謂詞' <謂詞> '

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

期望對Delta源代碼的最新版本進行完整掃描,但發現版本的曆史掃描

DELTA_FAILED_TO_MERGE_FIELDS

合並字段“”和“”失敗。< fieldChild >

DELTA_FAIL_RELATIVIZE_PATH

無法相對化路徑(<路徑>)。這可能發生在絕對路徑

將它寫入事務日誌,事務日誌從方案開始

s3://, wasbs://或adls://。這是一個在DBR 5.0之前就存在的bug。

要解決此問題,請將您的寫入器作業升級到DBR 5.0,並運行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路徑>”)。

如果該表是通過跨文件係統的淺克隆創建的

(不同的桶/容器)和這個表不是在生產中使用,你可以

設置SQL配置spark.databricks.delta.vacuum.relativize.ignoreError

為true。使用這種SQL配置可能會導致意外數據丟失,

因此,我們不建議使用此標誌,除非

這是一個用於測試目的的淺克隆。

DELTA_FILE_ALREADY_EXISTS

已存在文件路徑<路徑>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

不能同時指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

文件路徑<路徑>

DELTA_FILE_OR_DIR_NOT_FOUND

沒有這樣的文件或目錄:<路徑>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

要重寫的文件(<路徑>)在候選文件中找不到:

< pathList >

DELTA_FOUND_MAP_TYPE_COLUMN

找到了一個MapType。為了訪問MapType的鍵或值,請指定一個

:

< >鍵或

<值>

後跟列的名稱(僅當該列是結構類型時)。

例如mymap.key.mykey

如果列是基本類型,則為mymap。鍵或關聯。價值是充分的。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

Column 為已生成的列或已生成的列使用的列。數據類型為。它不接受數據類型

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

生成的列的表達式類型為,但列類型為

DELTA_ILLEGAL_FILE_FOUND

在dataChange中發現的非法文件=假事務。文件:<文件>

DELTA_ILLEGAL_USAGE

當<操作>是Delta表時,不允許使用<選項>。

DELTA_INCOMPLETE_FILE_COPY

文件()沒有完全複製。期望文件大小:, found: 。通過忽略文件大小檢查集來繼續操作spark.databricks.delta.clone.checkWrite為假。

DELTA_INCONSISTENT_BUCKET_SPEC

Delta bucket表的BucketSpec與元數據中的BucketSpec不匹配。預期:< >。實際實際:< >。

DELTA_INCORRECT_ARRAY_ACCESS

錯誤地訪問ArrayType。使用arrayname.element.elementname position來

添加到數組中。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

找到了一個ArrayType。為了訪問ArrayType的元素,指定

< rightName >

而不是< wrongName >

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

錯誤通常發生在默認的LogStore實現,即

is,即HDFSLogStore,用於在非hdfs存儲係統上寫入Delta表。

為了在表更新上獲得事務性ACID保證,您必須使用

正確實現適合您的存儲係統的LogStore。

詳見

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

要刪除列的索引<位置>等於或大於結構長度:<長度>

DELTA_INDEX_LARGER_THAN_STRUCT

索引<索引>用於添加列大於結構長度:

DELTA_INSERT_COLUMN_ARITY_MISMATCH

不能寫入' ', ;目標表有列,但插入的數據有列(s)

DELTA_INSERT_COLUMN_MISMATCH

在INSERT中沒有指定列

DELTA_INVALID_BUCKET_COUNT

無效桶計數:。桶數應該是一個正數,等於2的冪,至少等於8。您可以使用代替。

DELTA_INVALID_BUCKET_INDEX

在分區列中找不到桶列

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

Interval不能為空或空。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

屬性名“”包含“,;{}()\n\t=”中的無效字符。請使用別名重新命名。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

在模式的列名中',;{}()nt= '中發現無效字符。<通知>

DELTA_INVALID_COMMITTED_VERSION

提交的版本是,但當前版本是。請聯係Databricks技術支持。

DELTA_INVALID_FORMAT_FROM_SOURCE_VERSION

不支持的格式。期望版本應該小於或等於,但小於realVersion>。請升級到新版本的Delta。

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

生成的列不能使用不存在的列或其他生成的列

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

冪等數據幀的無效選項寫入:

DELTA_INVALID_ISOLATION_LEVEL

無效隔離級別' '

DELTA_INVALID_LOGSTORE_CONF

spark.delta.logStore.class)和(< schemeConfig >)不能同時設置。請隻設置一組。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

您正在嚐試創建一個托管表

使用Delta,但沒有指定模式。

要了解更多關於Delta的信息,請參閱

DELTA_INVALID_PARTITIONING_SCHEMA

AddFile包含與表的分區模式不同的分區模式

預期:< neededPartitioning >

實際:< specifiedPartitioning >

禁用此檢查集 To " false "

DELTA_INVALID_PARTITION_COLUMN

不是表中的有效分區列。

DELTA_INVALID_PARTITION_PATH

分區路徑片段的形式應該是這樣的part1 = foo / part2 = bar.分區路徑:<路徑>

DELTA_INVALID_PROTOCOL_DOWNGRADE

協議版本不能從降到

DELTA_INVALID_SOURCE_VERSION

sourceVersion(<版本>)是無效的

DELTA_INVALID_TIMESTAMP_FORMAT

提供的時間戳與預期的語法不匹配。

DELTA_INVALID_V1_TABLE_CALL

基於路徑的不需要調用

DELTA_ITERATOR_ALREADY_CLOSED

迭代器是關閉的

DELTA_MAX_ARRAY_SIZE_EXCEEDED

請使用小於Int的限製。MaxValue - 8。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

這個提交失敗,因為它已經嚐試了次,但沒有成功。

這可能是由於Delta表被許多並發數據連續提交造成的

提交。

Commit started at version:

提交失敗在版本:

嚐試提交的操作數:

嚐試提交的總時間: ms

DELTA_MAX_LIST_FILE_EXCEEDED

文件列表必須有最多條目,有

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

合並十進製類型與不兼容的失敗

DELTA_MERGE_INVALID_WHEN_NOT_MATCHED_CLAUSE

<子句>子句不能成為MERGE INTO中的WHEN NOT MATCHED子句的一部分。

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

意外賦值鍵:< expectedkeyclass > - < expectedkeyobject >

DELTA_METADATA_ABSENT

提交第一個版本的Delta表時找不到元數據。禁用

這個檢查集為" false "

DELTA_MISSING_CHANGE_DATA

獲取範圍[]的更改數據錯誤,因為更改數據不是

已記錄版本[<版本>]。如果您在這個表上啟用了更改數據提要,

使用描述曆史查看它第一次啟用的時間。

否則,要開始記錄更改數據,使用' ALTER TABLE table_name SET TBLPROPERTIES

(<鍵> = true)”。

DELTA_MISSING_COLUMN

無法在表列中找到:

DELTA_MISSING_DELTA_TABLE

不是一個Delta表。

DELTA_MISSING_FILES_UNEXPECTED_VERSION

Delta表中的流期望來自版本的進程數據,

但最早的可用版本在δ日誌目錄為<最早版本>。的文件

在事務中,日誌可能已由於日誌清理而被刪除。為了避免輸

數據,我們建議您使用一個新的檢查點位置重新啟動流,然後

增加你的三角洲。logRetentionDuration設置,如果您顯式地將其設置為30以下

天。

如果您想忽略丟失的數據並從它離開的地方繼續您的流

關閉,你可以設置.option("

你的readStream語句。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

具有NOT NULL約束,寫入表的數據中缺少它。

DELTA_MISSING_PARTITION_COLUMN

分區列< columnName >沒有在架構中找到

DELTA_MISSING_PROVIDER_FOR_CONVERT

CONVERT TO DELTA隻支持拚花桌子。請將你的目標改寫為拚花。<路徑>如果是拚花目錄。

DELTA_MISSING_SET_COLUMN

SET column 沒有找到給定的列:

DELTA_MODE_NOT_SUPPORTED

不支持指定模式' '。支持的模式有:

DELTA_MULTIPLE_CDC_BOUNDARY

為CDC讀取提供多個< startgorending >參數。請提供一個< startgorending >時間戳或< startgorending >版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

多個bloom過濾器索引配置傳遞給命令用於

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

無法執行合並,因為多個源行匹配並試圖修改相同的行

在Delta表中以可能衝突的方式調用目標行。通過Merge的SQL語義,

當多個源行在同一目標行上匹配時,結果可能是模糊的

由於不清楚應該使用哪一個源行來更新或刪除匹配

目標行。可以對源表進行預處理,以消除

多個匹配。請參考

< usageReference >

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

以下列名僅為Delta bucket表內部使用保留:

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

<操作>條件不支持嵌套子查詢。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

中的行違反了新的CHECK約束()

DELTA_NEW_NOT_NULL_VIOLATION

中的行違反了上新的NOT NULL約束

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

<操作> <表達式>中不支持非確定性函數

DELTA_NON_GENERATED_COLUMN_MISSING_UPDATE_EXPR

不是一個生成的列,但是缺少它的更新表達式

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

當MERGE語句中有多個MATCHED子句時,隻有最後一個MATCHED子句可以省略條件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

當MERGE語句中有多個NOT MATCHED子句時,隻有最後一個NOT MATCHED子句可以省略條件

DELTA_NON_PARSABLE_TAG

無法解析<標記>的標記。

文件標簽是:

DELTA_NON_PARTITION_COLUMN_ABSENT

寫入Delta的數據需要包含至少一個非分區列

DELTA_NON_PARTITION_COLUMN_REFERENCE

謂詞引用非分區列' '。隻有分區列可以被引用:[]

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

不是一個Delta表。如果您想用Databricks Delta創建此表,請先刪除它。

DELTA_NOT_A_DELTA_TABLE

不是一個Delta表。如果你想用三角洲湖重建它,請先放下這張桌子。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

不能為空的列沒有在結構中找到:<結構>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

列違反NOT NULL約束。

DELTA_NO_COMMITS_FOUND

處未發現提交

DELTA_NO_NEW_ATTRIBUTE_ID

無法為列找到新的屬性ID。這應該更早檢查。

DELTA_ONEOF_IN_TIMETRAVEL

請為時間旅行提供“timestampAsOf”或“versionAsOf”。

DELTA_ONLY_OPERATION

<操作>隻支持Delta表。

DELTA_OPERATION_MISSING_PATH

請為<操作>提供路徑或表標識符。

DELTA_OPERATION_NOT_ALLOWED

操作不允許:<操作>是否不支持Delta表

DELTA_OPERATION_NOT_ALLOWED_DETAIL

操作不允許:<操作>不支持Delta表:

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

不支持在引用包含生成列的Delta表的臨時視圖上執行命令。請直接在Delta表上運行命令

DELTA_PARTITION_COLUMN_CAST_FAILED

無法轉換值<值><數據類型>分區列< columnName >

DELTA_PATH_DOES_NOT_EXIST

<路徑>不存在

DELTA_POST_COMMIT_HOOK_FAILED

提交到Delta表版本<版本>成功,但在執行提交後鉤子<消息>時出錯

DELTA_PROTOCOL_PROPERTY_NOT_INT

協議屬性需要為整數。發現價值> <

DELTA_READ_TABLE_WITHOUT_COLUMNS

您試圖使用Delta讀取一個表,但沒有列。

用選項寫一些數據mergeSchema真正的啟用後續讀訪問。

DELTA_REGEX_OPT_SYNTAX_ERROR

請重新檢查' '的語法

DELTA_REMOVE_FILE_CDC_MISSING_EXTENDED_METADATA

沒有擴展元數據創建的RemoveFile不適合CDC:

<文件>

DELTA_REPLACE_WHERE_IN_OVERWRITE

不能將replaceWhere與過濾器覆蓋結合使用

DELTA_REPLACE_WHERE_MISMATCH

寫入的數據不匹配replaceWhere ' '。

<消息>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

在DataFrameWriter選項中不能同時設置' replaceWhere '表達式和' partitionOverwriteMode ' = ' dynamic '。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

當' dataChange '被設置為false時,' replaceWhere '不能與數據過濾器一起使用。過濾器:< dataFilters >

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

自DataFrame以來,Delta表的模式已以不兼容的方式更改

或DeltaTable對象被創建。請重新定義DataFrame或DeltaTable對象。

變化:

< schemaDiff > < legacyFlagMessage >

DELTA_SCHEMA_NOT_CONSISTENT_WITH_TARGET

表模式與目標屬性不一致

DELTA_SCHEMA_NOT_SET

未設置表模式。將數據寫入其中或使用CREATE TABLE設置模式。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

新Delta位置的模式與當前表模式不同。

原始模式:

原始> <

目標模式:

<目標>

如果這是一個有意的更改,你可以通過運行以下命令關閉這個檢查:

%%sql set = true

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

不允許在未分區的表上執行SHOW PARTITIONS:

DELTA_SOURCE_IGNORE_DELETE

檢測到版本< >的流源中刪除的數據(例如)。這是目前不支持的。如果你想忽略刪除,設置選項' ignoredeletion '為' true '。

DELTA_SPARK_SESSION_NOT_SET

激活SparkSession未設置。

DELTA_SPARK_THREAD_NOT_FOUND

沒有在Spark任務線程上運行

DELTA_STATE_RECOVER_ERROR

重構時無法恢複增量表的<操作>

版本:<版本>。您是否手動刪除了δ日誌目錄嗎?

設置為“false”

跳過驗證。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

無法在表上啟用更改數據捕獲。該表已經包含

保留列 that will

在內部用作表的Change Data Feed的元數據。要啟用

更改表上的數據提要,重命名/刪除這些列。

DELTA_TABLE_ALREADY_EXISTS

已經存在。

DELTA_TABLE_FOUND_IN_EXECUTOR

DeltaTable不能在執行程序中使用

DELTA_TABLE_NOT_FOUND

Delta表不存在。請刪除流查詢檢查點並重新啟動。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

<操作>中不支持表。請使用路徑代替。

DELTA_TABLE_ONLY_OPERATION

不是一個Delta表。<操作>隻支持Delta表。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

所提供的時間戳()位於可用於此操作的最新版本之後

表(<表名>)。請在之前或在處使用時間戳。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

需要是一個有效的開始值。

DELTA_TRUNCATED_TRANSACTION_LOG

:由於手動刪除或日誌保留策略(=< logretention>)和檢查點保留策略(=< checkpointretention>),事務日誌已被截斷,因此無法在版本< >上重建狀態。

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

不允許操作:Delta表上的TRUNCATE TABLE不支持分區謂詞;使用DELETE刪除特定的分區或行。

DELTA_UNEXPECTED_ACTION_IN_OPTIMIZE

類型的意外操作<操作>。優化應該隻有AddFiles和RemoveFiles。

DELTA_UNEXPECTED_ATTRIBUTE_REFERENCE

期望AttributeReference但得到

DELTA_UNEXPECTED_CHANGE_FILES_FOUND

更改在dataChange = false事務中找到的文件。文件:

<文件列表>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

期望分區列(s): < expectedcols>,但發現分區列(s): < parsedcols>從解析文件名:<路徑>

DELTA_UNEXPECTED_PARTIAL_SCAN

預計會對Delta源進行全麵掃描,但發現了部分掃描。路徑:<路徑>

DELTA_UNKNOWN_CONFIGURATION

指定未知配置:

DELTA_UNRECOGNIZED_INVARIANT

未識別的不變的。請升級您的Spark版本。

DELTA_UNRECOGNIZED_LOGFILE

無法識別的日誌文件

DELTA_UNSET_NON_EXISTENT_PROPERTY

試圖取消設置表中不存在的屬性' <屬性> '

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

不支持添加具有絕對路徑的文件

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

不支持ALTER TABLE REPLACE COLUMNS操作。原因:<詳細>

更改架構失敗:

< oldSchema >

:

< newSchema >

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

您試圖用CLONE替換現有表()。這個操作是

不受支持的。為CLONE嚐試一個不同的目標或刪除當前目標上的表。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

不支持將列映射模式從“”更改為“”。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

當前的表協議版本不支持更改列映射模式

使用< config >。

列映射所需的Delta協議版本:

< requiredVersion >

您的表的當前Delta協議版本:

< currentVersion >

請使用ALTER table SET TBLPROPERTIES升級表的協議版本,然後重試。

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

檢測到架構更改:

舊模式:

< oldTableSchema >

新模式:

< newTableSchema >

在更改列映射模式期間不允許更改模式。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

不支持以列映射方式寫入數據。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

不支持在類型的列上創建綻放過濾器索引:

DELTA_UNSUPPORTED_DATA_TYPES

發現列使用不支持的數據類型:。您可以設置' '為' false '來禁用類型檢查。禁用這種類型檢查可能允許用戶創建不受支持的Delta表,並且隻應該在嚐試讀寫遺留表時使用。

DELTA_UNSUPPORTED_DROP_COLUMN

Delta表不支持DROP COLUMN。<通知>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

不允許刪除分區列()。

DELTA_UNSUPPORTED_EXPRESSION

不支持的表達式類型(),用於。支持的類型是[]。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

<表達式>不能在生成的列中使用

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

隻有StructType支持更新嵌套字段,但是您正在嚐試更新的字段,它的類型是:

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

不支持除StructTypes以外的嵌套字段上的不變量。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

listKeywithPrefix不可用

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

對於利用列映射的表,不支持清單生成,因為外部讀取器無法讀取這些Delta表。有關更多細節,請參閱Delta文檔。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

具有模式演化的MERGE INTO操作目前不支持編寫CDC輸出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

<操作>條件不支持多列In謂詞。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

目前不支持在嵌套列上創建綻放文件器索引:

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

<操作> (field = )中不支持嵌套字段。

DELTA_UNSUPPORTED_OUTPUT_MODE

數據源不支持輸出模式

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

不支持在分區列上創建綻放篩選器索引:

DELTA_UNSUPPORTED_RENAME_COLUMN

Delta表不支持列重命名。<通知>

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

對Delta bucket表不支持SORTED BY

DELTA_UNSUPPORTED_SOURCE

<操作>目的地隻支持Delta源。

<計劃>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

在插入期間,目前不支持在分區規範中指定靜態分區

DELTA_UNSUPPORTED_STRATEGY_NAME

不支持的策略名稱:<策略>

DELTA_UNSUPPORTED_SUBQUERY

<操作> (condition = )中不支持子查詢。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

分區謂詞中不支持子查詢。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

不能以多種格式指定時間旅行。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

不能對視圖、子查詢或流進行時間旅行。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

不支持截斷樣例表

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

在清理增量表時,請提供基本路徑()。目前不支持清空特定分區。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

表實現不支持寫入:

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

不支持寫入樣例表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

無法將轉換為。所有嵌套列必須匹配。

DELTA_VERSIONS_NOT_CONTIGUOUS

版本()不是連續的。

DELTA_VERSION_NOT_CONTIGUOUS

版本()不是連續的。當從Delta日誌中手動刪除文件時,可能會發生這種情況。請聯係Databricks支持修複表。

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

檢查約束 <表達式>被帶值的行違反:

<值>

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

是一個視圖。不能將數據寫入視圖。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

數據模式中不存在的z排序列。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

上的z順序是

無效,因為我們目前不收集這些列的統計信息。請參考

<鏈接>

有關數據跳過和z排序的更多信息。你可以禁用

通過設置

' %%sql set = false '

DELTA_ZORDERING_ON_PARTITION_COLUMN

為分區列。z排序隻能在數據列上執行

自動裝卸機

CF_ADD_NEW_NOT_SUPPORTED

當指定模式時,不支持模式演化模式。要使用這種模式,可以通過以下方式提供模式cloudFiles.schemaHints代替。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

發現(默認)目錄的通知設置身份驗證選項

清單模式:

<選項>

如果您希望使用文件通知模式,請顯式設置:

.option(“cloudFiles。< useNotificationsKey >”,“真正的”)

或者,如果您想跳過選項的驗證並忽略這些選項

認證選項,您可以設置:

.option(“cloudFiles。ValidateOptionsKey >”,“假”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

增量列表模式(cloudFiles.)

和文件通知(cloudFiles.)

已同時啟用。

請確保您隻選擇一個。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

Azure需要adlsBlobSuffix和adlsDfsSuffix

CF_BUCKET_MISMATCH

文件事件中的< fileEvent >與來源所期望的不同:源> <

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

當模式日誌為空時,無法演化模式。架構日誌位置:

CF_CANNOT_RESOLVE_CONTAINER_NAME

無法從路徑<路徑>解析容器名,解析uri:

CF_CANNOT_RUN_DIRECTORY_LISTING

當有異步回填線程運行時,無法運行目錄列表

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

不能打開cloudFiles。cleanSource cloudFiles。allowoverwritten在同一時間。

CF_DUPLICATE_COLUMN_IN_DATA

試圖推斷表的分區模式時出錯。在數據和分區路徑中複製了相同的列。要忽略分區值,請使用:.option(" cloudFiles. ")顯式提供分區列。< partitionColumnsKey >”、“{comma-separated-list}”)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

當輸入路徑時不能推斷模式<路徑>是空的。請嚐試在輸入路徑中有文件時啟動流,或指定模式。

CF_EVENT_GRID_AUTH_ERROR

創建事件網格訂閱失敗。請確保您的服務

>事件網格訂閱。詳情請瀏覽:

<不再>

CF_EVENT_GRID_CREATION_FAILED

創建事件網格訂閱失敗。請確保微軟。EventGrid是

在訂閱中注冊為資源提供者。詳情請瀏覽:

<不再>

CF_EVENT_GRID_NOT_FOUND_ERROR

創建事件網格訂閱失敗。請確認您的儲物櫃

帳戶()在您的資源組()下

存儲帳戶為“StorageV2(通用v2)”帳戶。詳情請瀏覽:

<不再>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

不支持的事件通知設置。

CF_FAILED_TO_CHECK_STREAM_NEW

檢查流是否新的失敗。處理步驟

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

創建訂閱失敗:< subscriptionName >.具有相同名稱的訂閱已經存在,並且與另一個主題相關聯:< otherTopicName >.你想要的主題是< proposedTopicName >.要麼刪除現有訂閱,要麼創建具有新資源後綴的訂閱。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

創建主題失敗:< topicName >.已存在同名的主題。刪除現有的主題或使用其他資源後綴重試

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

刪除帶有id的通知失敗< notificationId >在鬥< bucketName >為主題< topicName >.請重試或通過GCP控製台手動刪除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

從字符串“”反序列化持久模式失敗

CF_FAILED_TO_EVOLVE_SCHEMA

沒有模式日誌就不能發展模式。

CF_FAILED_TO_FIND_PROVIDER

未能找到的提供者

CF_FAILED_TO_INFER_SCHEMA

未能從輸入路徑<路徑>中的現有文件推斷format 的模式。請確保正確配置了選項或顯式指定了模式。

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

寫入位置<路徑>的架構日誌失敗。

CF_FILE_FORMAT_REQUIRED

找不到所需選項:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

發現多個()訂閱與Auto Loader前綴的主題< topicName >

< subscriptionList >

每個主題隻能有一個訂閱。請手動確保您的主題沒有多個訂閱。

CF_GCP_AUTHENTICATION

請提供以下所有:

或不提供它們中的任何一個以使用默認值

用於使用GCP資源進行身份驗證的GCP憑證提供程序鏈。

CF_GCP_LABELS_COUNT_EXCEEDED

收到太多標簽()為GCP資源。每個資源的最大標簽數

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

收到太多GCP資源標簽()。每個資源的最大資源標記計數是,因為資源標記是作為資源上的GCP標簽存儲的,Databricks特定的標記會消耗這個標簽配額中的一部分。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

架構日誌中的日誌文件不完整

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

自動加載器檢查點中的元數據文件不完整

CF_INCORRECT_SQL_PARAMS

cloud_files方法接受兩個必需的字符串參數:加載路徑和文件格式。文件讀取器選項必須在字符串鍵值映射中提供。例如cloud_files(“路徑”、“json”地圖(“option1”、“value1”))。收到:<參數>

CF_INVALID_ARN

無效的攻擊:<是>

CF_INVALID_CHECKPOINT

此檢查點不是有效的CloudFiles源

CF_INVALID_CLEAN_SOURCE_MODE

清潔源選項<值>的模式無效。

CF_INVALID_GCP_RESOURCE_TAG_KEY

無效的GCP資源標簽鍵:< >鍵.密鑰必須以小寫字母開頭,長度不超過1 ~ 63個字符,且隻能包含小寫字母、數字、“_”和“-”。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

無效的GCP資源標簽值:<值>.長度範圍為0 ~ 63個字符,隻能包含小寫字母、數字、“_”和“-”。

CF_INVALID_SCHEMA_EVOLUTION_MODE

cloudFiles。必須是{中的一個

“< addNewColumns >”

“< failOnNewColumns >”

“救援> <”

“< noEvolution > "}

CF_INVALID_SCHEMA_HINTS_OPTION

模式提示隻能指定特定列一次。

在本例中,重新定義列:

多次在schemaHints:

< schemaHints >

CF_INVALID_SCHEMA_HINT_COLUMN

模式提示不能用於覆蓋映射和數組的嵌套類型。

矛盾列:< columnName >

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

latestOffset應該在此源上使用ReadLimit調用。

CF_LOG_FILE_MALFORMED

日誌文件格式錯誤:未能從讀取正確的日誌版本。

CF_MAX_MUST_BE_POSITIVE

Max一定是正的

CF_METADATA_FILE_CONCURRENTLY_USED

多個流查詢同時使用

CF_MISSING_METADATA_FILE_ERROR

流源檢查點目錄中的元數據文件丟失。此元數據

文件包含流的重要默認選項,因此流不能重新啟動

現在。請聯係Databricks支持以獲得幫助。

CF_MISSING_PARTITION_COLUMN_ERROR

分區列在提供的架構中不存在:

<模式>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

如果在使用文件通知模式時沒有向CloudFiles源提供路徑,請使用.schema()指定模式。另外,如果要讓Auto Loader推斷模式,請在.load()中提供一個基本路徑。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

發現主題的現有通知< topicName >在鬥< bucketName >

通知、身份證

< notificationList >

為避免意外事件汙染訂閱者,請刪除上述通知後重試。

CF_NEW_PARTITION_ERROR

從您的文件推斷出新的分區列:[]。請提供模式中的所有分區列,或提供您想要提取值的分區列列表,方法是:.option(" cloudFiles. properties ")partitionColumns”、“{comma-separated-list |空字符串}”)

CF_PARTITON_INFERENCE_ERROR

試圖推斷當前批文件的分區模式時出錯。請使用:.option(" cloudFiles. ")顯式提供分區列。< partitionColumnOption >”、“{comma-separated-list}”)

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

禁用異步回填後,不支持定時回填。您可以通過設置啟用異步回填/目錄列表spark.databricks.cloudFiles.asyncDirListing為真

CF_PREFIX_MISMATCH

發現不匹配事件:鍵<鍵>沒有前綴:<前綴>

CF_PROTOCOL_MISMATCH

<消息>

如果您不需要對代碼進行任何其他更改,那麼請設置SQL

配置:' = '

以恢複您的流。請參考:

<不再>

為更多的細節。

CF_REGION_NOT_FOUND_ERROR

無法獲得默認AWS區域。請使用cloudFiles指定一個區域。地區的選擇。

CF_RESOURCE_SUFFIX_EMPTY

創建通知服務失敗:資源後綴不能為空。處理步驟

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

創建通知服務失敗:資源後綴隻能有字母數字、中劃線(-)和下劃線(_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

創建通知服務失敗:資源後綴隻能有小寫字母、數字和破折號(-)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

創建通知服務失敗:資源後綴隻能有字母數字字符、連字符(-)、下劃線(_)、句點(.)、波浪號(~)和百分號()。

CF_RESOURCE_SUFFIX_LIMIT

創建通知服務失敗:資源後綴不能超過個字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

創建通知服務失敗:資源後綴必須在之間。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

發現受限製的GCP資源標記鍵(< >鍵).以下GCP資源標簽鍵對Auto Loader有限製:[< limittedkeys >]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

cloudFiles.cleanSource.retentionDuration不能大於cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

為主題創建通知失敗:<主題>前綴:<前綴>.已經有一個具有相同名稱和另一個前綴的主題:< oldPrefix >.嚐試使用不同的資源後綴進行設置或刪除現有的設置。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

請提供帶有選項的源目錄路徑路徑

CF_SOURCE_UNSUPPORTED

雲文件源目前隻支持S3、Azure Blob Storage (wasb/wasbs)和Azure Data Lake Gen1 (adl)和Gen2 (abfs/abfss)路徑。路徑:' <路徑> ',解析uri: ' '

CF_THREAD_IS_DEAD

線程已死。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

無法從源檢查點位置派生流檢查點位置:

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

無法提取桶信息。路徑:' <路徑> ',解析uri: ' '。

CF_UNABLE_TO_EXTRACT_KEY_INFO

無法提取關鍵信息。路徑:' <路徑> ',解析uri: ' '。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

無法提取存儲帳戶信息;路徑:' <路徑> ',解析uri: ' '

CF_UNABLE_TO_LIST_EFFICIENTLY

收到路徑<路徑>的目錄重命名事件,但我們無法有效地列出該目錄。為了讓流繼續,設置選項“cloudFiles”。ignoreDirRenames '為true,並考慮啟用cloudFiles的常規回填。處理此數據的backfillInterval。

CF_UNKNOWN_OPTION_KEYS_ERROR

發現未知選項鍵:

< optionList >

請確保所有提供的選項鍵都是正確的。如果你想跳過

驗證您的選項並忽略這些未知選項,您可以設置:

.option(“cloudFiles。< validateOptions >”,“假”)

CF_UNKNOWN_READ_LIMIT

未知ReadLimit: < ReadLimit >

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

格式:不支持模式推斷。請指定模式。

CF_UNSUPPORTED_LOG_VERSION

UnsupportedLogVersion:最大支持的日誌版本是v,但遇到v<版本>。日誌文件是由DBR的新版本產生的,不能被該版本讀取。請升級。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

模式演化模式<模式>不支持format:

CF_USE_DELTA_FORMAT

如果您想使用來自Delta的數據,

請使用' format(" delta ") '而不是' format(" cloudFiles ") '。

來自Delta的流源已經經過了優化

用於數據的增量消費。

Baidu