我試圖使用磚三角洲湖沉連接器(彙合的雲)和寫入S3。
連接器啟動以下錯誤。任何幫助在此可以欣賞
org.apache.kafka.connect.errors。ConnectException: java.sql。SQLException異常(辛巴):[SparkJDBCDriver](500593)通信鏈路故障。無法連接到服務器。原因:HTTP響應代碼:403,錯誤信息:未知。
io.confluent.connect.databricks.deltalake.DatabricksDeltaLakeSinkTask.deltaLakeConnection (DatabricksDeltaLakeSinkTask.java: 253)
io.confluent.connect.databricks.deltalake.DatabricksDeltaLakeSinkTask.start (DatabricksDeltaLakeSinkTask.java: 88)
org.apache.kafka.connect.runtime.WorkerSinkTask.initializeAndStart (WorkerSinkTask.java: 305)
org.apache.kafka.connect.runtime.WorkerSinkTask.execute (WorkerSinkTask.java: 193)
org.apache.kafka.connect.runtime.WorkerTask.doRun (WorkerTask.java: 184)
org.apache.kafka.connect.runtime.WorkerTask.run (WorkerTask.java: 234)
java.util.concurrent.Executors RunnableAdapter.call美元(Executors.java: 511)
java.util.concurrent.FutureTask.run (FutureTask.java: 266)
java.util.concurrent.ThreadPoolExecutor.runWorker (ThreadPoolExecutor.java: 1149)
java.util.concurrent.ThreadPoolExecutor Worker.run美元(ThreadPoolExecutor.java: 624)
java.lang.Thread.run (Thread.java: 750)
引起的:java.sql。SQLException異常(辛巴):[SparkJDBCDriver](500593)通信鏈路故障。無法連接到服務器。原因:HTTP響應代碼:403,錯誤信息:未知。
在com.simba.spark.hivecommon.api.HS2Client。handleTTransportException(未知來源)
在com.simba.spark.spark.jdbc.DowloadableFetchClient。handleTTransportException(未知來源)
在com.simba.spark.hivecommon.api.HS2Client。openSession(未知來源)
在com.simba.spark.hivecommon.api.HS2Client。< init >(未知源)
在com.simba.spark.spark.jdbc.DowloadableFetchClient。< init >(未知源)
在com.simba.spark.spark.jdbc.DownloadableFetchClientFactory。createClient(未知來源)
com.simba.spark.hivecommon.core.HiveJDBCCommonConnection.establishConnection(未知源)
com.simba.spark.spark.core.SparkJDBCConnection.establishConnection(未知源)
在com.simba.spark.jdbc.core.LoginTimeoutConnection 1美元。調用(未知源)
在com.simba.spark.jdbc.core.LoginTimeoutConnection 1美元。調用(未知源)
…4個
引起的:com.simba.spark.support.exceptions。ErrorException(辛巴):[SparkJDBCDriver](500593)通信鏈路故障。無法連接到服務器。原因:HTTP響應代碼:403,錯誤信息:未知。
…14個吧
引起的:com.simba.spark.jdbc42.internal.apache.thrift.transport.TTransportException: HTTP響應代碼:403,錯誤信息:未知
在com.simba.spark.hivecommon.api.TETHttpClient。handleHeaderErrorMessage(未知來源)
在com.simba.spark.hivecommon.api.TETHttpClient。handleErrorResponse(未知來源)
在com.simba.spark.hivecommon.api.TETHttpClient。flushUsingHttpClient(未知來源)
在com.simba.spark.hivecommon.api.TETHttpClient。衝洗(未知來源)
com.simba.spark.jdbc42.internal.apache.thrift.TServiceClient.sendBase (TServiceClient.java: 73)
com.simba.spark.jdbc42.internal.apache.thrift.TServiceClient.sendBase (TServiceClient.java: 62)
com.simba.spark.jdbc42.internal.apache.hive.service.rpc.thrift.TCLIService Client.send_OpenSession美元(TCLIService.java: 147)
在com.simba.spark.hivecommon.api.HS2ClientWrapper。send_OpenSession(未知來源)
com.simba.spark.jdbc42.internal.apache.hive.service.rpc.thrift.TCLIService Client.OpenSession美元(TCLIService.java: 139)
在com.simba.spark.hivecommon.api.HS2ClientWrapper。callOpenSession(未知來源)
在com.simba.spark.hivecommon.api.HS2ClientWrapper。訪問1700美元(未知源)
在com.simba.spark.hivecommon.api.HS2ClientWrapper 18美元。clientCall(未知來源)
在com.simba.spark.hivecommon.api.HS2ClientWrapper 18美元。clientCall(未知來源)
在com.simba.spark.hivecommon.api.HS2ClientWrapper。executeWithRetry(未知來源)
在com.simba.spark.hivecommon.api.HS2ClientWrapper。OpenSession(未知來源)
這是連接的問題。你可以JDBC / ODBC驅動程序下載到您的本地計算機和驗證所有的連接設置。您還可以使用BI工具像PowerBI測試連接。如果設置好了,你的ip的一個常見的問題可以是被安全組