Как зарегистрировать диалект JDBC Spark в Python?

#python #jdbc #pyspark #dialect #spark-jdbc

Вопрос:

Я пытаюсь читать из таблицы баз данных. Я использовал URL-адрес из кластера в базе данных. Я получаю эту ошибку:

  java.sql.SQLDataException: [Simba][JDBC](10140) Error converting value to int.
 

После этих заявлений:

 jdbcConnUrl= "jdbc:spark://adb....."
testquery="(select * from db.table limit 3)"
testdf=spark.read.format("jdbc").option("url", jdbcConnUrl).option("dbtable", testquery).option("fetchsize", "10000").load()
testdf.show()
 

Я сталкивался со всеми решениями Scala для этой проблемы, но я использую python.
Мне нужен эквивалент этого кода на python:

 import org.apache.spark.sql.jdbc.{JdbcDialect, JdbcDialects}
JdbcDialects.registerDialect(new JdbcDialect() {
override def canHandle(url: String): Boolean = url.toLowerCase.startsWith("jdbc:spark:")
override
def quoteIdentifier(column: String): String = column
})