Как прочитать табличные данные из PostgreSQL с помощью JDBC в Azure Databricks?

#apache-spark #pyspark #apache-spark-sql #azure-databricks

#apache-spark #pyspark #apache-spark-sql #azure-databricks

Вопрос:

Я пытаюсь прочитать таблицу PostgreSQL, доступную в облачной подписке Azure, используя pyspark, но получаю приведенную ниже ошибку. Я знаю, что когда мы используем функцию загрузки, мы также должны включать формат. Но поскольку этот экземпляр PostgreSQL доступен в другой подписке Azure, у меня вообще нет доступа к базе данных PostgreSQL, если это так, как определить схему? или есть какой-нибудь лучший способ прочитать данные из databricks.

 df = spark.read.option("url", "jdbc:postgresql://{hostname}:5432amp;user={username}amp;password={xxxxx}amp;sslmode=require").option("dbtable", {tablename}).load()
  

Ошибка:

  ---------------------------------------------------------------------------
Py4JJavaError                             Traceback (most recent call last)
/databricks/spark/python/pyspark/sql/utils.py in deco(*a, **kw)
     62         try:
---> 63             return f(*a, **kw)
     64         except py4j.protocol.Py4JJavaError as e:

/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name)
    327                     "An error occurred while calling {0}{1}{2}.n".
--> 328                     format(target_id, ".", name), value)
    329             else:

Py4JJavaError: An error occurred while calling o1169.load.
: org.apache.spark.sql.AnalysisException: Unable to infer schema for Parquet. It must be specified manually.;
    at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$8.apply(DataSource.scala:211)
    at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$8.apply(DataSource.scala:211)
    at scala.Option.getOrElse(Option.scala:121)
    at org.apache.spark.sql.execution.datasources.DataSource.getOrInferFileFormatSchema(DataSource.scala:210)
    at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:421)
    at org.apache.spark.sql.DataFrameReader.loadV1Source(DataFrameReader.scala:311)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:297)
    at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:203)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:380)
    at py4j.Gateway.invoke(Gateway.java:295)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:251)
    at java.lang.Thread.run(Thread.java:748)


During handling of the above exception, another exception occurred:
  

Ответ №1:

Ошибка заключается в том, что код неявно предполагает, что формат является parquet . Независимо от того, какие параметры определены, они просто игнорируются форматом.

Другими словами, структурированный запрос вообще не использует данные загрузки с использованием JDBC.

Это та часть ошибки, в которой говорится об этом (в значительной степени):

org.apache.spark.sql.AnalysisException: Не удается определить схему для Parquet. Это должно быть указано вручную.;

Если вы хотите читать из источника данных JDBC, вы должны включить format("jdbc") в запрос:

 spark.read.format("jdbc")
  

Комментарии:

1. Привет @jacekLaskowski, большое спасибо за ответ, когда я пытаюсь использовать spark.read.format («jdbc»), застрял с сообщением об ошибке: org.postgresql.util. Исключение PSQLException: ФАТАЛЬНОЕ: требуется SSL-соединение. Пожалуйста, укажите параметры SSL и повторите попытку

2. Ну, тогда это еще одна проблема. Пожалуйста, прочтите JDBC для других баз данных в официальных документах.