Проблемы при отправке задания в dataproc sqoop

#hadoop #google-cloud-platform #sqoop #google-cloud-dataproc

# #hadoop #google-облачная платформа #sqoop #google-cloud-dataproc

Вопрос:

Я очень новичок в apache sqoop. Я создал кластер dataproc в GCP и пытаюсь отправить задание sqoop, используя приведенную ниже команду:

 gcloud dataproc jobs submit hadoop --cluster cluster123 --class=org.apache.sqoop.Sqoop --import -Dmapreduce.job.user.classpath.first=true --jars=gs://bucket123/sqoop-1.4.7-hadoop260.jar,gs://bucket123/mssql-jdbc-8.4.1.jre11.jar --connect="jdbc:sqlserver://server_ip:1433/db_name" --username=sql_user --password-file=gs://bucket123/password.txt --target-dir gs://bucket123/mssql-output-folder/ --table=table123
 

Получение ошибки ниже:

     ERROR: (gcloud.dataproc.jobs.submit.hadoop) unrecognized arguments:
  --import (did you mean '--format'?)
  -Dmapreduce.job.user.classpath.first=true
  --connect=jdbc:sqlserver://server_ip:1433/table123 (did you mean '--project'?)
  --username=sqlserver (did you mean '--cluster'?)
  --password-file=gs://bucket123/password.txt (did you mean '--flags-file'?)
  --target-dir
  gs://bucket123/mssql-output-folder/
  --table=test1 (did you mean '--labels'?)
  To search the help text of gcloud commands, run:
  gcloud help -- SEARCH_TERMS
 

Ответ №1:

Перед добавлением аргументов задания в команду необходимо указать ‘—‘.

Попробуйте это:

 gcloud dataproc jobs submit hadoop 
  --cluster cluster123 
  --class=org.apache.sqoop.Sqoop 
  --jars=gs://bucket123/sqoop-1.4.7-hadoop260.jar,gs://bucket123/mssql-jdbc-8.4.1.jre11.jar 
  -- 
  --import -Dmapreduce.job.user.classpath.first=true --connect="jdbc:sqlserver://server_ip:1433/db_name" --username=sql_user --password-file=gs://bucket123/password.txt --target-dir gs://bucket123/mssql-output-folder/ --table=table123
 

Комментарии:

1. в моей команде также — уже задано для каждого аргумента