Задание клея AWS завершилось с ошибкой «ОШИБКА клиента: Сообщение о диагностике приложения: Пользовательское приложение вышло со статусом 1»

#amazon-web-services #apache-spark #awk #pyspark #aws-glue

Вопрос:

Недавно я использовал задание AWS Glue для тестирования для запуска некоторых кодов python spark, вчера я запустил запуск, и он удался, сегодня утром, без каких-либо изменений, я запускал три раза, и все это не удалось. Журналы странные, и я не понимаю…:

Это скопировано из журнала ошибок:

 kill: usage: kill [-s sigspec | -n signum | -sigspec] pid | jobspec ... or kill -l [sigspec]
awk: /tmp/parse_yarn_logs.awk:6: warning: escape sequence `[' treated as plain `['
awk: /tmp/parse_yarn_logs.awk:6: warning: escape sequence `]' treated as plain `]'
awk: /tmp/parse_yarn_logs.awk:8: warning: escape sequence `(' treated as plain `('
awk: /tmp/parse_yarn_logs.awk:8: warning: escape sequence `)' treated as plain `)'
21/03/04 09:56:42 INFO client.RMProxy: Connecting to ResourceManager at ip-xxxxxx.ec2.internal/xxx.xx.xx.x:xxxx
awk: /tmp/parse_yarn_logs.awk:19: (FILENAME=- FNR=1) fatal: Unmatched ( or (: /.*Unregistering ApplicationMaster with FAILED (diag message: Shutdown hook called before final status was reported.*$/
 

Просмотрев журналы полной версии, я обнаружил, что этот бит, похоже, вызывает проблему:

 21/03/04 10:12:08 ERROR Client: Application diagnostics message: User application exited with status 1
Exception in thread "main" org.apache.spark.SparkException: Application application_xxxxxxxx_0001 finished with failed status
    at org.apache.spark.deploy.yarn.Client.run(Client.scala:1149)
    at org.apache.spark.deploy.yarn.YarnClusterApplication.start(Client.scala:1526)
    at org.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$runMain(SparkSubmit.scala:849)
    at org.apache.spark.deploy.SparkSubmit.doRunMain$1(SparkSubmit.scala:167)
    at org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:195)
    at org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:86)
    at org.apache.spark.deploy.SparkSubmit$anon$2.doSubmit(SparkSubmit.scala:924)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:933)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
21/03/04 10:12:08 INFO ShutdownHookManager: Shutdown hook called
21/03/04 10:12:08 INFO ShutdownHookManager: Deleting directory /tmp/spark-xxxxxxxxxx
21/03/04 10:12:08 INFO ShutdownHookManager: Deleting directory /tmp/spark-xxxxxxxxxx
 

время запуска одного из запусков составило 10 минут?! Обычно это занимало всего несколько секунд…
Похоже, клей не очень стабилен…и работа провалена или нет, зависит от моей удачи…

Кто-нибудь знает, в чем причина проблемы, и могу ли я что-нибудь сделать, чтобы улучшить ее производительность? Спасибо.

Комментарии:

1. Обновление: Загадочным образом выполнение завершилось сегодня утром без каких-либо изменений…. Надеюсь, кто-нибудь сможет это объяснить…

Ответ №1:

То же самое происходит со мной сейчас на работе с AWS. Но с моей стороны это происходит, когда я добавляю одну новую строку в код

 device = DeviceDetector('Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.77.34.5 Safari/537.36 QJY/2.0 Philco_PTV24G50SN-VB_DRM HDR DID/C0132bb2240f').parse() 
 

Когда я закрою эту строку, работа будет в порядке.
Так как это новый пакет Python в нашем коде (я только что добавил его) Я понятия не имею, как это было раньше. Надеюсь, кто-нибудь сможет это объяснить.

Комментарии:

1. Боюсь, что в моем коде нет такой строки, и ошибка все еще происходит…