Время ожидания SQL-клиента Flink и соединителя Kafka истекло без журналов

#apache-kafka #apache-flink #flink-sql

#апач-кафка #апач-флинк #флинк-sql

Вопрос:

Я использую Flink 1.12.1 и соответствующий пакет jar-коннекторов Кафки.

 SELECT 'hello';  

…работает правильно, поэтому кластер запущен и работает.

Затем я создал таблицу Кафки:

 CREATE TABLE myusers (  `id` int NOT NULL,  `level` string not null,  `ts` TIMESTAMP(3) METADATA FROM 'timestamp' ) WITH (  'connector' = 'kafka',  'topic' = 'topic',  'properties.bootstrap.servers' = 'kafka:9092',  'properties.group.id' = 'test-group',  'properties.auto.offset.reset' = '',  'scan.startup.mode' = 'earliest-offset',  'format' = 'debezium-json' );  SELECT * from myusers;  

Однако на дисплее результатов данные не извлекаются. Он оставался пустым и освежал каждую секунду. Через 5 минут истекло время ожидания задания, так как данные не передаются. Я вижу 16 подзадач, все SCHEDULED затем FAILED / CANCELLED через 5 минут.

Я проверил, что могу подключиться к кластеру Кафки и использовать kafka-console-consumer.sh его для перечисления всех сообщений. Я также пытался использовать API потока данных для прямого подключения к той же теме. Работа прошла нормально, и я мог видеть, что необработанные данные печатаются для вывода из строя в этой работе.

Ни в одном из журналов taskmanager, stdout или других журналов не было журналов соединителя Кафки. Я также изменил все уровни журналов на DEBUG и могу видеть много DEBUG журналов, но все еще нет журналов Кафки. С теми же настройками я мог видеть журналы соединителя Кафки при использовании API потока данных.

Я исчерпал возможности устранения неполадок. Итак, мои вопросы:

  • Почему при использовании клиента Flink SQL не было никаких журналов соединителя Кафки?
  • Есть ли способ увидеть фактическое задание, отправленное в Flink клиентом SQL, чтобы я мог проанализировать, что пошло не так?
  • В чем может быть проблема?