#apache-kafka #logstash #apache-kafka-streams
#apache-kafka #logstash #apache-kafka-streams
Вопрос:
При получении выходных данных из потока kafka logstash также отображает другие символы. (0018, 000000, 0002 и т. Д.)
Я попытался добавить key_deserializer_class в файл logstash conf, но это не очень помогло.
input {
kafka {
bootstrap_servers => "broker1-kafka.net:9092"
topics => ["TOPIC"]
group_id => "T-group"
jaas_path => "/opt/kafka_2.11-1.1.0/config/kafka_client_jaas.conf"
key_deserializer_class => "org.apache.kafka.common.serialization.ByteArrayDeserializer"
sasl_mechanism => "SCRAM-SHA-256"
security_protocol => "SASL_PLAINTEXT"
}
}
output { stdout { codec => rubydebug } }
Вывод
{
"@timestamp" => 2019-04-10T06:09:53.918Z,
"message" => "(TOPICu0002U42019-04-10 06:09:47.01739142019-04-10T06:09:53.738000(00000021290065792800u0002u0004C1u0000u0000u0002u001EINC000014418569u0002u0010bppmUseru0002����vu0000u0002u0010bppmUseru0002֢��vu0002u0002u0002u0002.u0002u0018;1000012627;u0002<AGGAA5V0FEEW7APPOPCYPOR3RPPOLLu0000",
"@version" => "1"
}
Есть ли какой-либо способ не получить эти символы в выходных данных.
Комментарии:
1. Вероятно, вам придется установить десериализатор для
message
поля? Я заметил, что вы установили дляinput > kafka
десериализатора для ключа.2. @MichaelG.Noll, я попытался добавить в него раздел ввода и раздел вывода logstash.conf по отдельности, но оба раза он отображался как неправильная конфигурация. Есть ли какой-либо конкретный способ установить десериализатор.
3. Извините, я не настолько знаком с logstash.