#spring #spring-boot #kafka-consumer-api #spring-kafka #spring-restcontroller
#spring #spring-boot #kafka-consumer-api #spring-kafka #spring-restcontroller
Вопрос:
Я новичок в Spring boot и kafka. У меня есть простая служба rest, которая при вызове использует сообщения из темы kafka. Есть один пользовательский класс конфигурации, controller. Хотите знать, как я могу установить свойства во время выполнения, например, MAX_POLL_RECORDS_CONFIG, AUTO_OFFSET_RESET_CONFIG и т.д. Я вижу, что KafkaConfig выполняется только во время запуска. Как я могу установить вышеуказанные свойства во время выполнения, т. Е. На основе некоторых параметров запроса, которые хотят установить эти свойства, есть идеи о том, как я могу сделать это внутри метода getMessagesFromKafkaTopic во время выполнения. Вот мой контроллер, KafkaConfig
KafkaConfig.java
import java.util.HashMap;
import java.util.Map;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
@Configuration
@EnableKafka
public class KafkaConfig {
@Value("${kafka.con.server}")
private String server;
@Value("${kafka.con.groupid}")
private String gid;
@Value("${kafka.con.enablecommit}")
private String enablecommit;
@Value("${kafka.con.ommitinterval}")
private String commitint;
@Value("${kafka.con.sessiontimeout}")
private String timeout;
@Value("${kafka.con.maxrecordspoll}")
private String maxPollRecords;
@Value("${kafka.con.offsetReset}")
private String offsetReset;
/**
* ConsumerFactory
* @return
*/
@Bean
public ConsumerFactory<Object, Object> consumerFactory(){
Map<String, Object> configs = new HashMap<String, Object>();
configs.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, server);
configs.put(ConsumerConfig.GROUP_ID_CONFIG, gid);
configs.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, enablecommit);
configs.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, commitint);
configs.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, timeout);
configs.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords);
configs.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, offsetReset);
configs.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
configs.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class);
return new DefaultKafkaConsumerFactory<Object, Object>(configs);
}
@Bean
public ConcurrentKafkaListenerContainerFactory<String, Object> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, Object> factory =
new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
return factory;
}
}
KafkaConsumerController.java
import java.text.Format;
import java.text.SimpleDateFormat;
import java.time.Duration;
import java.util.Collections;
import java.util.Date;
import java.util.Properties;
import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestMethod;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
@RestController
@RequestMapping(value = "/kafka")
public class KafkaConsumerController {
@Autowired
private ConsumerFactory<Object, Object> consumerFactory;
@Autowired
private ConcurrentKafkaListenerContainerFactory concurrentKafkaListenerContainerFactory;
@RequestMapping(value = "/consume", method = RequestMethod.GET)
public void getMessagesFromKafkaTopic(@RequestParam("batchsize") int batchsize) {
System.out.println("********* batchsize " batchsize);
//here would like to set MAX_POLL_RECORDS_CONFIG to the value coming in as param
Consumer<Object, Object> con = null;
try {
con = consumerFactory.createConsumer();
con.subscribe(Collections.singleton("demotopic"));
int count = 0;
while (true) {
ConsumerRecords<Object, Object> records = con.poll(Duration.ofSeconds(3));
System.out.println("****** Record Count ******* : " records.count());
if(records.count() == 0) {
count ;
if(count > 3) {
break;
}
else
continue;
}
for (ConsumerRecord<Object, Object> record : records) {
System.out.println("Message: " record.value());
System.out.println("Message offset: " record.offset());
System.out.println("Message headers: " record.timestamp());
Date date = new Date(record.timestamp());
Format format = new SimpleDateFormat("yyyy MM dd HH:mm:ss.SSS");
System.out.println("Message date: " format.format(date));
}
con.commitSync();
}
} catch (Exception e) {
e.printStackTrace();
}finally {
con.close();
}
System.out.println("********* END **********");
}
}
application.properties
kafka.con.server=localhost:9092
kafka.con.groupid=my-first-consumer-group
kafka.con.enablecommit=false
kafka.con.ommitinterval=1000
kafka.con.sessiontimeout=30000
kafka.con.maxrecordspoll=5
kafka.con.offsetReset=earliest
Ответ №1:
Вместо con = consumerFactory.createConsumer();
использования:
/**
* Create a consumer with an explicit group id; in addition, the
* client id suffix is appended to the clientIdPrefix which overrides the
* {@code client.id} property, if present. In addition, consumer properties can
* be overridden if the factory implementation supports it.
* @param groupId the group id.
* @param clientIdPrefix the prefix.
* @param clientIdSuffix the suffix.
* @param properties the properties to override.
* @return the consumer.
* @since 2.2.4
*/
Consumer<K, V> createConsumer(@Nullable String groupId, @Nullable String clientIdPrefix,
@Nullable String clientIdSuffix, @Nullable Properties properties);
Что позволяет переопределять потребительские свойства с помощью properties
параметра.
Комментарии:
1. Я попробовал ниже, но все равно это не устанавливает свойство, не знаю, есть ли что-то, чего мне не хватает ******* Свойства properties = new Properties(); properties.put(ConsumerConfig. MAX_POLL_RECORDS_CONFIG, размер пакета); con = consumerFactory.createConsumer(«моя первая потребительская группа», null, null, свойства);} ******** что такое clientIdPrefix и clientIdSuffix, я не определил в конфигурации.
2. Какую версию вы используете? В более старых версиях мы рассматриваем только свойства со строковыми значениями. Попробуй
properties.setProperty(..., "" batchSize)
. Вы можете оставить префикс и суффикс идентификатора клиента какnull
; они используются для сборки необязательногоclient.id
свойства.3. есть еще один вопрос. Поскольку у меня есть служба REST, которая будет вызываться по требованию, у меня есть одна тема только с одним разделом. Сервис REST является единственным потребителем. Хотите узнать, какой listner использовать KafkaMessageListenerContainer или ConcurrentMessageListenerContainer.
4. ? Вы не используете контейнер прослушивателя, вы сами управляете потребителем и проводите опрос.
5. Заметил удаление while (true) и сохранение опроса (5) секунд каждый раз, когда я вызываю службу, она никогда не отправляет никаких сообщений, увеличивая значение опроса до 15 секунд, я вижу, что сообщения потребляются, есть ли рекомендуемое значение, если не хотите использовать while. Причина в том, что нужно возвращать точные сообщения, для которых установлено значение MAX_POLL_RECORDS_CONFIG, если использовать цикл while, он будет продолжаться до тех пор, пока не произойдет разрыв. Размер моего сообщения составляет около 5 КБ, и за один запрос / ответ максимальное количество сообщений, которые нужно использовать и отправить клиенту, составляет 500.