117.info
人生若只如初见

springboot 整合 kafka 怎么做

要在 Spring Boot 项目中整合 Kafka,你需要遵循以下步骤:

  1. 添加依赖

在你的 pom.xml 文件中添加 Spring Boot 和 Kafka 的相关依赖。这里以 Spring Boot 2.x 和 Apache Kafka 2.x 为例:


    
    
        org.springframework.boot
        spring-boot-starter-web
    

    
    
        org.springframework.kafka
        spring-kafka
    

  1. 配置 Kafka

application.propertiesapplication.yml 文件中配置 Kafka 的相关参数。例如:

# application.properties
spring.kafka.bootstrap-servers=localhost:9092
spring.kafka.consumer.group-id=my-group
spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

或者使用 YAML 格式:

# application.yml
spring:
  kafka:
    bootstrap-servers: localhost:9092
    consumer:
      group-id: my-group
      auto-offset-reset: earliest
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
  1. 创建 Kafka 配置类

创建一个配置类,用于设置 Kafka 的相关 Bean。例如:

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.apache.kafka.common.serialization.StringSerializer;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerEndpointRegistrar;
import org.springframework.kafka.config.KafkaListenerEndpointRegistry;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;

import java.util.HashMap;
import java.util.Map;

@Configuration
@EnableKafka
public class KafkaConfig {

    @Bean
    public Map consumerConfigs() {
        Map props = new HashMap<>();
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        props.put(ConsumerConfig.GROUP_ID_CONFIG, "my-group");
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        return props;
    }

    @Bean
    public ConsumerFactory consumerFactory() {
        return new DefaultKafkaConsumerFactory<>(consumerConfigs());
    }

    @Bean
    public ConcurrentKafkaListenerContainerFactory kafkaListenerContainerFactory() {
        ConcurrentKafkaListenerContainerFactory factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory());
        return factory;
    }

    @Bean
    public Map producerConfigs() {
        Map props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return props;
    }

    @Bean
    public ProducerFactory producerFactory() {
        return new DefaultKafkaProducerFactory<>(producerConfigs());
    }

    @Bean
    public KafkaTemplate kafkaTemplate() {
        return new KafkaTemplate<>(producerFactory());
    }

    @Bean
    public KafkaListenerEndpointRegistry kafkaListenerEndpointRegistry(KafkaListenerEndpointRegistrar registrar) {
        registrar.setEndpoints(new KafkaListenerEndpoint[]{new MyKafkaListenerEndpoint()});
        return new KafkaListenerEndpointRegistry();
    }
}
  1. 创建 Kafka 监听器

创建一个监听器类,用于处理 Kafka 消息。例如:

import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

@Component
public class MyKafkaListener {

    @KafkaListener(topics = "my-topic", groupId = "my-group")
    public void listen(String message) {
        System.out.println("Received message: " + message);
    }
}
  1. 发送消息

在你的服务类中,可以使用 KafkaTemplate 发送消息到 Kafka。例如:

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Service;

@Service
public class MyService {

    @Autowired
    private KafkaTemplate kafkaTemplate;

    public void sendMessage(String topic, String message) {
        kafkaTemplate.send(topic, message);
    }
}

现在你已经成功在 Spring Boot 项目中整合了 Kafka。你可以使用 MyService 发送消息到指定的 Kafka 主题,而 MyKafkaListener 将监听这些消息并处理它们。

未经允许不得转载 » 本文链接:https://www.117.info/ask/febf3AzsKAwFQAlI.html

推荐文章

  • netcore kafka如何监控

    在.NET Core项目中监控Kafka集群,可以通过多种方式实现,包括使用Kafka自带的命令行工具、管理工具,以及集成第三方监控解决方案。以下是具体的监控配置和工具推...

  • netcore kafka安全性如何

    Apache Kafka是一个分布式流处理平台,它通过一系列安全机制来确保数据传输和存储的安全性。在.NET Core应用程序中使用Kafka时,可以采取以下措施来保障安全性:...

  • netcore kafka应用场景

    在.NET Core项目中,Kafka可以应用于多种场景,从日志处理到实时数据流分析,再到微服务间的通信,Kafka都能发挥其强大的功能。以下是.NET Core中使用Kafka的一些...

  • netcore kafka如何优化

    在.NET Core中使用Kafka时,优化是一个多方面的过程,涉及到生产者和消费者的配置、集群的部署和监控等多个方面。以下是一些关键的优化策略:
    生产者优化 批...

  • kafka 序列化和反序列化要点

    在Kafka中,序列化和反序列化是将数据转换为字节流以便在网络中传输的过程,以及将接收到的字节流还原为原始数据的过程。选择合适的序列化/反序列化方法对于确保...

  • kafka 序列化和反序列化工具

    在Kafka中,序列化和反序列化是将数据转换为字节流以便在网络中传输的过程,以及将接收到的字节流还原为原始数据结构的过程。Kafka提供了多种序列化和反序列化工...

  • kafka 序列化和反序列化原理

    Kafka是一个分布式流处理平台,它支持将数据发布到主题(Topic),然后消费者可以订阅并消费这些数据。在Kafka中,消息的传输和存储都离不开序列化和反序列化过程...

  • kafka 序列化和反序列化注意

    在Kafka中,序列化和反序列化是将数据转换为可传输或可存储格式的过程。选择合适的序列化方法和工具对于确保数据传输的效率和可靠性至关重要。以下是Kafka序列化...