高并发架构实战(十一) Spring Boot集Kafka及Kafka测试

转载请标注原文地址:https://blog.csdn.net/lilyssh/article/details/83346324

Spring Boot 2.0.4 集成 Kafka 2.0.0。
项目源码地址

一、简介

kafka是一种高吞吐量的分布式发布订阅消息系统。kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。
Kafka的安装请参考文章:Kafka的安装与使用

二、使用方法

(1)添加依赖

1
2
3
4
5
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>2.1.10.RELEASE</version>
</dependency>

(2)在application.yml中添加配置

官方文档说只要配置两个必要项就可以了,spring.kafka.consumer.group-id和spring.kafka.consumer.auto-offset-reset。此处对其他配置稍作解释。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
spring:
kafka:
# 指定kafka代理地址,brokers集群。
bootstrap-servers: ssh.qianxunclub.com:9092
producer:
# 发送失败重试次数。
retries: 0
# 每次批量发送消息的数量 批处理条数:当多个记录被发送到同一个分区时,生产者会尝试将记录合并到更少的请求中。这有助于客户端和服务器的性能。
batch-size: 16384
# 32MB的批处理缓冲区。
buffer-memory: 33554432
# 指定消息key和消息体的编解码方式。
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
consumer:
# 消费者群组ID,发布-订阅模式,即如果一个生产者,多个消费者都要消费,那么需要定义自己的群组,同一群组内的消费者只有一个能消费到消息。
group-id: kafka_order_group
auto-offset-reset: earliest
# 如果为true,消费者的偏移量将在后台定期提交。
enable-auto-commit: true
# 自动提交周期
auto-commit-interval: 100
# 指定消息key和消息体的编解码方式。
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

(3)消息发送类

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
package cn.lilyssh.common.kafka.provider;

import com.google.gson.Gson;
import com.google.gson.GsonBuilder;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
import org.springframework.kafka.core.KafkaTemplate;

@Component
@Slf4j
public class KafkaSender {
@Autowired
private KafkaTemplate<String,String> kafkaTemplate;
private Gson gson = new GsonBuilder().create();
//发送消息方法
public void send(String topic,String key,Object message) {
kafkaTemplate.send(topic,key,gson.toJson(message));
log.info("+++++++++++++++++++++ message = {}", gson.toJson(message));
}
}

此处关键代码为kafkaTemplate.send(),参数topic是Kafka里的topic,这个topic在 Java程序中是不需要提前在Kafka中设置的,因为它会在发送的时候自动创建你设置的topic, gson.toJson(message)是消息内容。

(4)在下单业务中调用消息发送

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
package cn.lilyssh.order.provider.service;

import cn.lilyssh.common.kafka.provider.KafkaSender;
import cn.lilyssh.order.api.model.request.OrderInsertReq;
import cn.lilyssh.order.api.service.OrderServiceApi;
import cn.lilyssh.order.provider.dao.entity.OrderEntity;
import com.alibaba.dubbo.config.annotation.Service;
import lombok.AllArgsConstructor;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.BeanUtils;
import org.springframework.stereotype.Component;
import org.springframework.util.StringUtils;

import java.math.BigDecimal;
import java.util.*;

@Slf4j
@Service
@Component
@AllArgsConstructor
public class OrderService implements OrderServiceApi {
private KafkaSender kafkaSender;
/**
* 保存到kafka
* @param orderInsertReq
* @return
*/
@Override
public void saveByKafka(OrderInsertReq orderInsertReq){
OrderEntity orderEntity=new OrderEntity();
//直接写入数据库太慢,引起dubbo超时,导致调用多次,此处需要改造成kafka异步写入。
BeanUtils.copyProperties(orderInsertReq,orderEntity);
kafkaSender.send("placeOrder", orderEntity.getUserId().toString(), orderEntity);
}
}

(5)消息接收类

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
package cn.lilyssh.order.provider.kafka.consumer;

import cn.lilyssh.order.provider.dao.entity.OrderEntity;
import cn.lilyssh.order.provider.dao.repository.OrderRepository;
import com.google.gson.Gson;
import lombok.AllArgsConstructor;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.Optional;

@Component
@Slf4j
@AllArgsConstructor
public class KafkaReceiver {

private OrderRepository orderRepository;
/**
* 监听下单
*/
@KafkaListener(topics = {"placeOrder"})
public void listen(String orderEntityStr) {
log.info("------------------ orderEntityStr =" + orderEntityStr);
Gson gs = new Gson();
OrderEntity orderEntity = gs.fromJson(orderEntityStr,OrderEntity.class);//把JSON字符串转为对象
orderRepository.save(orderEntity);
}
}

接收消息直接用@KafkaListener注解即可,并在监听中设置监听的topictopics是一个数组所以是可以绑定多个主题的,如@KafkaListener(topics = {“topicA”,”topicB”})。这里的topic需要和消息发送类 KafkaSender.java中设置的topic一致。

spring.kafka.bootstrap-servers 后面设置你安装的Kafka的机器IP地址和端口号9092

三、启动Kafka服务

1
bin/kafka-server-start.sh  config/server.properties

千万注意: 记得将你的虚拟机或者服务器关闭防火墙或者开启Kafka的端口9092

四、测试

启动order-provider,调用下单接口,可以看到下单成功。
我们来看下Kafka中的topic列表:

1
bin/kafka-topics.sh --list --zookeeper localhost:2181

会看到:

1
2
__consumer_offsets
placeOrder

接下来,我们来测试下kafka的消费能力。
我们把 OrderService 改造一下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
package cn.lilyssh.order.provider.service;

import cn.lilyssh.common.kafka.provider.KafkaSender;
import cn.lilyssh.order.api.model.request.OrderInsertReq;
import cn.lilyssh.order.api.service.OrderServiceApi;
import cn.lilyssh.order.provider.dao.entity.OrderEntity;
import com.alibaba.dubbo.config.annotation.Service;
import lombok.AllArgsConstructor;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.BeanUtils;
import org.springframework.stereotype.Component;
import org.springframework.util.StringUtils;

import java.math.BigDecimal;
import java.util.*;

@Slf4j
@Service
@Component
@AllArgsConstructor
public class OrderService implements OrderServiceApi {

private KafkaSender kafkaSender;

/**
* 每两秒,新建五百个下单线程,一分钟后停止,查看kafka每秒是否能消费250条数据。
*/
@Override
public void saveByKafka(OrderInsertReq orderInsertReq){
OrderEntity orderEntity=new OrderEntity();
//直接写入数据库太慢,引起dubbo超时,导致调用多次,此处需要改造成kafka异步写入。
BeanUtils.copyProperties(orderInsertReq,orderEntity);
System.out.println("预备备!开始!");
Timer timer = new Timer();
timer.schedule(new MyTask(timer), 0, 2000); //任务等待0秒后开始执行,之后每2秒执行一次
}
//任务:每次新建五百个下单线程。
class MyTask extends TimerTask {
private Timer timer;
public MyTask(Timer timer) {
this.timer = timer;
}

int second = 0;
public void run() {
System.out.println("~~~第"+second+"秒~~~");
for (int i = 0; i < 500; i++) {
AddOrder addOrder=new AddOrder();
Thread thread=new Thread(addOrder);
thread.start();
}
second++;
if( second == 30){
this.timer.cancel();
System.out.println("#### 程序结束 ####");
}
}
}
//下单线程
class AddOrder implements Runnable{
@Override
public void run() {
OrderEntity orderEntity = new OrderEntity();
orderEntity.setUserId(753);
orderEntity.setPayment(new BigDecimal(928.23));
orderEntity.setCreateTime(new Date());
kafkaSender.send("placeOrder", orderEntity.getUserId().toString(), orderEntity);
}
}

}

结果毫无压力!

大功告成!

本文由 lilyssh创作。可自由转载、引用,但需署名作者且注明文章出处。


当前网速较慢或者你使用的浏览器不支持博客特定功能,请尝试刷新或换用Chrome、Firefox等现代浏览器