环境及景象

应用的是spring cloud stream + kafka的技术栈。

# kafka连贯配置spring.cloud.stream.binders.common.type=kafkaspring.cloud.stream.binders.common.environment.spring.cloud.stream.kafka.binder.brokers=192.168.110.110:9092spring.cloud.stream.binders.common.environment.spring.cloud.stream.kafka.binder.zk-nodes=192.168.110.110:2181# 生产端配置spring.cloud.stream.bindings.input.binder=commonspring.cloud.stream.bindings.input.destination=test-issuespring.cloud.stream.bindings.input.group=group0spring.cloud.stream.bindings.input.content-type=text/plain
# kafka连贯配置spring.cloud.stream.binders.common.type=kafkaspring.cloud.stream.binders.common.environment.spring.cloud.stream.kafka.binder.brokers=192.168.110.110:9092spring.cloud.stream.binders.common.environment.spring.cloud.stream.kafka.binder.zk-nodes=192.168.110.110:2181# 生产端配置spring.cloud.stream.bindings.output.binder=commonspring.cloud.stream.bindings.output.destination=test-issuespring.cloud.stream.bindings.output.content-type=text/plain

以后kafka是单机部署的,topic由stream主动创立,启动一个生产端,和两个生产端实例。
后果只有一个在生产!!!
其中一个在生产

另一个报错

解决方案

其实问题在于对kafka的机制不够理解,kafka里有个partition的概念,而且默认都是单播模式的,索引呢对于生产端而言,一个生产端会独享一个partition。

所以问题就出在这个partition上了,因为是单机部署,topic由stream主动创立并且没有指定partition,那么这时我在查看topic的partition时发现只有一个partition,又因为一个生产端会独享一个partition那么就造成了当初的问题只有一个生产端在生产。

解决办法也很简略,只有创立多个partition即可。

# 生产者配置,生产荡涤后的CDRspring.cloud.stream.bindings.output.binder=commonspring.cloud.stream.bindings.output.destination=test-issuespring.cloud.stream.bindings.output.content-type=text/plainspring.cloud.stream.bindings.output.producer.partition-count=2