作者回复: 如果出现这种情况,producer应该会自动刷新元数据的。不妨试试KafkaProducer.partitionsFor方法来强制刷新下
作者回复: Kafka自带了ZooKeeper,不过你依然需要首先启动ZooKeeper
作者回复: 有具体的日志看看吗? 可能的原因是你的日志被截断了,之前保存的数据都删除了
作者回复: https://github.com/confluentinc/confluent-kafka-python
作者回复: 嗯,就我个人而言,这属于生僻的用法,但不是不能用,只是把它当做最后的选项吧。尽量还是按照Kafka推荐的方式来做迁移
作者回复: 可能是被墙了吧。。。
作者回复: 有重复说明是否存在重复消费的问题,本身就值得好好查一下。如果一定要唯一ID,引入UUID就可以了
作者回复: 推荐还是使用Gradle的wrapper
作者回复: 赞~
作者回复: 分区是个虚拟概念,分区下的副本才是broker实际分配的对象。默认情况下,你大致可以认为创建topic时副本是按照round-robin策略分配在不同broker上的。
作者回复: 不需要了解太高深,就当是个better java就行。Kafka里面也没有用到Scala很高大上的语法特性