作者回复: 我跟你的观点一样。
作者回复: 第一个问题:虽然这些消息队列自身有持久化的功能,但是中间过程,或者在订阅到数据后,在处理之前出问题,需要进行数据对账,这样就没法找到发布时和处理后的数据版本。关键的业务数据我建议还是落库比较好。
第二个问题:事件实体的业务数据还是按需发布比较好,避免不必要的业务信息泄露。
第三个问题:CDC的设计方式比较简单,属于数据库底层的技术,不会对上层应用产生太多的影响。
作者回复: 现在的技术路线很多,只要能保证在一个事务在修改多个聚合数据时,能保证数据一致性就可以使用。
作者回复: 如果一个领域事件会同时修改多个聚合之间的数据的话,可能会存在不同聚合内数据一致性的问题。事件总线的方式可以以同步或者异步的方式来保证聚合之间数据的一致性。多个聚合之上的应用服务也可以来协调这种数据一致性,但由于是跨聚合,需要保证多个聚合同时成功,这可以用事务的方式来实现。但是由于在同一个微服务内的进程内,出错的概率要比微服务之间小得多。
作者回复: 第一个问题,失败的情况应该比例是很少的。失败的信息可以采用多次重发的方式,如果这个还解决不了,只能将有问题的数据放到一个问题数据区,人工解决。当然要确保一个前提,要保证数据的时序性,不能覆盖已经产生的数据。
第二个问题,一般来说发布方不会等待订阅方反馈结果。发布方有发布的事件表,订阅方有消费事件表,你可以采用每日对账的方式来发现问题数据。
作者回复: 事件发布应用层和领域层两个都是可以的,看具体情况。事件接收建议放应用层。
作者回复: 在微服务设计时,微服务之间尽量通过领域事件的方式来解耦,耦合度过高,在一个微服务出现问题时容易导致整体出现雪崩现象。这种异步方式不仅可以解耦微服务,还可以起到削峰填谷的作用。所以非实时的调用尽量采用领域事件的方式。
作者回复: 在微服务内,不是少用领域事件,是少用事件总线。在DDD中是以聚合为单位进行数据管理的,如果一次操作会修改同一个微服务内的多个聚合的数据,你就需要保证多个聚合的数据一致性,为了解耦不同聚合,你需要采用分布式事务或者用事件总线两种方式,用事件总线不太方便管理服务和数据的关系,你可以用类似saga之类的分布式事务技术。总之需要确保你的不同聚合的业务规则和数据一致性,尽量减少系统建设复杂度。
作者回复: 不是这样的。消息中间件主要用于微服务之间的异步处理,其实很多场景还是实时服务调用的。
作者回复: 因为事件发布方有事件实体的原始的持久化数据,事件订阅方也有自己接收的持久化数据。一般可以通过定期对账的方式检查数据的一致性。
作者回复: 事件总线你可以理解为运行在同一个进程内的消息中间件,它是一个很小的技术组件,可以通过配置支持异步或同步的消息机制。具体实现你可以查阅一下Eventbus组件相关的资料。
作者回复: 是的,跟消息队列的使用基本类似。
作者回复: 消息中间件就是最终一致性,肯定会有延迟,但是现在消息中间件的处理能力非常强,延迟应该不会太大。实时的你可以分布式事务方式。
作者回复: 分布式事务有saga之类的组件。
异步方式在出现异常时需要根据自己的场景采用不同的策略,如多次重传或者转人工处理等。
作者回复: 在这一节的设计中,我只是将领域事件的数据放到了数据库的事件表中,然后通过CDC之类工具将领域事件的增量逻辑日志提取并发布到消息队列中。采用基于数据库日志的原因主要是剥离业务逻辑与领域事件数据传输逻辑。
领域事件和Binlog不是一个维度的东西。
作者回复: 1、领域事件方式主要是采用异步方式,实现数据的最终一致性。
2、一个聚合一个仓储,是指一个聚合与数据库交互的仓储服务是一个,并不是指一个聚合一个数据库。因为在DDD中为了保证聚合内数据和业务规则的一致性,通过聚合根将所有的实体等数据作为一个整体持久化到数据库中,所以一次事务只能修改一个聚合的数据。而如果一个操作跨了多个聚合的话,就需要考虑事务的概念了,其中有两种实现方式:最终一致性的事件总线机制和Saga等分布式事务的方式。这样也是为了聚合之间的解耦。
3、在同一个微服务内采用消息中间件过重了,事件总线属于轻量级的可实现发布订阅基本功能。
作者回复: 是的
作者回复: 领域服务之间调用容易导致聚合之间耦合度过高,不利于微服务的架构演进,因此建议通过应用服务来编排。
作者回复: 在DDD里面聚合是数据管理的基本单元,都通过聚合的仓储服务来实现持久化,一个聚合有一个仓储,跟传统的一次修改很多不同的数据库表不太一样。两个不同的聚合就是两个不同的数据单元,但在一个事务中,如果一次修改两个聚合数据的话,需保证两个聚合数据的最终一致性。其目的也是为了聚合解耦,方便以后微服务架构的演进。