Project Experience
项目经历
遇到的困难及解决方案
困难一
在做登录的时候,原来是单token登录,但是遇到了一个问题,就是用户需要频繁的登录,几乎每隔两天就要登录一次,造成用户体验不佳。
解决:使用双token策略,详见[双token的使用](# 2. 使用双Token保存登录状态)
困难二
在项目的初始阶段,会经常因为jar包冲突导致报错
解决:采用已经有的经典项目的依赖,从官网查找推荐版本
困难三
在刚开始的时候设计日志告警系统的时候,采用同步的方式发送邮件,导致在测试时响应时间非常大。
解决:加入rabbitmq消息队列,并做补偿机制,对发送失败的邮件进行重试,重试次数过多则通知开发人员
Nginx动态缓存 — OpenResty
OpenResty 是一个基于 Nginx 的高性能 Web 平台,它集成了很多强大的第三方模块和库,特别是 LuaJIT,它内置lua支持!
软件负载均衡位于系统的入口,流入分布式系统的请求都会经过这里,换句话说,相对整个系统而言,软件负载均衡是离客户端更近的地方,所以可以将一些不经常变化的数据放到这里作为缓存,降低用户请求访问应用服务器的频率。例如一些用户的基本信息,修改频率就不是很高,并且使用比较频繁,这些信息就可以放到缓存服务器 Redis 中,当用户请求这部分信息时通过软件负载均衡器直接返回给用户,这样就省去了调用应用服务器的环节,从而能够更快地响应用户。
如图所示,从接入层来的用户请求,通过 Nginx 代理层,按照如下几个步骤对数据进行访问。
用户请求首先通过
F5访问Nginx,如果请求需要获取的数据在Nginx本地缓存中有,就直接返回给用户。如果没有命中
Nginx缓存,则可以通过Nginx直接调用缓存服务器获取数据并返回。如果缓存服务器中也不存在用户需要的数据,则需要回源到上游应用服务器并返回数据。

使用上图第 (3) 步的方案,无非可以减少调用步骤,因为应用服务有可能存在其他的调用、数据转换、网络传输成本,同时还包含一些业务逻辑和访问数据库操作,影响响应时间。从代理层调用的缓存数据有如下特点:
这类数据变化不是很频繁,例如用户信息;
业务逻辑简单,例如判断用户是否有资格参加秒杀活动、判断商品是否在秒杀活动范围内;
此类缓存数据需要专门的进程对其进行刷新,如果无法命中数据还是需要请求应用服务器。
我在闪送项目中主要用OpenResty做两件事情:
做IP白名单限制访问(结合GeoIP库,OpenResty集成ngx_http_geo_module第三方模块,根据地域做IP限制,并检查ip是否在redis中存放的黑名单中)
对一些需要登录的接口判断用户是否登录(检查token)
1. IP白名单限制访问
步骤详解:
集成GeoIP库和ngx_http_geo_module模块:
OpenResty可以通过集成GeoIP库来根据IP地址确定地理位置。
ngx_http_geo_module是一个第三方模块,可以用来根据地理位置设置不同的访问策略。
设置IP白名单和黑名单:
白名单和黑名单可以存储在Redis中,便于动态更新和管理。
通过OpenResty的Lua脚本来读取Redis中的IP信息,并进行判断。
实现流程:
首先通过GeoIP库获取访问IP的地理位置信息。
检查IP是否在白名单中,如果在则允许访问。
检查IP是否在黑名单中,如果在则拒绝访问。
如果IP既不在白名单也不在黑名单中,则根据默认策略进行处理。
2. 对需要登录的接口判断用户是否登录
步骤详解:
获取Token:
从用户请求的Header中获取Token信息。
验证Token:
通过Redis查询Token的有效性,判断用户是否登录。
Redis中的Token可以定期刷新,确保Token的有效性。
实现流程:
从请求的Header中获取Token。
查询Redis,检查Token是否存在且有效。
如果Token有效,允许访问;否则,拒绝访问并返回相应的错误信息。
日志记录 & 告警
先提一下使用AOP+exception Handler用于日志记录,并解释一下为什么。
1. 异常感知与日志记录
应用程序在运行过程中可能会出现各种异常,这些异常需要被及时捕获并记录下来。日志记录是应用程序的重要组成部分,常见的日志框架如Logback、Log4j等都支持异常日志的捕获和记录。
2. 异常上报
当捕获到异常时,可以通过邮件、短信等方式通知系统管理员或开发人员。本文主要介绍通过邮件进行异常上报。
3. Logback的扩展机制
Logback支持自定义Appender,允许开发者扩展日志记录功能。通过自定义Appender,可以实现日志信息的过滤、处理和上报。
4. 邮件发送
Spring Boot提供了Spring Mail模块,可以方便地实现邮件发送功能。通过配置邮件服务器信息并使用JavaMailSender类,我们可以在应用中轻松发送邮件。
5. 拓展
可以结合飞书、钉钉机器人使用,更加人性化。
登录鉴权
开发用户登录鉴权逻辑,并接入微信开放平台以免除用户注册,是一种提升用户体验的有效方式。以下是详细的介绍:
1. 使用JustAuth接入微信开放平台
OAuth的流程
OAuth(开放授权)是一种开放标准,允许用户通过第三方服务访问资源而无需向服务提供者透露登录凭证。OAuth 2.0是当前广泛使用的版本,其流程如下:
用户授权:用户在微信平台同意授权应用访问其信息。
获取授权码:微信平台重定向到应用,并附带授权码。
交换令牌:应用使用授权码向微信平台请求访问令牌(Access Token)。
获取用户信息:应用使用访问令牌从微信平台获取用户信息。
维护会话:应用为用户创建会话并维持登录状态。
使用JustAuth(一个Java开源的第三方登录库)可以简化这个流程。以下是接入微信开放平台的大致步骤:
在用户完成登录之后呢,我们会生成一个双token去返回给前端,双token的优势如下:
2. 使用双Token保存登录状态
在用户登录状态维护中,双Token(通常是Access Token和Refresh Token)策略具有以下优势:
单Token的局限
安全性问题:单Token一旦泄露,攻击者可以长期使用该Token进行操作。
生命周期管理:单Token通常有较短的生命周期,为了安全,必须频繁地重新登录。
双Token机制
双Token机制引入了Access Token和Refresh Token两种令牌:
Access Token:有效期较短,用于访问资源。
Refresh Token:有效期较长,用于刷新Access Token。
优势
增强安全性:即使Access Token泄露,其短生命周期限制了攻击者的操作时间。Refresh Token只有在特定情况下才会被使用,且可以放置在更加安全的存储中。
减少频繁登录:用户在Access Token过期后,不需要重新登录,可以使用Refresh Token获取新的Access Token,提升用户体验。
细粒度权限控制:Access Token可以包含具体的权限信息,短期内授权使用。Refresh Token则主要用于获取新的Access Token,而不直接用于访问资源。
具体流程
用户登录:用户通过OAuth流程登录后,应用服务器颁发Access Token和Refresh Token。
访问资源:用户使用Access Token访问资源,当Access Token有效时,资源服务器允许访问。
刷新令牌:当Access Token过期时,用户使用Refresh Token请求新的Access Token。
颁发新令牌:授权服务器验证Refresh Token有效性后,颁发新的Access Token,并可根据需要颁发新的Refresh Token。
订单延时过期
1. 各种队列介绍
仲裁队列 (Quorum Queues) 仲裁队列是一种高可用性队列,使用Raft共识算法来管理多个副本以确保消息的持久性和可用性。这种队列适用于需要高可用性和数据一致性的场景。
经典队列 (Classic Queues) 经典队列是RabbitMQ中的默认队列类型,支持基本的队列功能,如消息的持久化和确认。经典队列在高可用性和性能方面表现平衡,但在某些极端场景下可能不如仲裁队列可靠。
惰性队列 (Lazy Queues) 惰性队列旨在处理大量的消息,消息会被存储到磁盘而不是内存中,以减少内存使用。这种队列适用于需要处理大批量消息且对延迟要求不高的场景。
死信队列 (Dead Letter Queues, DLQ) 死信队列用于存储无法被消费的消息,例如消息被拒绝、消息过期或者队列达到最大长度。这种队列有助于后续的消息分析和处理。
优先级队列 (Priority Queues) 优先级队列允许消息根据其优先级被消费,优先级高的消息会被优先处理。适用于需要区分消息处理优先级的场景。
2. RabbitMQ 路由方式介绍
Work Queue

工作队列是一种消息传递模式,也称为任务队列或任务分发。它允许发送者将消息发送到一个队列中,然后由多个消费者并发地处理这些消息。
Topic Exchange

通过主题交换机,消息按模式匹配路由键,将消息发送到一个或多个队列。路由键支持通配符,例如“order.*”可以匹配“order.created”和“order.updated”。
Direct Exchange

通过直接交换机,消息按精确匹配路由键,将消息发送到对应队列。适用于明确的、一对一的消息路由场景。
Headers Exchange 通过头交换机,消息按消息头属性进行路由,而不是路由键。可以根据多种条件组合进行路由,灵活性较高,但性能略低于直接交换机和主题交换机。
Fanout Exchange

通过扇出交换机,消息会广播到所有绑定的队列,不进行路由键匹配。适用于发布-订阅模式,例如广播事件通知。
通过这些交换机类型,可以根据具体的业务需求灵活配置消息路由方式,以实现高效的消息传递和处理。
3. 使用RabbitMQ实现订单延时过期及补偿机制
1. 订单创建
1.1 订单创建流程
用户选择商品并提交订单
系统验证库存和用户信息
预留库存(使用分布式锁)
创建订单记录
发送延时消息到RabbitMQ
返回订单信息给用户
1.2 代码示例
2. 延时队列设计
2.1 RabbitMQ配置
3. 用户支付操作
3.1 支付流程
用户选择支付方式并提交支付
系统验证订单状态和金额
调用第三方支付接口
更新订单状态
发送支付成功消息(用于后续处理,如发货等)
3.2 代码示例
4. 订单处理(超时未支付)
4.1 订单超时处理流程
消费延时队列中的消息
检查订单状态
如果订单仍未支付,则取消订单
释放预留的库存
更新订单状态
可选:发送订单取消通知给用户
4.2 代码示例
5. 系统流程图
订单系统高级设计考虑
1. 大量延时消息堆积问题
当系统面临大量订单且许多订单可能超时时,延时消息可能会在RabbitMQ中堆积,这可能导致内存压力和性能下降。
解决方案:
消息分片:根据订单ID或其他标准将消息分散到多个队列中。
2. 保证幂等性
有两种情况下订单的幂等性需要进行保护
用户重复下单,产生多个创建订单的请求,此时可以采用Redis的setnx去进行一个处理,即第一次用户创建订单时会设置一个值,之后在创建订单时,如果发现该值已经存在,则取消创建操作。
保证用户完成支付操作后将其设置为已支付状态,不重复设置(好吧,其实这个不打紧)。
3. 消息可靠性
确保消息不会丢失,保证订单处理的可靠性。
解决方案:
生产者确认:使用RabbitMQ的确认机制。
持久化:将消息和队列都设置为持久化。
消费者手动确认:使用手动确认模式,确保消息被正确处理后再确认。
消息持久化到数据库:将重要的消息同时存储到数据库中,用作备份和审计。
4. 订单支付失败或取消订单失败的处理
解决方案:
重试机制:对于失败的操作实现有限重试。
补偿机制:使用定时任务检查并处理失败的订单。
状态机:实现完整的订单状态机,清晰定义所有可能的状态转换。
异步操作:将取消订单操作设计为异步过程,避免阻塞主流程。
5. 使用分布式锁实现预留库存的原理
分布式锁确保在分布式环境中,同一时间只有一个进程可以获得锁并执行临界区代码。
实现原理:
获取锁:
使用Redis的SETNX命令尝试设置一个键值对。
如果设置成功,表示获得了锁。
设置一个过期时间,防止锁被永久持有。
执行业务逻辑:
在持有锁的情况下执行库存预留操作。
释放锁:
业务逻辑执行完成后,删除之前设置的键来释放锁。
代码示例:
注意事项:
锁的粒度:根据业务需求选择适当的锁粒度,如产品级别或更细粒度。
超时设置:设置合理的锁超时时间,避免死锁。
性能考虑:在高并发场景下,考虑使用本地缓存+分布式锁的方式来优化性能。
容错处理:实现锁的重试机制和异常处理,提高系统的健壮性。
通过以上设计和实现,可以构建一个更加可靠、高效和可扩展的订单系统,能够有效处理高并发场景下的各种挑战。
Redis与MySQL的数据同步问题
先说说几种常见的同步方案吧
Write Through:向Cache中直接写入数据,再由Cache自身将数据同步到MySQL,但是由于我们的redis没有这样的功能,pass
延时双删策略:先更新数据库,再删除缓存,为了防止此时之前的读请求将数据同步至redis,因此一段时间后再执行一次删除操作,与Cache-Aside模式相结合,但是这种方式,如果说在清楚缓存之前发生失败,则需要进行补偿措施,常见的补偿措施有以下两种。
基于定时任务实现
如果失败,插入一条记录到任务表,该记录会存储需要更新的缓存<Key,Value>
【异步】定时任务定时扫描任务表,更新到缓存,之后删除该记录。
基于消息队列来实现
如果失败,发送带有缓存<Key,Value>的事务消息。此时,需要有支持事务消息特性的消息队列,或者我们自己封装消息队列,支持事务消息。
【异步】最后,消费者消费该消息,更新到缓存中。
基于Binlog实现:主要是读取MySQL的Binlog,在springboot项目中新建一个canal-client客户端,依赖
ApplicationRunner开启守护进程同步任务,将相关的数据插入redis中。当然,在实现的时候,我还看到另一种实现方式,就是不是在springboot项目中新建一个客户端,而是让canal利用限流组件去讲数据按频率发送到mq中,再由消费者去进行处理,但是经过我们小组的商讨后,认为使用人数较少,可以不用去进行这样的操作。示例如下:

应用直接写数据到数据库中
数据库更新binlog日志。
利用Canal中间件读取binlog日志。
Canal借助于限流组件按频率将数据发到MQ中。
应用监控MQ通道,将MQ的数据更新到Redis缓存中。
为什么采用Canal?
高实时性,相比于延时双删进行两次删除操作,canal可以实时监控MYSQL的BinLog日志,实现对数据库变更的快速感知和同步,从而保证缓存中的数据尽可能地接近数据库中的最新状态。
相比于write through,它能够有效的减轻数据库负载。
相比于延时双删,它可以减少代码侵入,因为它不需要在业务代码中显示的进行缓存操作。而是只要定义redis中的数据结构。
点赞系统的实现
需求
作品点赞数量
某个用户的点赞列表,都是有哪些作品点赞了
某个作品的点赞人列表
设计与实现
建表:两者可以相互补偿
点赞记录表:某个人点赞了某个作品的信息
点赞计数表:某个作品的点赞数量
设计Redis的点赞数和点赞记录
点赞数使用正常的key-value即可
点赞记录使用zset来实现,zset的长度有限制,不然可能导致bigkey问题,阻塞主线程
查询点赞数:用户发送请求来查询点赞数,使用Cache-Aside模式,先检查缓存,如果没有再检查MySQL并回写。
查询点赞列表:先查询redis
如果存在,进行zset分页处理
如果条数超过长度限制,再拉取数据库数据做拼接操作后返回给客户端
如果没有超过长度限制,则取出当前页数据直接返回
如果不存在,则从MySQL中取出当前页数据直接返回并会写到redis。
点赞作品:先查询之前有没有点赞记录
如果无,则插入点赞记录表,并将点赞数+1
如果有,则判断最近一次点赞的记录时间
如果当前点赞的时间小于之前点赞的时间,直接返回
如果大于,则判断当前的点赞状态,如果已经点赞过了,则直接返回,如果是取消点赞状态,更新点赞状态并将点赞计数+1
上述工作应该加锁,在一次事务中完成
==补充:为什么需要加锁,如果用户连续点击两次,两个请求就有可能在同一时间到达,那么如果不加锁,可能都发现数据库中没有数据,都向数据库中插入数据,此时就可能插入两次数据,导致错误==
==但是如果加了锁,比如使用Redis实现的分布式锁,锁的内容是用户Id+作品Id,用户在进入之前先去判断一下是否加了锁,如果没有,才能申请锁并进入下一步,这也解决了这个问题==
同时使用canal同步缓存与MySQL,执行lua脚本刷新点赞记录,先检查key是否存在
如果不存在,结束
如果存在,则zadd,再检查zset长度,如果超出长度,则删除多余元素。
目前是这样设计的,当然,如果这样设计,mysql的磁盘io会面临很大的考验,但考虑到目前用户量不大,因此没有做出改进,但是我也看过更进一步的设计,就是在应用层和数据层之间加上一层消息队列以作削峰填谷的处理。
==解决了什么样的一致性问题?==
问题:当应用程序更新数据库后,缓存中的数据可能还未更新,导致读取到旧数据。
Canal解决:通过实时捕获数据库的变更,可以及时更新缓存,保持缓存与数据库的一致性。
问题:在传统的主从复制中,可能存在复制延迟,导致从库数据不是最新的。
Canal解决:通过直接解析binlog,可以更快速地获取数据变更,减少延迟。
补充
这是一个非常好的问题。选择合适的防抖动时间确实需要仔细权衡多个因素。让我们深入分析一下为什么选择200ms,以及与1s和100ms相比有什么区别:
网络延迟考虑:
典型的网络往返时间(RTT)在不同情况下有很大差异:
本地网络:通常<50ms
同一国家的不同城市:~50-100ms
跨国通信:可能达到200-300ms或更高
500ms能覆盖大多数正常网络环境下的延迟,而不会过度限制用户操作
人类感知和反应时间:
人类视觉系统对大约100ms以内的延迟感知不明显
平均人类反应时间在200-250ms左右
500ms提供了足够的缓冲,既不影响用户体验,又能防止无意识的重复点击
移动设备考虑:
移动网络可能不稳定,延迟波动较大
触摸屏设备可能存在意外的多次点击
500ms在移动环境中提供了更好的容错性
对比分析:
100ms:
优点:响应更快,用户几乎感觉不到延迟
缺点:可能无法有效防止网络抖动,特别是在跨国或移动网络场景
1s:
优点:能有效防止绝大多数网络抖动情况
缺点:用户可能感觉系统反应迟钝,尤其是在尝试快速切换状态时
服务器负载:
500ms提供了一个平衡点,既不会让服务器承受过多可能无效的请求,又不会过度限制正常操作
A/B测试结果:
在实际应用中,通常会发现500ms是一个较好的平衡点
但这需要根据具体的用户群体和应用场景来验证
动态调整:
理想情况下,系统可以根据用户的网络条件动态调整这个时间
例如,检测到稳定的低延迟网络时可以降到300ms,在高延迟情况下可以增加到700ms
特定应用考虑:
对于要求极快响应的应用(如游戏),可能需要更短的时间
对于内容密集型应用,可能可以接受稍长的时间
总结: 200ms是一个较好的起点,它在用户体验和技术需求之间取得了平衡。然而,最佳的防抖动时间应该基于实际数据和用户反馈来确定。建议进行以下步骤:
从200ms开始
收集用户行为数据和反馈
进行A/B测试,尝试略短(如300ms)和略长(如700ms)的时间
分析结果,选择最适合您应用场景的值
您对这个分析有什么看法?考虑到您的具体应用场景,是否有其他因素需要纳入考虑?
布隆过滤器防止缓存穿透
单体项目可以使用google开源的guava自带的布隆过滤器,由于我们的项目是单体项目,所以我们采用的这种方案。
使用Redis实现布隆过滤器。
具体实现参考:https://blog.csdn.net/wuhuayangs/article/details/121830094
这么小的项目为什么要防止缓存穿透?
即便是小的项目也要防止恶意攻击、漏洞利用和网络爬虫,比如说爬虫可能会利用不存在的数据来访问我们的服务,如果不加以防范就很危险了。
用户行为不可预测,比如说用户可能在浏览器地址栏手动输入查询参数。
领域驱动开发DDD
推荐阅读原文:https://weread.qq.com/web/reader/948326f0813ab7294g014bb7k3c5327902153c59dc0488e1
架构设计地址:https://buxinwanins.feishu.cn/wiki/wikcnU5kJ3RzMzxK3DZvAXyqzmg
设计初衷
领域驱动设计(DDD)旨在通过领域专家和技术团队的协作,将复杂的业务需求转化为清晰的架构设计,并最终实现代码。其主要初衷包括:
领域专家与技术团队的互补:DDD通过构建一个通用语言,使领域专家(业务专家)和技术团队能够顺畅地沟通,从而保证对业务需求的理解一致,避免因沟通障碍导致的错误和延误。
为了屏蔽业务需求与技术实现之间的差异,他们需要使用同一种语言进行沟通,这种语言就是通用语言。
解耦业务与技术:通过领域模型的抽取和限界上下文的划分,DDD帮助技术团队构建一个高内聚、低耦合的系统架构,使得系统在应对变化和扩展时更加灵活。
业务拆分思路
需求分析:
从企业目标出发,识别需要解决的问题,生成业务需求。
领域专家和技术团队使用通用语言对需求进行分析,提取领域知识。
领域知识抽取:
使用通用语言对需求进行分析,得到领域知识。
领域知识包括对业务的一般性描述,如参与者、业务流程、命令和事件。
通过抽取形成领域模型。
例如用户通过浏览网站,选择商品下单,付款以后收到确认付款和准备发货的通知,其中参与者(实体)是用户,业务流程是浏览、下单、付款、收到付款通知,命令有下单、付款,事件有已经下单、已经付款、已经发送通知。
形成领域模型:
领域模型是一个抽象的概念,包括一个大的领域和多个子域(子领域)。
子域通过限界上下文进行分割,子域中包含领域对象(聚合、聚合根、实体、值对象)。
领域对象之间通过领域事件进行沟通。
软件架构搭建:
根据领域模型,技术团队构建软件架构。
架构分为用户接口层、应用层、领域层和基础层。
每一层通过代码实现具体功能。
持续沟通与迭代:
领域专家和技术团队在整个过程中使用通用语言进行沟通,确保对业务的理解和实现是一致的。

领域、子域、限界上下文的概述
领域
领域从字面上理解为从事某种专项活动或事情的范围,具体指一个特定的范围或区域。领域驱动设计(DDD)中,领域指的是业务边界,用于确定业务、系统、服务等的范围,以便对分布式架构进行拆分,实现高内聚、低耦合。
子域
由于业务的复杂度和包含性,大的业务边界(领域)会包含较小的业务边界,这些较小的业务边界称为子域。例如,在电商平台领域中,包含商品系统、订单系统、支付系统和库存系统等子域。子域的概念帮助将复杂的事物拆分为更具体、易理解的部分。
子域进一步分类为:
核心域:系统的核心业务部分,如电商平台中的商品系统和订单系统。
支撑域:辅助核心域运行的部分,如库存系统。
通用域:提供技术层面的通用功能,如消息通知和日志系统。

限界上下文
限界上下文是划分业务边界的方法,指通过限制边界来确定业务的上下文。它用来分割领域中的子域,明确业务的上下文环境,从而在不同环境下赋予同一事物不同的意义。
限界上下文具有以下特点:
唯一性:在不同限界上下文中,对同一事物的定义具有唯一性。例如,商品在商品限界上下文中关注产地、属性、价格等信息,而在库存限界上下文中关注库存量、所在仓库等信息。
分割工具:用于将业务领域分割成不同的子域,并在**问题空间(业务层面)和解决方案空间(技术层面)**之间建立对应关系。
限界上下文是分布式架构和微服务架构拆分的依据,通过它将业务从问题空间转换到解决方案空间,使领域专家和技术团队能够通过通用语言有效沟通和合作。

实体、值对象及其关系的概述
实体
实体是指在业务中实际存在的物体,如商品、订单等。在领域驱动设计(DDD)中,实体具有以下两个关键性质:
唯一性:每个实体在限界上下文中都是唯一的,并可以被唯一标识。例如,用户、商品、订单等在系统中都有唯一的 ID。
可变性:实体的状态和行为是可变的,这些变化源于业务流程的推进。例如,订单状态从“未支付”到“已支付”再到“已发货”等。
值对象
值对象用来描述属性值,通过对象的方式体现,具有以下特性:
唯一性:在限界上下文中,对象是唯一存在的,且一个对象可以被多个其他对象使用。例如,地址对象“中国上海市徐汇区梦想路201号”。
集合性:值对象由多个属性组合而成,如地址由国家、省市、区县、路、门牌号码组成。
稳定性:值对象一旦生成,在外部是无法修改的。例如,商品的产地地址一旦设定,就不能更改,只能重新生成或选择新的地址。
可判别:值对象之间可以比较,例如两个地址的不同门牌号可以判别两个地址不相同。
实体和值对象的关系
实体和值对象都是领域对象,用于实现基础的领域逻辑。两者的关系如下:
互补关系:实体包含值对象作为其属性。例如,商品实体包含地址值对象作为其产地。
互换性:在某些场景下,值对象和实体可以互换,具体应用需视情况而定。例如,商品的地址可以作为一个值对象嵌入商品实体中。
实体用于表示业务中唯一且可变的对象,而值对象用于表示业务中稳定且可共享的属性。两者共同构成了领域驱动设计中的基础对象,通过协作实现业务逻辑和系统功能。


聚合、聚合根的概述
聚合
聚合是将多个领域对象(实体和值对象)组合在一起,并对其进行统一的管理和协调的逻辑单元。
聚合针对领域对象(实体、值对象)进行组合以及业务封装,并且保证聚合后内部数据的一致性。如果说限界上下文对应一个服务或者应用,是系统的物理边界,那么聚合就是领域对象处在限界上下文内部的逻辑边界。

如果把领域对象理解为个体,那么聚合就是一个团体。团体通过管理和协调个体之间的关系,带领个体共同完成同一个工作。
聚合内部的领域对象协同实现业务逻辑,因此需保证数据的一致性。同时聚合也是数据存储的基本单元,一个聚合对应一个仓库,对数据进行存储。如果把聚合比作一个组织,那么这个组织肯定需要一个领导者,领导者负责本组织和其他组织之间的沟通。其中提到的领导者便是聚合根,它本质也是一个实体,具有实体的业务属性、状态和行为。作为聚合的管理者,聚合根负责协调实体和值对象,让它们协同完成工作。
如图所示,订单聚合可以进行添加、删除商品的操作,因此订单聚合根需要定义添加、删除商品行为,还要保证这个行为在聚合内的事务性和数据一致性。同时商品实体作为商品聚合的聚合根,在聚合内部可以修改商品的基本信息。订单聚合和商品聚合通过值对象——商品 ID 进行关联引用,这个商品 ID 就是商品聚合根的一个值对象。

领域事件的概述
定义
领域事件是指在领域驱动设计(DDD)中,一个聚合完成某个业务操作后,产生的一种用于通知其他聚合的事件。领域事件用于实现不同聚合之间的协同工作,确保业务操作的最终一致性。
有了领域事件的加入,每个聚合都能专注于自己的工作,并依赖领域事件和其他聚合进行沟通和协同,保证了聚合内部的事务独立性和数据一致性。
领域事件是解耦的工具,在分布式应用拆分和微服务的场景下,会被频繁用到。特别是当服务部署在不同的网络节点时,尤为重要。

DDD模型结构总结
领域就是我们需要关注并且实施的业务范围,它还可以分为子域,子域是业务角度的理解。使用通用语言可以将领域分为限界上下文,它与子域相对应,是技术角度的理解,限界上下文中对业务有唯一的语义标识。我们可以根据限界上下文定义系统的物理边界,也就是应用或者服务。限界上下文中包含多个领域对象,领域对象包括实体和值对象,它们是对业务的真实反映,具有唯一性和可变性等特性。为了更好地协同和管理领域对象,用聚合的概念将它们组织起来。聚合是一个逻辑上的概念,它是一个领域对象的组织,聚合根是这个组织的管理者,或者说是对外接口。聚合根本身也是一个实体,它让聚合之间产生联系。最后,聚合之间的协作和通信需要通过领域事件完成,它让每个聚合不仅可以专注在自身的业务操作中,还可以和其他聚合共同完成工作。
领域驱动设计分层设计
领域驱动设计分层能够帮助我们把领域对象转化为软件架构。在分解复杂的软件系统时,分层是最常用的一种手段。
在领域驱动设计的思想中,分层代表软件框架,是整个分布式架构的“骨架”;领域对象是业务在软件中的映射,好比“血肉”。
分层的概述与原则
高内聚
低耦合
可扩展
可复用
领域驱动设计将架构分成四层,从上往下分别是用户接口层、应用层、领域层和基础层。箭头表示层和层之间的依赖与被依赖关系。例如,箭头从用户接口层指向应用层,表示用户接口层依赖于应用层。从图中可以看到,基础层被其他所有层依赖,位于最核心的位置。

但这种分法和业务领导技术的理念是相冲突的,搭建分布式架构时是先理解业务,然后对业务进行拆解,最后将业务映射到软件架构。这么看来,领域层才是架构的核心,所以图 2-23 中的依赖关系是有问题的。于是出现了 DIP(Dependency Inversion Principle,依赖倒置原则),DIP 的思想指出:高层模块不应该依赖于底层模块,这两者都应该依赖于抽象;抽象不应该依赖于细节,细节应该依赖于抽象。
因此,**作为底层的基础层应该依赖于用户接口层、应用层和领域层提供的接口。**高层是根据业务展开的,通过对业务抽象产生了接口,底层依赖这些接口为高层提供服务。
还是以商店卖面包为例,商店卖面包是业务行为,对该业务进行抽象得到的接口对应面包的种类、口感、价格、包装等。面包厂作为底层服务,要为商店提供面包这一服务,就需要依赖刚抽象出的接口,把这个接口作为生产目的对待。带着这个思想重新审视架构分层,所得结果如图所示。可以看到,领域层跑到了最下面,应用层和基础层依赖于领域层,基础层和用户接口层均依赖于应用层。此时,领域层成为了分层架构的核心。

分层的内容
用户接口层:也称为表现层,包括用户界面、Web 服务和远程调用三部分。该层负责向用户显示信息和解释用户指令。
这里的用户既可以是系统的使用者,也可以是一个程序或者一个计算机系统。用户接口层负责系统与外界的通信和交互,例如 Web 服务负责接收和解释 HTTP 请求,以及解释、验证、转换输入参数。由于是跨系统的调用,因此会涉及信息的序列化与反序列化。说白了,该层的主要职责是与外部用户、系统交互,接受反馈,展示数据。
应用层:不包含业务逻辑,用来协调领域层的任务和工作。它不需要反映业务状态,只反映用户或程序的进展状态。
应用层负责组织整个应用流程,是面向用例设计的。通常,应用服务是运行在应用层的,负责服务组合、服务编排和服务转发,组合业务执行顺序以及拼装结果。并不能说应用层和业务完全无关,它以粗粒度的方式对业务做简单组合。具体功能有信息安全认证、用户权限校验、事务控制、消息发送和消息订阅等。
领域层:实现了应用服务的核心业务逻辑,并保证业务的正确性。这层体现了系统的业务能力,用来表达业务概念、业务状态和业务规则。
领域层包含领域驱动设计中的领域对象,例如聚合、聚合根、实体、值对象、领域服务。领域模型的业务逻辑由实体和领域服务实现。领域服务和应用服务的区别是,它具有更多的业务相关性。
基础层:为其他三层提供通用的技术和基础服务,包括数据持久化、工具、消息中间件、缓存等。
基础服务部分采取了前面提到的 DIP 技术,由该技术支持的基础资源给用户接口层、应用层与领域层提供服务,帮助层与层之间沟通,减少层与层之间的依赖,从而实现层与层之间的解耦。
例如在基础层实现的数据库访问,就是面向领域层接口的。领域层只是根据业务向基础层发出命令,告诉它需要提供的数据规格(数据规格包括用户名字、身份证、性别、年龄等信息),基础层负责获取对应的数据并交给领域层。具体如何获取数据、从什么地方获取数据,这些问题全部都是基础层需要考虑的,领域层是不关心的。领域层都面向同一个抽象的接口,这个接口就是数据规格。当数据库的实现方式发生更换时,例如从Oracle 数据库换成了 MySQL 数据库,只要基础层把获取数据的实现方式修改一下即可;领域层则还是遵循之前的数据规格,进行数据获取,不受任何影响。
分层的总结

首先是用户接口层,包括用户界面、Web 服务以及信息通信功能。
作为系统的入口,用户接口层下面是应用层,这一层主要包括应用服务,但不包含具体的业务,只是负责对领域层中的领域服务进行组合、编排和转发。
应用层下面是领域层,这一层包括聚合、实体、值对象等领域对象,负责完成系统的主要业务逻辑。领域服务负责对一个或者多个领域对象进行操作,从而完成需要跨越领域对象的业务逻辑。
用户接口层、应用层、领域层下方和右方的是基础层,这层就和它的名字一样,为其他三层提供基础服务,包括 API 网关、消息中间件、数据库、缓存、基础服务、通用工具等。除了提供基础服务,基础层还是针对通用技术的解耦。
服务内部的分层调用与服务间的调用

先看在服务内部,层与层之间是如何调用的。上图中的左边有一个服务 A,顺着实心箭头的方向看,调用先通过用户接口层来到应用层。由于应用层会对领域层的领域服务进行组合编排,以满足用户接口层的需要,因此可以看到应用服务 A 中包含两个领域服务,分别是领域服务 1 和领域服务 2,这两个领域服务分别对应领域层的领域服务1 和领域服务 2。又因为领域服务是通过聚合中的实体以及实体方法完成业务逻辑的,所以箭头指向了实体,表示调用实体。在完成具体业务逻辑的同时,还需要调用基础层的数据库、缓存、基础服务等组件。
再看服务之间如何完成调用。我们知道可以通过限界上下文的方式对应用服务进行拆分,拆分后的每个应用或者服务在逻辑功能上都是一致的。于是服务之间的调用会跨越限界上下文,也就是跨越业务逻辑的边界。这种跨越边界的调用从应用层发起,体现在上图中,就是从左边服务 A 的应用层里面的应用服务 A 引出一根带箭头的虚线,指向右边服务 B 的应用层里面的应用服务 B。同时由于分层协作的关系,一个服务在调用其他服务时,需要通过基础层的 API 网关。
解释完表示服务之间调用关系的虚线以后,往下看还有一条虚线,从领域服务 2 发出,先指向消息中间件,后指向领域服务3。领域服务 2 产生领域事件以后,会把这个事件发往消息中间件,当领域服务 3 监听到这个产生的领域事件后,会继续执行后面的逻辑。总结一下,这两根虚线通过基础层完成两个服务之间的调用和信息传递。
把分层映射到代码结构

例子

RPC框架
您的回答已经很好地解释了粘包问题的原因。我可以帮您进一步完善这个回答,添加一些具体的解决方案和实现细节。以下是完善后的回答:
Netty发送数据如何解决粘包问题?
粘包和拆包问题是在使用TCP协议进行网络通信时常见的问题。要理解如何解决,首先需要明确问题的产生原因:
粘包:发送端在短时间内连续发送了多个数据包,由于TCP协议的流特性,多个数据包可能会被合并成一个数据包发送到接收端,接收端一次性读取了多个数据包。
拆包:发送端发送的一个数据包过大,接收端由于缓冲区大小限制,需要分多次读取才能接收到完整的数据包。
Netty提供了多种解决方案来处理粘包和拆包问题,主要通过使用自定义编解码器来实现。这些编解码器将数据包按照指定的格式进行封装和解析,从而解决粘包和拆包问题。以下是几种常用的解决方案:
定长消息 使用FixedLengthFrameDecoder,将消息划分为固定长度的帧。
分隔符 使用DelimiterBasedFrameDecoder,通过特定的分隔符来划分消息。
长度字段 + 消息内容 使用LengthFieldBasedFrameDecoder,在消息头部添加长度字段,用于指示消息体的长度。
自定义协议 实现自定义的编解码器,例如继承ByteToMessageDecoder和MessageToByteEncoder。
下面是一个使用长度字段 + 消息内容方式的简单示例:
在这个示例中:
我们定义了一个自定义协议CustomProtocol,包含长度字段和内容字段。
CustomProtocolEncoder负责将CustomProtocol对象编码为字节流,首先写入长度,然后写入内容。
CustomProtocolDecoder负责将字节流解码为CustomProtocol对象,首先读取长度,然后根据长度读取内容。
在Netty的ChannelPipeline中添加这两个编解码器。
通过使用这种自定义协议和相应的编解码器,我们可以有效地解决粘包和拆包问题。编码器确保每个消息都有正确的格式,而解码器则能够准确地识别和提取每个独立的消息,即使多个消息被合并在一起传输。
总结来说,Netty通过提供灵活的编解码器机制,使得开发者可以根据具体需求选择或实现适当的解决方案,有效地处理网络通信中的粘包和拆包问题,确保数据的完整性和正确性。
Last updated