公司网站建设济宁,昆明网络推广公司排名,桂林网站优化价格,国际上比较认可的邮箱前言 秒杀和高并发是面试的高频考点#xff0c;也是我们做电商项目必知必会的场景。欢迎大家参与我们的开源项目#xff0c;提交PR#xff0c;提高竞争力。早日上岸#xff0c;升职加薪。 知识点详解 秒杀系统架构图 秒杀流程图 秒杀系统设计 这篇文章一万多字#xff0c;…前言 秒杀和高并发是面试的高频考点也是我们做电商项目必知必会的场景。欢迎大家参与我们的开源项目提交PR提高竞争力。早日上岸升职加薪。 知识点详解 秒杀系统架构图 秒杀流程图 秒杀系统设计 这篇文章一万多字详细解答了大家在面试中经常被问到的秒杀问题对做秒杀项目的朋友也应该有帮助。
欢迎大家交流讨论、点赞、收藏、转发。
本文除了结合我的项目经验、也感谢GoFrame作者强哥的帮助、我的好友苏三哥的帮助公众号苏三说技术、以及机械工业出版社的**《Go语言高级开发与实战》** 的帮助。
文章中的图片会压缩高清版思维导图可以关注我的公众号 程序员升职加薪之旅 回复“秒杀” 领取。
1. 瞬时高并发
瞬时高并发是秒杀项目的典型问题常规的架构设计和代码实现在一般活动中可以应对但是却经受不住瞬时高并发的考验。
这也是为什么秒杀能成为一个面试高频考点。
本文从浅入深先将业务再讲原理先讲问题再将方案先讲理论再上代码。
也欢迎大家加入我的 学习圈子参与到我使用GoFrame开源的电商项目中欢迎star
https://github.com/wangzhongyang007/goframe-shop-v2
https://github.com/gogf/gf
秒杀业务的场景 预抢购业务活动未正式开始前先进行活动预约。在真正秒杀的时间点很多数据都是预处理好的了可以很大程度削减系统压力。比如活动预约、订金预约、火车票预约等 分批抢购业务分时段多场次抢购比如我们熟悉的京东满减优惠券就是分场次开放的整点抢购。 实时秒杀这是最有难度的秒杀场景比如双11晚上0点秒杀在这个时间点前后会涌入高并发流量频繁刷新页面、疯狂点击抢购按钮、甚至利用机器模拟请求。
下面就按照思维导图的顺序为大家展开聊聊如何做好秒杀系统的设计
2. 活动页面
活动页面是用户流量的第一入口是并发量最大的地方。
如果这些流量都直接访问服务端服务端会因为承受不住这么大的压力而直接挂掉。 活动页面绝大多数内容是固定的比如商品名称、商品描述、图片等。
为了减少不必要的服务端请求通常情况下会对活动页面做静态化处理。
因为用户浏览商品等常规操作并不会请求到服务端。只有到了秒杀时间点并且用户主动点了秒杀按钮才允许访问服务端。 CDN
更进一步只做页面静态化还不够因为用户分布在全国各地有些人在北京有些人在上海有些人在深圳地域相差很远网速各不相同。
如何才能让用户最快访问到活动页面呢
这就需要使用CDN它的全称是Content Delivery Network即内容分发网络。
使用户能够就近获取所需内容提高用户访问活动页面的响应速度和命中率。 3 秒杀按钮
如果你也参与过秒杀活动应该有这样的体会因为担心错过秒杀时间会提前进入活动页面并且不断的刷新页面。
很多秒杀活动在活动开始前秒杀按钮是置灰不可点击的。只有到了秒杀时间点那一时刻秒杀按钮才会自动点亮变成可点击的。
往往在秒杀开始之前很多用户已经迫不及待了通过不停刷新页面争取在第一时间看到秒杀按钮的点亮。
大家思考一个问题这个活动页面是静态的我们在静态页面中如何控制秒杀按钮只在秒杀时间点时才点亮呢
答案就是使用js文件控制。
为了性能考虑我们一般会将css、js和图片等静态资源文件提前缓存到CDN上让用户能够就近访问秒杀页面。
更新CDN
我们还要考虑一个问题CDN上的js文件要如何更新呢 我们可以通过在js中设置标记的方式来设置按钮的状态比如isBegintrue代表活动开始isBeginfalse代表活动未开始。
秒杀开始之前js标志为false秒杀活动开始时设置为true。为了达到这个效果我们另外还需要一个随机参数用来主动刷新CDN。
当秒杀开始的时候系统会生成一个新的js文件此时标志为true并且随机参数生成一个新值然后同步给CDN。由于有了这个随机参数CDN不会缓存数据每次都能从CDN中获取最新的js代码。
前端骚操作
除了使用CDN降低请求压力前端还可以加一个定时器控制请求频率比如10秒之内只允许发起一次请求。
如果用户点击了一次秒杀按钮则在10秒之内置灰不允许再次点击等到过了时间限制又允许重新点击该按钮。
4 读多写少
秒杀是非常典型的“读多写少”场景。
在秒杀的过程中系统一般会先查一下库存是否足够如果库存充足才允许下单写数据库。如果不够则直接返回该商品已经抢完。
由于大量用户抢少量商品只有极少部分用户能够抢成功所以绝大部分用户在秒杀时库存其实是不足的系统会直接返回该商品已经抢完。
如果有数十万的请求过来并发请求数据库查库存是否足够此时数据库可能会挂掉。
因为数据库的连接资源非常有限MySQL这类关系型数据库是无法同时支持这么多的连接。
那怎么办呢
我们应该使用nosql缓存比如redis。 注意即便用了redis在高并发场景下也需要部署多个节点。
5 缓存
通常情况下我们需要在redis中保存商品信息包括商品id、商品名称、规格属性、库存等信息同时数据库中也要有相关信息毕竟缓存并不完全可靠。
用户在点击秒杀按钮请求秒杀接口的过程中传入的商品id参数服务端需要校验该商品是否合法。
大致流程如下图所示 根据商品id先从缓存中查询商品如果商品存在则参与秒杀。如果不存在则需要从数据库中查询商品如果存在则将商品信息放入缓存然后参与秒杀。如果商品不存在则直接提示失败。
这个过程表面上看起来是OK的但是如果深入分析会发现一些问题。
为了方便大家理解也科普一下缓存常用问题 5.1 缓存击穿
比如商品A第一次秒杀时缓存中是没有数据的但数据库中有。虽说上面有从数据库中查到数据放入缓存的逻辑。
但是在高并发下同一时刻会有大量的请求都在秒杀同一件商品这些请求同时去查缓存没有命中然后又同时访问数据库。结果悲剧了数据库可能扛不住压力直接挂掉。
如何解决这个问题呢
这就需要加锁最好使用分布式锁思路见下图 预热
针对这种情况我们最好在项目启动之前先把缓存进行预热。
事先把参与秒杀的所有商品同步到缓存中这样商品基本都能直接从缓存中获取到就不会出现缓存击穿的问题了。
是不是上面加锁这一步可以不需要了
双保险
表面上看起来确实可以不需要。但是真实环境是比较复杂的我们要考虑到意外情况比如
缓存中设置的过期时间不对缓存提前过期了或者缓存被不小心删除了或者缓存设置的时间过短在秒杀活动结束前同时到期了
如果不加锁上面这些情况很可能出现缓存击穿的问题。
活动数据预缓存分布式锁相当于上了双保险。
5.2 缓存穿透
如果有大量的请求传入商品id并且在缓存和数据库中都不存在这些请求就都会穿透过缓存而直接访问数据库了。这就是典型的缓存穿透。
如果没有加锁的话很可能造成服务不可用。
由于前面已经加了锁所以即使这里的并发量很大也不会导致数据库直接挂掉。但很显然这些请求的处理性能并不好。
有没有更好的解决方案
布隆过滤器你值得拥有 简单来说布隆过滤器BloomFilter是一种数据结构。特点是存在性检测如果布隆过滤器中不存在那么实际数据一定不存在如果布隆过滤器中存在实际数据不一定存在。相比于传统数据结构如List、Set、Map等来说它更高效占用空间更少。缺点是它对于存在的判断是具有概率性。 引入布隆过滤器后的流程如下
系统根据商品id先从布隆过滤器中查询该id是否存在如果存在则允许从缓存中查询数据如果不存在则直接返回失败。
数据一致性
虽说该方案可以解决缓存穿透问题但是又会引出另外一个问题布隆过滤器中的数据如何跟缓存中的数据保持一致
这就要求如果缓存中数据有更新就要及时同步到布隆过滤器中。
如果数据同步失败了还需要增加重试机制而且跨数据源能保证数据的实时一致性吗
显然是不能的。
应用场景
布隆过滤器建议使用在缓存数据更新很少的场景中。
如果缓存数据更新非常频繁又该如何处理呢
巧妙的设计
我们可以把不存在的商品id也缓存起来。
下次再有该商品id的请求过来则也能从缓存中查到数据只不过该数据比较特殊表示商品不存在。 需要特别注意的是这种特殊缓存设置的超时时间应该尽量短一点。
6 库存问题
秒杀场景中的库存问题是比较复杂的可不是简单的库存减1就ok了~
真正的秒杀场景不是说扣完库存就完事了。如果用户在一段时间内还没完成支付扣减的库存是要加回去的。
预扣库存
在这里为大家介绍预扣库存的概念预扣库存的主要流程如下 扣减库存中除了上面说到的 预扣库存 和 回退库存 之外还需要特别注意的是 库存不足 和 库存超卖 问题。
下面逐个为大家解释
6.1 数据库扣减库存
使用数据库扣减库存是最简单的实现方案了假设扣减库存的update sql如下
update product set stockstock-1 where id123;这种写法对于扣减库存是没有问题的但如何控制库存不足的情况下不让用户操作呢
这就需要在update之前先查一下库存是否足够了。
伪代码如下
int stock product.getStockById(123);
if(stock 0) {int count product.updateStock(123);if(count 0) {addOrder(123);}
}大家有没有发现这段代码的问题
问题就是查询操作和更新操作不是原子性的会导致在并发的场景下出现库存超卖的情况。
有些同学可能会说这简单加把锁不就搞定了。
确实可以但是性能不够好我们做秒杀一定要考虑高并发考虑到性能问题。
优雅的方案
优雅的处理方案基于数据库的乐观锁这样会少一次数据库查询而且能够天然的保证数据操作的原子性。
只需将上面的sql稍微调整一下
update product set stockstock-1 where idproduct_id and stock 0;在sql最后加上stock 0就能保证不会出现超卖的情况。
进一步思考
我们都知道数据库连接是非常昂贵的资源在高并发的场景下可能会造成系统雪崩。而且容易出现多个请求同时竞争行锁的情况造成相互等待从而出现死锁的问题。
除了上述方案有没有更好的办法呢
当然有了nosql要比关系型数据库性能好很多我们可以使用redis扣减库存
6.2 redis扣减库存
redis的incr方法是原子性的可以用该方法扣减库存。伪代码如下
boolean exist redisClient.query(productId,userId);if(exist) {return -1;}int stock redisClient.queryStock(productId);if(stock 0) {return 0;}redisClient.incrby(productId, -1);redisClient.add(productId,userId);return 1;代码流程如下
先判断该用户有没有秒杀过该商品如果已经秒杀过则直接返回-1。查询库存如果库存小于等于0则直接返回0表示库存不足。如果库存充足则扣减库存然后将本次秒杀记录保存起来。然后返回1表示成功。
估计很多小伙伴一开始都会按这样的思路写代码。
但仔细想想会发现这段代码也有问题。有什么问题呢
如果在高并发下有多个请求同时查询库存当时都大于0。由于查询库存和更新库存非原则操作则会出现库存为负数的情况即库存超卖。
其实解决这个问题也很简单我们回忆一下上面数据库扣减库存的原子操作redis扣减库存同样适用这个思路为了解决上面的问题代码优化如下
boolean exist redisClient.queryJoined(productId,userId);
if(exist) {return -1;
}
if(redisClient.incrby(productId, -1)0) {return 0;
}
redisClient.add(productId,userId);
return 1;该代码主要流程如下
先判断该用户有没有秒杀过该商品如果已经秒杀过则直接返回-1。扣减库存判断返回值是否小于0如果小于0则直接返回0表示库存不足。如果扣减库存后返回值大于或等于0则将本次秒杀记录保存起来。然后返回1表示成功。
这个方案已经比较优雅了但是还不够好。
如果在高并发场景中有多个请求同时扣减库存大多数请求的incrby操作之后结果都会小于0。
虽说库存出现负数不会出现超卖的问题。但由于这里是预减库存如果负数值负的太多的话后面万一要回退库存时就会导致库存不准。
那么有没有更好的方案呢
6.3 Lua脚本扣减库存 Redis在2.6版本推出了 Lua 脚本功能允许开发者使用Lua语言编写脚本传到Redis中执行。 使用Lua脚本的好处如下:
减少网络开销可以将多个请求通过脚本的形式一次发送减少网络时延原子操作redis会将整个脚本作为一个整体执行中间不会被其他请求插入。因此在脚本执行过程中无需担心会出现竞态条件无需使用事务复用客户端发送的脚本会永久存在redis中这样其他客户端可以复用这一脚本而不需要使用代码完成相同的逻辑
Go语言要执行lua脚本也是很简单的有很多依赖库可以使用 上述lua代码的流程如下
先判断商品id是否存在如果不存在则直接返回。获取该商品id的库存判断库存如果是-1则直接返回表示不限制库存。如果库存大于0则扣减库存。如果库存等于0是直接返回表示库存不足。
7 分布式锁 上文咱们提到过秒杀的数据获取流程
需要先从缓存中查商品是否存在如果不存在则会从数据库中查商品如果数据库存在则将该商品放入缓存中然后返回如果数据库中没有则直接返回失败。
大家试想一下如果在高并发下有大量的请求都去查一个缓存中不存在的商品这些请求都会直接打到数据库。数据库由于承受不住压力而直接挂掉。
那么如何解决这个问题呢
这就需要用redis分布式锁了。
下面带着大家详解一下分布式锁
7.1 setNx加锁
使用redis的分布式锁首先想到的是setNx命令。 Redis SetnxSET if Not eXists 命令在指定的 key 不存在时为 key 设置指定的值。 if (redis.setnx(lockKey, val) 1) {redis.expire(lockKey, timeout);
}用该命令可以加锁但和后面的设置超时时间是分开的并非原子操作。
假如加锁成功了但是设置超时时间失败了该lockKey就变成永不失效的了。在高并发场景中该问题会导致非常严重的后果。
那么有没有保证原子性的加锁命令呢
7.2 set加锁
使用redis的set命令它可以指定多个参数。
result,err : redis.set(lockKey, requestId, NX, PX, expireTime);
if err!nil{panic(err)
}
if (OK.equals(result)) {return true;
}
return false;其中
lockKey锁的标识requestId请求idNX只在键不存在时才对键进行设置操作。PX设置键的过期时间为 millisecond 毫秒。expireTime过期时间
由于该命令只有一步所以它是原子操作。
7.3 释放锁
细心的小伙伴可能注意到了一个问题在加锁时既然已经有了lockKey锁标识为什么还需要记录requestId呢
答requestId是在释放锁的时候用的。
if (redis.get(lockKey).equals(requestId)) {redis.del(lockKey);return true;
}
return false;在释放锁的时候只能释放本次请求加的锁不允许释放其他请求加的锁。
这里为什么要用requestId用userId不行吗
如果用userId的话假设本次请求流程走完了准备删除锁。此时巧合另外一个请求使用相同的userId加锁成功。而本次请求删除锁的时候删除的其实是本应该加锁成功的锁新的请求的锁所以不我们不能以userId为加锁标识而应该用每次的requestId为加锁标识。
当然使用lua脚本也能避免该问题它能保证原子操作查询锁是否存在和删除锁具有原子性。
if redis.call(get, KEYS[1]) ARGV[1] then return redis.call(del, KEYS[1])
else return 0
end7.4 自旋锁
上面的加锁方法看起来好像没有问题但如果你仔细想想如果有1万个请求同时去竞争那把锁可能只有一个请求是成功的其余的9999个请求都会失败。
在秒杀场景下会有什么问题
答每1万个请求有1个成功。再1万个请求有1个成功。如此下去直到库存不足。这就变成均匀分布的秒杀了跟我们想象中的不一样。
如何解决这个问题呢
其实也很简单使用自旋锁即可。
自旋锁的思路如下
在规定的时间比如500毫秒内自旋不断尝试加锁如果成功则直接返回如果失败则休眠50毫秒再发起新一轮的尝试。如果到了超时时间还未加锁成功则直接返回失败。
8 mq异步处理
我们都知道在真实的秒杀场景中有三个核心流程 而这三个核心流程中真正并发量大的是秒杀功能下单和支付功能实际并发量很小。
所以我们在设计秒杀系统时有必要把下单和支付功能从秒杀的主流程中拆解出来。
MQ异步处理了解一下特别是下单功能要做成mq异步处理的。而支付功能比如支付宝支付是业务场景本身就是异步的。
于是秒杀后下单的流程变成如下 如果使用mq需要关注以下几个问题
消息丢失问题消息重复消费问题垃圾消息问题延迟消费问题
8.1 消息丢失问题
秒杀成功了向MQ发送下单消息的时候有可能会失败。
原因有很多比如网络问题、broker挂了、mq服务器等问题。这些情况都可能会造成消息丢失。
那么如何防止消息丢失呢
加一张消息发送表就可以了。 其流程如下
在生产者发送mq消息之前先把该条消息写入消息发送表初始状态是待处理然后再发送mq消息。消费者消费消息时回调生产者的一个接口处理完业务逻辑之后修改消息状态为已处理。
消息重发
如果生产者把消息写入消息发送表之后再发送mq消息到mq服务端的过程中失败了造成了消息丢失。
这时候要如何处理呢
答使用job增加重试机制。用job每隔一段时间去查询消息发送表中状态为待处理的数据然后重新发送mq消息。 8.2 重复消费问题
一般情况下消费者在消费消息做ACK应答的时候如果网络超时本身就可能会消费重复的消息。 ACK应答也称为确认消息应答是在计算机网上中通信协议的一部分是设备或是进程发出的消息回复已收到数据。 由于我们前面引入了消息发送重试机制会导致消费者重复消费消息的概率进一步增大。
那么如何解决重复消费消息的问题呢
答案也很简单加一张消息处理表即可。 消费者读到消息之后先判断一下消息处理表是否存在该消息如果存在表示是重复消费则直接返回。
如果不存在则进行下单操作接着将该消息写入消息处理表中再返回。
有个非常关键的问题需要大家注意下单和写消息处理表要放在同一个事务中保证原子操作。
8.3 垃圾消息问题
上面这套方案表面上看起来没有问题但如果出现了消息消费失败的情况。比如由于某些原因消息消费者下单一直失败一直不能回调状态变更接口这样job会不停的重试发消息。最后会产生大量的垃圾消息。
那么如何解决这个问题呢
限制重试次数
每次在job重试时需要先判断一下消息发送表中该消息的发送次数是否达到最大限制如果达到了则直接返回。如果没有达到则将消息发送次数加1然后再发送消息。 这样如果出现异常只会产生少量的垃圾消息不会影响到正常的业务。
8.4 延迟消费问题
通常情况下如果用户秒杀成功了下单之后在30分钟之内还未完成支付的话该订单会被自动取消回退库存。
那么在30分钟内未完成支付订单被自动取消的功能要如何实现呢
我们首先想到的可能是job因为它比较简单。
但job有个问题需要每隔一段时间处理一次实时性不太好。
还有更好的方案
肯定是有的使用延迟队列即可。比如RocketMQ自带了延迟队列的功能。 我们再来梳理一下流程
下单时消息生产者首先生成订单此时为待支付状态。然后向延迟队列中发一条消息。当达到了延迟时间消息消费者读取消息之后会查询该订单的状态是否为待支付。如果是待支付状态则会更新订单状态为取消状态。如果不是待支付状态说明该订单已经支付过了则直接返回。
注意在我们的业务开发中当用户完成支付之后会修改订单状态为已支付。这个千万不要忘记
9 限流
做秒杀活动不担心真实用户多担心的是
有些高手并不会像我们一样老老实实通过秒杀页面点击秒杀按钮抢购商品。他们可能在自己的服务器上模拟正常用户登录系统跳过秒杀页面直接调用秒杀接口。
如果是我们手动操作一般情况下一秒钟只能点击一次秒杀按钮。
但是如果是服务器一秒钟可以请求成上千接口。 这种差距实在太明显了如果不做任何限制绝大部分商品可能是被机器抢到而不是正常用户这就违背了搞秒杀活动的初衷。
所以我们有必要识别这些非法请求做一些限制。那么我们该如何限制这些非法请求呢
9.1 对同一用户限流
为了防止某个用户请求接口次数过于频繁可以只针对该用户做限制。 限制同一个用户id比如每分钟只能请求5次接口。
9.2 对同一ip限流
有时候只对某个用户限流是不够的有些高手可以模拟多个用户请求这种nginx就没法识别了。
这时需要加同一ip限流功能。 限制同一个ip比如每分钟只能请求5次接口。
误伤问题
但这种限流方式可能会有误伤的情况比如同一个公司或网吧的出口ip是相同的如果里面有多个正常用户同时发起请求有些用户可能会被限制住。
9.3 对接口限流
别以为限制了用户和ip就万事大吉有些高手甚至可以使用代理每次都请求都换一个ip。
这时可以限制请求的接口总次数。 在高并发场景下这种限制对于系统的稳定性是非常有必要的。
但可能由于有些非法请求次数太多达到了该接口的请求上限而影响其他的正常用户访问该接口。一般我们对接口限流会设置时间超过一段时间后则重新开放。
9.4 加验证码
相对于上面三种方式加验证码的方式可能更精准一些同样能限制用户的访问频次但好处是不会存在误杀的情况。 通常情况下用户在请求之前需要先输入验证码。用户发起请求之后服务端会去校验该验证码是否正确。只有正确才允许进行下一步操作。否则直接返回并且提示验证码错误。
注意验证码一般是一次性的同一个验证码只允许使用一次不允许重复使用。
普通验证码
普通验证码由于生成的数字或者图案比较简单可能会被破解。
优点是生成速度比较快缺点是有安全隐患。
滑块验证码 移动滑块虽然它生成速度比较慢但比较安全是目前各大互联网公司的首选。也有不少三方平台推出了这套服务可以直接使用。
9.5 提高业务门槛
上面说的加验证码虽然可以限制非法用户请求但是有些影响用户体验。用户点击秒杀按钮前还要先输入验证码流程显得有点繁琐秒杀功能的流程不是应该越简单越好吗
其实有时候达到某个目的不一定非要通过技术手段通过业务手段也一样。
12306刚开始的时候全国人民都在同一时刻抢火车票由于并发量太大系统经常挂。后来重构优化之后将购买周期放长了可以提前20天购买火车票并且可以在9点、10、11点、12点等整点购买火车票。调整业务之后当然技术也有很多调整将之前集中的请求分散开了一下子降低了用户并发量。
同样的我们的秒杀系统也可以借鉴12306的方案站在业务的角度有针对性的做优化比如
我们可以通过提高业务门槛比如只有会员才能参与秒杀活动普通注册用户没有权限。或者只有等级到达3级以上的用户才有资格参加该活动。或者分时间段获得秒杀资格比如9点、10、11点、参加活动获得秒杀资格获得资格的朋友12点集中参与秒杀。
数据库层隔离
上面的内容也呼应了一下开篇秒杀场景除了站在技术的角度考虑也需要站在业务的角度去考虑。
除了上面提到的“静态化”、“Redis缓存”、“分布式锁”、“限流”等。数据库层隔离也是非常重要的。
针对秒杀系统可能会影响已经正常运行的其他数据库的情况我们需要考虑“数据库隔离设计”。常用以下三种方法分表分库、数据隔离、数据合并。
10.1 分库分表
数据库很容易产生性能瓶颈导致数据库的活跃连接数增加一旦达到连接数的阈值会出现应用服务无连接可用造成灾难性后果。
我们可以先从代码、SQL语句、索引这几个方面着手优化如果没有优化空间了就要考虑分库分表了。
以我们的经验Mysql单表推荐的存储量是500万条记录左右。如果估算超过这个阈值就建议做分表。
如果服务的链接数较多就建议进行分库操作。
10.2 数据隔离
这也是我们做秒杀系统最大的经验分享秒杀系统使用的关系型数据库绝大多数是多操作再者是插入只有少部分修改几乎没有删除操作。建议用专门的表来存放数据不建议使用业务系统正在使用的表来存放秒杀相关的数据。
前文也有提到数据隔离是必须的万一秒杀系统出了问题不能影响正常业务系统。
表的设计除了自增ID之外最好不要设置其他主键以保证能够快速插入。
10.3 数据合并
如果我们秒杀系统是用的专用表存储在秒杀活动结束后需要将其和现有数据进行合并。
交易已经完成合并的目的是为了方便后续查询
这个合并可以根据具体情况来做对于那些“只读”的数据可以只导入到专门负责读的数据库或者NoSQL数据库中即可。
11 压力测试
对于秒杀系统上线之前进行压力测试是必不可少的不仅能够帮助我们优化设计更重要的能够检测出系统崩溃的边缘及系统的极限在哪里。
只有这样我们才能合理的设置流量上限把多余的流量主动抛弃掉进而保证系统的稳定性。
11.1 压测方法
正压力测试
简单来说在保证服务器资源不变的情况下网络请求不断做加法。
每次秒杀活动评估要使用多少服务器资源承受多少请求。可以通过不断加压的方式直到系统接近崩溃或者真正崩溃。
如下图所示 负压力测试
负压力测试如下图所示也很好理解在系统正常运行的情况下逐渐减少支撑系统的服务器资源观察什么时候系统无法在支撑正常的业务请求。 11.2 压测步骤
知道有哪些测试方法还远远不够下面介绍的压测步骤才是最重要的内容。
为大家分享8个测试步骤不止是秒杀系统其他需要压测的场景也可以按照这个思路进行测试
1.确定测试目标
压力测试和性能测试不同压力测试的目标是什么时候系统会接近崩溃比如需要支持100万的访问量测试出性能阈值。
2. 确定关键问题
二八原则大家一定要知道压力测试也是有重点的系统中只有20%的功能是最常用的比如秒杀接口、下单、扣减库存。要集中火力测试常用的功能高度还原真实场景。
3. 确定负载
和上面观点一样不是每个服务都有高负载测试时要重点关注高负载的服务真实场景中服务的负载一定是波动的并且不是均匀分布的。
4. 搭建环境
搭建环境要和生产环境保持一致。
5. 确定监测指标
提前确定好要重点监测的参数指标比如CPU负载、内存使用率、系统吞吐量、带宽阈值等
6. 产生负载
建议优先使用往期的秒杀数据或者从生产环境中同步数据进行测试根据目标系统的承受要求由脚本驱动测试模拟不同网络环境对硬件条件有规律的进行测试
7. 执行测试
根据目标系统、关键组件、用负载进行测试、返回监测点的数据。
8. 分析数据
针对测试的目的对关键服务的压力测试数据进行分析得出这些服务的承受上限在哪里
对有波动的负载或者大负载的的服务进行数据分析明确优化的方向。
项目实战
秒杀系统的项目实战欢迎加入我的学习圈子邀你进项目组。
总结
总体来说秒杀系统是十分复杂的我们要根据自身的情况选择合适的架构。这篇文章比较系统的介绍了秒杀场景中常见的问题和解决方案。咱们再回顾一下开篇的思维导图 最后再给大家3个建议
负载均衡分而治之。通过负载均衡将不同的流量划分到不同的机器上每台机器处理好自己的请求将自己的性能发挥到极致。这样整个系统的性能也就达到最高了。合理使用并发。Go语言能够完美发挥服务器多核优势很多可以用并发处理的任务都可以用Go的协程处理。比如Go处理HTTP请求时每个请求都会在一个goroutine中执行。合理使用异步。异步处理已经被越来越多的开发者所接受对实时性要求不高的业务都可以用异步来处理在功能拆解上能达到意想不到的效果。
一起学习进步
我的所有文章都会首发在我的 学习小圈子 欢迎加入我们一起学习进步一起升职加薪。