1. 门户首页商品分类
搜索做完之后,把目光移动首页,首页最重要的模块之一便是商品分类,商品分类也是进入商品列表,找到心仪商品的另一个主要途径
![1568101575193](/assets/1568101575193.png)
接下来就搭建一个module。这个页面作为整个商城的门户入口,访问量巨大,为了方便优化扩展,需要搭建独立的系统。
1.1. 创建首页Module
创建gmall-index首页工程
![1589185117143](/assets/1589185117143.png)
application.yml配置如下:bootstrap.yml配置略。。。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
| server: port: 18087 spring: cloud: nacos: discovery: server-addr: localhost:8848 sentinel: transport: dashboard: localhost:8080 port: 8719 zipkin: base-url: http://localhost:9411/ sender: type: web discovery-client-enabled: false sleuth: sampler: probability: 1 redis: host: 172.16.116.100 thymeleaf: cache: false feign: sentinel: enabled: true
|
启动类上的注解:
1 2 3 4 5 6 7 8 9 10
| @SpringBootApplication @EnableDiscoveryClient @EnableFeignClients public class GmallIndexApplication {
public static void main(String[] args) { SpringApplication.run(GmallIndexApplication.class, args); }
}
|
并把首页的页面及common目录 copy到templates目录下:
![1589185455851](/assets/1589185455851.png)
在网关工程中配置首页路由:
1 2 3 4 5 6 7 8 9
| - id: index-route1 uri: lb://index-service predicates: - Host=www.gmall.com - id: index-route2 uri: lb://index-service predicates: - Path=/index/**
|
并在cors跨域过滤器中,添加允许跨域的域名地址:
![1589290991745](/assets/1589290991745.png)
重启网关。修改nginx配置如下:
![1589185590951](/assets/1589185590951.png)
重新加载配置文件:nginx -s reload
1.2. 跳转到首页
跳转到首页,并加载一级分类。
实现如下:
![1586060389536](/assets/1586060389536.png)
IndexController:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| @Controller public class IndexController {
@Autowired private IndexService indexService;
@GetMapping public String toIndex(Model model){
List<CategoryEntity> categoryEntities = this.indexService.queryLvl1Categories(); model.addAttribute("cates", categoryEntities);
return "index"; }
}
|
IndexService:
1 2 3 4 5 6 7 8 9 10 11 12
| @Service public class IndexService {
@Autowired private GmallPmsFeign pmsFeign;
public List<CategoryEntity> queryLvl1Categories() { ResponseVo<List<CategoryEntity>> listResponseVo = this.pmsClient.queryCategoriesByPid(0l); return listResponseVo.getData(); }
}
|
GmallPmsFeign:
1 2 3
| @FeignClient("pms-service") public interface GmallPmsClient extends GmallPmsApi { }
|
注意:需要引入gmall-pms-interface的依赖
1 2 3 4 5
| <dependency> <groupId>com.atguigu</groupId> <artifactId>gmall-pms-interface</artifactId> <version>0.0.1-SNAPSHOT</version> </dependency>
|
访问测试:
![1586061661794](/assets/1586061661794.png)
1.3. 获取二、三级分类
对标京东:
![1568116025898](/assets/1568116025898.png)
为了提高页面的响应速度,这里异步加载一级分类对应的二级分类及其下的所有三级分类。
结合接口文档:
请求地址:/index/cates/{pid}
请求方式:GET
请求参数:pid(一级分类的id)
正确响应:List<CategoryEntity>
需要给CategoryEntity扩展一个字段subs
![1586060636720](/assets/1586060636720.png)
需要gmall-pms提供这样的接口,然后在gmall-index中调用这个接口。
1.3.1. gmall-pms提供数据接口
在CategoryController中添加方法:
1 2 3 4 5
| @GetMapping("subs/{pid}") public ResponseVo<List<CategoryEntity>> queryCategoriesWithSub(@PathVariable("pid")Long pid){ List<CategoryEntity> categoryEntityList = this.categoryService.queryCategoriesWithSub(pid); return ResponseVo.ok(categoryEntityList); }
|
CategoryService:
1 2 3 4 5 6 7 8
| public interface CategoryService extends IService<CategoryEntity> {
PageResultVo queryPage(PageParamVo paramVo);
List<CategoryEntity> queryCategory(Long parentId);
List<CategoryEntity> queryCategoriesWithSub(Long pid); }
|
在CategoryServiceImpl实现类中实现方法:
1 2 3 4 5 6 7
| @Autowired private CategoryMapper categoryMapper;
@Override public List<CategoryEntity> queryCategoriesWithSub(Long pid) { return this.categoryMapper.queryCategoriesByPid(pid); }
|
CategoryMapper:
1 2 3 4 5
| @Mapper public interface CategoryMapper extends BaseMapper<CategoryEntity> {
List<CategoryEntity> queryCategoriesByPid(Long pid); }
|
CategoryMapper.xml:
1 2 3 4 5 6 7 8 9 10 11 12
| <?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd"> <mapper namespace="com.atguigu.gmall.pms.mapper.CategoryMapper">
<resultMap id="CategoryMap" type="categoryEntity" autoMapping="true"> <collection property="subs" javaType="list" ofType="categoryEntity" select="queryCategoriesByPid" column="id"/> </resultMap>
<select id="queryCategoriesByPid" resultMap="CategoryMap"> select * from pms_category where parent_id = #{pid} </select> </mapper>
|
测试:
![1589211348637](/assets/1589211348637.png)
1.3.2. gmall-pms-interface定义api方法
在GmallPmsApi定义抽象的api接口方法
1 2
| @GetMapping("pms/category/subs/{pid}") public ResponseVo<List<CategoryEntity>> queryCategoriesWithSub(@PathVariable("pid")Long pid);
|
1.3.3. gmall-index调用接口
IndexController:
1 2 3 4 5 6 7
| @ResponseBody @GetMapping("index/cates/{pid}") public ResponseVo<List<CategoryEntity>> queryLvl2CategoriesWithSub(@PathVariable("pid")Long pid){
List<CategoryEntity> categoryEntities = this.indexService.queryLvl2CategoriesWithSub(pid); return ResponseVo.ok(categoryEntities); }
|
IndexService:
1 2 3 4 5
| public List<CategoryEntity> queryLvl2CategoriesWithSub(Long pid) {
ResponseVo<List<CategoryEntity>> listResponseVo = this.pmsClient.queryCategoriesWithSub(pid); return listResponseVo.getData(); }
|
1.3.4. 整合测试
重启测试:
![1586062789077](/assets/1586062789077.png)
访问首页,效果如下:
![1589446473735](/assets/1589446473735.png)
2. 缓存
首页的访问量非常大,而首页中的商品类目访问量更大,鼠标移动就在访问,查询所有的数据,如果每次访问都实时到数据库获取数据,数据库的访问压力太大。
而这些信息一般更新的频率比较低,短时间内不会发生改变。因此,我们可以考虑在前台系统中,增加一层缓存,把这些数据缓存起来,请求到来时,不再调用数据接口,而是直接读取缓存中的数据。
这样就能大大减少首页分类加载所需时间,提高并发性能。
加不加缓存的标准:
变化频率低
访问频繁
实现:使用Redis实现缓存。
2.1. 如何实现
- 先读缓存,缓存有,直接返回。
- 缓存没有,再读数据库
2.2. 缓存的基本实现
接下来以根据父节点查询子节点演示缓存功能:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| @Autowired private StringRedisTemplate redisTemplate;
public static final String KEY_PREFIX = "index:category:";
public List<CategoryEntity> queryLvl2CategoriesWithSub(Long pid) {
String cacheCategories = this.redisTemplate.opsForValue().get(KEY_PREFIX + pid); if (StringUtils.isNotBlank(cacheCategories)){ List<CategoryEntity> categoryEntities = JSON.parseArray(cacheCategories, CategoryEntity.class); return categoryEntities; }
ResponseVo<List<CategoryEntity>> subCategoryResp = this.gmallPmsFeign.querySubCategory(pid);
this.redisTemplate.opsForValue().set(KEY_PREFIX + pid, JSON.toJSONString(subCategoryResp), 30, TimeUnit.DAYS);
return subCategoryResp.getData(); }
|
查询一级分类的缓存功能请自行实现。
测试:
![1568125262122](/assets/1568125262122.png)
2.3. 缓存一致性
- 双写模式:写数据库,写缓存
- 失效模式:缓存失效(删除缓存),写数据库
读取缓存步骤数据一致性一般没有什么问题,但是一旦涉及到数据更新:数据库和缓存更新,就容易出现缓存(Redis)和数据库(MySQL)间的数据一致性问题。
不管先保存到MySQL,还是先保存到Redis都面临着一个保存成功而另外一个保存失败的情况。
不管是先写MySQL数据库,再删除Redis缓存;还是先删除缓存,再写库,都有可能出现数据不一致的情况。举一个例子:
1.如果删除了缓存Redis,还没有来得及写库MySQL,另一个线程就来读取,发现缓存为空,则去数据库中读取数据写入缓存,此时缓存中为脏数据。
2.如果先写了库,在删除缓存前,写库的线程宕机了,没有删除掉缓存,则也会出现数据不一致情况。
因为写和读是并发的,没法保证顺序,就会出现缓存和数据库的数据不一致的问题。
解决:
- 基于mysql的binlog日志(canal)
- 消息队列
2.4. 缓存常见问题
缓存最常见的3个问题:
缓存穿透
缓存雪崩
缓存击穿
缓存穿透是指查询一个不存在的数据,由于缓存无法命中,将去查询数据库,但是数据库也无此记录,并且出于容错考虑,我们没有将这次查询的null写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,可能DB就挂掉了,要是有人利用不存在的key频繁攻击我们的应用,这就是漏洞。
解决:空结果也进行缓存,但它的过期时间会很短,最长不超过五分钟。
缓存雪崩是指在我们设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重雪崩。
解决:原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。
缓存击穿是指对于一些设置了过期时间的key,如果这些key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:如果这个key在大量请求同时进来之前正好失效,那么所有对这个key的数据查询都落到db,我们称为缓存击穿。
与缓存雪崩的区别:
- 击穿是一个热点key失效
- 雪崩是很多key集体失效
解决:锁
![1568162613917](/assets/1568162613917.png)
3. 分布式锁
3.1. 本地锁的局限性
之前,我们学习过synchronized及lock锁,这些锁都是本地锁。接下来写一个案例,演示本地锁的问题
3.1.1. 编写测试代码
在gmall-index中的IndexController中添加测试方法:
1 2 3 4 5 6 7
| @GetMapping("testlock") public ResponseVo<Object> testLock(){ indexService.testLock();
return ResponseVo.ok(null); }
|
在IndexService方法中添加方法:
1 2 3 4 5 6 7 8 9 10 11 12
| public void testLock() { String value = this.redisTemplate.opsForValue().get("num"); if (StringUtils.isBlank(value)){ return ; } int num = Integer.parseInt(value); this.redisTemplate.opsForValue().set("num", String.valueOf(++num)); }
|
3.1.2. 使用ab工具测试
之前在redis中,玩过ab测试工具:httpd-tools(yum install -y httpd-tools)
1
| ab -n(一次发送的请求数) -c(请求的并发数) 访问路径
|
测试之前需要在linux中修改hosts文件,添加域名映射:vi /etc/hosts
![1586067225984](/assets/1586067225984.png)
测试如下:5000请求,100并发
![1586067133446](/assets/1586067133446.png)
查看redis中的值:
![1568165593635](/assets/1568165593635.png)
只有186。这代码问题很大!
3.1.3. 添加本地锁
![1568165135744](/assets/1568165135744.png)
使用ab工具压力测试:5000次请求,并发100
![1586067133446](/assets/1586067133446.png)
查看redis中的结果:
![1568165105911](/assets/1568165105911.png)
完美!是否真的完美?
接下来再看集群情况下,会怎样?
3.1.4. 本地锁问题演示
接下来启动18087 18088 18089三个运行实例。
运行多个gmall-index实例:
![1568163596602](/assets/1568163596602.png)
![1586067691813](/assets/1586067691813.png)
这样就能启动多个运行实例
![1586067744599](/assets/1586067744599.png)
由于这三个运行实例的服务名都是index-service,而网关配置的就是通过服务名负载均衡,我们只要通过网关访问,网关就会给我们做负载均衡了。
再次执行之前的压力测试,查看redis中的值:
![1568166254958](/assets/1568166254958.png)
集群情况下又出问题了!!!
以上测试,可以发现:
本地锁只能锁住同一工程内的资源,在分布式系统里面都存在局限性。
此时需要分布式锁。。
3.2. 分布式锁的实现
随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!
分布式锁主流的实现方案:
- 基于数据库实现分布式锁
- 基于缓存(Redis等)
- 基于Zookeeper
每一种分布式锁解决方案都有各自的优缺点:
- 性能:redis最高
- 可靠性:zookeeper最高
这里,我们就基于redis实现分布式锁。
3.2.1. 基本实现
借助于redis中的命令setnx(key, value),key不存在就新增,存在就什么都不做。同时有多个客户端发送setnx命令,只有一个客户端可以成功,返回1(true);其他的客户端返回0(false)。
![1568170959121](/assets/1568170959121.png)
- 多个客户端同时获取锁(setnx)
- 获取成功,执行业务逻辑,执行完成释放锁(del)
- 其他客户端等待重试
代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
| public void testLock() { Boolean lock = this.redisTemplate.opsForValue().setIfAbsent("lock", "111"); if (lock) { String value = this.redisTemplate.opsForValue().get("num"); if (StringUtils.isBlank(value)){ return ; } int num = Integer.parseInt(value); this.redisTemplate.opsForValue().set("num", String.valueOf(++num));
this.redisTemplate.delete("lock"); } else { try { Thread.sleep(1000); testLock(); } catch (InterruptedException e) { e.printStackTrace(); } } }
|
重启,服务集群,通过网关压力测试:
![1568172259974](/assets/1568172259974.png)
查看redis中num的值:
![1568172286652](/assets/1568172286652.png)
基本实现。
问题:setnx刚好获取到锁,业务逻辑出现异常,导致锁无法释放
解决:设置过期时间,自动释放锁。
3.2.2. 优化之设置锁的过期时间
设置过期时间有两种方式:
- 首先想到通过expire设置过期时间(缺乏原子性:如果在setnx和expire之间出现异常,锁也无法释放)
- 在set时指定过期时间(推荐)
![1568172928666](/assets/1568172928666.png)
设置过期时间:
![1586068428419](/assets/1586068428419.png)
压力测试肯定也没有问题。自行测试
问题:可能会释放其他服务器的锁。
场景:如果业务逻辑的执行时间是7s。执行流程如下
index1业务逻辑没执行完,3秒后锁被自动释放。
index2获取到锁,执行业务逻辑,3秒后锁被自动释放。
index3获取到锁,执行业务逻辑
index1业务逻辑执行完成,开始调用del释放锁,这时释放的是index3的锁,导致index3的业务只执行1s就被别人释放。
最终等于没锁的情况。
解决:setnx获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否自己的锁
3.2.3. 优化之UUID防误删
![1568174534027](/assets/1568174534027.png)
实现如下:
![1568174895170](/assets/1568174895170.png)
问题:删除操作缺乏原子性。
场景:
- index1执行删除时,查询到的lock值确实和uuid相等
- index1执行删除前,lock刚好过期时间已到,被redis自动释放
- index2获取了lock
- index1执行删除,此时会把index2的lock删除
3.2.4. 优化之LUA脚本保证删除的原子性
删除LUA脚本:
1
| if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end
|
实现:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
| public void testLock() { String uuid = UUID.randomUUID().toString(); Boolean lock = this.redisTemplate.opsForValue().setIfAbsent("lock", uuid, 3, TimeUnit.SECONDS); if (lock) { String value = this.redisTemplate.opsForValue().get("num"); if (StringUtils.isBlank(value)){ return ; } int num = Integer.parseInt(value); this.redisTemplate.opsForValue().set("num", String.valueOf(++num));
String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end"; this.redisTemplate.execute(new DefaultRedisScript<>(script), Arrays.asList("lock"), uuid); } else { try { Thread.sleep(1000); testLock(); } catch (InterruptedException e) { e.printStackTrace(); } } }
|
3.2.5. 总结
1、加锁
1 2
| String uuid = UUID.randomUUID().toString(); Boolean lock = this.redisTemplate.opsForValue().setIfAbsent("lock", uuid, 3, TimeUnit.SECONDS);
|
2、释放锁
1 2
| String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end"; this.redisTemplate.execute(new DefaultRedisScript<>(script), Arrays.asList("lock"), uuid);
|
3、重试
1 2 3 4 5 6
| try { Thread.sleep(1000); testLock(); } catch (InterruptedException e) { e.printStackTrace(); }
|
为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:
- 互斥性。在任意时刻,只有一个客户端能持有锁。
- 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。
- 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。
- 加锁和解锁必须具有原子性。
redis集群状态下的问题:
- 客户端A从master获取到锁
- 在master将锁同步到slave之前,master宕掉了。
- slave节点被晋级为master节点
- 客户端B取得了同一个资源被客户端A已经获取到的另外一个锁。
安全失效!
3.3. 分布式锁之Redisson
Redisson是一个在Redis的基础上实现的Java驻内存数据网格(In-Memory Data Grid)。它不仅提供了一系列的分布式的Java常用对象,还提供了许多分布式服务。其中包括(BitSet, Set, Multimap, SortedSet, Map, List, Queue, BlockingQueue, Deque, BlockingDeque, Semaphore, Lock, AtomicLong, CountDownLatch, Publish / Subscribe, Bloom filter, Remote service, Spring cache, Executor service, Live Object service, Scheduler service) Redisson提供了使用Redis的最简单和最便捷的方法。Redisson的宗旨是促进使用者对Redis的关注分离(Separation of Concern),从而让使用者能够将精力更集中地放在处理业务逻辑上。
![1568176834908](/assets/1568176834908.png)
官方文档地址:https://github.com/redisson/redisson/wiki
3.3.1. 快速入门
- 引入依赖
1 2 3 4 5
| <dependency> <groupId>org.redisson</groupId> <artifactId>redisson</artifactId> <version>3.11.2</version> </dependency>
|
- 添加配置
1 2 3 4 5 6 7 8 9 10 11
| @Configuration public class RedissonConfig {
@Bean public RedissonClient redissonClient(){ Config config = new Config(); config.useSingleServer().setAddress("redis://172.16.116.100:6379"); return Redisson.create(config); } }
|
- 代码实现
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| @Autowired private RedissonClient redissonClient;
@Override public void testLock() {
RLock lock = this.redissonClient.getLock("lock"); lock.lock();
String value = this.redisTemplate.opsForValue().get("num"); if (StringUtils.isBlank(value)) { return; } int num = Integer.parseInt(value); this.redisTemplate.opsForValue().set("num", String.valueOf(++num));
lock.unlock(); }
|
使用ab压力测试,查看redis内容:
![1568180869665](/assets/1568180869665.png)
3.3.2. 可重入锁(Reentrant Lock)
基于Redis的Redisson分布式可重入锁RLock
Java对象实现了java.util.concurrent.locks.Lock
接口。
大家都知道,如果负责储存这个分布式锁的Redisson节点宕机以后,而且这个锁正好处于锁住的状态时,这个锁会出现锁死的状态。为了避免这种情况的发生,Redisson内部提供了一个监控锁的看门狗,它的作用是在Redisson实例被关闭前,不断的延长锁的有效期。默认情况下,看门狗的检查锁的超时时间是30秒钟,也可以通过修改Config.lockWatchdogTimeout
来另行指定。
另外Redisson还通过加锁的方法提供了leaseTime
的参数来指定加锁的时间。超过这个时间后锁便自动解开了。
快速入门使用的就是可重入锁。也是最常使用的锁。
最常见的使用:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| RLock lock = redisson.getLock("anyLock");
lock.lock();
lock.lock(10, TimeUnit.SECONDS);
boolean res = lock.tryLock(100, 10, TimeUnit.SECONDS); if (res) { try { ... } finally { lock.unlock(); } }
|
改造程序:
![1586069265237](/assets/1586069265237.png)
重启后在浏览器测试:
![1586069552062](/assets/1586069552062.png)
在这10s期间,可以在redis客户端看到lock锁的内容:
![1568181219597](/assets/1568181219597.png)
3.3.3. 读写锁(ReadWriteLock)
基于Redis的Redisson分布式可重入读写锁RReadWriteLock
Java对象实现了java.util.concurrent.locks.ReadWriteLock
接口。其中读锁和写锁都继承了RLock接口。
分布式可重入读写锁允许同时有多个读锁和一个写锁处于加锁状态。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| RReadWriteLock rwlock = redisson.getReadWriteLock("anyRWLock");
rwlock.readLock().lock();
rwlock.writeLock().lock();
rwlock.readLock().lock(10, TimeUnit.SECONDS);
rwlock.writeLock().lock(10, TimeUnit.SECONDS);
boolean res = rwlock.readLock().tryLock(100, 10, TimeUnit.SECONDS);
boolean res = rwlock.writeLock().tryLock(100, 10, TimeUnit.SECONDS); ... lock.unlock();
|
IndexController中的两个方法:
1 2 3 4 5 6 7 8 9 10 11 12 13
| @GetMapping("read") public ResponseVo<String> read(){ String msg = indexService.readLock();
return ResponseVo.ok(msg); }
@GetMapping("write") public ResponseVo<String> write(){ String msg = indexService.writeLock();
return ResponseVo.ok(msg); }
|
IndexService接口方法:注意保证锁的名称一致,才能使用同一把锁
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
| public String readLock() { RReadWriteLock readWriteLock = redissonClient.getReadWriteLock("readwriteLock"); RLock rLock = readWriteLock.readLock();
rLock.lock(10, TimeUnit.SECONDS);
String msg = this.redisTemplate.opsForValue().get("msg");
return msg; }
public String writeLock() { RReadWriteLock readWriteLock = redissonClient.getReadWriteLock("readwriteLock"); RLock rLock = readWriteLock.writeLock();
rLock.lock(10, TimeUnit.SECONDS);
this.redisTemplate.opsForValue().set("msg", UUID.randomUUID().toString());
return "成功写入了内容。。。。。。"; }
|
打开开两个浏览器窗口测试:
3.3.4. 信号量(Semaphore)和闭锁(CountDownLatch)
基于Redis的Redisson的分布式信号量(Semaphore)Java对象RSemaphore
采用了与java.util.concurrent.Semaphore
相似的接口和用法。
1 2 3 4 5 6 7 8 9
| RSemaphore semaphore = redisson.getSemaphore("semaphore"); semaphore.acquire();
semaphore.acquire(23); semaphore.tryAcquire(); semaphore.tryAcquire(23, TimeUnit.SECONDS);
semaphore.release();
|
基于Redisson的Redisson分布式闭锁(CountDownLatch)Java对象RCountDownLatch
采用了与java.util.concurrent.CountDownLatch
相似的接口和用法。
1 2 3 4 5 6 7
| RCountDownLatch latch = redisson.getCountDownLatch("anyCountDownLatch"); latch.trySetCount(1); latch.await();
RCountDownLatch latch = redisson.getCountDownLatch("anyCountDownLatch"); latch.countDown();
|
需要两个线程,一个等待。一个计数countDown
演示代码
IndexController:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
|
@GetMapping("latch") public ResponseVo<Object> countDownLatch(){
String msg = indexService.latch();
return ResponseVo.ok(msg); }
@GetMapping("out") public ResponseVo<Object> out(){
String msg = indexService.countDown();
return ResponseVo.ok(msg); }
|
IndexService:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| public String latch() { RCountDownLatch countDownLatch = this.redissonClient.getCountDownLatch("countdown"); try { countDownLatch.trySetCount(6); countDownLatch.await();
return "关门了。。。。。"; } catch (InterruptedException e) { e.printStackTrace(); } return null; }
public String countDown() { RCountDownLatch countDownLatch = this.redissonClient.getCountDownLatch("countdown");
countDownLatch.countDown(); return "出来了一个人。。。"; }
|
重启测试,打开两个页面:当第二个请求执行6次之后,第一个请求才会执行。
![1586070347231](/assets/1586070347231.png)
3.4. 分布式锁 + AOP实现缓存
随着业务中缓存及分布式锁的加入,业务代码变的复杂起来,除了需要考虑业务逻辑本身,还要考虑缓存及分布式锁的问题,增加了程序员的工作量及开发难度。而缓存的玩法套路特别类似于事务,而声明式事务就是用了aop的思想实现的。
![img](/assets/20181207003231127.png)
- 以 @Transactional 注解为植入点的切点,这样才能知道@Transactional注解标注的方法需要被代理。
- @Transactional注解的切面逻辑类似于@Around
模拟事务,缓存可以这样实现:
- 自定义缓存注解@GmallCache(类似于事务@Transactional)
- 编写切面类,使用环绕通知实现缓存的逻辑封装
![1586070523811](/assets/1586070523811.png)
定义一个注解:GmallCache
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
| @Target({ElementType.METHOD}) @Retention(RetentionPolicy.RUNTIME) @Documented public @interface GmallCache {
String prefix() default "";
int timeout() default 5;
int random() default 5;
String lock() default "lock"; }
|
定义一个切面类加强注解:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66
| @Aspect @Component public class GmallCacheAspect {
@Autowired private StringRedisTemplate redisTemplate;
@Autowired private RedissonClient redissonClient;
@Around("@annotation(com.atguigu.gmall.index.config.GmallCache)") public Object around(ProceedingJoinPoint joinPoint) throws Throwable {
MethodSignature signature = (MethodSignature)joinPoint.getSignature(); Method method = signature.getMethod(); GmallCache annotation = method.getAnnotation(GmallCache.class); String prefix = annotation.prefix(); Object[] args = joinPoint.getArgs(); String param = Arrays.asList(args).toString(); Class<?> returnType = method.getReturnType();
String json = this.redisTemplate.opsForValue().get(prefix + param); if (StringUtils.isNotBlank(json)){ return JSON.parseObject(json, returnType); }
String lock = annotation.lock(); RLock rLock = this.redissonClient.getLock(lock + param); rLock.lock();
String json2 = this.redisTemplate.opsForValue().get(prefix + param); if (StringUtils.isNotBlank(json2)){ rLock.unlock(); return JSON.parseObject(json2, returnType); }
Object result = joinPoint.proceed(joinPoint.getArgs());
int timeout = annotation.timeout(); int random = annotation.random(); this.redisTemplate.opsForValue().set(prefix + param, JSON.toJSONString(result), timeout + new Random().nextInt(random), TimeUnit.MINUTES); rLock.unlock();
return result; } }
|
在IndexServiceImpl的querySubCategories方法中使用注解,完成数据缓存功能:
1 2 3 4 5 6 7 8
| @GmallCache(prefix = "index:cates:", timeout = 14400, random = 3600, lock = "lock") public List<CategoryEntity> queryLvl2CategoriesWithSub(Long pid) {
ResponseVo<List<CategoryEntity>> listResp = this.gmallPmsFeign.querySubCategory(pid); List<CategoryEntity> categoryVOS = listResp.getData();
return categoryVOS; }
|
该方法的实现只需要考虑业务逻辑本身,使用注解即可完成缓存功能。
测试:
![1586071355830](/assets/1586071355830.png)