就我之前因为在解决jpa长久化对象上下文
(文:https://segmentfault.com/a/1190000043581830)
时,parallelStream并行流给我的印象就是会读不到父线程的上下文的,所以应该在父线程里的事务和在parallelStream里的事务应该是辨别的,而不是共用同一个事务的,然而明天因为一个锁超时的问题,发现并没有那么简略,上面咱们一步一步来验证。
首先说下我锁超时的场景:具体的业务我不讲了,就说下伪代码
@PostMapping("/saveUser")@Transactionalpublic void saveUser(@RequestBody List<Complex> list) { list.parallelStream().forEach(complex->{ Integer appId = complex.getAppId(); Integer userId = complex.getUserId(); GeneratedKeyHolder keyHolder = new GeneratedKeyHolder(); String sql = "insert ignore into open_app_user (app_id, open_id, user_status, creator, modifier, create_time, modify_time, status, version) values ("+appId+","+userId+",0,1,1,now(),now(),1,1)"; int id = jdbcTemplate.update(con -> con.prepareStatement(sql, Statement.RETURN_GENERATED_KEYS), keyHolder); }); //todo 业务逻辑...}
这里我有个批量保留的逻辑,须要先保留一个两头表open_app_user表(该表app_id和open_id是联结惟一键)取得id,拿到用户的open_app_user_id后再进行其余业务逻辑,这里按我原来的了解是尽管我在controller的办法上加了@Transactional注解,然而parallelStream里的事务应该都是独立的,不会是同一个事务,所以即便有数据反复,第一个线程插入后,第二个线程也只会插入失败(不会报错,因为我加了ignore),所以即便并行也不会有问题的,然而却产生了锁超时的问题。
查看锁超时以及定位的操作能够看我后面的文章,通过查找mysql的
select * from information_schema.INNODB_TRX;select * from performance_schema.data_lock_waits;select * from performance_schema.data_locks;
定位到了这里,然而我也百思不得其解,为啥会锁超时呢,这里应该都是马上执行就马上开释了啊,难道是其中的事务没有提交?
因为当初都是spring的申明式事务管理,spring是在有@Transactional注解的状况下,执行完了才提交事务,在没有@Transactional注解的状况下,每个办法都差不多能够了解成原子,比方我下面的jdbcTemplate.update()这个办法就是一个事务,执行完了就间接提交事务了。
因为spring是把事务上下文放在ThreadLocal里了,次要是用TransactionSynchronizationManager这个类来治理,所以我写了一个demo来进行验证
@GetMapping("/get")@Transactionalpublic String get() { List<Complex> list = new ArrayList<>(); for (int i = 0; i < 10; i++) { list.add(new Complex(1, 1)); } list.parallelStream().forEach(complex->{ Map<Object, Object> resourceMap = TransactionSynchronizationManager.getResourceMap(); System.err.println("count:"+resourceMap.size()); Integer appId = complex.getAppId(); Integer userId = complex.getUserId(); String sql = "insert ignore into open_app_user (app_id, open_id, user_status, creator, modifier, create_time, modify_time, status, version) values ("+appId+","+userId+",0,1,1,now(),now(),1,1)"; int update = jdbcTemplate.update(sql); }); return "hello, world! ";}
乏味的事件产生了,我在正文掉@Transactional注解时,代码里resourceMap.size()返回的内容是居然不一样,因为我的list有10条记录,差不多就是10个并行,然而我的输入却是:
count:1count:0count:0count:0count:0count:0count:0count:0count:0count:0
没有正文掉@Transactional注解时,输入是:
count:2count:0count:0count:0count:0count:0count:0count:0count:0count:0
并且还会呈现锁超时的景象,奇怪的中央就是为啥我用的parallelStream会有线程上下文里的值,我并没有做什么操作,而且10个并行里只有一个(这里并不是阐明固定只有一次,上面会阐明)取得了线程上下文的信息,我又进一步测试,伪代码改成:
@GetMapping("/get")public void get() { List<Complex> list = new ArrayList<>(); for (int i = 0; i < 10; i++) { list.add(new Complex(1, 1)); } ThreadLocal local = new ThreadLocal(); local.set("parent_set_value"); list.parallelStream().forEach(complex->{ System.err.println(local.get()); });}
后果如我所料,输入为:
parent_set_valuenullnullnullnullnullnullnullnullnull
应用parallelStream并不齐全都是另开了线程,其中有一个是属于主线程的,能够应用System.err.println(Thread.currentThread().getName());查看以后线程的名称,我发现parallelStream会把以后主线程也作为一个执行线程去执行工作
前面我再去理解了一下parallelStream的实现,原来参加并行处理的线程有主线程以及ForkJoinPool中的worker线程,而我这里导致锁超时,就是因为用到了主线程,所以在并行插入的时候,有个解决有事务上下文,导致始终没有提交事务(@Transactional正文办法的办法没有跑完,这里也不可能跑完),所以其余线程的插入就始终期待这个,产生了锁超时报错