乐趣区

关于java:MyBatis-批量插入数据的-3-种方法

批量插入性能是咱们日常工作中比拟常见的业务性能之一,之前我也写过一篇对于《MyBatis Plus 批量数据插入性能,yyds!》的文章,但评论区的反馈不是很好,次要有两个问题:第一,对 MyBatis Plus(下文简称 MP)的批量插入性能很多人都有误会,认为 MP 也是应用循环单次插入数据的,所以性能并没有晋升;第二,对于原生批量插入的办法其实也是有坑的,但鲜有人知。

所以综合以上状况,磊哥决定再来一个 MyBatis 批量插入的汇总篇,同时对 3 种实现办法做一个性能测试,以及相应的原理剖析。

先来简略说一下 3 种批量插入性能别离是:

  1. 循环单次插入;
  2. MP 批量插入性能;
  3. 原生批量插入性能。

筹备工作

开始之前咱们先来创立数据库和测试数据,执行的 SQL 脚本如下:

-- ----------------------------
-- 创立数据库
-- ----------------------------
SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;
DROP DATABASE IF EXISTS `testdb`;
CREATE DATABASE `testdb`;
USE `testdb`;

-- ----------------------------
-- 创立 user 表
-- ----------------------------
DROP TABLE IF EXISTS `user`;
CREATE TABLE `user`  (`id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin NULL DEFAULT NULL,
  `password` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin NULL DEFAULT NULL,
  `createtime` datetime NULL DEFAULT CURRENT_TIMESTAMP,
  PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 6 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_bin ROW_FORMAT = Dynamic;

-- ----------------------------
-- 增加测试数据
-- ----------------------------
INSERT INTO `user` VALUES (1, '赵云', '123456', '2021-09-10 18:11:16');
INSERT INTO `user` VALUES (2, '张飞', '123456', '2021-09-10 18:11:28');
INSERT INTO `user` VALUES (3, '关羽', '123456', '2021-09-10 18:11:34');
INSERT INTO `user` VALUES (4, '刘备', '123456', '2021-09-10 18:11:41');
INSERT INTO `user` VALUES (5, '曹操', '123456', '2021-09-10 18:12:02');

SET FOREIGN_KEY_CHECKS = 1;

数据库的最终成果如下:

1. 循环单次插入

接下来咱们将应用 Spring Boot 我的项目,批量插入 10W 条数据来别离测试各个办法的执行工夫。

循环单次插入的(测试)外围代码如下:

import com.example.demo.model.User;
import com.example.demo.service.impl.UserServiceImpl;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;

@SpringBootTest
class UserControllerTest {

    // 最大循环次数
    private static final int MAXCOUNT = 100000;

    @Autowired
    private UserServiceImpl userService;

    /**
     * 循环单次插入
     */
    @Test
    void save() {long stime = System.currentTimeMillis(); // 统计开始工夫
        for (int i = 0; i < MAXCOUNT; i++) {User user = new User();
            user.setName("test:" + i);
            user.setPassword("123456");
            userService.save(user);
        }
        long etime = System.currentTimeMillis(); // 统计完结工夫
        System.out.println("执行工夫:" + (etime - stime));
    }
}

运行以上程序,破费了 88574 毫秒,如下图所示:

2.MP 批量插入

MP 批量插入性能外围实现类有三个:UserController(控制器)、UserServiceImpl(业务逻辑实现类)、UserMapper(数据库映射类),它们的调用流程如下:

留神此办法实现须要先增加 MP 框架,关上 pom.xml 文件增加如下内容:

<dependency>
    <groupId>com.baomidou</groupId>
    <artifactId>mybatis-plus-boot-starter</artifactId>
    <version>mybatis-plus-latest-version</version>
</dependency>

留神:mybatis-plus-latest-version 示意 MP 框架的最新版本号,可拜访 https://mvnrepository.com/artifact/com.baomidou/mybatis-plus-boot-starter 查问最新版本号,但在应用的时候记得肯定要将下面的“mybatis-plus-latest-version”替换成换成具体的版本号,如 3.4.3 能力失常的引入框架。

更多 MP 框架的介绍请移步它的官网:https://baomidou.com/guide/

① 控制器实现

import com.example.demo.model.User;
import com.example.demo.service.impl.UserServiceImpl;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

import java.util.ArrayList;
import java.util.List;

@RestController
@RequestMapping("/u")
public class UserController {

    @Autowired
    private UserServiceImpl userService;

    /**
     * 批量插入(自定义)*/
    @RequestMapping("/mysavebatch")
    public boolean mySaveBatch(){List<User> list = new ArrayList<>();
        // 待增加(用户)数据
        for (int i = 0; i < 1000; i++) {User user = new User();
            user.setName("test:"+i);
            user.setPassword("123456");
            list.add(user);
        }
        return userService.saveBatchCustom(list);
    }
}

② 业务逻辑层实现

import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.example.demo.mapper.UserMapper;
import com.example.demo.model.User;
import com.example.demo.service.UserService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import java.util.List;

@Service
public class UserServiceImpl extends ServiceImpl<UserMapper,User>
        implements UserService {

    @Autowired
    private UserMapper userMapper;

    public boolean saveBatchCustom(List<User> list){return userMapper.saveBatchCustom(list);
    }
}

③ 数据长久层实现

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.example.demo.model.User;
import org.apache.ibatis.annotations.Mapper;

import java.util.List;

@Mapper
public interface UserMapper extends BaseMapper<User>{boolean saveBatchCustom(List<User> list);
}

通过以上代码实现,咱们就能够应用 MP 来实现数据的批量插入性能了,但本篇除了具体的实现代码之外,咱们还要晓得每种办法的执行效率,所以接下来咱们来编写 MP 的测试代码。

MP 性能测试

import com.example.demo.model.User;
import com.example.demo.service.impl.UserServiceImpl;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;

import java.util.ArrayList;
import java.util.List;

@SpringBootTest
class UserControllerTest {

    // 最大循环次数
    private static final int MAXCOUNT = 100000;

    @Autowired
    private UserServiceImpl userService;

    /**
     * MP 批量插入
     */
    @Test
    void saveBatch() {long stime = System.currentTimeMillis(); // 统计开始工夫
        List<User> list = new ArrayList<>();
        for (int i = 0; i < MAXCOUNT; i++) {User user = new User();
            user.setName("test:" + i);
            user.setPassword("123456");
            list.add(user);
        }
        // MP 批量插入
        userService.saveBatch(list);
        long etime = System.currentTimeMillis(); // 统计完结工夫
        System.out.println("执行工夫:" + (etime - stime));
    }
}

以上程序的执行总共破费了 6088 毫秒,如下图所示:

从上述后果可知,应用 MP 的批量插入性能(插入数据 10W 条),它的性能比循环单次插入的性能晋升了 14.5 倍。

MP 源码剖析

从 MP 和循环单次插入的执行工夫咱们能够看出,应用 MP 并不是像有些敌人认为的那样,还是循环单次执行的,为了更分明的阐明此问题,咱们查看了 MP 的源码。

MP 的外围实现代码是 saveBatch 办法,此办法的源码如下:

咱们持续跟进 saveBatch 的重载办法:

从上述源码能够看出,MP 是将要执行的数据分成 N 份,每份 1000 条,每满 1000 条就会执行一次批量插入,所以它的性能要比循环单次插入的性能高很多。

那为什么要分批执行,而不是一次执行?别着急,当咱们看了第 3 种实现办法之后咱们就明确了。

3. 原生批量插入

原生批量插入方法是依附 MyBatis 中的 foreach 标签,将数据拼接成一条原生的 insert 语句一次性执行的,外围实现代码如下。

① 业务逻辑层扩大

在 UserServiceImpl 增加 saveBatchByNative 办法,实现代码如下:

import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.example.demo.mapper.UserMapper;
import com.example.demo.model.User;
import com.example.demo.service.UserService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;

import java.util.List;

@Service
public class UserServiceImpl extends ServiceImpl<UserMapper, User>
        implements UserService {

    @Autowired
    private UserMapper userMapper;

    public boolean saveBatchByNative(List<User> list) {return userMapper.saveBatchByNative(list);
    }

}

② 数据长久层扩大

在 UserMapper 增加 saveBatchByNative 办法,实现代码如下:

import com.baomidou.mybatisplus.core.mapper.BaseMapper;
import com.example.demo.model.User;
import org.apache.ibatis.annotations.Mapper;

import java.util.List;

@Mapper
public interface UserMapper extends BaseMapper<User> {boolean saveBatchByNative(List<User> list);
}

③ 增加 UserMapper.xml

创立 UserMapper.xml 文件,应用 foreach 标签拼接 SQL,具体实现代码如下:

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="com.example.demo.mapper.UserMapper">
    <insert id="saveBatchByNative">
        INSERT INTO `USER`(`NAME`,`PASSWORD`) VALUES
        <foreach collection="list" separator="," item="item">
            (#{item.name},#{item.password})
        </foreach>
    </insert>

</mapper>

通过以上步骤,咱们原生的批量插入性能就实现的差不多了,接下来咱们应用单元测试来查看一下此办法的执行效率。

原生批量插入性能测试

import com.example.demo.model.User;
import com.example.demo.service.impl.UserServiceImpl;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;

import java.util.ArrayList;
import java.util.List;

@SpringBootTest
class UserControllerTest {

    // 最大循环次数
    private static final int MAXCOUNT = 100000;

    @Autowired
    private UserServiceImpl userService;
    
    /**
     * 原生本人拼接 SQL,批量插入
     */
    @Test
    void saveBatchByNative() {long stime = System.currentTimeMillis(); // 统计开始工夫
        List<User> list = new ArrayList<>();
        for (int i = 0; i < MAXCOUNT; i++) {User user = new User();
            user.setName("test:" + i);
            user.setPassword("123456");
            list.add(user);
        }
        // 批量插入
        userService.saveBatchByNative(list);
        long etime = System.currentTimeMillis(); // 统计完结工夫
        System.out.println("执行工夫:" + (etime - stime));
    }
}

然而,当咱们运行程序时却产生了以下状况:

纳尼?程序的执行居然报错了。

毛病剖析

从上述报错信息能够看出,当咱们应用原生办法将 10W 条数据拼接成一个 SQL 执行时,因为拼接的 SQL 过大(4.56M)从而导致程序执行报错,因为默认状况下 MySQL 能够执行的最大 SQL(大小)为 4M,所以程序就报错了。

这就是原生批量插入方法的毛病,也是为什么 MP 须要分批执行的起因,就是为了避免程序在执行时,因为触发了数据库的最大执行 SQL 而导致程序执行报错。

解决方案

当然咱们也能够通过设置 MySQL 的最大执行 SQL 来解决报错的问题,设置命令如下:

-- 设置最大执行 SQL 为 10M
set global max_allowed_packet=10*1024*1024;

如下图所示:

留神:以上命令须要在 MySQL 连贯的客户端中执行。

但以上解决方案仍是治标不治本,因为咱们无奈预测程序中最大的执行 SQL 到底有多大,那么最普世的办法就是调配执行批量插入的办法了(也就是像 MP 实现的那样)。

当咱们将 MySQL 的最大执行 SQL 设置为 10M 之后,运行以上单元测试代码,执行的后果如下:

总结

本文咱们介绍了 MyBatis 批量插入的 3 种办法,其中循环单次插入的性能最低,也是最不可取的;应用 MyBatis 拼接原生 SQL 一次性插入的办法性能最高,但此办法可能会导致程序执行报错(触发了数据库最大执行 SQL 大小的限度),所以综合以上状况,能够思考应用 MP 的批量插入性能。

关注公众号「Java 中文社群」查看更多 MyBatis 和 Spring Boot 的系列文章。

退出移动版