关于java:使用uuid做MySQL主键被老板爆怼一顿

前言:在mysql中设计表的时候,mysql官网举荐不要应用uuid或者不间断不反复的雪花id(long形且惟一),而是举荐间断自增的主键id,官网的举荐是auto_increment,那么为什么不倡议采纳uuid,应用uuid到底有什么害处?本篇博客咱们就来剖析一下这个问题,探讨一下外部的起因。

一:mysql和程序实例

1.1:要阐明这个问题,咱们首先来建设三张表,别离是user_auto_key,user_uuid,user_random_key,别离示意主动增长的主键,uuid作为主键,随机key作为主键,其它咱们齐全放弃不变.依据控制变量法,咱们只把每个表的主键应用不同的策略生成,而其余的字段齐全一样,而后测试一下表的插入速度和查问速度:

注:这里的随机key其实是指用雪花算法算进去的前后不间断不反复 无规律的id:一串18位长度的long值

id主动生成表格:

用户uuid表

随机主键表:

1.2:光有实践不行,间接上程序,应用spring的jdbcTemplate来实现增查测试:

技术框架:springboot+jdbcTemplate+junit+hutool,程序的原理就是连贯本人的测试数据库,而后在雷同的环境下写入等同数量的数据,来剖析一下insert插入的工夫来进行综合其效率,为了做到最实在的成果,所有的数据采纳随机生成,比方名字、邮箱、地址都是随机生成,程序已上传自gitee,地址在文底。

package com.wyq.mysqldemo;
import cn.hutool.core.collection.CollectionUtil;
import com.wyq.mysqldemo.databaseobject.UserKeyAuto;
import com.wyq.mysqldemo.databaseobject.UserKeyRandom;
import com.wyq.mysqldemo.databaseobject.UserKeyUUID;
import com.wyq.mysqldemo.diffkeytest.AutoKeyTableService;
import com.wyq.mysqldemo.diffkeytest.RandomKeyTableService;
import com.wyq.mysqldemo.diffkeytest.UUIDKeyTableService;
import com.wyq.mysqldemo.util.JdbcTemplateService;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;
import org.springframework.util.StopWatch;
import java.util.List;
@SpringBootTest
class MysqlDemoApplicationTests {

    @Autowired
    private JdbcTemplateService jdbcTemplateService;

    @Autowired
    private AutoKeyTableService autoKeyTableService;

    @Autowired
    private UUIDKeyTableService uuidKeyTableService;

    @Autowired
    private RandomKeyTableService randomKeyTableService;

    @Test
    void testDBTime() {

        StopWatch stopwatch = new StopWatch("执行sql工夫耗费");

        /**
         * auto_increment key工作
         */
        final String insertSql = "INSERT INTO user_key_auto(user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?)";

        List<UserKeyAuto> insertData = autoKeyTableService.getInsertData();
        stopwatch.start("主动生成key表工作开始");
        long start1 = System.currentTimeMillis();
        if (CollectionUtil.isNotEmpty(insertData)) {
            boolean insertResult = jdbcTemplateService.insert(insertSql, insertData, false);
            System.out.println(insertResult);
        }
        long end1 = System.currentTimeMillis();
        System.out.println("auto key耗费的工夫:" + (end1 - start1));

        stopwatch.stop();

        /**
         * uudID的key
         */
        final String insertSql2 = "INSERT INTO user_uuid(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";

        List<UserKeyUUID> insertData2 = uuidKeyTableService.getInsertData();
        stopwatch.start("UUID的key表工作开始");
        long begin = System.currentTimeMillis();
        if (CollectionUtil.isNotEmpty(insertData)) {
            boolean insertResult = jdbcTemplateService.insert(insertSql2, insertData2, true);
            System.out.println(insertResult);
        }
        long over = System.currentTimeMillis();
        System.out.println("UUID key耗费的工夫:" + (over - begin));

        stopwatch.stop();

        /**
         * 随机的long值key
         */
        final String insertSql3 = "INSERT INTO user_random_key(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";
        List<UserKeyRandom> insertData3 = randomKeyTableService.getInsertData();
        stopwatch.start("随机的long值key表工作开始");
        Long start = System.currentTimeMillis();
        if (CollectionUtil.isNotEmpty(insertData)) {
            boolean insertResult = jdbcTemplateService.insert(insertSql3, insertData3, true);
            System.out.println(insertResult);
        }
        Long end = System.currentTimeMillis();
        System.out.println("随机key工作耗费工夫:" + (end - start));
        stopwatch.stop();

        String result = stopwatch.prettyPrint();
        System.out.println(result);
    }

1.3:程序写入后果

user_key_auto写入后果:

user_random_key写入后果:

user_uuid表写入后果:

1.4:效率测试后果

在已有数据量为130W的时候:咱们再来测试一下插入10w数据,看看会有什么后果:

能够看出在数据量100W左右的时候,uuid的插入效率垫底,并且在后序减少了130W的数据,uudi的工夫又直线降落。工夫占用量总体能够打出的效率排名为:auto_key>random_key>uuid,uuid的效率最低,在数据量较大的状况下,效率直线下滑。那么为什么会呈现这样的景象呢?带着疑难,咱们来探讨一下这个问题:

二:应用uuid和自增id的索引构造比照

2.1:应用自增id的内部结构

自增的主键的值是程序的,所以Innodb把每一条记录都存储在一条记录的前面。当达到页面的最大填充因子时候(innodb默认的最大填充因子是页大小的15/16,会留出1/16的空间留作当前的 批改):

①下一条记录就会写入新的页中,一旦数据依照这种程序的形式加载,主键页就会近乎于程序地记录填满,晋升了页面的最大填充率,不会有页的节约

②新插入的行肯定会在原有的最大数据行下一行,mysql定位和寻址很快,不会为计算新行的地位而做出额定的耗费

③缩小了页决裂和碎片的产生

2.2:应用uuid的索引内部结构

因为uuid绝对程序的自增id来说是毫无法则可言的,新行的值不肯定要比之前的主键的值要大,所以innodb无奈做到总是把新行插入到索引的最初,而是须要为新行寻找新的适合的地位从而来调配新的空间。这个过程须要做很多额定的操作,数据的毫无程序会导致数据分布散乱,将会导致以下的问题:

①:写入的指标页很可能曾经刷新到磁盘上并且从缓存上移除,或者还没有被加载到缓存中,innodb在插入之前不得不先找到并从磁盘读取指标页到内存中,这将导致大量的随机IO

:因为写入是乱序的,innodb不得不频繁地做页决裂操作,以便为新的行调配空间,页决裂导致挪动大量的数据,一次插入起码须要批改三个页以上

:因为频繁的页决裂,页会变得稠密并被不规则的填充,最终会导致数据会有碎片

在把随机值(uuid和雪花id)载入到聚簇索引(innodb默认的索引类型)当前,有时候会须要做一次OPTIMEIZE TABLE来重建表并优化页的填充,这将又须要肯定的工夫耗费。

论断:应用innodb应该尽可能地按主键的自增程序插入,并且尽可能应用枯燥的减少的聚簇键的值来插入新行

2.3:应用自增id的毛病

那么应用自增的id就齐全没有害处了吗?并不是,自增id也会存在以下几点问题:

①:他人一旦爬取你的数据库,就能够依据数据库的自增id获取到你的业务增长信息,很容易剖析出你的经营状况

②:对于高并发的负载,innodb在按主键进行插入的时候会造成显著的锁争用,主键的上界会成为争抢的热点,因为所有的插入都产生在这里,并发插入会导致间隙锁竞争

③:Auto_Increment锁机制会造成自增锁的争夺,有肯定的性能损失

附:Auto_increment的锁争抢问题,如果要改善须要调优innodb_autoinc_lock_mode的配置

三:总结

本篇博客首先从开篇的提出问题,建表到应用jdbcTemplate去测试不同id的生成策略在大数据量的数据插入体现,而后剖析了id的机制不同在mysql的索引构造以及优缺点,深刻的解释了为何uuid和随机不反复id在数据插入中的性能损耗,具体的解释了这个问题。在理论的开发中还是依据mysql的官网举荐最好应用自增id,mysql博大精深,外部还有很多值得优化的点须要咱们学习。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理