送大家以下 java 学习材料,文末有支付形式
前言
在 mysql 中设计表的时候,mysql 官网举荐不要应用 uuid 或者不间断不反复的雪花 id(long 形且惟一,单机递增), 而是举荐间断自增的主键 id, 官网的举荐是 auto\_increment, 那么为什么不倡议采纳 uuid, 应用 uuid 到底有什么害处?
本篇博客咱们就来剖析这个问题, 探讨一下外部的起因。
本篇博客的目录
- mysql 程序实例
- 应用 uuid 和自增 id 的索引构造比照
- 总结
一、mysql 和程序实例
1.1. 要阐明这个问题, 咱们首先来建设三张表
别离是 user\_auto\_key,user\_uuid,user\_random\_key, 别离示意主动增长的主键,uuid 作为主键, 随机 key 作为主键, 其它咱们齐全放弃不变.
依据控制变量法, 咱们只把每个表的主键应用不同的策略生成, 而其余的字段齐全一样,而后测试一下表的插入速度和查问速度:
注:这里的随机 key 其实是指用雪花算法算进去的前后不间断不反复无规律的 id: 一串 18 位长度的 long 值
id 主动生成表:
用户 uuid 表
随机主键表:
1.2. 光有实践不行, 间接上程序, 应用 spring 的 jdbcTemplate 来实现增查测试:
技术框架:springboot+jdbcTemplate+junit+hutool, 程序的原理就是连贯本人的测试数据库, 而后在雷同的环境下写入等同数量的数据,来剖析一下 insert 插入的工夫来进行综合其效率,为了做到最实在的成果, 所有的数据采纳随机生成,比方名字、邮箱、地址都是随机生成。
搜寻 Java 知音公众号,回复“后端面试”,送你一份 Java 面试题宝典
`package com.wyq.mysqldemo;`
`import cn.hutool.core.collection.CollectionUtil;`
`import com.wyq.mysqldemo.databaseobject.UserKeyAuto;`
`import com.wyq.mysqldemo.databaseobject.UserKeyRandom;`
`import com.wyq.mysqldemo.databaseobject.UserKeyUUID;`
`import com.wyq.mysqldemo.diffkeytest.AutoKeyTableService;`
`import com.wyq.mysqldemo.diffkeytest.RandomKeyTableService;`
`import com.wyq.mysqldemo.diffkeytest.UUIDKeyTableService;`
`import com.wyq.mysqldemo.util.JdbcTemplateService;`
`import org.junit.jupiter.api.Test;`
`import org.springframework.beans.factory.annotation.Autowired;`
`import org.springframework.boot.test.context.SpringBootTest;`
`import org.springframework.util.StopWatch;`
`import java.util.List;`
`@SpringBootTest`
`class MysqlDemoApplicationTests {`
`@Autowired`
`private JdbcTemplateService jdbcTemplateService;`
`@Autowired`
`private AutoKeyTableService autoKeyTableService;`
`@Autowired`
`private UUIDKeyTableService uuidKeyTableService;`
`@Autowired`
`private RandomKeyTableService randomKeyTableService;`
`@Test`
`void testDBTime() {`
`StopWatch stopwatch = new StopWatch("执行 sql 工夫耗费");`
`/**`
`* auto_increment key 工作 `
`*/`
`final String insertSql = "INSERT INTO user_key_auto(user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?)";`
`List<UserKeyAuto> insertData = autoKeyTableService.getInsertData();`
`stopwatch.start("主动生成 key 表工作开始");`
`long start1 = System.currentTimeMillis();`
`if (CollectionUtil.isNotEmpty(insertData)) {`
`boolean insertResult = jdbcTemplateService.insert(insertSql, insertData, false);`
`System.out.println(insertResult);`
`}`
`long end1 = System.currentTimeMillis();`
`System.out.println("auto key 耗费的工夫:" + (end1 - start1));`
`stopwatch.stop();`
`/**`
`* uudID 的 key`
`*/`
`final String insertSql2 = "INSERT INTO user_uuid(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";`
`List<UserKeyUUID> insertData2 = uuidKeyTableService.getInsertData();`
`stopwatch.start("UUID 的 key 表工作开始");`
`long begin = System.currentTimeMillis();`
`if (CollectionUtil.isNotEmpty(insertData)) {`
`boolean insertResult = jdbcTemplateService.insert(insertSql2, insertData2, true);`
`System.out.println(insertResult);`
`}`
`long over = System.currentTimeMillis();`
`System.out.println("UUID key 耗费的工夫:" + (over - begin));`
`stopwatch.stop();`
`/**`
`* 随机的 long 值 key`
`*/`
`final String insertSql3 = "INSERT INTO user_random_key(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";`
`List<UserKeyRandom> insertData3 = randomKeyTableService.getInsertData();`
`stopwatch.start("随机的 long 值 key 表工作开始");`
`Long start = System.currentTimeMillis();`
`if (CollectionUtil.isNotEmpty(insertData)) {`
`boolean insertResult = jdbcTemplateService.insert(insertSql3, insertData3, true);`
`System.out.println(insertResult);`
`}`
`Long end = System.currentTimeMillis();`
`System.out.println("随机 key 工作耗费工夫:" + (end - start));`
`stopwatch.stop();`
`String result = stopwatch.prettyPrint();`
`System.out.println(result);`
`}`
1.3. 程序写入后果
user\_key\_auto 写入后果:
user\_random\_key 写入后果:
user\_uuid 表写入后果:
1.4. 效率测试后果
在已有数据量为 130W 的时候:咱们再来测试一下插入 10w 数据,看看会有什么后果:
能够看出在数据量 100W 左右的时候,uuid 的插入效率垫底,并且在后序减少了 130W 的数据,uudi 的工夫又直线降落。
工夫占用量总体能够打出的效率排名为:auto\_key>random\_key>uuid,uuid 的效率最低,在数据量较大的状况下,效率直线下滑。那么为什么会呈现这样的景象呢?带着疑难, 咱们来探讨一下这个问题:
二、应用 uuid 和自增 id 的索引构造比照
2.1. 应用自增 id 的内部结构
自增的主键的值是程序的, 所以 Innodb 把每一条记录都存储在一条记录的前面。当达到页面的最大填充因子时候(innodb 默认的最大填充因子是页大小的 15/16, 会留出 1 /16 的空间留作当前的 批改):
①下一条记录就会写入新的页中,一旦数据依照这种程序的形式加载,主键页就会近乎于程序的记录填满,晋升了页面的最大填充率,不会有页的节约
②新插入的行肯定会在原有的最大数据行下一行,mysql 定位和寻址很快,不会为计算新行的地位而做出额定的耗费
③缩小了页决裂和碎片的产生
2.2. 应用 uuid 的索引内部结构
因为 uuid 绝对程序的自增 id 来说是毫无法则可言的, 新行的值不肯定要比之前的主键的值要大, 所以 innodb 无奈做到总是把新行插入到索引的最初, 而是须要为新行寻找新的适合的地位从而来调配新的空间。
这个过程须要做很多额定的操作,数据的毫无程序会导致数据分布散乱,将会导致以下的问题:
①写入的指标页很可能曾经刷新到磁盘上并且从缓存上移除,或者还没有被加载到缓存中,innodb 在插入之前不得不先找到并从磁盘读取指标页到内存中,这将导致大量的随机 IO
②因为写入是乱序的,innodb 不得不频繁的做页决裂操作, 以便为新的行调配空间, 页决裂导致挪动大量的数据,一次插入起码须要批改三个页以上
③因为频繁的页决裂,页会变得稠密并被不规则的填充,最终会导致数据会有碎片
在把随机值(uuid 和雪花 id)载入到聚簇索引 (innodb 默认的索引类型) 当前, 有时候会须要做一次 OPTIMEIZE TABLE 来重建表并优化页的填充,这将又须要肯定的工夫耗费。
论断:应用 innodb 应该尽可能的按主键的自增程序插入,并且尽可能应用枯燥的减少的聚簇键的值来插入新行
搜寻 Java 知音公众号,回复“后端面试”,送你一份 Java 面试题宝典
2.3. 应用自增 id 的毛病
那么应用自增的 id 就齐全没有害处了吗?并不是,自增 id 也会存在以下几点问题:
①他人一旦爬取你的数据库, 就能够依据数据库的自增 id 获取到你的业务增长信息,很容易剖析出你的经营状况
②对于高并发的负载,innodb 在按主键进行插入的时候会造成显著的锁争用,主键的上界会成为争抢的热点,因为所有的插入都产生在这里,并发插入会导致间隙锁竞争
③Auto\_Increment 锁机制会造成自增锁的争夺, 有肯定的性能损失
附:Auto\_increment 的锁争抢问题,如果要改善须要调优 innodb\_autoinc\_lock\_mode 的配置
三、总结
本篇博客首先从开篇的提出问题, 建表到应用 jdbcTemplate 去测试不同 id 的生成策略在大数据量的数据插入体现,而后剖析了 id 的机制不同在 mysql 的索引构造以及优缺点,深刻的解释了为何 uuid 和随机不反复 id 在数据插入中的性能损耗,具体的解释了这个问题。
在理论的开发中还是依据 mysql 的官网举荐最好应用自增 id,mysql 博大精深,外部还有很多值得优化的点须要咱们学习。