乐趣区

关于mysql:MySQL知识整理

重新认识 MySQL

客户端 / 服务器架构

MySQL 的装置

bin 目录下的可执行文件

bin 目录下有好几种启动 MySQL 的可执行文件

启动 MySQL 服务器程序

UNIX 里启动服务器程序

  1. mysqld 能够启动一个服务器过程
  2. mysqld_safe 启动脚本, 间接调用 mysqld, 顺便启动一个监控线程, 在服务器过程挂了的时候,帮忙重启。
  3. mysql.server 启动脚本, 间接调用 mysql_safe, 在调用 mysql.server 时在后边指定 start 参数就能够启动服务器程序。mysql.server start
  4. mysqld_multi 对每一个服务器过程的启动和进行进行监控

    启动 MySQL 客户端程序

    mysql - h 主机名 - u 用户名 - p 明码

    本上是一个过程间通信的过程

    客户端与服务器连贯的过程

    TCP/IP

    如果应用 TCP/IP 网络来连贯到服务器过程, 就须要在启动客户端程序时在 - h 前面应用 IP 地址来作为须要连贯的服务器过程所在主机的主机名。

    服务器解决客户端的申请

    启动选项和零碎变量

    启动选项和配置文件

    在命令行上应用选项

    例如, 启动时禁止应用 TCP/IP 网络通信。

    mysql --skip-networking

    指定启动选项时须要加上 – 前缀。另外如果选项名是由多个单词形成的, 他们之间能够由短划线 - 连接起来。比方,skip-networking 和 skip_networking 示意的含意是雷同的。
    还有一个例子是启动时设置表的存储引擎
    书上还强调了一下选项的长模式和短模式, 例如 –host - h 主机名这样式儿的

    配置文件应用选项

    因为启动时命令行选项只在本次起作用, 所以放在配置文件中永恒失效

    配置文件门路

    这块对于类 unix 的门路进行形容

    配置文件内容

    分组进行配置, 各个启动命令也有能读取的组的限度。
    注: 如果同一个启动选项即呈现在命令行中, 又呈现在配置文件中, 那么以命令行的启动选项为准。

    零碎变量

    简介

    在服务器程序运行过程中能对其造成影响的变量。

    查看零碎变量

    show variables like 'default_storage_engine'

    设置零碎变量

    通过启动选项设置
    服务器运行过程中设置
    设置不同作用范畴的零碎变量

    书上提到了两个概念或者说是两个范畴, 一个是 global, 另一个是 session。

  5. GLOBL: 全局变量, 影响服务器的整体操作
  6. SESSION: 会话变量, 影响某个客户端连贯的操作
    服务器启动时, 会将每个全局变量初始化为其默认值。服务器会为每个客户端连贯保护一组会话变量, 客户端的会话变量在连贯时应用相应全局变量的以后值初始化。
    如果在设置零碎变量的语句中省略了作用范畴,默认的作用范畴就是 SESSION(这次的客户端连贯)。

    查看不同作用范畴的零碎变量

    同样也是应用 show varaibles like ‘default_storage_engine’

    状态变量

    为了检测服务器程序的运行状况而存在的变量, 由此而知, 它们的值是由服务器程序来设置的。
    show status like ‘thread%’
    状态变量也有 global 和 session 两个作用范畴。

    字符集和比拟规定

    字符集和比拟规定介绍

    字符集简介

    将二进制数据转换为字符所用的这套转换规则就是字符集

    比拟规定简介

    a-0x01 b-0x02
    下面的字符如果以二进制数据本身的比拟规定来进行比拟的话, 那么大多数时候是不合乎场景需要的。
    ‘a’ 和 ’A’ 进行比拟时:

  7. 将两个大小写不同的字符全副转换为大写或者小写
  8. 再比拟这两个字符对应的二进制数据。

    字符集和比拟规定的利用

    各级别的字符集和比拟规定

    客户端和服务器通信过程中应用的字符集

    比拟规定的利用

    总结

  9. 字符集
  10. 比拟规定
  11. 在 MySQL 中, 一个字符集能够有若干种比拟规定, 其中有一个默认的比拟规定, 一个比拟规定必须对应一个字符集
  12. 查看 MySQL 反对的字符集和比拟规定语句:
    show (charcter set|charset)[like 匹配的模式]
    show collation [like 匹配的模式]
  13. MySQL 有四个级别的字符集和比拟规定

    • 1 服务器级别
    • 2 数据库级别
    • 3 表级别
    • 4 列级别

  14. 从发送申请到接管后果过程中产生的字符集转换
  15. 比拟规定的作用通常体现在比拟字符串大小的表达式和对某个字符串进行排序中

    InnoDB 记录存储构造

    尽管书上曾经讲得非常艰深了, 奈何我学的还是十分吃力, 找了一篇博客, 感觉还不错。
    https://draveness.me/mysql-in…

    简介

    将数据划分为若干个页, 以页作为磁盘和内存之间交互的工作单位,InnoDB 中页的大小个别为 16KB.

    Compact 格局

    Redundant 行格局

    两者的异同

    最大的不同就是 compact 在行记录的第一局部倒序寄存了一行数据中列的长度(Length), 而 Redundant 中存的是每一列的偏移量(Offset)

    行溢出数据

    当 InnoDB 应用 Compact 或者 Redundant 格局 存储极长的 VARCHAR 或者 BLOB 这类大对象时 , 咱们 并不会间接将所有的内容都寄存在数据页节点中 , 而是将行数据中的前 768 个字节存储在数据页中, 前面会通过偏移量指向溢出页。
    当应用新的记录格局 Compressed 或者 Dynamic 时都会只在行记录中保留 20 个子节的指针,理论的数据都会寄存在溢出页面中

    InnoDB 数据页构造

    不同类型的页

    为了不同的目标设计了许多种不同类型的页, 比方寄存头部信息的页, 寄存 Insert Buffer 信息的, 寄存 index 信息的页, 寄存 undo 日志信息的页等

    数据页构造的疾速浏览

    数据页代表的这块 16KB 大小的存储空间能够被划分多个局部, 不同的局部有不同的性能

  16. File Header
  17. Page Header
  18. Infimum+supremum 两个虚构的行记录 最大记录和最小记录
  19. User Records 实在存储行记录内容
  20. Free Space
  21. Page Directory 页中的某些记录的绝对地位
  22. File Tailer

    记录在页中的存储

    不得不再提及一下记录的形成, 上面展现了行记录的记录头格局

    记录头的形成

  23. 预留位 1
  24. 预留位 2
  25. delete_mask 标记该记录是否被删除
  26. min_rec_mask B+ 树的每层非叶子结点的最小记录
  27. n_owned 示意以后领有的记录数
  28. heap_no 示意以后记录在记录堆中的地位
  29. record_type 示意以后记录的类型
  30. next_record 示意下一条记录的绝对地位
    其中比拟重要的 3 个字段 n_owned、heap_no 和 next_record 书上讲的十分的具体

    Page Directory(页目录)

    Page Header(页面头部)

    File Header(文件头部)

    File Trailer(文件尾部)

    总结

  31. InnoDB 为了不同的目标设计了不同类型的页, 咱们把用于寄存记录的页叫做数据页
  32. 数据页大抵被分为 7 个局部:
  33. File Header 示意页的一些通用信息, 占固定的 38 字节
  34. PageHeader 示意数据页专有的一些信息, 占固定的 56 个字节
  35. Infimum+Supremum 两个虚构的伪记录, 别离示意页中的最小和最大记录, 占 26 个子节
  36. User Records 实在存储咱们插入的记录的局部, 大小不固定
  37. Free Space 页中尚未应用的局部
  38. Page Diretory 页中某些记录的地位, 对于数据页来说是每一组的最初一条记录
  39. File Trailer 用于测验数据页是否残缺(备份到磁盘过程断电的测验)
  40. 记录会造成单链表
  41. 查找记录的过程 (必须齐全了解)
    提醒:Page Directory+ 二分 +next_record
  42. FileHeader 会使得所有数据页组成一个 双链表
  43. 校验和以及 LSN 值

    B+ 树索引

    通过后面的学习咱们晓得查问到记录是寄存在数据页中的, 通过 FileHeader 和 FileTrail 将其连贯为一个双向链表。数据记录是 next_record 指针连接起来的链表。

    为什么须要索引

    暴力遍历: 从最小记录开始遍历
    二分法: 依据数据页记录槽中的数据来疾速定位到 (这是在数据页中疾速查找)
    如何疾速找到是哪个数据页
    这个时候就须要借助某种数据结构来帮忙咱们疾速定位到数据页
    页决裂

    先从简略的索引计划开始

    为每个数据页建设一个目录项, 这些目录项页保留在数据页中, 目录项的格局为 key-value,key 用的是主键 id,value 保留的是页的地址(书上用的名词叫做页号), 通过目录项能够疾速的拜访到页。

    InnoDB 中的索引计划

    下面的计划有一个痛点就是数据页的大小只有 16KB, 如果用户记录很多的时候那么目录项也会有很多, 这个时候会有多个存储目录项的数据页, 又遇到了找哪个页的问题。
    所以,InnoDB 采纳了树结构的形式来保留目录项和用户记录(记录格局中有个属性叫做 record_type), 而这种数据结构也被称为 B + 树

    聚簇索引

    B+ 树自身就是一个聚簇索引, 也就是说索引和数据都在树中, 且叶子结点保留用户记录。

    二级索引

    用某个列作为目录项, 叶子结点存储的的是主键, 拿到主键之后还要去聚簇索引中查记录, 这个过程称为回表

    联结索引

    多个列形成的二级索引

    InnoDB 的 B + 树索引的注意事项

  44. 根结点不挪动, 挪动的是页中的数据
  45. 内节点 (除去叶子节点) 目录项记录的唯一性
  46. 一个页面起码存储 2 条记录

    MyISAM 中的索引计划简略介绍

    索引与数据是离开, 索引信息会存储在被称为索引文件的文件中。MyISAM 会独自为表的主键创立一个索引, 存储的是主键和行号。

    创立和删除索引的语句

    在建表时创立索引

    create table index_demo{
     c1 int,
     c2 int,
     c3 char(1),
     primary key(c1), 
     index idx_c2_c3 (c2,c3)
    }

    批改表来增加索引

    alter table table_name add [index|key] 索引名(须要被索引的单个列或多个列)

    删除时应用 drop

    学会应用 B + 树索引

    索引的代价

    B+ 树索引的实用条件

    全值匹配

    索引的每个列都用到了, 这种状况被称为全值匹配

    匹配右边的列

    用到了联结索引中的右边的列

    匹配前缀

    SELECT * FROM person_info WHERE name LIKE 'As%';

    能够看到依据前缀进行了匹配, 在索引的排序也是这样的, 在索引变动时某个列也会依据字母程序排序

    匹配范畴值

    select * from person_info where name >'Asa' and name<'Barlow';

    找到 name 的值为 Asa 的记录
    找到 name 的值为 Barlow 的记录
    拿到两头的所有记录

    准确匹配某一列并范畴匹配另一列

    准确匹配到的列必须是最右边的列

    用于排序

    select * from person_info order by name,birthday,phone_number limit 10;

    留神: 排序的列必须要和联结索引的列的程序保持一致

    用于分组

    select name,birthday,phone_number,count(*) from person_info group by name,birthday,phone_number

    不出预料的是索引也会失效, 因为首先会找到最右边的列, 而后再按联结索引前面的索引进行分组。

    MySQL 的数据目录

    文件系统

    操作系统用来治理磁盘的叫做 文件系统

    MySQL 数据目录

    装置目录与数据目录

    装置目录的话一开始就说过这个文件, 上面的 bin 目录有许多可执行文件; 数据目录是用来存储运行过程中产生的数据

    如何查看数据目录

    show variables like ‘datadir’;

    数据目录的构造

    数据库在文件在文件系统中的示意

    新建数据库时会在数据目录下产生一个子目录

    表文件在文件系统中的示意

    我在本人电脑上没有发现与书上统一的表构造文件和表数据文件, 只有一个.ibd 文件

    表构造文件
    表数据文件
    零碎表空间

    5.5.7-5.6.6 之间的时候, 数据会被存储到零碎表空间, 我在电脑上试了一下并不是一个文件夹, 同时在启动的时候也能够配置零碎表空间的地位和大小

    独立表空间

    MySQL5.6.6 之后数据会被存储到独立表空间
    咱们本人能够指定是否应用独立表空间还是零碎表空间

    MyISAM 是如何存储数据的

    表构造、索引 (在介绍索引时有提到过) 和表数据三者离开存储
    test.frm test.MYD test.MYI

    试图在文件系统中的示意

    虚构表, 所以只用存储表构造文件

    其余的文件

    服务器过程文件:MySQL 服务器会把本人的过程 ID 写入到一个文件中
    服务器日志文件: 各种日志文件, 例如查问日志、谬误日志、二进制日志和 redo 日志
    默认 / 主动生成的 SSL 和 RSA 证书和密钥文件: 为了客户端和服务器端的平安通信而创立的一些文件

    文件系统对数据库的影响

    数据库收到文件系统的束缚
    数据库名称和表名不能超过文件系统所容许的最大长度
    表构造文件中会有特殊字符
    文件长度受到文件系统最大长度限度

    寄存页面的池子 -InnoDB 的表空间

    这一章的内容可能难以了解, 所以须要借助图片来更加直观的展现

    温习无关页的常识

    页面类型

    书上大略讲了一下这部分, 我听的多的是 Undo 日志页

    页面通用局部

    FileHeader 的组成部分

    书中对于各个组成部分形容
    FIL_PAGE_OFFSET 页号

    独立表空间

    用书上的例子来说的话, 表空间就是一个军团, 段就是一个个师, 而区既能够隶属于师, 也能够间接作为独立团属于表空间

    区(Extend)

    区是由物理上的 64 个页组成的, 具备物理存储构造
    256 个区形成一个组, 独立表空间中第一组的前三个页是非凡的, 它的内容是固定的
    FSP_HDR: 表空间整体属性和本组所有的区
    IBUF_BITMAP:???
    INODE: 还是没了解这块儿

    为什么引入区?

    防止随机 I /O

    为什么引入段的概念?
    书上的理由是为了辨别叶子结点和非叶子结点 (在范畴扫描时起作用), 为什么辨别了就快???
    所以将索引的叶子结点与非叶子结点辨别 (逻辑上的,至于物理上的必定还是通过链表连贯)
    为了节俭空间同时就有了碎片区这一概念, 直属于表空间, 有些页用于段 A, 有些页用于段 B。
    尔后, 为某个段调配存储空间的策略:

  47. 在刚开始向表中插入数据的时候, 段是从某个碎片区以单个页面为单位来调配存储空间
  48. 当某个段曾经占用了 32 个碎片页的时候, 就会以残缺的区为单位来调配存储单位

    区的分类

    闲暇的区 (FREE): 未应用的区
    有残余空间的碎片区 (FREE_FRAG): 示意碎片区中还有可用的页面
    没有残余空间的碎片区 (FULL_FRAG): 曾经齐全被应用
    隶属于某个段的区 (FSEG): 之前提到过如果某个区被调配给某个段的状况
    FREE、FREE_FLAG 和 FULL_FLAG 都是直属于表空间的
    XDES Entry() 的构造, 是这一章呈现的第一种构造 (数据结构), 其中有个组成部分就是ListNode, 链表, 用来将多个 XDES Entry 连接起来
    与下面 3 种类型对应的就是 FREE 链表、FREE_FRAG 链表和 FULL_FRAG 链表
    下面提到过给段调配存储空间如果占用了超过 32 个碎片页的时候就会调配残缺的区, 联合 3 种类型的链表, 无非就是批改链表的 next node 指针操作了

    哪些区属于哪个段

    下面的问题针对于碎片区来说的, 那么段中的页是什么状况?
    每个段有三个链表:FREE、NOT_FULL 和 FULL 链表
    假如一个表有两个索引, 共需保护 15 个链, 段在数据量比拟大时插入数据的话, 会先获取 NOT_FULL 链表的头节点, 间接将数据插入这个头节点对应的区中即可, 如果该区的空间应用完则会被移到 FULL 链表中。

    链表基节点

    如何找到某个 XDES Entry, 这个时候用的就是 List Base Node

    段的构造

    ListNode 链表

    各类型页面详细情况

    后面讲了那么多链表, 那么它们的 List Base Node 在哪儿呢?

    FSP_HDR 类型
    File Space Header

    3 种类型的 List Base Node
    Free Limit

    Segment Header

    用来辨别叶子结点和非叶子结点

    实在表空间对应的文件大小

    .ibd 自扩大, 随着表中的数据的增多, 表空间对应的文件也逐步增大

    零碎表空间

    和独立表空间相似, 然而比表空间在第一组中多了三个页

    单表拜访办法

    在此之前, 书上有建了一个表, 这是前提。
    在执行一条 SQL 语句的时候有多种计划,MySQL Server 有个 查问优化器 的模块, 这个模块最终会将查问语句优化成一个所谓的 执行打算, 执行打算前面会具体解说, 当初先有这么一个概念。

    执行办法(access method)

    MySQL 的 查问形式 大抵有两种:

  49. 应用全表搜寻
  50. 应用索引进行查问, 能够细分为很多品种

    • 针对主键或惟一二级索引的等值查问(惟一)
    • 针对一般二级索引的等值查问(范畴)
    • 针对索引列的范畴查问(范畴)
    • 间接扫描整个索引

    针对下面的这几种细分的查问形式,MySQL 将其称为 拜访办法 或者 拜访类型

    const(常量级别)

    指的就是针对主键或者惟一二级索引, 执行几次二分查问就可失去数据, 所以就是 const

    ref

    select * from single_table where key1='abc'

    搜寻条件为二级索引与常数值等值比拟, 采纳二级索引来执行查问的拜访办法称为:ref。

    ref_or_null

    与下面的差异是将 NULL 的等值也包含了

    range

    下面说的都是等值查问, 那么如果是范畴查问的状况该是什么样子呢?
    索引列会匹配范畴内的值(等值匹配)

    index

    不须要回表, 通过查问二级索引即可获取全副的数据

    all

    注意事项

    二级索引 + 回表

    明确 range 范畴

    下面的拜访办法中 range 看起来是执行起来最简单的一个, 上面就是 MySQL 的一些优化伎俩

    所有搜寻条件都能够应用某个索引的状况

    间接应用二级索引就能够确定所有查问的值

    有的查问条件无奈应用索引的状况
    select * from single_table where key2>100 and common_field='abc'

    key2>100 查问条件能够应用 idx_key2 来进行匹配, 前面的查问条件则无奈应用索引。此时将前面的查问条件设置为 true, 间接依据后面的条件查问到记录。而后在回表的时候再依据 common_field 的条件进行过滤。

    简单搜寻条件下找出范畴匹配的区间

    简单条件其实也能够进行化简, 可能用聚簇索引的话必定就会应用聚簇索引, 缩小回表的操作。

    索引合并

    个别一次查问只会应用单个二级索引, 然而非凡状况下也可能在一个查问中应用到多个二级索引

    Intersection 合并

    AND 关系
    多个二级索引查问的后果 取交加 再回表

    实用状况
  51. 二级索引等值匹配
  52. 主键列范畴匹配(主键列指定范畴, 二级索引等值)

    Union 合并

    OR 关系
    取并集

    实用状况
  53. 二级索引等值匹配
  54. 主键列范畴匹配(主键列指定范畴, 二级索引等值)
  55. 取交加的索引合并的搜寻条件

    Sort-Union 合并

    二级索引范畴匹配(这种状况有点玄乎), 对主键进行排序。

    连贯的原理

    连贯简介

    连贯的实质

    连贯过程

    驱动表
    笛卡尔乘积在多表时的排列组合后果指数级增长, 所以就有了左连贯和右连贯。首先须要明确的是驱动表的概念, 就是最先满足查问的条件的表, 像左连贯就是右边的表就是驱动表。
    被驱动表
    在驱动表中查完数据之后, 须要到被驱动表中去找满足连贯条件和其余条件的数据, 这类表被称为被驱动表。

    内连贯和外连贯

    区别

    对于内连贯来说, 驱动表在被驱动表中找不到匹配的记录, 那么就不会退出到后果集中。
    对于外连贯来说,<font color=”red”> 驱动表的记录即便在被驱动表中没有匹配的记录, 也依然须要退出到后果集中 </font>

    where 过滤条件与 on 过滤条件

    对于外连贯来说,on 会将不匹配退出, 而 where 都不会退出

    连贯的原理

    嵌套循环连贯

    驱动表只拜访一次, 被驱动表拜访的次数取决于对驱动表执行单表查问后的后果集中的记录条数, 这种形式称之为 嵌套循环连贯(Nested-Loop Join)

    应用索引放慢查问速度

    从驱动表中到被驱动表中查数据的时候相当于一次条件查问, 那么这个时候就能够 应用索引 放慢查问的速度。

    基于块的循环嵌套连贯

    总结:
    1. 内连贯和外连贯
    2.MySQL 的设计者总想用更少的资源和更快的访问速度来晋升查问的效率, 把握住这个就是这几章的思维

    MySQL 基于老本的优化

    什么是老本

    CPU 老本和 I / O 老本?
    从磁盘加载到到内存过程的损耗的工夫称为 I/ O 老本
    读取及检测后果是否满足对应的搜寻条件、对后果集进行排序等操作称为CPU 老本;

    单表查问的老本

    基于老本的优化步骤

    在一条单表查问语句真正执行之前,MySQL 的查问优化器会找出所有可能应用的计划, 而后抉择一个老本最低的计划, 这个老本最低的计划就是所谓的 执行打算, 过程如下
    1. 依据搜寻条件, 找出所有可能应用的索引
    2. 计算全表扫描的代价
    3. 计算应用不同索引执行查问的代价
    4. 比照各种执行计划的代价, 找出老本最低的那一个

    show index

    Non_unique 索引列的值是否惟一
    Seq_in_index 索引列在索引中的地位
    Collation 索引列中的值是按何种排序形式寄存的, 值为 A 时代表升序寄存
    Cardinality 索引列不反复值的数量
    Sub_part 对于存储字符串或者字节串来说, 只想对前 n 个字符或字节建设索引

    连贯查问的老本

    扇出 : 从驱动表进行查问后的记录条数称为驱动表的 扇出, 这个概念有什么用呢, 必定跟被驱动表有关系呗

    调节老本常数

    server 层和存储引擎层, 在 server 层进行 ** 连贯治理、查问缓存、语法解析和查问优化等操作, 在存储引擎层执行具体的数据存取操作。
    1.mysql.server_cost 表
    2.mysql.engine_server 表

    InnoDB 的统计数据如何收集

    上一章中有个 index dive 的概念, 就是从索引的 B + 树中查问满足条件的索引记录的过程。然而这种状况在某些状况下 (书上举的例子是在 in 中的参数十分多) 就会十分慢, 还有一种计划就是靠 MySQL 的统计数据, 然而误差十分大。

    两种不同的统计数据存储形式

    1. 永久性的统计数据
    2. 非永久性的统计数据
    InnoDB 是 以表为单位 来收集和存储统计数据的。咱们能够在创立和批改表的时候通过指定
    STATS_PERSISTENT 属性来指明表的统计数据存储形式:
    alter table 表名 Engine=InnoDB,STATS_PERSISTENT=0

    基于磁盘的永久性统计数据

    实际上将这些统计数据存储到了两个表里:
    innodb_table_stasts 每一条记录对应着一个表的统计数据
    innobb_index_stats 每一条记录对应着一个索引的统计项的统计数据

    MySQL 基于规定的优化

    条件化简

    去除多余的括号

    常量传递

    等值传递

    移除没用的条件

    表达式计算

    留神: 表达式中是常量时才会失效

    HAVING 子句和 WHERE 子句的合并

    如果查问语句中没有呈现诸如 sum、max 等等的汇集函数时, 那么优化器就会将 where 和 having 子句进行合并

    常量表检测

    针对主键索引和惟一二级索引的等值匹配查问时失效, 如下

    select * from table1 inner join table2 on table1.column1=table2.column2
    where table1.primary_key=1;

    将会做如下优化

    select table1 表记录的各个字段的常量值,table2.* from table1 inner join table2 on table1 表 column1 列的常量值 =table2.column2;

    外连贯打消

    首先外连贯和内连贯和区别是什么不必多说。通过 where 条件不容许被驱动表的列为空, 这样就和内连贯查问的后果统一。

    子查问优化

    子查问语法

    子查问类型
    按返回的后果集区分子查问
  56. 标量子查问
    返回繁多值的子查问称之为 标量子查问, 一行一列的数据
  57. 行子查问
    一条记录
  58. 列子查问
  59. 表子查问
    多条记录

    按与外层查问关系来区分子查问
  60. 不相干子查问
    子查问独自能够出后果
  61. 相干子查问

    子查问在布尔表达式中应用
    子查问语法注意事项

    子查问在 MySQL 中如何执行

    讲在后面, 书上先讲了猜测的执行的实在样子

  62. 如果是不相干子查问的话, 那么就是先执行子查问中的语句,将后果集作为外层查问可能将要用到的数据集。
  63. 如果是相干查问,那么先从外层查问中拿出一条数据,用对应的值和子查问的列做关联。
    事实也正是如此, 然而 MySQL 会在此基础上进行优化

    IN 子查问优化

    不间接将不相干子查问的后果集当作外层查问的参数, 而是将该后果集写入到一个长期表里

  64. 该长期表的列就是子查问后果集中的列。
  65. 写入长期表的记录会被去重。
  66. 如果数据不是大的离谱, 那么就会建设基于内存的应用 Memory 存储引擎的长期表, 而且会为该表建设哈希索引; 如果过大就会建设基于磁盘的存储引擎。
    下面这种计划被称之为 物化表 , 能够将物化表转换为连贯
    MySQL 设计者又提出 半连贯 (semi-join), 这是MySQL 外部的一种查问形式, 上面是书上对于半连贯的详细描述
    对于 s1 表的某条记录来说, 咱们只关怀在 s2 表中是否存在与之匹配的记录,而不关怀具体有多少条记录与之匹配, 最终的后果集中只保留 s1 表的记录。
    有 5 种实现 semi-join 的策略

    总结
  67. 如果 in 子查问合乎转换 semi-join 的条件, 查问优化器会优先把该子查问为 semi-join, 而后从 5 种执行策略中抉择老本更低的一种。
  68. 如果 in 子查问不合乎转换为 semi-join 的条件, 那么查问优化器会从下边两种策略抉择一种老本更低的形式
  69. 先将子查问物化之后再查问
  70. 执行 in to exists

    [NOT] EXISTS 子查问的执行
  71. 如果不相干, 会用 true 或者 false 来替换掉 exists 条件;
  72. 如果相干, 就只能用一开始的形式来执行,然而会用索引放慢

    对于派生表的优化
  73. 将派生表物化
  74. 将派生表和外层的表合并, 就是将查问重写为没有派生表的模式

    Explain

    执行打算输入各列详解

  75. table 表名
  76. id 每呈现一个 select 就会调配一个 id,<font color=”blue”> 在连贯查问的执行打算中, 每个表都会对应一条记录, 这些记录的 id 的值是雷同的, 呈现子在前边的表示意驱动表,后边的表示意被驱动表 </font>
  77. select_type 在整个大查问中表演了什么角色
  78. partitions
  79. type 对应的是之前的拜访办法是哪种
  80. possible_keys 和 key 可能用到的索引
  81. key_len 当优化器决定应用某个索引进行查问时, 该索引记录的最大长度
  82. ref 当应用索引列等值匹配的条件去执行查问时,ref 列展现的就是与索引列作等值匹配的是什么, 比方一个常数或者某个列。
  83. rows 当全表扫描的形式对某个表执行查问, 预计要扫描的索引记录行数。
  84. filtered 计算扇出 (驱动表中的记录条数) 时的一个策略, 通过百分比来预测。
  85. extra 提供一些额定信息

    Json 格局的执行打算

    应用时只须要在原来的语句中退出 FORMAT=JSON
    EXPLAIN <font color=”green”>FORMAT=JSON</font> SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key2 WHERE s1.co

    Extend EXPLAIN

    执行打算的扩大信息

    Optimizer trace

    explain 只提供了局部信息, 如果想要查看更加具体的优化过程就得借助 optimizer_ trace 表
    查看变量
    show variables like ‘optimizer_trace’;
    enable 默认是 off, 所以须要关上
    set optimizer_trace=”enabled=on”;
    // 执行本人的查问语句
    select * from s1 where
    key1 > ‘z’ and
    key2 > 1000000 and
    key3 in (‘a’,’b’,’c’) and
    common_field=’abc’;
    而后查看 optimizer 表来察看优化过程
    select * from information_schema.OPTIMIZER_TRACE\G .

    InnoDB 的 Buffer Pool

    缓存的重要性

    即便拜访一条记录也要把整个页的数据加载到内存中, 读写访问之后不会立刻开释内存。

    InnoDB 的 Buffer Pool 概览

    Buffer Pool 介绍

    MySQL 服务器在启动的时候向操作系统申请了一片间断的内存, 这块内存就叫做 Buffer Pool(缓冲池)。

    Buffer Pool 外部组成

    InnoDB 设计者为每一个缓存页都创立了 管制信息 , 书中将每一个页对应的管制信息占用的内存称为一个 管制块
    <font color=”blue”> 管制块和缓存页是一一对应的, 它们都被寄存到 Buffer Pool 中, 其中管制快被寄存到后面, 缓存页被放在后边 </font>

free 链表的治理

<font> 用来记录 Buffer Pool 中哪些缓存页是可用的 </font>, 能够将所有的闲暇页对应的管制块作为一个节点放到一个链表中。
同时有一个 基节点 用来统计 free 链表的数据, 外面蕴含着头节点地址, 尾节点地址和链表中的节点数量等信息。

缓存页的哈希解决

哈希 key-value
key 就是 表空间号 + 页号 ,value 就是对应的 缓存页;

flush 链表的治理

将批改的缓存页 (脏页) 的对应的管制块信息所形成的链表, 和 free 链表类似。

LRU 链表的治理

缓存不够用

缓存页太多, 内存必定是不够用的

简略的 LRU 链表

LRU:Least Recently Used

  1. 如果该页不在 Buffer Pool 中, 把该页从磁盘加载到 Buffer Pool 的缓存页时, 就把该缓存页对应的 管制块 作为节点塞到链表的头部
  2. 如果该页曾经缓存在 Buffer Pool 中, 则将页对应的管制块挪动到 LRU 链表的头部。

    划分区域的 LRU 链表
    LRU 面临的问题:
  3. 预读
    可能用到的页面, 加载到 Buffer Pool 中。
  4. 线性预读
    间断(程序拜访) 读取某个区的指定数量 (零碎变量) 的页面, 就会触发异步读取下一个区的全副页面到 Buffer Pool 中, 异步不会影响当前工作线程的失常运行。
  5. 随机预读
    如果缓存了某个区的 13 个间断的页面, 会读取本区中的所有其余页面到 Buffer Pool 中, 是否开启可由零碎变量配置。
  6. 全表扫描
    下面两种状况都会导致 Buffer Pool 中大量的页被替换掉

    解决方案

    将 LRU 链表分为两局部
    Yong 区域和 Old 区域
    innodb_old_blocks_pct 零碎变量来配置 old 区域在链表中所占比例。

  7. 针对预读的优化
    当磁盘上的某个页面在首次加载到 Buffer Pool 中的某个缓存页时, 该缓存页对应的管制块会被放到 old 区域的头部
  8. 针对全表扫描的优化
    全表扫描的特点是执行频率特地低
    对某个处在 old 区域内第一次拜访会有一个拜访工夫, 前面再次拜访时的工夫与首次拜访工夫的差值如果超过某个值就会将其挪动至 yong 区域首部。
  9. 更进一步优化
    yong 区域中也不是每次拜访都会将对应的管制块挪动到首部, 而是后 3 / 4 处的管制块才会挪动至首部。

    刷新脏页到磁盘

  10. LRU 链表 的冷数据 (old) 中刷新一部分页面到磁盘。
  11. flush 链表 中刷新一部分页面到磁盘。

    多个 Buffer Pool 实例

    多线程状况下 Buffer Pool 的各种链表须要加锁, 繁多的 Buffer Pool 可能会影响申请的处理速度。

    innodb_buffer_pool_chunk_size

    Buffer Pool 的实例是由若干个 chunk(一片间断的内存空间)组成,<font>innodb_buffer_pool_size 的值只能在服务器启动的时候指定, 在服务器运行过程中不能够批改 </font>

    配置 Buffer Pool 注意事项

    innodb_buffer_pool_size 必须是 innodb_buffer_pool_chunk_size × innodb_buffer_pool_instances 的
    倍数(这次要是想保障每一个 Buffer Pool 实例中蕴含的 chunk 数量雷同)

    查看 Buffer Pool 的状态信息

    show engine innodb status\G;
    常见的几个值
    Total memory allocated 向操作系统申请的间断内存空间大小, 包含全副管制块、缓存页和碎片的大小
    Buffer pool size 代表 Buffer pool 能够包容多少缓存页
    Free buffers 代表 LRU 链表中页的数量

    总结

  12. 磁盘太慢, 内存作为缓存很有必要
  13. Buffer Pool 实质上是 InnoDB 向操作系统申请的 一段间断的内存空间
  14. Buffer Pool 向操作系统申请的间断内存由管制块和缓存页组成, 每个管制块和缓存页都是一一对应的, 在填充足够多的管制块和缓存页的组合后,Buffer Pool 残余的空间可能不够填充一组管制块和缓存页, 这部分空间不能被应用, 也被称为 碎片
  15. InnoDB 应用了许多链表来治理 Buffer Pool。LRU、Free、Flush
  16. free 链表中每一个节点都代表一个闲暇的缓存页
  17. 为了疾速定位到某个页是否被加载到 Buffer Pool, 应用 表空间号 + 页号 作为 key, 缓存页作为 value, 建设哈希表
  18. Buffer Pool 中被批改的页称为脏页, 不是立刻刷新,而是退出到 flush 链表
  19. yong 区域与 old 区域, 能够通过 innodb_old_blocks_pct 来调节 old 区域所占的比例。
  20. 通过指定 innodb_buffer_pool_instance 来管制 Buffer Pool 实例的个数
  21. 5.7.5 之后, 能够在服务器运行过程中调整 Buffer Pool 的大小。
  22. 查看 Buffer Pool 状态命令:show engine innodb status\G;

    事务

    ACID

    原子性
    隔离性
    一致性 合乎事实世界的束缚 (书上是这么说的, 我还没有看其余的)
    持久性

    事务的概念

    一组数据库操作, 满足下面 4 个个性。

    事务的语法

    开启事务

    两种形式

  23. begin
  24. start transaction

    提交事务

    commit

    手动停止事务

    rollback

    反对事务的存储引擎

    InnoDB 和 NDB 存储引擎

    主动提交

    SHOW VARIABLES LIKE ‘autocommit’;
    默认值是 ON, 每一条语句都是独立的一个事务。

  25. 显式的应用 start transaction 或者 begin 开启一个事务
  26. 把零碎变量 autocommit 的值设置为 OFF

    隐式提交

  27. 定义或者批改数据库对象的数据定义语言(Data definition language)
  28. 隐式应用或批改 mysql 数据库中的表
    还有其余, 这里只有晓得某些语句或者操作会触发事务的隐式提交

    保留点

    savepoint 保留点名称
    在事务中增加这条语句即可

    redo 日志

    当时阐明

    因为一条记录刷新一个页面到磁盘有点过于节约, 所以将这个批改操作记录一下。
    例如, 更新操作
    将第 0 号表空间的 100 号页面的偏移量为 1000 处的值更新为 2。这就是一条残缺的记录, 称为 redo log。

    redo 日志格局

    各个局部释义

  29. type 日志类型
  30. space ID 表空间 ID
  31. page number 页号
  32. 该条日志的具体内容

下面这些只是所有 redo 日志共有的, 上面还有一些不同类型 redo 日志特有的属性。

简略的 redo 日志类型

说在后面,InnoDB 会保护一个 全局变量 , 每当向某个蕴含暗藏的 row_id 列(没有主键或者惟一索引的时候会有这个列) 的表中插入一条记录时, 就会把该变量的值当作新新纪录的 row_id 列的值。
每当这个变量的值为 256 的倍数 时, 就会把该变量的值刷新到 零碎表空间的页号为 7 的页面中一个称之为 Max Row ID 的属性处。
redo log 的类型

  • MLOG_1BYTE: 示意在页面的某个偏移量处写入 1 个字节的 redo 日志。
  • MLOG_2BYTE: 示意在页面的某个偏移量处写入 2 个字节的 redo 日志
    前面还有 4 个字节和 8 个字节的 redo 日志。
    不出意外的话必定还有多个字节的,
  • MLOG_WRITE_STRING 示意在页面的某个偏移量处写入一串数据。

属性

  1. offset, 下面提到了那么屡次偏移量, 那么 redo 日志中必定还有偏移量的属性。
  2. 1 字节 2 字节 4 字节的还有一个属性就是 len, 示意具体数据占用的字节数。
    总而言之,redo 日志会把事务在执行过程中对数据库所做的批改都记录下来, 在之后零碎解体重启后能够把事务所做的任何批改都复原进去。

    Mini-Transaction

    以组的模式写入 redo 日志

    页面更改产生的 redo 相应的日志被记录下来, 这些 redo 日志被 InnoDB 设计者划分成为了若干个不可分割的组

  3. 更新 Max Row ID 属性时产生的 redo 日志时不可分割的
  4. 向聚簇索引对应的 B + 树的页面中插入一条记录时产生的 redo 日志是不可分割的
  5. 向某个二级索引对应的 B + 树的页面中插入一条记录时产生的 redo 日志是不可分割的
  6. 还有其余的一些对页面的拜访操作时产生的 redo 日志是不可分割的
    下面的不可分割的意思是插入的时候可能会呈现页决裂 (乐观插入) 的状况, 所以一个操作会产生多条记录。
    通过 MLOG_MULTI_REC_END 标记来代表以后 redo 日志是否为一组 redo 日志的结尾。

    redo 日志的写入过程

    redo log block

    是不是有点像页的构造, 只不过没有那么简单

    redo 日志缓冲区

    写入 redo 日志时也不能间接写到磁盘上, 实际上服务启动时就向操作系统申请了一大片称之为 redo log bufferr 的间断内存空间。这片内存空间被划分为若干个间断的 redo log block, 能够通过启动参数 innodb_log_buffer_size 来指定 log buffer 的大小。

    redo 日志写入到 log buffer

    写入的第一个问题就是写入到哪个 block 的哪个偏移量处
    InnoDB 提供了一个称之为 buf_free 的全局变量, 该变量指明后续写入的 redo 日志应该写入到 log buffer 中的哪个地位
    不同事务可能是并发执行的, 所以 T1、T2 之间的 mtr 可能是交替执行的。mtr 产生的 log buffer 交替写入到 log buffer

    redo 日志文件

    刷盘机会

  7. log buffer 空间有余
  8. 事务提交时
  9. 后盾线程刷
  10. 失常敞开服务器时
  11. check point

    redo 日志文件组

    我的数据库中没有书上的两个文件 ib_logfile0 和 ib_logfile1

  12. innodb_log_group_home_dir
    该参数指定了 redo 日志文件所在的目录, 默认值就是以后的数据目录
  13. innodb_log_file_size
    指定每个 redo 日志文件的大小
  14. innodb_log_files_in_group
    该参数指定 redo 日志文件的个数,, 默认值为 2, 最大值为 1000

    redo 日志文件格式

    前 2048 个字节, 即前 4 个 block 用来存储一些治理信息
    从 2048 字节往后用来存储 log buffer 中的 block 镜像

    Log Sequeue Number 日志序列号】

    LSN 从 8704 开始,header+trailer+body 的日志序列号会成为新的值。

    flushed_to_disk_lsn

    buf_next_to_write 标记以后 log buffer 中曾经有哪些日志被刷新到了磁盘中, 书上还提到了 flush_to_disk_lsn 示意刷新到磁盘的 lsn, 这个才是重点。

    lsn 值和 redo 日志偏移量的关系

    lsn 从 8704 开始,redo 日志偏移量从 body 开始(跳过 header2048)

    flush 链表中的 LSN

    说在后面,mtr 完结时还有一件十分重要的事件要做, 就是把在 mtr 执行过程中可能批改过的页面退出到 Buffer Pool 的 flush 链表。
    管制块有两个属性 oldest_modification(第一次批改该页面 mtr 开始的 lsn 值写入这个属性)和 newest_modification(每批改一次页面, 都会将批改该页面的 mtr 完结时对应的 lsn 值写入这个属性)。

    checkpoint

    redo 日志只是为了零碎解体后复原用的 , 如果对应的脏页曾经刷新到了磁盘, 那么 redo 日志也用不到了。
    比如说页 a 被刷新到了磁盘,mtr_1 生成的 redo 日志就能够被笼罩了, 所以咱们能够进行一个减少 checkpoint_lsn 的操作, 这个过程被称为一次 checkpoint。

  15. flush 链表尾节点,oldest_modification 赋值给 checkpoint_lsn(之前的都能够删掉);
  16. 将 checkpoint_lsn 和 对应的 redo 日志文件组偏移量 以及 此次 checkpoint 的编号写到日志文件的治理信息
    每实现一次 checkpoint 就会有个全局变量 checkpoint_no 的变量值加 1, 同时会有一个 checkpoint_offset 来示意在日志文件组中的偏移量。
    存储到 check_point1 中还是 2 中取决于 checkpoint_no 的值。

    批量从 flush 链表中刷出脏页

    查看零碎中的各种 LSN 值

    解体复原

    确定复原的终点

    比拟 checkpoint1 和 checkpoint2 的 checkpoint_no, 哪个更大就阐明哪个更加靠近,作为终点。

    确定复原的起点

    应用页中的某个属性来示意当前页中应用了多少字节的空间。

    怎么复原

  17. 应用哈希表
    SpaceID+PageNumber
  18. 跳过曾经刷新到磁盘的
    File Header 中有个属性 FIlE_PAGE_LSN, 就是 new_modification 的值。

    undo 日志

    事务回滚的需要

    懂的都懂
    把回滚时所需的货色都记录下来

    事务 id

    调配机会

    事务分为只读事务和读写事务
    只读事务能够批改长期表而读写事务能够批改一般表, 这个时候会调配事务 id

    如何生成

    和 row_id 相似, 全局变量, 每次加 1, 当这个值是 256 的倍数时就会跟新到零碎表空间的页号为 5 的一个称之为 Max Trx ID 的属性处

    trx_id 暗藏列

    和之前的格局串起来了
    roll_point 指向 undo 日志版本链

    undo 日志格局

    undo 日志在操作之前生成
    undo_no 来保障唯一性, 寄存在零碎表空间中
    insert、delete 和 update 对应的日志格局不雷同
    事务提交之后就无奈复原了
    书上的例子十分具体

    insert

    delete

  19. 阶段一 delete_mark
  20. 阶段二 退出垃圾链表

    update

    不更新主键
  21. 更新列所占用的空间不变
    就地更新
  22. 更新列占用空间变动
    删除掉, 这里说的删除是间接退出垃圾链表

    更新主键
  23. 如果更新主键的话, 那么就像 delete 一样做 delete_mark 操作(MVCC, 为了其余事务可能失常拜访)
  24. 依据更新后各列的值创立一条新纪录, 并将其插入到聚簇索引中

    通用链表构造

    在写入 undo 日志的时候会应用到许多链表构造, 这些列表的节点有通用的属性
    Pre Node PageNumber 和 Pre Node offset 指向上一个节点
    Next Node PageNumber 和 Next Node offset 指向下一个节点
    除此之外, 还会有一个基节点, 这个构造外面多了个 count, 示意以后链表的个数

    FILE_PAGE_UNDO_LOG(Undo 页面)

    因为 insert 日志和 update 日志的差异, 所以这两种日志记录也是别离存储在不同类型的页中。
    那么页面中还会有什么属性呢?(猜想 redo 页面是否也有这些属性只不过我之前没有留神过)
    PAGE_TYPE: 页面类型
    PAGE_START: 页面的什么中央开始存储日志记录, 集体感觉是通过 offset(页面偏移量) 来示意的
    PAGE_FREE: 可用的日志记录的偏移量

    Undo 页面链表

    单事务 Undo 页面链表

    按需创立, 只有真正用到的时候才会创立

    多事务 Undo 页面链表

    InnoDB 设计者规定, 有 4 种链表类型
    一般表的 Insert 类型的链表
    一般表的 Update 类型的链表
    长期表的 Insert 类型的链表
    长期表的 Update 类型的链表
    那么头节点的地位必定会有对于整个链表的属性, 例如,Segment ID 段 (每个段对应一个 INODE ENTRY 构造, 通过 Segment Header(表空间的时候有提到过) 来确定)的 id 等等。这些属性寄存在 undo 页链表的首个节点。

    Undo 日志的写入过程

    Unod Log Segment Header

    页链表首个节点中 Segment Header 属性, 所有的页面在申请的时候都是从这个段中去申请的

    Undo Log Header

    每一次 minitranscation 都会产生一组 undo 日志, 这些 undo 日志退出到 Undo 链表中的时候须要有中央来记录一下这个组的属性,Undo Log Header 的作用就在于此。

    几个重要的属性
  25. trx_undo_trx_id: 事务 id
  26. trx_undo_trx_no: 事务提交时的顺序号
    其余一些属性就是常见的例如上一组下一组的偏移量

    重用 undo 日志

    为了实现并发执行(提高效率), 会为每个事务都创立链表, 如此一来便会产生许多额定数据, 节约空间不说, 保护起来也相当麻烦, 所以有了重用这个妙手

  27. 页链表中只有一个页的链表能重用
  28. Insert 类型在事务提交之后就能够重用
  29. Update 类型的会在原来的 undo 页面前面持续加, 这里说的是事务提交之后, 原来的记录不能删除是为了保障 MVCC

    回滚段 -RollBack Segment

    为了治理 Undo 页链表(数量过多), 须要有个中央来集中统一的展现这些信息, 于是就有了这么一个概念。

    RollBack Segment Header 页面

    undoslot 指向页链表的首个页节点

    RollBack Segment 的分类

    通过下面的形容能够晓得其实回滚段就是这些 RollBack Segment Header 页, 一个页面只有 1024 个 undoslot, 所以会有很多的这种页面
    分为零碎、一般、长期表(长期表不须要 redo 日志, 然而会有 undo 日志)

    为事务调配 Undo 日志的具体过程

  30. 首先为事务调配一个 RollBackHeader 页
  31. 查看 RollBack 页中是否有可重用的页链表(放在 Insert Undo Cache 和 Update Unddo Cache 中)

    • 如果有的话, 那么就将 undoslot 调配给事务
    • 如果没有的话 IS_FILL, 那么就新创建一个段, 将段的 First Page Number 给事务

      回滚段配置

      配置回滚段的数量
      配置回滚段的空间

      MVCC

      遇到的问题

      脏写: A 事务批改了 a 字段,B 事务 rollback,A 事务的操作数据不见了, 这就是脏写
      脏读: A 事务读到了 B 事务未提交的数据
      不可反复读: A 事务针对 a 执行了几次查问操作,B 事务批改了 a 几次,A 事务每次的查问后果都不一样
      幻读: A 事务同一个查问条件查问了几次,B 事务新增了记录, 后果每次都能查到新的记录

      4 种隔离级别

      有人设计一套 SQL 规范
      read uncommited
      read commited
      repeated read
      serilizable

      MVCC 版本链

      每次对于数据的操作都会有一条 undo 日志, 记录中用 roll_pointer 指向最新的一条 undo 日志

      从下面的图中能看进去, 每条 undo 日志中也有 roll_pointer 这个属性, 指向上一条的 undo 日志。
      上面看一下针对各个隔离级别 MySQL 是如何实现的

      ReadUncommited

      间接读取最新的记录就能够

      Read Committed

      首先须要理解一个概念 ReadView, 这是版本链中一个十分重要的数据结构, 有几个重要的属性(可能名称不肯定精确):

  32. m_ids
    生成 ReadView 时沉闷的事务 id 列表
  33. min_trx_id
    沉闷的最小事务 id
  34. max_trx_id
    再次生成 ReadView 时应该调配的事务 id
  35. creator_trx_id
    生成以后 ReadView 的 trxid

    比拟规定
  36. 如果拜访的 trx_id 和 creator_id 相等, 阐明拜访的就是以后版本, 能够拜访
  37. 如果 trx_id 小于 min_trxid, 阐明之前曾经提交, 能够拜访
  38. 如果 trx_id 大于 max_traxid, 阐明以后记录版本在创立事务之后, 能够拜访
  39. 如果 trx_id 在 [min,max] 之间,trx_id 是否在 m_ids 列表中, 如果在的话阐明事务 trx_id 还是沉闷的, 没有提交, 所以不能被反诘

    Select 之前生成一个 ReadView

    trx_id 只有在 insert,update,delete 的时候才会被调配。

    Repeated Read

    只有第一次查问的时候生成一个 ReadView

    Serilizalbe

    采纳锁的形式

    下面提到了 Serilizable 这个隔离级别, 就不得不提到锁了

    几个概念

    锁的构造 trx_id+is_waiting

  40. 不加锁
    不在内存中生成锁
  41. 获取锁胜利
    为记录在内存中创立一个锁,is_waiting 为 true
  42. 获取锁失败
    为记录在内存中创立一个锁,is_waiting 为 false
    如何解决下面事务中存在的问题
  43. 通过 MVCC 读和锁写
  44. 读写都加锁

    一致性读

    指的就是不加锁的读的形式

    共享锁和排他锁

    共享锁 S -shared
    拍他锁 X -exclude

  45. 读操作

    • 对读记录加 S 锁
    • 对读记录加 X 锁
  46. 写操作
    转换成为对记录加 X 锁的读操作

    多粒度锁

    提出了 表锁和行锁 的概念, 当然这是通用的概念, 上面会将 MySQL 如何实现
    有个问题就是加表 X 锁的时候要求行没有锁, 所以 InnoDB 就提出了 IS 和 IX 锁, 即意向锁。咱们只须要晓得事务执行对行加锁前肯定会有表锁(意向锁)。

    细说 MySQL 的表锁和行锁

    不同的存储引擎采纳的锁的实现计划是不一样的, 上面来看一下 InnoDB 的锁设计

    表锁

  47. S 锁
  48. X 锁
    下面的两个锁十分鸡肋, 基本上不必到
  49. IS 锁和 IX 锁
    下面有提到过, 用来判断以后表的记录是否上锁
  50. Auto-Inic 锁
    新增的时候会设置自增, 所以须要保障 id 的唯一性, 也就是说当插入一条记录的时候会将记录加锁从而阻塞别的线程的更改。

    行锁

  51. Record Locks
    书上给的名称是正经记录锁, 我的了解是针对某条记录 (Record) 的锁, 所以会有 S 锁和 X 锁
  52. Gap Locks
    不容许在以后记录和上一条记录的区间内插入
    这个锁的提出是为了避免幻影读(从根上解决, 不让你插入)
  53. Next-Key Locks
    相当于 Record Locks+Gap Locks 的性能
  54. Insert intention Locks
    插入意向锁, 说的是事务在插入记录时会学生成一个插入意向锁, 如果记录此时有之前的 Gap 锁或者 Next-key 锁, 那么 is_waiting=true
  55. 隐式锁
    新增一条记录之后, 其余事务能够对其做批改, 这样会产生脏读和脏写的问题
    这个时候暗藏的 trx_id 事物 id 就施展了作用

    • 批改的是聚簇索引的记录时(事务 B 批改), 事务 A 新增, 那么 B 事务会查看记录的 trx_id, 如果属于沉闷事务就会为记录加事务 A 的锁, 而后再加本人的锁并处于期待状态
    • 批改的二级索引, 会应用页外面的某个属性来做判断查看 trx_id 是否沉闷, 否则就只能回表执行下面的步骤

    InnoDB 的锁的内存构造

    1 条记录针对一个事务生成一个锁构造, 这样有点过于节约, 所以锁是能够重用的

    参考
    《MySQL 是怎么的运行的》

退出移动版