MySQL实战-实践篇


MySQL实战-实践篇

一、普通索引和唯一索引,应该怎么选择?

假设你在维护一个市民系统,每个人都有一个唯一的身份证号,而且业务代码已经保证了不会写入两个重复的身份证号。如果市民系统需要按照身份证号查姓名,就会执行类似这样的 SQL 语句:

select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';

所以,你一定会考虑在 id_card 字段上建索引。由于身份证号字段比较大,我不建议你把身份证号当做主键,那么现在你有两个选择,要么给 id_card 字段创建唯一索引,要么创建一个普通索引。如果业务代码已经保证了不会写入重复的身份证号,那么这两个选择逻辑上都是正确的。从性能的角度考虑,你选择唯一索引还是普通索引呢?选择的依据是什么呢? 对这两种索引对查询语句和更新语句的性能影响来进行分析。

举个例子:假设字段 k 上的值都不重复。

InnoDB 的索引组织结构

(1)查询过程

假设,执行查询的语句是 select id from T where k=5

这个查询语句在索引树上查找的过程,先是通过 B+ 树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,然后可以认为数据页内部通过二分法来定位记录。

  • 对于普通索引来说,查找到满足条件的第一个记录 (5,500) 后,需要查找下一个记录,直到碰到第一个不满足 k=5 条件的记录。
  • 对于唯一索引来说,由于索引定义了唯一性,查找到第一个满足条件的记录后,就会停止继续检索。

那么,这个不同带来的性能差距会有多少呢?答案是,微乎其微。InnoDB 的数据是按数据页为单位来读写的。当需要读一条记录的时候,并不是将这个记录本身从磁盘读出来,而是以页为单位,将其整体读入内存。在 InnoDB 中,每个数据页的大小默认是 16KB。因为引擎是按页读写的,所以说,当找到 k=5 的记录的时候,它所在的数据页就都在内存里了。那么,对于普通索引来说,要多做的那一次“查找和判断下一条记录”的操作,就只需要一次指针寻找和一次计算。

当然,如果 k=5 这个记录刚好是这个数据页的最后一个记录,那么要取下一个记录,必须读取下一个数据页,这个操作会稍微复杂一些。但是,我们之前计算过,对于整型字段,一个数据页可以放近千个 key,因此出现这种情况的概率会很低。所以,我们计算平均性能差异时,仍可以认为这个操作成本对于现在的 CPU 来说可以忽略不计。

(2)更新过程

为了说明普通索引和唯一索引对更新语句性能的影响这个问题,我需要先跟你介绍一下 change buffer。

当需要更新一个数据页时,如果数据页在内存中就直接更新,而如果这个数据页还没有在内存中的话,在不影响数据一致性的前提下,InooDB 会将这些更新操作缓存在 change buffer 中,这样就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候,将数据页读入内存,然后执行 change buffer 中与这个页有关的操作。通过这种方式就能保证这个数据逻辑的正确性。

需要说明的是,虽然名字叫作 change buffer,实际上它是可以持久化的数据。也就是说,change buffer 在内存中有拷贝,也会被写入到磁盘上。将 change buffer 中的操作应用到原数据页,得到最新结果的过程称为 merge。除了访问这个数据页会触发 merge 外,系统有后台线程会定期 merge。在数据库正常关闭(shutdown)的过程中,也会执行 merge 操作。

显然,如果能够将更新操作先记录在 change buffer,减少读磁盘,语句的执行速度会得到明显的提升。而且,数据读入内存是需要占用 buffer pool 的,所以这种方式还能够避免占用内存,提高内存利用率。

什么条件下可以使用 change buffer 呢?

对于唯一索引来说,所有的更新操作都要先判断这个操作是否违反唯一性约束。比如,要插入 (4,400) 这个记录,就要先判断现在表中是否已经存在 k=4 的记录,而这必须要将数据页读入内存才能判断。如果都已经读入到内存了,那直接更新内存会更快,就没必要使用 change buffer 了。因此,唯一索引的更新就不能使用 change buffer,实际上也只有普通索引可以使用。

change buffer 用的是 buffer pool 里的内存,因此不能无限增大。change buffer 的大小,可以通过参数 innodb_change_buffer_max_size 来动态设置。这个参数设置为 50 的时候,表示 change buffer 的大小最多只能占用 buffer pool 的 50%。现在,你已经理解了 change buffer 的机制,那么我们再一起来看看如果要在这张表中插入一个新记录 (4,400) 的话,InnoDB 的处理流程是怎样的。

  • 这个记录要更新的目标页在内存中

    • 对于唯一索引来说,找到 3 和 5 之间的位置,判断到没有冲突,插入这个值,语句执行结束;

    • 对于普通索引来说,找到 3 和 5 之间的位置,插入这个值,语句执行结束。

    • 这样看来,普通索引和唯一索引对更新语句性能影响的差别,只是一个判断,只会耗费微小的 CPU 时间。

  • 这个记录要更新的目标页不在内存中

    • 对于唯一索引来说,需要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;
    • 对于普通索引来说,则是将更新记录在 change buffer,语句执行就结束了。

将数据从磁盘读入内存涉及随机 IO 的访问,是数据库里面成本最高的操作之一。change buffer 因为减少了随机磁盘访问,所以对更新性能的提升是会很明显的。如果业务中有大量插入数据的操作,把其中的某个普通索引改成了唯一索引有可能造成内存命中率突然从 99% 降低到了 75%,整个系统处于阻塞状态,更新语句全部堵住。。

(3)change buffer 的使用场景

普通索引的所有场景,使用 change buffer 都可以起到加速作用吗?

因为 merge 的时候是真正进行数据更新的时刻,而 change buffer 的主要目的就是将记录的变更动作缓存下来,所以在一个数据页做 merge 之前,change buffer 记录的变更越多(也就是这个页面上要更新的次数越多),收益就越大。

  • 对于写多读少的业务来说,页面在写完以后马上被访问到的概率比较小,此时 change buffer 的使用效果最好。这种业务模型常见的就是账单类、日志类的系统。

  • 假设一个业务的更新模式是写入之后马上会做查询,那么即使满足了条件,将更新先记录在 change buffer,但之后由于马上要访问这个数据页,会立即触发 merge 过程。这样随机访问 IO 的次数不会减少,反而增加了 change buffer 的维护代价。所以,对于这种业务模式来说,change buffer 反而起到了副作用

(4)索引选择和实践

普通索引和唯一索引应该怎么选择?

其实,这两类索引在查询能力上是没差别的,主要考虑的是对更新性能的影响。所以,我建议你尽量选择普通索引。如果所有的更新后面,都马上伴随着对这个记录的查询,那么你应该关闭 change buffer。而在其他情况下,change buffer 都能提升更新性能。在实际使用中,你会发现,普通索引和 change buffer 的配合使用,对于数据量大的表的更新优化还是很明显的。特别地,在使用机械硬盘时,change buffer 这个机制的收效是非常显著的。所以,当你有一个类似“历史数据”的库,并且出于成本考虑用的是机械硬盘时,那你应该特别关注这些表里的索引,尽量使用普通索引,然后把 change buffer 尽量开大,以确保这个“历史数据”表的数据写入速度。

(5)change buffer 和 redo log

容易混淆的 redo log 和 change buffer。WAL 提升性能的核心机制,也的确是尽量减少随机读写。举个例子来区分,现在,我们要在表上执行这个插入语句:

insert into t(id,k) values(id1,k1),(id2,k2);

这里,我们假设当前 k 索引树的状态,查找到位置后,k1 所在的数据页在内存 (InnoDB buffer pool) 中,k2 所在的数据页不在内存中。如图 2 所示是带 change buffer 的更新状态图。

带 change buffer 的更新过程

分析这条更新语句,你会发现它涉及了四个部分:内存、redo log(ib_log_fileX)、 数据表空间(t.ibd)、系统表空间(ibdata1)。这条更新语句做了如下的操作(按照图中的数字顺序):

  1. Page 1 在内存中,直接更新内存;
  2. Page 2 没有在内存中,就在内存的 change buffer 区域,记录下“我要往 Page 2 插入一行”这个信息
  3. 将上述两个动作记入 redo log 中(图中 3 和 4)。

做完上面这些,事务就可以完成了。所以,你会看到,执行这条更新语句的成本很低,就是写了两处内存,然后写了一处磁盘(两次操作合在一起写了一次磁盘),而且还是顺序写的。同时,图中的两个虚线箭头,是后台操作,不影响更新的响应时间。那在这之后的读请求,要怎么处理呢?

比如,我们现在要执行``select * from t where k in (k1, k2)`。这里,我画了这两个读请求的流程图。如果读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读操作就与系统表空间(ibdata1)和 redo log(ib_log_fileX)无关了。所以,我在图中就没画出这两部分。

带 change buffer 的读过程

图中可以看到:

  1. 读 Page 1 的时候,直接从内存返回。有几位同学在前面文章的评论中问到,WAL 之后如果读数据,是不是一定要读盘,是不是一定要从 redo log 里面把数据更新以后才可以返回?其实是不用的。你可以看一下图 3 的这个状态,虽然磁盘上还是之前的数据,但是这里直接从内存返回结果,结果是正确的。
  2. 要读 Page 2 的时候,需要把 Page 2 从磁盘读入内存中,然后应用 change buffer 里面的操作日志,生成一个正确的版本并返回结果。

可以看到,直到需要读 Page 2 的时候,这个数据页才会被读入内存。所以,如果要简单地对比这两个机制在提升更新性能上的收益的话,redo log 主要节省的是随机写磁盘的 IO 消耗(转成顺序写),而 change buffer 主要节省的则是随机读磁盘的 IO 消耗。

在“业务可能无法确保”的情况下如何选择索引。

  • 首先,业务正确性优先。咱们这篇文章的前提是“业务代码已经保证不会写入重复数据”的情况下,讨论性能问题。如果业务不能保证,或者业务就是要求数据库来做约束,那么没得选,必须创建唯一索引。这种情况下,本篇文章的意义在于,如果碰上了大量插入数据慢、内存命中率低的时候,可以给你多提供一个排查思路。
  • 然后,在一些“归档库”的场景,你是可以考虑使用普通索引的。比如,线上数据只需要保留半年,然后历史数据保存在归档库。这时候,归档数据已经是确保没有唯一键冲突了。要提高归档效率,可以考虑把表里面的唯一索引改成普通索引。

一个问题:change buffer 一开始是写内存的,那么如果这个时候机器掉电重启,会不会导致 change buffer 丢失呢?change buffer 丢失可不是小事儿,再从磁盘读入数据可就没有了 merge 过程,就等于是数据丢失了。会不会出现这种情况呢?

二、MySQL为什么有时候会选错索引?

(1)优化器的逻辑

(2)索引选择异常和处理

三、怎么给字符串字段加索引?

(1)前缀索引对覆盖索引的影响

(2)其他方式

四、为什么我的MySQL会“抖”一下?

(1)你的 SQL 语句为什么变“慢”了

(2)InnoDB 刷脏页的控制策略

五、为什么表数据删掉一半,表文件大小不变?

(1)参数 innodb_file_per_table

(2)数据删除流程

(3)重建表

(4)Online 和 inplace

六、count(*)这么慢,我该怎么办?

(1)count(*) 的实现方式

(2)用缓存系统保存计数

(3)在数据库保存计数

(4)不同的 count 用法

七、“order by”是怎么工作的?

(1)全字段排序

(2)rowid 排序

(3)全字段排序 VS rowid 排序

八、如何正确地显示随机消息?

(1)内存临时表

(2)磁盘临时表

(3)随机排序方法

九、为什么这些SQL语句逻辑相同,性能却差异巨大?

(1)案例一:条件字段函数操作

(2)案例二:隐式类型转换

(3)案例三:隐式字符编码转换

十、为什么我只查一行的语句,也执行这么慢?

(1)第一类:查询长时间不返回

​ 等 MDL 锁
​ 等 flush
​ 等行锁

(2)第二类:查询慢

二十、幻读是什么,幻读有什么问题?

(1)幻读是什么?

(2)幻读有什么问题?

(3)如何解决幻读?

十一、为什么我只改一行的语句,锁这么多?

(1)案例一:等值查询间隙锁

(2)案例二:非唯一索引等值锁

(3)案例三:主键索引范围锁

(4)案例四:非唯一索引范围锁

(5)案例五:唯一索引范围锁 bug

(6)案例六:非唯一索引上存在”等值”的例子

(7)案例七:limit 语句加锁

(8)案例八:一个死锁的例子

十二、MySQL有哪些“饮鸩止渴”提高性能的方法?

(1)短连接风暴

(2)慢查询性能问题

(3)QPS 突增问题

十三、MySQL是怎么保证数据不丢的?

(1)binlog 的写入机制

(2)redo log 的写入机制

十四、MySQL是怎么保证主备一致的?

(1)MySQL 主备的基本原理

(2)binlog 的三种格式对比

(3)为什么会有 mixed 格式的 binlog?

(4)循环复制问题

十五、MySQL是怎么保证高可用的?

(1)主备延迟

(2)主备延迟的来源

(3)可靠性优先策略

(4)可用性优先策略

十六、备库为什么会延迟好几个小时?

(1)MySQL 5.5 版本的并行复制策略

​ 按表分发策略
​ 按行分发策略

(2)MySQL 5.6 版本的并行复制策略

(3)MariaDB 的并行复制策略

(4)MySQL 5.7 的并行复制策略

(5)MySQL 5.7.22 的并行复制策略

十七、主库出问题了,从库怎么办?

(1)基于位点的主备切换

(2)GTID

(3)基于 GTID 的主备切换

(4)GTID 和在线 DDL

十八、读写分离有哪些坑?

(1)强制走主库方案

(2)Sleep 方案

(3)判断主备无延迟方案

(4)配合 semi-sync

(5)等主库位点方案

(6)GTID 方案

十九、如何判断一个数据库是不是出问题了?

(1)select 1 判断

(2)查表判断

(3)更新判断

(4)内部统计

二十、误删数据后除了跑路,还能怎么办?

(1)误删行

(2)误删库 / 表

(3)延迟复制备库

(4)预防误删库 / 表的方法

(5)rm 删除数据

二十一、为什么还有kill不掉的语句?

(1)收到 kill 以后,线程做什么?

(2)另外两个关于客户端的误解

二十二、我查这么多数据,会不会把数据库内存打爆?

(1)全表扫描对 server 层的影响

(2)全表扫描对 InnoDB 的影响

二十三、到底可不可以使用join?

(1)Index Nested-Loop Join

(2)Simple Nested-Loop Join

(3)Block Nested-Loop Join

二十四、join语句怎么优化?

(1)Multi-Range Read 优化

(2)Batched Key Access

(3)BNL 算法的性能问题

(4)BNL 转 BKA

(5)扩展 -hash join

二十五、为什么临时表可以重名?

(1)临时表的特性

(2)临时表的应用

(3)为什么临时表可以重名?

(4)临时表和主备复制

二十六、什么时候会使用内部临时表?

(1)union 执行流程

(2)group by 执行流程

(3)group by 优化方法 – 索引

(4)group by 优化方法 – 直接排序

二十七、都说InnoDB好,那还要不要使用Memory引擎?

(1)内存表的数据组织结构

(2)hash 索引和 B-Tree 索引

(3)内存表的锁

(4)数据持久性问题

二十八、自增主键为什么不是连续的?

(1)自增值保存在哪儿?

(2)自增值修改机制

(3)自增值的修改时机

(4)自增锁的优化

二十九、insert语句的锁为什么这么多?

(1)insert … select 语句

(2)insert 循环写入

(3)insert 唯一键冲突

三十、怎么最快地复制一张表?

(1)mysqldump 方法

(2)导出 CSV 文件

(3)物理拷贝方法

三十一、grant之后要跟着flush privileges吗?

(1)全局权限

(2)db 权限

(3)flush privileges 使用场景

三十二、要不要使用分区表?

(1)分区表是什么?

(2)分区表的引擎层行为

(3)分区策略

(4)分区表的 server 层行为

(5)分区表的应用场景

三十三、自增id用完怎么办?

(1)表定义自增值 id

(2)InnoDB 系统自增 row_id

(3)Xid

(4)Innodb trx_id

(5)thread_id


文章作者: 韩思远
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 韩思远 !
评论
 上一篇
MySQL实战总结 MySQL实战总结
MySQL实战总结十五、答疑文章(一):日志和索引相关问题(1)日志相关问题(2)业务设计问题(3)小结 三十、答疑文章(二):用动态的观点看加锁(1)不等号条件里的等值查询(2)等值查询的过程(3)怎么看死锁?(4)怎么看锁等待?(
2020-09-08
下一篇 
MySQL实战-基础篇 MySQL实战-基础篇
MySQL实战-基础篇一、一条SQL查询语句是如何执行的?执行如下SQL,我们看到的只是输入一条语句,返回一个结果,却不知道这条语句在 MySQL 内部的执行过程。 select * from T where ID=10; 我们一起来看
2020-09-08
  目录