mysql.commysql中设计表的时候,mysql官方推荐不要使用uuid或者不连续不重复的雪花id(long形且唯一),而是推荐连续自增的主键id,官方的推荐是auto_increment,那么为什么不建议采用uuid,使用uuid究竟有什么坏处?我们就来分析这个问题,探讨一下内部的原因。

MySQL 和程序实例

要说明这个问题,我们首先来建立三张表,分别是user_auto_key,user_uuid,user_random_key,分别表示自动增长的主键,uuid作为主键,随机 key 作为主键,其它我们完全保持不变.根据控制变量法,我们只把每个表的主键使用不同的策略生成,而其他的字段完全一样,然后测试一下表的插入速度和查询速度:

注:这里的随机key其实是指用雪花算法算出来的前后不连续不重复无规律的id:一串 18 位长度的long

id 自动生成表:```
CREATE TABLE user_key_auto (

user_id int unsigned NOT NULL AUTO_INCREMENT,

user_name varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

sex int NOT NULL,

address varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

city varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

email varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

state int NOT NULL DEFAULT ‘0’,

PRIMARY KEY (user_id) USING BTREE,

KEY user_name_key (user_name) USING BTREE

) ENGINE=InnoDB AUTO_INCREMENT=2520001 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT=’id 自动生成表’;
用户 UUID 表:
CREATE TABLE user_uuid (

user_id varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL,

user_name varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

sex int NOT NULL,

address varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

city varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

email varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

state int NOT NULL DEFAULT ‘0’,

PRIMARY KEY (user_id) USING BTREE,

KEY user_name_key (user_name) USING BTREE

) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT=’用户 UUID 表’;

CREATE DEFINER=root@% TRIGGER id_trigger BEFORE INSERT ON user_uuid FOR EACH ROW BEGIN

SET new.user_id=UUID();

END;
随机主键表:
CREATE TABLE user_random_key (

user_id bigint NOT NULL,

user_name varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

sex int NOT NULL,

address varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

city varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

email varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT ‘’,

state int NOT NULL DEFAULT ‘0’,

PRIMARY KEY (user_id) USING BTREE,

KEY user_name_key (user_name) USING BTREE

) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT=’随机主键表’;


###### 测试代码

技术框架:`springboot`+`Mybatis`+`druid`,程序的原理就是连接自己的测试数据库,然后在相同的环境下写入同等数量的数据,来分析一下`insert`插入的时间来进行综合其效率,为了做到最真实的效果,所有的数据采用随机生成,比如名字、邮箱、地址都是随机生成,程序已上传自`github`,地址在文底。

###### 程序写入结果

**user\_key\_auto** 写入结果: ![user_key_auto](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081806564759.png) **user\_random\_key** 写入结果: ![user_random_key](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081806571382.png) **user\_uuid** 写入结果: ![user_uuid](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081806572868.png)

###### 效率测试结果

![效率测试结果](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081806581590.png) 在已有数据量为`130W`的时候:我们再来测试一下插入`10w`数据,看看会有什么结果: ![](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081806590168.png) 可以看出在数据量`100W`左右的时候,`uuid`的插入效率垫底,并且在后序增加了`130W`的数据,`uudi`的时间又直线下降。时间占用量总体可以打出的效率排名为:`auto_key`\>`random_key`\>`uuid`,`uuid`的效率最低,在数据量较大的情况下,效率直线下滑。那么为什么会出现这样的现象呢?带着疑问,我们来探讨一下这个问题:

###### 使用`uuid`和自增`id`的索引结构对比

**使用自增 id 的内部结构** ![使用自增 id 的内部结构](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081807000855.png) 自增的主键的值是顺序的,所以 Innodb 把每一条记录都存储在一条记录的后面。当达到页面的最大填充因子时候(`innodb`默认的最大填充因子是页大小的`15/16`,会留出`1/16`的空间留作以后的修改):

1.  下一条记录就会写入新的页中,一旦数据按照这种顺序的方式加载,主键页就会近乎于顺序的记录填满,提升了页面的最大填充率,不会有页的浪费
2.  新插入的行一定会在原有的最大数据行下一行,`mysql`定位和寻址很快,不会为计算新行的位置而做出额外的消耗
3.  减少了页分裂和碎片的产生

**使用 uuid 的索引内部结构** ![使用 uuid 的索引内部结构](https://cdn.yihuo.tech/wp-content/uploads/2021/08/2021081807013588.png) 因为`uuid`相对顺序的自增`id`来说是毫无规律可言的,新行的值不一定要比之前的主键的值要大,所以`innodb`无法做到总是把新行插入到索引的最后,而是需要为新行寻找新的合适的位置从而来分配新的空间。这个过程需要做很多额外的操作,数据的毫无顺序会导致数据分布散乱,将会导致以下的问题:

1.  写入的目标页很可能已经刷新到磁盘上并且从缓存上移除,或者还没有被加载到缓存中,`innodb`在插入之前不得不先找到并从磁盘读取目标页到内存中,这将导致大量的随机`IO`
2.  因为写入是乱序的,`innodb`不得不频繁的做页分裂操作,以便为新的行分配空间,页分裂导致移动大量的数据,一次插入最少需要修改三个页以上
3.  由于频繁的页分裂,页会变得稀疏并被不规则的填充,最终会导致数据会有碎片

在把随机值(`uuid`和`雪花 id`)载入到聚簇索引(`innodb`默认的索引类型)以后,有时候会需要做一次`OPTIMEIZE TABLE`来重建表并优化页的填充,这将又需要一定的时间消耗。 **结论:** 使用`innodb`应该尽可能的按主键的自增顺序插入,并且尽可能使用单调的增加的聚簇键的值来插入新行 **使用自增 id 的缺点** 那么使用自增的`id`就完全没有坏处了吗?并不是,自增 id 也会存在以下几点问题:

1.  别人一旦爬取你的数据库,就可以根据数据库的自增`id`获取到你的业务增长信息,很容易分析出你的经营情况
2.  对于高并发的负载,`innodb`在按主键进行插入的时候会造成明显的锁争用,主键的上界会成为争抢的热点,因为所有的插入都发生在这里,并发插入会导致间隙锁竞争
3.  `Auto_Increment`锁机制会造成自增锁的抢夺,有一定的性能损失

附: `Auto_increment`的锁争抢问题,如果要改善需要调优`innodb_autoinc_lock_mode`的配置

###### 总结

从开篇的提出问题,建表到使用`mybatis`+`druid`去测试不同`id`的生成策略在大数据量的数据插入表现,然后分析了`id`的机制不同在`mysql`的索引结构以及优缺点,深入的解释了为何`uuid`和随机不重复`id`在数据插入中的性能损耗,详细的解释了这个问题。在实际的开发中还是根据`mysql`的官方推荐最好使用自增`id`,`mysql`博大精深,内部还有很多值得优化的点需要我们学习。 [源码](https://github.com/daoklab/test/tree/main/db-id "源码")

本站由 Diebug 使用 Stellar 1.29.1 主题创建。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
本站总访问量 | 本站总访客数