欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

一种简单的ID生成策略: Mysql表生成全局唯一ID的实现

程序员文章站 2022-04-06 23:05:21
生成全局id的方法很多, 这里记录下一种简单的方案: 利用mysql的自增id生成全局唯一id.1. 创建一张只需要两个字段的表:create table `guid` ( `id` bigint(2...

生成全局id的方法很多, 这里记录下一种简单的方案: 利用mysql的自增id生成全局唯一id.

1. 创建一张只需要两个字段的表:

create table `guid` (
 `id` bigint(20) unsigned not null auto_increment,
 `stub` char(1) not null default '' comment '桩字段,占坑的',
 primary key (`id`),
 unique key `uk_stub` (`stub`) -- 将 stub 设为唯一索引
) engine=myisam auto_increment=1000000000 default charset=utf8;

指定自增起始: alter table guid auto_increment=1000000000, 这样可以保证id为10位(涨到11位几乎不可能吧).

2. 定义 mybatis mapper:

@mapper
public interface guidmapper {


 /**获取全局唯一id
  * @return
  */
 // replace into afs_guid(stub) values('a');
 // select last_insert_id();
 @insert("replace into guid (stub) values('a')")
 @selectkey(statement = {"select last_insert_id()"}, keyproperty = "guidholder.id", before = false, resulttype = long.class)
 int getguid( @param("guidholder") guidholder guidholder);

 @data
 public static class guidholder{
  private long id;
  private string stub;
 }

3. 测试

 guidmapper.guidholder guidholder = new guidmapper.guidholder();
 int i = guidmapper.getguid(guidholder);
 long     guid   = guidholder.getid();
 // guid 就是返回的id

尾巴

并发安全问题

replace into 类似于 insert 是安全的. 不只是它会先判断主键或唯一键是否重复, 重复, 则删除原有的, 新增一条, 替换原来的.

select last_insert_id() 是和mysql连接绑定的, 当前连接上, 操作触发了auto_increment值改变, 得到新的数值, 这个数值, 只会被当前连接可见. 其他连接也只会拿到它改变auto_increment后的值.

以上两点保证了 并发安全 .

另外, 即使手动将id的值改小了, 下次 replace into 后依然会从上次自增的基础上继续自增. 因为手动修改id的值, 不会改变auto_increment的值.

补充知识:集群高并发情况下如何保证分布式唯一全局id生成

前言

系统唯一id是我们在设计一个系统的时候常常会遇见的问题,也常常为这个问题而纠结。

这篇文章就是给各位看官提供一个生成分布式唯一全局id生成方案的思路,希望能帮助到大家。

不足之处,请多多指教!!

问题

为什么需要分布式全局唯一id以及分布式id的业务需求

在复杂分布式系统中,往往需要对大量的数据和消息进行唯一标识,如在美团点评的金融、支付、餐饮、酒店

猫眼电影等产品的系统中数据逐渐增长,对数据库分库分表后需要有一个唯一id来标识一条数据或信息;

特别ian的订单、骑手、优惠券都需要有唯一id做标识

此时一个能够生成全局唯一id的系统是非常必要的

一种简单的ID生成策略: Mysql表生成全局唯一ID的实现

id生成规则部分硬性要求

全局唯一

趋势递增

在mysql的innodb引擎中使用的是聚集索引,由于多数rdbms使用btree的数据结构来存储索引,在主键的选择上面我们应该尽量使用有序的主键保证写入性能

单调递增

保证下一个id一定大于上一个id,例如事务版本号、im增量消息、排序等特殊需求

信息安全

如果id是连续,恶意用户的爬取工作就非常容易做了,直接按照顺序下载指定url即可,如果是订单号就危险了,竞争对手可以直接知道我们一天的单量,所以在一些应用场景下,需要id无规则不规则,让竞争对手不好猜

含时间戳

一样能够快速在开发中了解这个分布式id什么时候生成的

id号生成系统的可用性要求

高可用

发布一个获取分布式id请求,服务器就要保证99.999%的情况下给我创建一个唯一分布式id

低延迟

发一个获取分布式id的请求,服务器就要快,极速

高qps

例如并发一口气10万个创建分布式id请求同时杀过来,服务器要顶得住且一下子成功创建10万个分布式id

一般通用解决方案

uuid

uuid.randomuuid() , uuid的标准型包含32个16进制数字,以连字号分为五段,形式为 8-4-4-4-12的36个字符,性能非常高,本地生成,没有网络消耗。

存在问题

入数据库性能差,因为uuid是无序的

无序,无法预测他的生成顺序,不能生成递增有序的数字

首先分布式id一般都会作为逐渐,但是按照mysql官方推荐主键尽量越短越好,uuid每一个都很长,所以不是很推荐。

主键,id作为主键时,在特定的环境下会存在一些问题

比如做db主键的场景下,uuid就非常不适用mysql官方有明确的说明

索引,b+树索引的分裂

既然分布式id是主键,然后主键是包含索引的,而mysql的索引是通过b+树来实现的,每一次新的uuid数据的插入,为了查询的优化,都会对索引底层的b+树进行修改,因为uuid数据是无序的,所以每一次uuid数据的插入都会对主键的b+树进行很大的修改,这一点很不好,插入完全无序,不但会导致一些中间节点产生分裂,也会白白创造出很多不饱和的节点,这样大大降低了数据库插入的性能。

uuid只能保证全局唯一性,不满足后面的趋势递增,单调递增

数据库自增主键

单机

在分布式里面,数据库的自增id机制的主要原理是:数据库自增id和mysql数据库的replace into实现的,这里的replace into跟insert功能 类似,不同点在于:replace into首先尝试插入数据列表中,如果发现表中已经有此行数据(根据主键或唯一索引判断)则先删除,在插入,否则直接插入新数据。

replace into的含义是插入一条记录,如果表中唯一索引的值遇到冲突,则替换老数据

一种简单的ID生成策略: Mysql表生成全局唯一ID的实现

replace into t_test(stub) values('b');

select last_insert_id();

我们每次插入的时候,发现都会把原来的数据给替换,并且id也会增加

这就满足了

递增性

单调性

唯一性

在分布式情况下,并且并发量不多的情况,可以使用这种方案来解决,获得一个全局的唯一id

集群分布式集群

那数据库自增id机制适合做分布式id吗?答案是不太适合

系统水平扩展比较困难,比如定义好步长和机器台数之后,如果要添加机器该怎么办,假设现在有一台机器发号是:1,2,3,4,5,(步长是1),这个时候需要扩容机器一台,可以这样做:把第二胎机器的初始值设置得比第一台超过很多,貌似还好,但是假设线上如果有100台机器,这个时候扩容要怎么做,简直是噩梦,所以系统水平扩展方案复杂难以实现。

数据库压力还是很大,每次获取id都得读写一次数据库,非常影响性能,不符合分布式id里面的延迟低和高qps的规则(在高并发下,如果都去数据库里面获取id,那是非常影响性能的)

基于redis生成全局id策略

单机版

因为redis是单线程,天生保证原子性,可以使用原子操作incr和incrby来实现

incrby:设置增长步长

集群分布式

注意:在redis集群情况下,同样和mysql一样需要设置不同的增长步长,同时key一定要设置有效期,可以使用redis集群来获取更高的吞吐量。

假设一个集群中有5台redis,可以初始化每台redis的值分别是 1,2,3,4,5 , 然后设置步长都是5

各个redis生成的id为:

a:1 6 11 16 21

b:2 7 12 17 22

c:3 8 13 18 23

d:4 9 14 19 24

e:5 10 15 20 25

但是存在的问题是,就是redis集群的维护和保养比较麻烦,配置麻烦。因为要设置单点故障,哨兵值守

但是主要是的问题就是,为了一个id,却需要引入整个redis集群,有种杀鸡焉用牛刀的感觉

雪花算法

是什么

twitter的分布式自增id算法,snowflake

最初twitter把存储系统从mysql迁移到cassandra(由facebook开发一套开源分布式nosql数据库系统)因为cassandra没有顺序id生成机制,所有开发了这样一套全局唯一id生成服务。

twitter的分布式雪花算法snowflake,经测试snowflake每秒可以产生26万个自增可排序的id

twitter的snowflake生成id能够按照时间有序生成

snowflake算法生成id的结果是一个64bit大小的整数,为一个long型(转换成字符串后长度最多19)

分布式系统内不会产生id碰撞(由datacenter 和 workerid做区分)并且效率较高

分布式系统中,有一些需要全局唯一id的场景,生成id的基本要求

在分布式环境下,必须全局唯一性

一般都需要单调递增,因为一般唯一id都会存在数据库,而innodb的特性就是将内容存储在主键索引上的叶子节点,而且是从左往右递增的,所有考虑到数据库性能,一般生成id也最好是单调递增的。为了防止id冲突可以使用36位uuid,但是uuid有一些缺点,首先是它相对比较长,并且另外uuid一般是无序的

可能还会需要无规则,因为如果使用唯一id作为订单号这种,为了不让别人知道一天的订单量多少,就需要这种规则

结构

雪花算法的几个核心组成部分

一种简单的ID生成策略: Mysql表生成全局唯一ID的实现

在java中64bit的证书是long类型,所以在snowflake算法生成的id就是long类存储的

第一部分

二进制中最高位是符号位,1表示负数,0表示正数。生成的id一般都是用整数,所以最高位固定为0。

第二部分

第二部分是41bit时间戳位,用来记录时间戳,毫秒级

41位可以表示 2^41 -1 个数字

如果只用来表示正整数,可以表示的范围是: 0 - 2^41 -1,减1是因为可以表示的数值范围是从0开始计算的,而不是从1。

也就是说41位可以表示 2^41 - 1 毫秒的值,转换成单位年则是 69.73年

第三部分

第三部分为工作机器id,10bit用来记录工作机器id

可以部署在2^10 = 1024个节点,包括5位 datacenterid(数据中心,机房) 和 5位 workerid(机器码)

5位可以表示的最大正整数是 2 ^ 5 = 31个数字,来表示不同的数据中心 和 机器码

第四部分

12位bit可以用来表示的正整数是 2^12 = 4095,即可以用0 1 2 … 4094 来表示同一个机器同一个时间戳内产生的4095个id序号。

snowflake可以保证

所有生成的id按时间趋势递增

整个分布式系统内不会产生重复id,因为有datacenterid 和 workerid来做区分

实现

雪花算法是由scala算法编写的,有人使用java实现,github地址

/**
 * twitter的snowflake算法 -- java实现
 * 
 * @author beyond
 * @date 2016/11/26
 */
public class snowflake {

 /**
  * 起始的时间戳
  */
 private final static long start_stmp = 1480166465631l;

 /**
  * 每一部分占用的位数
  */
 private final static long sequence_bit = 12; //序列号占用的位数
 private final static long machine_bit = 5; //机器标识占用的位数
 private final static long datacenter_bit = 5;//数据中心占用的位数

 /**
  * 每一部分的最大值
  */
 private final static long max_datacenter_num = -1l ^ (-1l << datacenter_bit);
 private final static long max_machine_num = -1l ^ (-1l << machine_bit);
 private final static long max_sequence = -1l ^ (-1l << sequence_bit);

 /**
  * 每一部分向左的位移
  */
 private final static long machine_left = sequence_bit;
 private final static long datacenter_left = sequence_bit + machine_bit;
 private final static long timestmp_left = datacenter_left + datacenter_bit;

 private long datacenterid; //数据中心
 private long machineid;  //机器标识
 private long sequence = 0l; //序列号
 private long laststmp = -1l;//上一次时间戳

 public snowflake(long datacenterid, long machineid) {
  if (datacenterid > max_datacenter_num || datacenterid < 0) {
   throw new illegalargumentexception("datacenterid can't be greater than max_datacenter_num or less than 0");
  }
  if (machineid > max_machine_num || machineid < 0) {
   throw new illegalargumentexception("machineid can't be greater than max_machine_num or less than 0");
  }
  this.datacenterid = datacenterid;
  this.machineid = machineid;
 }

 /**
  * 产生下一个id
  *
  * @return
  */
 public synchronized long nextid() {
  long currstmp = getnewstmp();
  if (currstmp < laststmp) {
   throw new runtimeexception("clock moved backwards. refusing to generate id");
  }

  if (currstmp == laststmp) {
   //相同毫秒内,序列号自增
   sequence = (sequence + 1) & max_sequence;
   //同一毫秒的序列数已经达到最大
   if (sequence == 0l) {
    currstmp = getnextmill();
   }
  } else {
   //不同毫秒内,序列号置为0
   sequence = 0l;
  }

  laststmp = currstmp;

  return (currstmp - start_stmp) << timestmp_left //时间戳部分
    | datacenterid << datacenter_left  //数据中心部分
    | machineid << machine_left    //机器标识部分
    | sequence;        //序列号部分
 }

 private long getnextmill() {
  long mill = getnewstmp();
  while (mill <= laststmp) {
   mill = getnewstmp();
  }
  return mill;
 }

 private long getnewstmp() {
  return system.currenttimemillis();
 }

 public static void main(string[] args) {
  snowflake snowflake = new snowflake(2, 3);

  for (int i = 0; i < (1 << 12); i++) {
   system.out.println(snowflake.nextid());
  }

 }
}

工程落地经验

hutools工具包

地址:

springboot整合雪花算法

引入hutool工具类

<dependency>
 <groupid>cn.hutool</groupid>
 <artifactid>hutool-all</artifactid>
 <version>5.3.1</version>
</dependency>

整合

/**
 * 雪花算法
 *
 * @author: 陌溪
 * @create: 2020-04-18-11:08
 */
public class snowflakedemo {
 private long workerid = 0;
 private long datacenterid = 1;
 private snowflake snowflake = idutil.createsnowflake(workerid, datacenterid);

 @postconstruct
 public void init() {
  try {
   // 将网络ip转换成long
   workerid = netutil.ipv4tolong(netutil.getlocalhoststr());
  } catch (exception e) {
   e.printstacktrace();
  }
 }

 /**
  * 获取雪花id
  * @return
  */
 public synchronized long snowflakeid() {
  return this.snowflake.nextid();
 }

 public synchronized long snowflakeid(long workerid, long datacenterid) {
  snowflake snowflake = idutil.createsnowflake(workerid, datacenterid);
  return snowflake.nextid();
 }

 public static void main(string[] args) {
  snowflakedemo snowflakedemo = new snowflakedemo();
  for (int i = 0; i < 20; i++) {
   new thread(() -> {
    system.out.println(snowflakedemo.snowflakeid());
   }, string.valueof(i)).start();
  }
 }
}

得到结果

1251350711346790400
1251350711346790402
1251350711346790401
1251350711346790403
1251350711346790405
1251350711346790404
1251350711346790406
1251350711346790407
1251350711350984704
1251350711350984706
1251350711350984705
1251350711350984707
1251350711350984708
1251350711350984709
1251350711350984710
1251350711350984711
1251350711350984712
1251350711355179008
1251350711355179009
1251350711355179010

优缺点

优点

毫秒数在高维,自增序列在低位,整个id都是趋势递增的

不依赖数据库等第三方系统,以服务的方式部署,稳定性更高,生成id的性能也是非常高的

可以根据自身业务特性分配bit位,非常灵活

缺点

依赖机器时钟,如果机器时钟回拨,会导致重复id生成

在单机上是递增的,但由于涉及到分布式环境,每台机器上的时钟不可能完全同步,有时候会出现不是全局递增的情况,此缺点可以认为无所谓,一般分布式id只要求趋势递增,并不会严格要求递增,90%的需求只要求趋势递增。

其它补充

为了解决时钟回拨问题,导致id重复,后面有人专门提出了解决的方案

百度开源的分布式唯一id生成器 uidgenerator

leaf - 美团点评分布式id生成系统

以上这篇一种简单的id生成策略: mysql表生成全局唯一id的实现就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

相关标签: Mysql 全局ID