欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

MySQL 日志系统之 redo log 和 binlog

程序员文章站 2023-02-02 09:09:12
之前我们了解了一条查询语句的执行流程,并介绍了执行过程中涉及的处理模块。一条查询语句的执行过程一般是经过连接器、分析器、优化器、执行器等功能模块,最后到达存储引擎。 那么,一条 SQL 更新语句的执行流程又是怎样的呢? 首先我们创建一个表 user_info,主键为 id,创建语句如下: CREAT ......

之前我们了解了一条查询语句的执行流程,并介绍了执行过程中涉及的处理模块。一条查询语句的执行过程一般是经过连接器、分析器、优化器、执行器等功能模块,最后到达存储引擎。

那么,一条 sql 更新语句的执行流程又是怎样的呢?

首先我们创建一个表 user_info,主键为 id,创建语句如下:

create table `t` (
  `id` int(11) not null,
  `c` int(11) default null,
  primary key (`id`)
) engine=innodb default charset=utf8mb4;

插入一条数据:

insert into t values ('2', '1');

如果要将 id=2 这一行的 c 的值加 1,sql 语句为:

update t set c = c + 1 where id = 2;

前面介绍过 sql 语句基本的执行链路,这里把那张图拿过来。因为,更新语句同样会走一遍查询语句走的流程。

MySQL 日志系统之 redo log 和 binlog

  1. 通过连接器,客户端与 mysql 建立连接
  2. update 语句会把 t 表上的所有查询缓存结果清空
  3. 分析器会通过词法分析和语法分析识别这是一条更新语句
  4. 优化器会决定使用 id 这个索引(聚簇索引)
  5. 执行器负责具体执行,找到匹配的一行,然后更新
  6. 更新过程中还会涉及 redo log(重做日志)和 binlog(归档日志)的操作

其中,这两种日志默认在数据库的 data 目录下,redo log 是 ib_logfile0 格式的,binlog 是 xxx-bin.000001 格式的。

接下来让我们分别去研究下日志模块中的 redo log 和 binlog。

日志模块:redo log

在 mysql 中,如果每一次的更新操作都需要写进磁盘,然后磁盘也要找到对应的那条记录,然后再更新,整个过程 io 成本、查找成本都很高。为了解决这个问题,mysql 的设计者就采用了日志(redo log)来提升更新效率。

而日志和磁盘配合的整个过程,其实就是 mysql 里的 wal 技术,wal 的全称是 write-ahead logging,它的关键点就是先写日志,再写磁盘。

具体来说,当有一条记录需要更新的时候,innodb 引擎就会先把记录写到 redo log(redolog buffer)里面,并更新内存(buffer pool),这个时候更新就算完成了。同时,innodb 引擎会在适当的时候(如系统空闲时),将这个操作记录更新到磁盘里面(刷脏页)。

redo log 是 innodb 存储引擎层的日志,又称重做日志文件,redo log 是循环写的,redo log 不是记录数据页更新之后的状态,而是记录这个页做了什么改动。

redo log 是固定大小的,比如可以配置为一组 4 个文件,每个文件的大小是 1gb,那么日志总共就可以记录 4gb 的操作。从头开始写,写到末尾就又回到开头循环写,如下图所示。

MySQL 日志系统之 redo log 和 binlog

图中展示了一组 4 个文件的 redo log 日志,checkpoint 是当前要擦除的位置,擦除记录前需要先把对应的数据落盘(更新内存页,等待刷脏页)。write pos 到 checkpoint 之间的部分可以用来记录新的操作,如果 write pos 和 checkpoint 相遇,说明 redolog 已满,这个时候数据库停止进行数据库更新语句的执行,转而进行 redo log 日志同步到磁盘中。checkpoint 到 write pos 之间的部分等待落盘(先更新内存页,然后等待刷脏页)。

有了 redo log 日志,那么在数据库进行异常重启的时候,可以根据 redo log 日志进行恢复,也就达到了 crash-safe。

redo log 用于保证 crash-safe 能力。innodb_flush_log_at_trx_commit 这个参数设置成 1 的时候,表示每次事务的 redo log 都直接持久化到磁盘。这个参数建议设置成 1,这样可以保证 mysql 异常重启之后数据不丢失。

日志模块:binlog

mysql 整体来看,其实就有两块:一块是 server 层,它主要做的是 mysql 功能层面的事情;还有一块是引擎层,负责存储相关的具体事宜。redo log 是 innodb 引擎特有的日志,而 server 层也有自己的日志,称为 binlog(归档日志)。

binlog 属于逻辑日志,是以二进制的形式记录的是这个语句的原始逻辑,依靠 binlog 是没有 crash-safe 能力的。

binlog 有两种模式,statement 格式的话是记 sql 语句,row 格式会记录行的内容,记两条,更新前和更新后都有。

sync_binlog 这个参数设置成 1 的时候,表示每次事务的 binlog 都持久化到磁盘。这个参数也建议设置成 1,这样可以保证 mysql 异常重启之后 binlog 不丢失。

为什么会有两份日志呢?

因为最开始 mysql 里并没有 innodb 引擎。mysql 自带的引擎是 myisam,但是 myisam 没有 crash-safe 的能力,binlog 日志只能用于归档。而 innodb 是另一个公司以插件形式引入 mysql 的,既然只依靠 binlog 是没有 crash-safe 能力的,所以 innodb 使用另外一套日志系统——也就是 redo log 来实现 crash-safe 能力。

redo log 和 binlog 区别:

  1. redo log 是 innodb 引擎特有的;binlog 是 mysql 的 server 层实现的,所有引擎都可以使用。
  2. redo log 是物理日志,记录的是在某个数据页上做了什么修改;binlog 是逻辑日志,记录的是这个语句的原始逻辑。
  3. redo log 是循环写的,空间固定会用完;binlog 是可以追加写入的。追加写是指 binlog 文件写到一定大小后会切换到下一个,并不会覆盖以前的日志。

有了对这两个日志的概念性理解后,再来看执行器和 innodb 引擎在执行这个 update 语句时的内部流程。

  1. 执行器先找引擎取 id=2 这一行。id 是主键,引擎直接用树搜索找到这一行。如果 id=2 这一行所在的数据页本来就在内存中,就直接返回给执行器;否则,需要先从磁盘读入内存,然后再返回。
  2. 执行器拿到引擎给的行数据,把这个值加上 1,比如原来是 n,现在就是 n+1,得到新的一行数据,再调用引擎接口写入这行新数据。
  3. 引擎将这行新数据更新到内存(innodb buffer pool)中,同时将这个更新操作记录到 redo log 里面,此时 redo log 处于 prepare 状态。然后告知执行器执行完成了,随时可以提交事务。
  4. 执行器生成这个操作的 binlog,并把 binlog 写入磁盘。
  5. 执行器调用引擎的提交事务接口,引擎把刚刚写入的 redo log 改成提交(commit)状态,更新完成。

下图为 update 语句的执行流程图,图中灰色框表示是在 innodb 内部执行的,绿色框表示是在执行器中执行的。

MySQL 日志系统之 redo log 和 binlog

其中将 redo log 的写入拆成了两个步骤:prepare 和 commit,这就是两阶段提交(2pc)。

两阶段提交(2pc)

mysql 使用两阶段提交主要解决 binlog 和 redo log 的数据一致性的问题。

redo log 和 binlog 都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致。下图为 mysql 二阶段提交简图:

MySQL 日志系统之 redo log 和 binlog

两阶段提交原理描述:

  1. innodb redo log 写盘,innodb 事务进入 prepare 状态。
  2. 如果前面 prepare 成功,binlog 写盘,那么再继续将事务日志持久化到 binlog,如果持久化成功,那么 innodb 事务则进入 commit 状态(在 redo log 里面写一个 commit 记录)

备注: 每个事务 binlog 的末尾,会记录一个 xid event,标志着事务是否提交成功,也就是说,recovery 过程中,binlog 最后一个 xid event 之后的内容都应该被 purge。

日志相关问题

怎么进行数据恢复?

binlog 会记录所有的逻辑操作,并且是采用追加写的形式。当需要恢复到指定的某一秒时,比如今天下午二点发现中午十二点有一次误删表,需要找回数据,那你可以这么做:

  • 首先,找到最近的一次全量备份,从这个备份恢复到临时库
  • 然后,从备份的时间点开始,将备份的 binlog 依次取出来,重放到中午误删表之前的那个时刻。

这样你的临时库就跟误删之前的线上库一样了,然后你可以把表数据从临时库取出来,按需要恢复到线上库去。

redo log 和 binlog 是怎么关联起来的?

redo log 和 binlog 有一个共同的数据字段,叫 xid。崩溃恢复的时候,会按顺序扫描 redo log:

  • 如果碰到既有 prepare、又有 commit 的 redo log,就直接提交;
  • 如果碰到只有 parepare、而没有 commit 的 redo log,就拿着 xid 去 binlog 找对应的事务。

mysql 怎么知道 binlog 是完整的?

一个事务的 binlog 是有完整格式的:

  • statement 格式的 binlog,最后会有 commit
  • row 格式的 binlog,最后会有一个 xid event

在 mysql 5.6.2 版本以后,还引入了 binlog-checksum 参数,用来验证 binlog 内容的正确性。对于 binlog 日志由于磁盘原因,可能会在日志中间出错的情况,mysql 可以通过校验 checksum 的结果来发现。所以,mysql 是有办法验证事务 binlog 的完整性的。

redo log 一般设置多大?

redo log 太小的话,会导致很快就被写满,然后不得不强行刷 redo log,这样 wal 机制的能力就发挥不出来了。

如果是几个 tb 的磁盘的话,直接将 redo log 设置为 4 个文件,每个文件 1gb。

数据写入后的最终落盘,是从 redo log 更新过来的还是从 buffer pool 更新过来的呢?

实际上,redo log 并没有记录数据页的完整数据,所以它并没有能力自己去更新磁盘数据页,也就不存在由 redo log 更新过去数据最终落盘的情况。

  1. 数据页被修改以后,跟磁盘的数据页不一致,称为脏页。最终数据落盘,就是把内存中的数据页写盘。这个过程与 redo log 毫无关系。
  2. 在崩溃恢复场景中,innodb 如果判断到一个数据页可能在崩溃恢复的时候丢失了更新,就会将它读到内存,然后让 redo log 更新内存内容。更新完成后,内存页变成脏页,就回到了第一种情况的状态。

redo log buffer 是什么?是先修改内存,还是先写 redo log 文件?

在一个事务的更新过程中,日志是要写多次的。比如下面这个事务:

begin;
insert into t1 values ('1', '1');
insert into t2 values ('1', '1');
commit;

这个事务要往两个表中插入记录,插入数据的过程中,生成的日志都得先保存起来,但又不能在还没 commit 的时候就直接写到 redo log 文件里。

因此就需要 redo log buffer 出场了,它就是一块内存,用来先存 redo 日志的。也就是说,在执行第一个 insert 的时候,数据的内存被修改了,redo log buffer 也写入了日志。

但是,真正把日志写到 redo log 文件,是在执行 commit 语句的时候做的。

以下是我截取的部分 redo log buffer 的源代码:

/** redo log buffer */
struct log_t{
    char        pad1[cache_line_size];
    lsn_t       lsn;        
    ulint       buf_free;   // buffer 内剩余空间的起始点的 offset
#ifndef univ_hotbackup
    char        pad2[cache_line_size];
    logsysmutex mutex;      
    logsysmutex write_mutex;    
    char        pad3[cache_line_size];
    flushordermutex log_flush_order_mutex;
#endif /* !univ_hotbackup */
    byte*       buf_ptr;    // 隐性的 buffer
    byte*       buf;        // 真正操作的 buffer
    bool        first_in_use;   
    ulint       buf_size;   // buffer大小
    bool        check_flush_or_checkpoint;
    ut_list_base_node_t(log_group_t) log_groups;

#ifndef univ_hotbackup
    /** the fields involved in the log buffer flush @{ */
    ulint       buf_next_to_write;
    volatile bool   is_extending;   
    lsn_t       write_lsn;  /*!< last written lsn */
    lsn_t       current_flush_lsn;
    lsn_t       flushed_to_disk_lsn;
    ulint       n_pending_flushes;
    os_event_t  flush_event;    
    ulint       n_log_ios;  
    ulint       n_log_ios_old;  
    time_t      last_printout_time;

    /** fields involved in checkpoints @{ */
    lsn_t       log_group_capacity; 
    lsn_t       max_modified_age_async;
    lsn_t       max_modified_age_sync;
    lsn_t       max_checkpoint_age_async;
    lsn_t       max_checkpoint_age;
    ib_uint64_t next_checkpoint_no;
    lsn_t       last_checkpoint_lsn;
    lsn_t       next_checkpoint_lsn;
    mtr_buf_t*  append_on_checkpoint;
    ulint       n_pending_checkpoint_writes;
    rw_lock_t   checkpoint_lock;
#endif /* !univ_hotbackup */
    byte*       checkpoint_buf_ptr;
    byte*       checkpoint_buf; 
    /* @} */
};

redo log buffer 本质上只是一个 byte 数组,但是为了维护这个 buffer 还需要设置很多其他的 meta data,这些 meta data 全部封装在 log_t 结构体中。

总结

这篇文章主要介绍了 mysql 里面最重要的两个日志,即物理日志 redo log(重做日志)和逻辑日志 binlog(归档日志),还讲解了有与日志相关的一些问题。

另外还介绍了与 mysql 日志系统密切相关的两阶段提交(2pc),两阶段提交是解决分布式系统的一致性问题常用的一个方案,类似的还有 三阶段提交(3pc) 和 paxos 算法。