欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

大数据小视角5:探究SSD写放大的成因与解决思路

程序员文章站 2023-11-09 08:08:16
笔者目前开发运维的存储系统的服务器都跑在SSD之上,目前单机服务器最大的SSD容量有4T之多。( 公司好有钱,以前在实验室都只有机械硬盘用的~~ )但SSD本身的特性与机械硬盘差距较大,虽然说在性能上有诸多优势,但是如果使用的方式方法不对,反而会事倍功半。所以笔者花时间调研了一下固态硬盘的结构与特性 ......

笔者目前开发运维的存储系统的服务器都跑在ssd之上,目前单机服务器最大的ssd容量有4t之多。(公司好有钱,以前在实验室都只有机械硬盘用的~~)但ssd本身的特性与机械硬盘差距较大,虽然说在性能上有诸多优势,但是如果使用的方式方法不对,反而会事倍功半。所以笔者花时间调研了一下固态硬盘的结构与特性,并且总结了一些避免ssd写放大性能下降的法则,希望对大家有所帮助~~

1.ssd的写放大

首先我们来看看什么是写放大,写放大(write amplification)是2008年,由英特尔和siliconsystems在论文之中首次提出:它表现为在ssd上实际写入的数据远远大于用户写入数据。

为什么会产生这样的现象呢,我们要回归到固态硬盘原本的特性。首先固态硬盘与传统的机械硬盘不同的点在于它不能够覆盖写。所以对于已经存在数据ssd来说,一次数据的写入分为2个动作:

  • 1、擦除ssd上已有的数据。
  • 2、写入新的数据。

写入放大的问题就出了这个部分,因为ssd每次写入的最小单位为page,每个page是4kb大小,而每次擦除的大小单位为blockblock通常由64或128个page组成。也就是说,正是由于ssd写入与擦除的单位大小不匹配,导致了写入放大。如果仅仅是写入单一page的数据,而单个block之中没有了空余的page,则需要擦除一个block的数据,之后再写入一个block的数据。所以说,本身只需要4kb的写入,"放大"了64倍甚至是128倍!由于ssd的寿命取决于擦除次数,所以写入放大会大大影响到ssd的使用寿命大数据小视角5:探究SSD写放大的成因与解决思路

ok,了解了写入放大的现象之后,我们接下来怎么样会导致写入放大的现象呢?

  • 写入量

这点应该很好理解,由上面的阐述可以看到,如果每次对ssd的写入都是很小的量,就会产生典型的写入放大。

  • 剩余容量

通常我们使用的ssd都存在预留空间(op)来用于给ssd的主控芯片来进行一些优化操作。其中预留空间最为核心的两项工作就是垃圾回收损耗均衡,在这里笔者简要介绍一下垃圾回收和损耗均衡。

垃圾回收

ssd中主流的垃圾回收算法与java之中的标记清除的垃圾回收算法类似:
大数据小视角5:探究SSD写放大的成因与解决思路
如上图所示,ssd首先在block x之中写入a-d的page页,之后继续写入到h,并且更新了a'-d',所以原先的a-d的page页成为了需要回收的垃圾。所以主控芯片会将可用数据移动到旁边的有空闲的block y,同时完整的擦除block x。当剩余容量越小,垃圾回收越频发,则ssd的写入放大就越为严重。就是为什么许多手机在刚刚买来之后丝滑如顺,但是之后就越用越卡,这是因为容量越来越小了,ssd需要背锅!!(这也是笔者的64g的小米5剩余容量只有4个g了,日常使用卡如狗的部分原因~~)需要频繁进行垃圾回收的场景会导致写入放大的问题更为严重。

损耗均衡

我们知道,ssd的使用寿命等同于block的擦写次数,目前主流使用的mlc颗粒的编程/擦写次数一般在3000 ~ 5000次左右。如果反复地编程和擦写某个block,该block则会先于其他blcok损坏,导致坏块大量出现。正是因为这样的原因,ssd的主控芯片会尽可能的让每个block的擦写次数均匀。所以损耗均衡的操作需要移动并没有新数据写入的block,这样同样也会导致写放大的上升。

2.写放大问题的一些解决思路

了解了ssd的写放大的成因之后,我们可以『对症下药』的尝试给出一些方案来减小写放大问题来对我们线上服务的影响。

  • 批量写
    这几乎是解决磁盘io问题的通用解决方案,同样适合于传统的机械硬盘与ssd。尽量在代码逻辑之中减少随机写的次数,来避免由少量写操作引发的写放大问题,同时可以考虑通过块对齐的方式来进一步减少写入产生的写放大问题。当然这里所谓块对齐的思路在是与程序运行环境紧耦合的,程序的可移植性会大打折扣

  • 预留空间,容量告警
    这也是我们运维线上机器常用的思路,对于ssd的使用量要有一个阀值,超过我们的预设容量时,线上的程序需要给运维和开发人员告警。

  • 写压缩
    写压缩是依赖ssd的主控芯片的,部分ssd主控芯片支持写压缩。也就说接受到操作系统发送要写入20m数据,主控芯片可以通过一些流压缩或块压缩的算法压缩数据,在读取数据时,再重新进行解压。这种方式强依赖硬件,并且新的瓶颈可能会是主控芯片的压缩,解压的速度。

  • trim命令
    trim是操作系统层级的命令。操作系统利用trim命令来标记ssd上某个page的数据可以回收。一旦某个page被ssd标记为可以回收,在ssd空闲的时候ssd的主控芯片会将这些被标记的page数据收集到同一个block,然后共同擦除。这样每次需要写数据时,就在已经有足够空闲的page可以写入新的数据。

上述几个思路都是在实践中可以采取的措施,其实trim命令需要通过linux设置开启,这里笔者在这里介绍一下如何在linux下开启trim命令:

  1. 确认linux的内核是否大于 2.6.28,笔者这里是4.9.0的内核。
    大数据小视角5:探究SSD写放大的成因与解决思路
    2.调用hdparm -i /dev/sda1 命令确认ssd设备是否支持trim。
    大数据小视角5:探究SSD写放大的成因与解决思路
    3.修改/etc/fstab文件,在挂载选项之中添加discard,重启之后就开启了trim
    大数据小视角5:探究SSD写放大的成因与解决思路

3.小结

到此为止,笔者聊了聊ssd写放大的成因,并且针对ssd写放大的成因,提出了一些解决的思路和方法,希望大家能有所收获,在生产环境之中能够更好的『调教好』ssd~~~