本文描述了块存储性能的重要指标、不同块存储类型的性能、性能测试方式和结果解读。
衡量指标
衡量块存储产品的性能指标主要包括:IOPS、吞吐量和访问时延。
IOPS是Input/Output Operations per Second,即每秒能处理的I/O个数,用于表示块存储处理读写(输出/输入)的能力。如果要部署事务密集型应用,典型场景比如数据库类业务应用,需要关注IOPS性能。
最普遍的IOPS性能指标是顺序操作和随机操作,如下表所示。
IOPS性能指标 | 描述 | |
---|---|---|
总 IOPS | 每秒执行的I/O操作总次数。 | |
随机读IOPS | 每秒执行的随机读I/O操作的平均次数 | 对硬盘存储位置的不连续访问。 |
随机写IOPS | 每秒执行的随机写I/O操作的平均次数 | |
顺序读IOPS | 每秒执行的顺序读I/O操作的平均次数 | 对硬盘存储位置的连续访问。 |
顺序写IOPS | 每秒执行的顺序写I/O操作的平均次数 |
吞吐量是指单位时间内可以成功传输的数据数量。
如果要部署大量顺序读写的应用,典型场景比如Hadoop离线计算型业务,需要关注吞吐量。
访问时延是指块存储处理一个I/O需要的时间。
如果您的应用对时延比较敏感,比如数据库(过高的时延会导致应用性能下降或报错),建议您使用ESSD云盘、SSD云盘、SSD共享块存储或本地SSD盘类产品。
如果您的应用更偏重存储吞吐能力,对时延相对不太敏感,比如Hadoop离线计算等吞吐密集型应用,建议您使用本地HDD盘类产品,如d1或d1ne大数据型实例。
性能
以下是不同块存储产品的性能对比表。
参数 | ESSD云盘 | SSD云盘 | 高效云盘 | 普通云盘 |
---|---|---|---|---|
单盘最大容量 | 32768 GiB | 32768 GiB | 32768 GiB | 2000 GiB |
最大IOPS | 1000000 | 25000* | 5000 | 数百 |
最大吞吐量 | 4000 MBps | 300 MBps* | 140 MBps | 30−40 MBps |
单盘性能计算公式** | IOPS = min{1200 + 100 * 容量, 1000000} | IOPS = min{1800 + 30 * 容量, 25000} | IOPS = min{1800 + 8 * 容量, 5000} | 无 |
吞吐量 = min{80 + 1 * 容量, 4000} MBps | 吞吐量 = min{120 + 0.5 * 容量, 300} MBps | 吞吐量 = min{100+ 0.15 * 容量, 140} MBps | 无 | |
数据可靠性 | 99.9999999% | 99.9999999% | 99.9999999% | 99.9999999% |
API名称 | cloud_essd | cloud_ssd | cloud_efficiency | cloud |
典型应用场景 |
|
|
|
|
* SSD云盘的性能因数据块大小而异,数据块越小,吞吐量越小,IOPS越高,如下表所示。只有挂载到I/O优化的实例时,SSD云盘才能获得期望的IOPS性能。挂载到非I/O优化的实例时,SSD云盘无法获得期望的IOPS性能。
数据块大小 | IOPS最大值 | 吞吐量 |
---|---|---|
4 KiB | 约25000 | 很小,远低于300 MBps |
16 KiB | 约17200 | 将近300 MBps |
32 KiB | 约9600 | |
64 KiB | 约4800 |
** 单盘性能计算公式说明:
- 以单块SSD云盘最大IOPS计算公式为例说明:起步1800 IOPS,每GiB增加30 IOPS,最高25000 IOPS。
- 以单块SSD云盘最大吞吐量计算公式为例说明:起步120 MBps,每GiB增加0.5 MBps,上限为 300 MBps的吞吐量。
不同云盘的单路随机写访问时延如下:
- ESSD云盘:0.1−0.2 ms
- SSD云盘:0.5−2 ms
- 高效云盘:1−3 ms
- 普通云盘:5−10 ms
2种共享块存储的性能对比如下表所示。
参数 | SSD共享块存储 | 高效共享块存储 |
---|---|---|
最大容量 |
|
|
最大随机读写IOPS* | 30000 | 5000 |
最大顺序读写吞吐量* | 512 MBps | 160 MBps |
单盘性能计算公式** | IOPS = min{1600 + 40 * 容量, 30000} | IOPS = min{1000 + 6 * 容量, 5000} |
吞吐量 = min{100 + 0.5 * 容量, 512} MBps | 吞吐量 = min{50 + 0.15 * 容量, 160} MBps | |
典型应用场景 |
|
|
* 最大IOPS和吞吐量是在2个或2个以上实例同时压测裸设备能达到的性能数值。
** 单盘性能计算公式说明:
- 以单块SSD共享块存储最大IOPS计算公式为例:起步1600 IOPS,每GiB增加40 IOPS,最高30000 IOPS。
- 以单块SSD共享块存储最大吞吐量计算公式为例:起步100 MBps,每GiB增加0.5 MBps,上限为512 MBps的吞吐量。
不同共享块存储的单路访问时延如下:
- SSD共享块存储:0.5−2 ms
- 高效共享块存储:1−3 ms
本地盘的性能信息,请参考 本地盘。
性能测试
根据ECS实例的操作系统不同,您可以使用不同的工具测试块存储性能:
- Linux实例:可以使用DD、fio或sysbench等工具测试块存储性能。
- Windows实例:可以使用fio、Iometer等工具测试块存储性能。
说明 | |
在不同操作系统环境中,不同工具测试出来的硬盘基准性能会有差异。本文中所描述的性能参数,均为Linux实例下采用fio工具的测试结果,以此作为块存储产品性能指标参考。 |
本文以Linux实例和fio为例,说明如何使用fio测试块存储性能。在进行测试前,请确保块存储设备已经4 KiB对齐。
警告 | |
测试裸盘可以获得真实的块存储盘性能,但直接测试裸盘会破坏文件系统结构,请在测试前提前做好数据备份。建议您只在新购无数据的ECS实例上使用工具测试块存储性能,避免造成数据丢失。 |
-
测试随机写IOPS,运行以下命令:
fio -direct=1 -iodepth=128 -rw=randwrite -ioengine=libaio -bs=4k -size=1G -numjobs=1 -runtime=1000 -group_reporting -filename=iotest -name=Rand_Write_Testing
-
测试随机读IOPS,运行以下命令:
fio -direct=1 -iodepth=128 -rw=randread -ioengine=libaio -bs=4k -size=1G -numjobs=1 -runtime=1000 -group_reporting -filename=iotest -name=Rand_Read_Testing
-
测试顺序写吞吐量,运行以下命令:
fio -direct=1 -iodepth=64 -rw=write -ioengine=libaio -bs=1024k -size=1G -numjobs=1 -runtime=1000 -group_reporting -filename=iotest -name=Write_PPS_Testing
-
测试顺序读吞吐量,运行以下命令:
fio -direct=1 -iodepth=64 -rw=read -ioengine=libaio -bs=1024k -size=1G -numjobs=1 -runtime=1000 -group_reporting -filename=iotest -name=Read_PPS_Testing
下表以测试随机写IOPS的命令为例,说明命令中各种参数的含义。
参数 | 说明 |
---|---|
-direct=1 | 表示测试时忽略I/O缓存,数据直写。 |
-iodepth=128 | 表示使用AIO时,同时发出I/O数的上限为128。 |
-rw=randwrite | 表示测试时的读写策略为随机写(random writes)。作其它测试时可以设置为:
|
-ioengine=libaio | 表示测试方式为libaio(Linux AIO,异步I/O)。应用程序使用I/O通常有两种方式:
|
-bs=4k | 表示单次I/O的块文件大小为4 KB。未指定该参数时的默认大小也是4 KB。 测试IOPS时,建议将 测试吞吐量时,建议将 |
-size=1G | 表示测试文件大小为1 GiB。 |
-numjobs=1 | 表示测试线程数为1。 |
-runtime=1000 | 表示测试时间为1000秒。如果未配置,则持续将前述-size 指定大小的文件,以每次-bs 值为分块大小写完。 |
-group_reporting | 表示测试结果里汇总每个进程的统计信息,而非以不同job汇总展示信息。 |
-filename=iotest | 指定测试文件的名称,比如iotest。测试裸盘可以获得真实的硬盘性能,但直接测试裸盘会破坏文件系统结构,请在测试前提前做好数据备份。 |
-name=Rand_Write_Testing | 表示测试任务名称为Rand_Write_Testing,可以随意设定。 |