RAID 10 + LVM布局

我有一个30x 6TB磁盘和硬盘RAID控制器的磁盘架。 我打算把这些设置为RAID 10,给我90TB的可用空间,用于写入繁重的工作负载。

RAID 10的最小磁盘数量是4,而每增加一对磁盘仍然会增加IOPS,实际增益会降低。 我发现一个(非官方的)最佳值是每个RAID 10卷大概有6到8个磁盘(用7.2k SATA驱动器可以提供大约225-400个IOPS)。

网上的大多数例子都考虑了4磁盘设置。 我发现(只)一个资源暗示build立多个小RAID10卷,并连接( :条纹)使用LVM的。

什么会更好(即技术上合理)的设置:

  • 由LVM连接的5x 6磁盘RAID10
  • 1个30磁盘RAID10(如果控制器支持)
  • 我失踪的任何替代解决scheme

select一个RAID策略真的取决于你的工作量。 如果你有一个类似数据库的地方,IOP比带宽更受关注,那么你会select一个IOP优先的RAID策略。

在某些情况下,读取性能(对于类似于存储存档的东西)比写入性能更重要,因此成为优先级。

通常,写入性能越高,分配写入的磁盘+条带越多。 通常select更高的RAID级别(RAID 6)作为条带缓解的可靠性权衡(RAID-60),试图获得一些写入性能,但这是一个非常广泛的概括。

在你的情况下,我将从4磁盘RAID-10作为基准开始testing。 接下来添加LVM图层,并对其进行testing。 撞上主轴,testing,然后尝试RAID-60,testing它等等。您select的控制器卡也会影响性能,因为它们并非完全相同。 Bonnie ++是testing读/写性能的好工具。