如何诊断存储系统扩展问题?

目前,我们正在testing连接到运行带有128 GB内存的RHEL 5的HP DL580 G7的存储系统的最大连续读取吞吐量(总共两个HP P2000arrays后面的48个磁盘)。

初始testing主要通过运行DD命令来完成,如下所示:

dd if = / dev / mapper / mpath1 of = / dev / null bs = 1M count = 3000

每个磁盘并行。

但是,我们无法将一个arrays(最大吞吐量为1.3 GB / s)的结果扩展到两个(几乎相同的总吞吐量)。 每个arrays连接到一个专用的FC主机胸围适配器,所以他们不应该是瓶颈。 这些磁盘当前处于JBODconfiguration中,因此每个磁盘都可以直接寻址。

我有两个问题:

  1. 并行运行多个DD命令真的是testing最大读取吞吐量的好方法吗?

  2. 我们如何着手试图找出扩展问题的原因? 你这个服务器本身就是这里的瓶颈,还是会有一些我们忽略的linux参数呢?

我build议尝试像bonnie ++或iozone这样的专用基准testing工具(都可以通过RPMForge的yum获得)来获得存储系统function的准确表示。 Iozone将允许您指定线程数,块大小和读/写模式。 IOP在你的用例中不重要吗?

你怎么连接到这个单位? FC? SAS? 你能描述你的RAIDconfiguration吗? 您没有指定确切的P2000型号或一代(我假设每个机箱的G2或G3 24SFF与12LFF磁盘相比),但是在24SFF单元中存在一定程度的超额订购,所以我期望您的顺序读取速度是有限的由此。

MSA2324 G3 LFF的HP QuickSpecs显示4Gb FC RAID 1 + 0的读取速度为1.6GB / s。 这对于RAID 5和RAID 6是一样的,所以控制器/接口似乎是限制因素。