Articles of 硬盘

为什么当1失败时,所有驱动器都从RAID中脱落? LSI9260-8i / IBM M5014

我有一个有趣的问题,我希望你们都可以帮助我。 我有一个运行两个RAID10虚拟驱动器的IBM 5014(相当于LSI 9260-8i)。 首先是4个WD RE4,每个2TB,总共4TB的驱动器 – 我们称之为VD1。 另一个是4个WD RE4-GP,每个2TB,另一个4TB的总驱动器 – 我们称之为VD0。 在这种情况下,该卡运行在具有3个风扇的Norco机箱中(每个4个驱动器上各有1个,技嘉MB,16GB RAM和IBM卡上有1个),还有一个IBM5015在RAID10中运行4个256GB SSD )。 我使用一系列虚拟机使用ESXi5.5进行了虚拟化。 5014卡以直通模式运行到WHS2011主机,而5015卡则包含虚拟机本身。 VD0运行良好,没有问题。 这是我的主要文件存储。 但是,包含我所有video的VD1会周期性地丢弃一个驱动器,导致降级状态,然后几乎是瞬间(通常具有完全相同的时间戳,但偶尔会持续1秒的延迟),从而导致其余驱动器它要离线。 控制器本身一直运行良好近6个月,所以虽然它可能是控制器相关的,这感觉就像会造成两个虚拟驱动器的问题,而不只是其中之一。 我面临的挑战是,驱动器不会以相同的顺序一直退出(至less根据日志) – 所以我不知道哪个驱动器导致了问题。 我已经包含了下面日志的摘录。 正如你将会看到的那样,它会丢弃驱动器,然后重新添加驱动器。 任何关于如何解决哪个驱动器的build议都是非常受欢迎的 – 我不能相信他们都不好,我也不能相信MSM日志本身中包含的信息很less。 谢谢大家! 道格 ID = 248 SEQUENCE NUMBER = 382617 TIME = 07-07-2015 08:14:46 LOCALIZED MESSAGE = Controller ID: 0 Device removed Device Type: Disk Device […]

Linux服务器周期性地不能连接到自己(但所有其他的连接工作)

我今天将我们的服务器从Ubuntu 15.04升级到了Ubuntu 15.10。 升级进行顺利,重启后一切正常。 然而,启动后大约20分钟,服务器突然无法连接到自己的IP地址上的任何端口(http,ssh等) – 而只是自己的IP地址。 局域网中的其他计算机仍然可以正常连接到服务器,并且服务器可以连接到networking上的其他计算机。 然后又过了20分钟,本地IP地址似乎“醒来”,所以服务器可以在问题重复之前再次连接到自己的服务一段时间。 具体而言:192.168.0.0/24networking上的所有计算机(包括服务器本身)都可以连接到服务器IP地址为192.168.0.2的服务。 然后过了一段时间突然服务器本身不能; 它甚至不能ping通自己的IP地址,而乐于为其他人服务。 服务器还可以连接到外部服务器(如使用8.8.8.8的DNS),并且可以连接到局域网上的其他计算机。 这似乎只是一个IPv4问题。 我已经禁用了防火墙,将网卡更换为另一个品牌,并且从15.04开始使用内核,但问题依然存在。 重新启动NetworkManager也无济于事。 我怀疑在升级之后可能会强制实施一些限制,从而阻止192.168.0.2与192.168.0.2build立太多的连接(同时允许其他主机连接)。 但是,即使这是原因,我也不知道如何调整它。 这里发生了什么,如何解决这个问题?

如何使连接到KVM guest的共享磁盘上的数据保持最新?

我有2个KVM客人运行。 一位客人(我们称之为写客人)定期写入virtio hdd(这是一个逻辑卷)。 另一个访客(读客)从这个磁盘读取(它以只读模式挂载到读客户机上)来执行其他操作。 问题是当我在写作客人上更改一个文件时,它在阅读客人时保持不变。 只有在读取客户端上手动重新安装磁盘后,该文件才是最新的。 我试图将磁盘标记为可共享,但这并没有帮助。 我应该如何configuration磁盘使数据保持最新? 当然,我可以启用NFS,它将完成这项工作,但我只是想知道是否有办法做到没有NFS。 谢谢。

根卷/ dev / mapper / centos-root full

在我的一台主机上,我有/ dev / mapper / centos-root报告几乎已满(99%),这里是df -h的输出。 == [root@LA3QSSD02-20217 /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 50G 540M 99% / devtmpfs 63G 0 63G 0% /dev tmpfs 63G 64K 63G 1% /dev/shm tmpfs 63G 18M 63G 1% /run tmpfs 63G 0 63G 0% /sys/fs/cgroup /dev/sdy1 494M 210M 285M 43% /boot […]

Hardware_ECC_Recovered,Seek_Error_rate和Raw_read_error_rate对于磁盘有多糟?

当我在亚马逊买了一台像二手新的10TB磁盘作为备份时,我做了一个聪明的读取,显示磁盘几乎没有被使用。 智能信息很混乱,因为Western Digital Red更容易阅读智能磁盘信息。 这些错误可能会有多糟? *

由于内存不足导致尾随式故障,cPanel将核心转储归档服务器?

最近我的一台机器上的磁盘使用量一直在稳步攀升。 经调查,我发现了 /usr/local/cpanel/install 目录充满了来自cPanel的核心fump文件。 价值约106GB! 所有的文件似乎是由于“tailwatchd” > [/usr/local/cpanel/install]# file core.9049 core.9049: ELF 64-bit LSB core file AMD x86-64, version 1 (SYSV), SVR4-style, from 'tailwatchd' 所以我看着tailwatchd的日志文件,发现他们是由于内存问题… > [/usr/local/cpanel/install]# tail -n 10 /usr/local/cpanel/logs/tailwatchd_log Out of memory! Out of memory! Out of memory! Callback called exit, <GEN15> line 35842. END failed–call queue aborted at /usr/local/cpanel/bin/tailwatchd line 9, <GEN15> […]

了解磁盘队列长度

据我所知,磁盘队列理想情况下应低于系统内的磁盘总数。 这如何适用于RAIDarrays? RAID 0我认为是理想的队列=磁盘数量,RAID 10/1 =磁盘数量/ 2,那么RAID 5是多less?磁盘数量是多less? 当磁盘队列长度超过这个值的时候,究竟发生了什么,这是等待应用到磁盘的写入次数,为什么高于0的任何值都OK?

使用Linux / OpenSolaris进行无盘login

是否可以启用基于Linux或OpenSolaris的服务器来处理标准的unixlogin请求,而无需启动持有根分区的硬盘驱动器? 我有一个基于Nexenta的(1)服务器,它使用非常旧的40GB PATA驱动器作为根分区,它不能驻留在主存储arrays中(我也不希望它,尽pipe它备份到它)。 它执行得很好,因为所有主动访问存储的东西都使用SATA raid2zarrays。 这意味着根分区本身实际上是完全不活动的,40GB的磁盘通常是睡着了。 或者说, 几乎完全不活动。 login请求需要驱动器启动,导致恼人的login延迟和这个旧的驱动器,否则可能保持完全hibernate不必要的压力。 据我所知,驱动器只能读取passwd和shadow文件,而且我感到惊讶的是,这些文件在第一次被读取之后并没有被修改,所以不会保留在内存中。 是否有可能明确地保留它们caching,将它们重新放置在其他位置,否则阻止根分区不得不旋转起来? (2) 对于那些不熟悉的人来说,Nexenta是Ubuntu的一个变体,它使用OpenSolaris内核和工具链,同时尽可能地支持Debian工具链。 在大多数情况下,我可以使用两者的function。 请注意,当存储arrays不存在时,我不认为合适的解决scheme会导致login或启动失败。

我怎么能告诉便携式驱动器忽略Linux上的坏道?

我有一个USB硬盘,它是旧的。 这是fat32格式。 它太老了,部分是失败的。 当我告诉它从某些部分读取或写入时,我的控制台上出现IO错误(我正在使用Ubuntu 9.10)。 有一些我可以运行的程序,会扫描我的驱动器坏的部分,然后“删除”他们? 我愿意为此花费我几GB(这是一个160GB的驱动器)。 我关心的驱动器上没有任何东西,最近又重新格式化了。 目前它是格式化的fat32,但它只能插入linux机器,所以我愿意尝试ext3或其他一些Linux文件系统。 这个驱动器最近被重新格式化,同样的事情正在发生。 我知道真正的解决办法是换一个新的驱动器,一个是订货。 但是在新的几天里,我需要给某人一个硬盘,这个(部分损坏的)是唯一的备用。 如果我得到这个工作,那会很棒。 有什么办法可以重新格式化或重新分区这个驱动器,所以我至less有一些可用的驱动器空间?

如何根据当前数据来确定新的存储性能要求?

我最近问了很多关于这个问题的问题,我想我会放弃在这个丛林中跳动… 比方说,我有一个存储系统被用于具有不同I / O模式的各种应用程序。 我一直在收集系统的性能统计信息: 传输/秒 秒/ trasnfer 字节/传输 字节/秒 %闲 我已经计算出每个百分位数的第95百分位数,平均数和中位数。 我也知道我的平均读写比例是多less。 我知道如何计算给定磁盘,arrays和平均工作负载参数的新系统的潜在平均IOPS和吞吐量。 我正在努力把这一切放在一起。 目前观察到的统计数字受到现有体制难以跟上的限制。 因此,我可能知道我需要X IOPS,但是由于当前的磁盘瓶颈等原因,这个值可能会很低(我知道这是过度劳累,因为我看到磁盘使用量持续高速增长,而且传输时间非常长) 坦白说,我没有做任何硬核,我几乎可以买一些更快的磁盘,更好地configuration我的arrays,它会工作。 但是我想了解如何采取更正式的方法来certificate费用的合理性,而不是过度购买。