Articles of drbd

起搏器集群问题 – 如果从主防火墙拔下网线,备用防火墙不会接pipe

我有一个与心脏起搏器群集有关的问题。 我在Active / Backup HA中使用了两个防火墙。 检测信号IP在专用networking上为10.0.0.1 (FW 1)和10.0.0.2 (FW 2)。 局域网上的stream量IP为131.107.2.2 (FW 1), 131.107.2.3 (FW 2),虚拟IP为131.107.2.101 。 广域网上的stream量IP为192.168.100.98 (FW 1), 192.168.100.99 (FW 2),虚拟IP为192.168.100.101 。 如果FW 1断电,则FW 2将按照预期进行接pipe,但是如果LANnetworking上的网线断开,则不会发生切换。 以下组件正在集群中使用: 起搏器 corosync DRBD contrackd 任何帮助是极大的赞赏。

httpd故障转移在DRBD + Hearbeat上不起作用

我需要关于在心跳drbd中运行httpd服务的帮助。 它工作正常,但在heartbeat haresources中添加httpd服务后,drbd故障转移停止工作。 我正在使用DRBD 8.4版本。 以下是我的心跳configuration: /etc/ha.d/ha.cf文件 debugfile / var / log / ha-debug logfile / var / log / ha-log logfacility local0 autojoin none keepalive 2 deadtime 30 warntime 10 initdead 60 udpport 694 mcast eth0 239.0.0.6 694 1 0 bcast eth1 auto_failback off HA-Pri节点HA仲 在/ etc /的haresources HA-Sec IPaddr :: 192.168.0.10/24/eth0 drbddisk :: […]

如何使DRBD节点脱离连接状态StandAlone(和WFConnection)?

我的Debian 8.9 DRBD 8.4.3设置已经进入了一个状态,两个节点不能再通过networking连接了。 他们应该复制单个资源r1 ,但是在drbdadm down r1; drbadm up r1之后drbdadm down r1; drbadm up r1 在两个节点上drbdadm down r1; drbadm up r1 ,它们的/proc/drbd描述的情况如下: 在第一个节点(连接状态是WFConnection或StandAlone ): 1: cs:WFConnection ro:Primary/Unknown ds:UpToDate/DUnknown C r—– ns:0 nr:0 dw:0 dr:912 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:20 在第二个节点上: 1: cs:StandAlone ro:Secondary/Unknown ds:UpToDate/DUnknown r—– ns:0 nr:0 dw:0 dr:0 al:0 […]

DRBD 9与存在的LVM(RHEL 6.9)没有资源定义

我正在尝试在configuration了LVM的RHEL 6.9上configurationDRBD 9 当我尝试做drbdadm create-md amss_drbd结果是没有资源定义 我有一个.res文件xxx_drbd.res与这个configuration在每个节点上 协议C; 设备/ dev / drbd1; disk / dev / mapper / vg-lv_oraData; 在xxx-prod-db1 {地址10.20.101.81:7788; 元磁盘内部; } on xxx-prod-db2 {address 10.20.101.82:7788; 元磁盘内部; }} / dev / mapper / diskname是一个存在的卷,我想复制两个节点上。 任何想法? 先谢谢你。 S.

如何从Xen虚拟机挂载drbd / gfs逻辑卷?

任何提示如何为主/主要做到这一点? 我有drbd和gfs运行正常,我可以看到DomU的逻辑卷,但不知道如何挂载它。 我应该在DomU上安装gfs并挂载? 谢谢 克里斯

DRBD设置问题

我对DRBD很新,请帮我解决下面的问题。 封闭了我的drbd.conf。 非常感谢 [root @ skonkwerks1〜]#drbdadm create -md all 打开(/ dev / hdb3)失败:没有这样的文件或目录 命令'drbdmeta / dev / drbd0 v08 / dev / hdb3内部创buildmd'以退出码20结束 用代码20退出drbdsetup [root @ skonkwerks1〜]#vi /etc/drbd.conf global {usage-count no; } 资源重新数据{ 协议C; 启动{wfc-timeout 0; degr-wfc-timeout 120; } 磁盘{on-io-error detach; }#或恐慌 #net {cram-hmac-alg“hdd1”; 共同秘密“testing”; } 同步者(率10M; } 在skonkwerks1 { 设备/ dev / drbd0; 磁盘/ […]

我应该如何备份这个大容量?

我在SLES 10.2服务器上有一个10TB的XFS文件系统。 我目前每天运行一次rsync ,将其与另一台服务器上基于磁盘的联机备份进行同步。 主卷相当繁忙,所以rsync平均只能以2MB /秒的速度运行。 但是,我可以scp文件并获得> 50MB /秒的相同的目的地。 这导致我相信,rsync负担过重, 决定转移什么 ,而不是实际转移 。 还有哪些其他方法可以实现这种types的合成完全备份? 以下观点的相对利弊是什么? 使用xfsdump ,通过ssh或类似的方式传送到xfsrestore上的xfsrestore 。 它能用这种方式进行增量吗? 一些使用drbd或类似的asynchronous块复制。 一些更好的使用rsync比如更宽松的比较标准。 我目前正在使用 rsync -aqAX –numeric-ids –delete-during –files-from=foo …

DRBD与主要作为基于TCP / IP的RAID1与笔记读/写?

在我的设置中,我有两台机器。 除了RAM数量之外,它们都具有几乎相同的设置。 在双方我想指定/dev/sdb1作为普通/dev/drbd0的底层设备。 据我了解(如果我错了,请纠正我)当我想要从两台机器上写入结果的/dev/drbd0 , primary-to-primary是要走的路。 然而,这里的performance并不是我最关心的。 重要的是,不需要额外的努力(如rsync)来保持同步。 现在,阅读文档,我很困惑,群集文件系统(如GFS)是否在该设备之上,或者必须(以某种方式?)在/dev/drbd0下分层。 有人可以阐明这一点吗? 我也想知道这种情况通常首选什么解决scheme。 注意:如果您可以推荐DRBD的替代品,请随时为其命名并提供指示。

在机架空间服务器上设置DRBD

有可能吗? 过去几天我一直在努力无济于事。 我看到的每一个地方都说,这两台机器必须有一个完全相同大小的分区,而且不能在机架上分区(根据他们的技术支持)硬盘驱动器。 如果可能的话,最好的安装/configuration方法是什么? 再次,我GOOGLE了这个,并花了很长时间试图让这个工作,所以任何答案将不胜感激。 虚拟机我试图得到这个工作都运行Ubuntu 10.04(清醒)

分裂大脑恢复文件系统未安装后

我有一个主动/被动高可用性集群与心脏起搏器+裂脑。 裂脑状态后,我使用自动裂脑恢复来恢复我的系统。 问题是,由于文件系统资源是由CRMpipe理的,所以在拆分脑部恢复之后不会挂载。 裂脑恢复后没有任何安装! 似乎我应该使用stonith设备,但是我的老板要求我解决它,没有任何额外的设备! 我该如何通知心脏起搏器的分裂情况,以便重新安装文件系统资源? 编辑:我的CRMconfiguration node drbd3 node drbd4 primitive apache ocf:heartbeat:apache \ params configfile="/etc/apache2/apache2.conf" httpd="/usr/sbin/apache2" \ op monitor interval="5s" primitive drbd_disk ocf:linbit:drbd \ params drbd_resource="r0" \ op monitor interval="15s" primitive fs_drbd ocf:heartbeat:Filesystem \ params device="/dev/drbd/by-res/r0" directory="/mnt" fstype="ext4" primitive ip1 ocf:heartbeat:IPaddr2 \ params ip="10.8.0.95" nic="eth0" group group1 ip1 apache ms ms_drbd drbd_disk \ […]