Articles of 集群

RedHat 6群集故障转移

我正在testing这里logging的RedHat群集pipe理工具: https : //access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Cluster_Administration/index.html 我有两台运行CentOS 6.4的虚拟机。 我一直在testing故障转移场景; 重新启动主机,并正常closures主机成功将资源迁移到辅助机器(如DRBD,Tomcat,MySQL,Apache)。 但是,我想模拟一个完整的电源故障,或强制关机。 在XenCenter客户端中,我强制closures主要计算机,并在辅助计算机上观察日志。 简而言之,资源似乎永远不会迁移到次要的地方,而集群pipe理界面似乎认为服务仍在主要运行。 以下是辅助机器日志的输出: http : //pastebin.com/gsi6uBct 它主要是抱怨击剑。 但我不明白:如果主节点完全死亡,没有什么可以篱笆的。 想法?

在Beowulf集群中的节点之间共享信息

我正在build立一个beowulf集群,我一直在阅读,可能有必要使集群用户的主目录(假设这个用户在每台机器上都是本地的)共享。 另一种情况是让每个用户拥有自己的家庭,并且通信到达主节点。 另一个想法是在集群中的每台机器上都使用一个LDAP唯一的用户login,这就保留了节点之间共享的家(但是只有一个用户的一个家)。 哪种方法更适合这种types的集群? 编辑:集群运行openmpi,它将支持cuda和opencl

在HAProxy集群中部署更改的最佳方法

我有一个带有Keepalived的双节点HAProxy集群来提供高可用性和冗余。 现在我试图找出在HAProxy的configuration中进行更改的最佳方式。 两个群集之间的rsync足够了吗? (也有一个命令来重新加载从站上的configuration)。 有没有更好的办法? 谢谢!

如何防止负载平衡器失败?

不好意思,如果这个问题有点模棱两可,但这是我第一次设置一个负载均衡器,我有点担心。 我想创build一个Glassfish集群,目前我正在关注这个链接: http : //javadude.wordpress.com/2011/04/25/glassfish-3-1-clustering-tutorial/ 在上面的教程中,其中一个节点也作为负载平衡器(DAS – 域pipe理服务器)运行。 在我的情况下,我打算build立3个节点,其中一个充当另外两个负载平衡器。 一切都很清楚,但任何人都可以给我一个想法,如果作为负载平衡器的节点失败,该怎么办? 任何信息将不胜感激。

连接到Apache Zookeeper的Apache Kafka客户端客户端:EndOfStreamException

尝试使用独立的Zookeer(3.4.5)从Kafka(2.9.2-0.8.1)“消费”消息时出现错误。 您可以看到下面的源代码以及来自Zookeeper的错误消息和日志文件。 我不确定Java库是否不兼容,因为我通过Maven添加了依赖关系kafka_0.9.2(0.8.1),它自动解决了zkclient(0.3)和zookeeper(3.3.4)的依赖关系。 消费者源代码: import java.util.Properties; import kafka.consumer.Consumer; import kafka.consumer.ConsumerConfig; import kafka.javaapi.consumer.ConsumerConnector; public class ConsumerTest { public static void main(String[] args) { try { Properties props = new Properties(); props.put("zookeeper.connect", "192.168.0.1:2181/kafka"); props.put("group.id", "my-consumer"); props.put("zookeeper.session.timeout.ms", "400"); props.put("zookeeper.sync.time.ms", "200"); props.put("auto.commit.interval.ms", "1000"); ConsumerConfig config = new ConsumerConfig(props); @SuppressWarnings("unused") ConsumerConnector consumer = Consumer.createJavaConsumerConnector(config); } catch(Exception e) { System.out.println(e.getMessage()); e.printStackTrace(); […]

具有部分同步提交的PostgreSQLasynchronous集群

我们正在计划一个具有3个节点的完全同步PG集群,但是我们问自己是否有可能具有部分同步提交的asynchronous集群。 通常情况下,您的集群完全同步,您可以通过设置“SET LOCAL synchronous_commit TO OFF”来指示单个事务是asynchronous的。 有没有其他的方式呢?

奴隶获得连接与hdfs超时

我有3个节点实例 – master, slave1 and slave2 这些节点之间的SSH连接工作正常。 当我说./sbin/start-dfs.sh时,这是在每个节点上启动的进程 主: SecondaryNameNode Jps NameNode DataNode SLAVE1: Jps DataNode SLAVE2: Jps DataNode 但是当我试图从奴隶节点访问hdfs,我得到一个connection timed out 。 另外,当我检查hdfs dfsadmin -report ,我只看到一个datanode(在master的localhost上)作为hdfs的一部分。 Datanodes available: 1 (1 total, 0 dead) Live datanodes: Name: 127.0.0.1:50010 (localhost) Hostname: master Decommission Status : Normal Configured Capacity: 8309932032 (7.74 GB) DFS Used: 24576 (24 KB) […]

iptable CLUSTERIP不起作用

我们有一些要求在这里解释。 我们尽力满足他们没有任何成功的描述。 这里是简要的信息: 这里有要求: 高可用性 负载均衡 当前configuration: 服务器#1:每个10.17.243.11服务器#2的一个静态(实际)IP:每个10.17.243.12群集(虚拟和所有服务器之间共享)的一个静态(真实)IP:10.17.243.15 我尝试使用CLUSTERIP来获得集群IP,方法如下: on the server #1 iptables -I INPUT -i eth0 -d 10.17.243.15 -j CLUSTERIP –new –hashmode sourceip –clustermac 01:00:5E:00:00:20 –total-nodes 2 –local-node 1 on the server #2 iptables -I INPUT -i eth0 -d 10.17.243.15 -j CLUSTERIP –new –hashmode sourceip –clustermac 01:00:5E:00:00:20 –total-nodes 2 –local-node 2 当我们尝试ping 10.17.243.15时,没有回复。 […]

VMWare Workstation-10.01上的RedHAt Cluster中的永久磁盘名称

我正在尝试实现2节点REDHAT HA群集。 以下是我的环境。 VMWare WorkStation 10.01 Node-1 >> CentOS-6.3 x86_64 Node-2 >> CentOS-6.3 x86_64 Node-3 >> CentOS-6.3 x86_64 [Luci] Openfileresa-2.99.1-x86_64的 我已经成功地build立了集群,所有的服务都在Luci服务器和节点上运行正常。 iSCSI目标和启动器也正常工作。 问题是驱动器名称在重新启动任何特定节点后不会保留。 这会造成集群中的故障切换问题。 经过两天深入的在线调查,我已经尽我所能,从以下链接。 但是,我仍然坚持这个磁盘命名问题。 pubs.vmware.com/workstation-10/index.jsp?topic=%2Fcom.vmware.ws.using.doc%2FGUID-E601BE81-59B5-4B6C-BD96-2E1F41CBBDB2.html http://docs.fedoraproject.org/en-US/Fedora/13/html/Virtualization_Guide/sect-Virtualization-Tips_and_tricks-Configuring_LUN_Persistence.html http://jablonskis.org/2011/persistent-iscsi-lun-device-name/index.html PS:我正在使用没有防护机制的单path设置,因为VMWare不支持。 我已经使用了udev规则并分配了UUID。 我已经添加了以下规则; KERNEL ==“sd [az]”,SUBSYSTEM ==“block”,PROGRAM =“/ sbin / scsi_id -g -u -d / dev / $ name”,RESULT ==“14f504e46494c45526f416b7a4b4e2d4176584a2d45763153”,NAME =“webcl” 现在当我列出“fdisk”。 即使设备名称“webcl”出现在/ dev下,LUN的磁盘甚至不会显示在列表中 [root @ […]

将Windows Server 2008 r2 hyper-v群集迁移到Server 2012 R2

我做了一些关于这个问题的现有文章的浏览,但我找不到,所以我很抱歉,如果我只是错过了。 我目前的设置: 1个2008 R2 Hyper-V群集 3个Windows Server 2008 R2 Hyper-V主机节点 1个光纤通道存储设备容纳所有访客虚拟机(存储设备和主机之间的FC交换机,将它们互连)。 在这个“production-CSV”中,有大约2 TB的访客虚拟机。 我有3个较新的服务器和一个额外的小容量FC存储设备,我可以用它来临时容纳来宾VMS。 我的目标是将当前的2008 R2 3节点hyper-v群集升级到服务器2012 R2,“使用相同的FC存储”(production-CSV)并扩展到6个hyper-v节点(3个更新的服务器+ 3个当前的“旧“服务器)。 我已经阅读了许多关于这个过程的文章,这些步骤看起来非常简单。 这是我打算根据我的读数做的事情: 将temp-CSV添加到现有的2008 R2群集 使用导出/导入将客户虚拟机从生产CSV转移到临时CSV(以最大限度地减less停机时间) 从现有的2008 R2群集中删除production-CSV 使用3个较新的服务器和production-CSV站点新的2012 R2群集 目前的临时CSV到2012 R2(我想我可以做到这一点,而2008 R2集群仍在使用它?) 使用群集迁移向导将2008 R2群集configuration传输到2012 R2群集configuration 将客户VM导出/导入temp = CSV的production-CSV 驱逐2008 R2群集中的2008 R2节点 销毁2008 R2群集 用2012 R2标准重新安装旧节点并添加到2012 R2群集 我有这个权利吗? 我为自己做更多的工作是必要的吗? 有没有办法做到这一点,而不移动我的访客虚拟机closures生产CSV? 谢谢您的帮助!