CentOS 6.3下heartbeat+drbd的安装和配置

最近尝试了在VMWare8下的CentOS 6.3安装测试drbd+heartbeat主从热备。 经过几番尝试、折腾, 总算配置好了。给大家分享以下:

1. 首先最小化安装CentOS6.3 安装时选择Minimal, 安装好之后。首先更新并安装几个常用组件:

yum install wget ftp ntp -y

yum update -y

2. 安装drbd 8.4.2

由于网上找的rpm包在安装并执行modprobe drbd时总是会导致内核panic, 因此不得不重新在开发机上编译一个。开发机和最小化安装的,准备作为主从热备的虚拟机保持相同的内核版本,在编译之前同样使用yum update -y进行更新, 以免出现内核不兼容崩溃的情况, 为了节约时间, 也可以只更新内核yum update kernel kernel-devel -y。 确保开发机和最小化安装的服务器的uname -r 是同一个rivision,否则modprobe drbd找不到drbd.ko文件。 执行如下命令进行编译:

cd /tmp

wget

tar xvf drbd-8.4.2.tar.gz

cd drbd-8.4.2

mkdir -pv ~/rpmbuild/{BUILD,BUILDROOT,RPMS,SOURCES,SPECS,SRPMS}

./configure

make rpm

make km-rpm

cd ~/rpmbuild/RPMS/i686

将~/rpmbuild/RPMS/i686目录下RPM包的拷贝出来并移到最小化安装的服务器上。(通过FTP服务器中转或者其他办法)

主要是以下几个包:

drbd-8.4.2-2.el6.i686.rpm

drbd-bash-completion-8.4.2-2.el6.i686.rpm

drbd-heartbeat-8.4.2-2.el6.i686.rpm

drbd-km-2.6.32_279.el6.i686-8.4.2-2.el6.i686.rpm

drbd-udev-8.4.2-2.el6.i686.rpm

drbd-utils-8.4.2-2.el6.i686.rpm

 

在2台最小化安装的服务器上执行

yum install drbd-heartbeat-8.4.2-2.el6.i686.rpm \

drbd-km-2.6.32_279.el6.i686-8.4.2-2.el6.i686.rpm \

drbd-utils-8.4.2-2.el6.i686.rpm \

drbd-heartbeat-8.4.2-2.el6.i686.rpm

DRBD的安装就结束了。

3. 安装Heartbeat

接着安装Heartbeat, CentOS 6.3中默认不带有Heartbeat包, 因此需要从第三方下载。

wget ftp://mirror.switch.ch/pool/1/mirror/scientificlinux/6rolling/i386/os/Packages/epel-release-6-5.noarch.rpm

rpm -ivUh epel-release-6-5.noarch.rpm

yum --enablerepo=epel install heartbeat -y

执行以下命令安装Heartbeat。安装的是Heartbeat 3.0.0.4版本。

4. 配置drbd和heartbeat主从节点。

首先准备网络环境, 配置/etc/hosts文件如下

echo "192.168.10.151 ha1" >> /etc/hosts

echo "192.168.10.152 ha2" >> /etc/hosts

接着关闭iptables和selinux, iptables在调试成功后可以再开启。 但一般实际部署的时候, 设备都在网关防火墙之后,也就不开启iptables防火墙了。

service iptables stop

chkconfig iptables off

sed -i -e "s/=enforcing/=disabled/g" /etc/selinux/config

setenforce 0

最后本别在主从节点上做如下配置:

cat > /etc/drbd.d/global_common.conf << EOF

global { usage-countno; }

common {

net { protocol C; } # 8.4版本以后使用该语法

syncer { rate 20M; }

}

EOF

cat > /etc/drbd.d/r0.res << EOF

resource r0 {

device /dev/drbd0;

disk /dev/sdb1;

meta-disk internal;

on ha1 {

address 192.168.10.151:7789;

}

on ha2 {

address 192.168.10.152:7789;

}

}

EOF

cat > /etc/ha.d/ha.cf << EOF

keepalive 2

deadtime 10

warntime 5

initdead 180

udpport 11695

ucast eth0 192.168.10.x #主机这个地方填备机IP, 备机填主机IP。

node ha1

node ha2

auto_failback off

EOF

cat > /etc/ha.d/authkeys << EOF

auth 5

5 sha1 heartbeat

EOF

chmod -v 600 /etc/ha.d/authkeys

cat > /etc/ha.d/haresources << EOF

ha1 IPaddr::192.168.10.150/24/eth0:0 drbddisk::r0 Filesystem::/dev/drbd0::/data::ext3

EOF

配置完成过后在两台机器上分别创建drbd元数据并开启drbd服务;除了ha.cf文件的ucast配置两台机器不一样外, 其他都是一样的。

#在创建元数据之前, 先使用fdisk 给两台机器的 /dev/sdb硬盘分区, 因为配置文件中r0写的是/dev/sdb1.

drbdadm create-md all

service drbd start

service heartbeat start

#在主节点上执行以下命令, 配置主节点

drbdadm -- --overwrite-data-of-peer primary all

mkfs.ext3 -v /dev/drbd0

mkdir -pv data

mount -v -t ext3 /dev/drbd0 /data

再在两台机器上分别开启heartbeat服务, 配置过程就结束了。

5. 最后测试以下

首先, 看看执行强制primary后, 数据复制的情况:

[root@ha1 ~]# cat /proc/drbd

version: 8.4.2 (api:1/proto:86-101)

GIT-hash: 7ad5f850d711223713d6dcadc3dd48860321070c build by root@developing-machine, 2012-12-11 00:26:13

0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----

ns:2242052 nr:0 dw:464508 dr:1782728 al:204 bm:117 lo:1 pe:1 ua:6 ap:0 ep:1 wo:f oos:18741616

[=>..................] sync'ed: 10.7% (18300/20472)M

finish: 0:05:04 speed: 61,480 (58,484) K/sec

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/897dae0a2d4fb3b17f64cb03863534d9.html