AIX上的RAC归档日志管理


RAC归档日志共享概述

无论数据库是单节点方式还是集群方式,其承载事物的方式是严格按照时间戳顺序执行的。这就决定了在数据库进行恢复时,要严格按照时间顺序读取日志记录,以恢复数据库文件。因此,在集群数据库恢复时,要有完整的日志序列。
当数据库运行在归档模式下时,日志在实例上是“局部”管理的,因此其归档操作也是“局部”的。由于恢复时需要“全局”的日志文件,因此,在数据库归档操作中,如何把归档日志集合在共同路径下是管理员的一个工作目标。
AIX可以设定共享磁盘上存储文件的四种可能:GPFS(HACMP)、NFS、ASM或HACMP RAW设备。
HACMP RAW设备不能作为归档目的地,因此归档需要文件系统。所以,要放置在共享的区域,可以有如下三种
选择:
GPFS:将归档文件放置到GPFS方式。
ASM:将归档文件放置到ASM磁盘组的方式。
NFS:将归档文件放置到NFS的方式。

使用GPFS进行归档处理,好处是归档无需设置过程,简单的制定归档路径为GPFS即可,通过在各节点指定相同的LOG_ARCHIVE_DESTn参数即可。由于集群中的实例都会将归档日志写入这一目录,因此实现了归档文件的汇总。当然,如果还能为节点上的数据库再指定另一个归档目标,例如指向本地存储,则归档发生错误的可能性会得以降低。
使用ASM磁盘组作为归档存储(如使用一个ASM磁盘组作为闪回恢复区)也是Oracle的建议方法,通过集群各实例将归档日志写到其DB_RECOVERY_FILE_DEST参数指向的ASM磁盘组,则这个磁盘组就存储了共有的归档日志数据。
如果使用NFS方式,则集群各节点挂载同样一个NFS即可。同样的,为提高安全性,可以设置多个归档目标,例如第一个归档目标是本地目录,第二个归档目标位NFS。
这是很多用户目前选择的归档存储结构。如果归档按照这个方式构造,则需要注意指向NFS归档目标的归档应该设置为非强调归档方式。因为当NFS上的归档操作具有强制性时,如果发生网络故障,则NFS安装点不再可用,归档操作失败,这会导致数据库系统的挂起。

NFS配置

1、修改AIX的/etc/hosts文件,添加

192.1.1.203 rac1

2、修改或者添加/etc/exports文件,如下内容:
/u01 -sec=sys:krb5p:krb5i:krb5:dh:none,-rw,root=rac1,access=rac1

3、重启NFS服务:
#/usr/sbin/mknfs '-N'
0513-029 The portmap Subsystem is already active.
Multiple instances are not supported.
Starting NFS services:
0513-029 The biod Subsystem is already active.
Multiple instances are not supported.
0513-059 The nfsd Subsystem has been started. Subsystem PID is 577600.
0513-059 The rpc.mountd Subsystem has been started. Subsystem PID is 856250.
0513-029 The rpc.statd Subsystem is already active.
Multiple instances are not supported.
0513-029 The rpc.lockd Subsystem is already active.
Multiple instances are not supported.
Completed NFS services.

4、export all:
#exportfs -a

5、客户端修改/etc/hosts文件:
182.1.21.176 djfk

6、挂载nfs:

mount djfk:/u01 /mnt

相关内容