RabbitMQ集群配置,rabbitmq集群
RabbitMQ集群配置,rabbitmq集群
参考文档:
本文涉及rabbitmq的基本安装,基本的集群配置。
一.环境
1. 操作系统
CentOS-7-x86_64-Everything-1511
2. 版本
haproxu版本:1.7.7
erlang版本:20.0
rabbitmq版本:rabbitmq-server-3.6.10
https://bintray.com/rabbitmq/rabbitmq-server-rpm/download_file?file_path=rabbitmq-server-3.6.10-1.el7.noarch.rpm
3. 拓扑
二.RabbitMQ安装配置(单机)
以节点rmq-node1为例,rmq-node2/3适当调整。
1. 安装erlang
RabbbitMQ基与erlang开发,首先安装erlang,这里采用yum方式。
1)更新EPEL源
#yum官方源无erlang; #安装EPEL:http://fedoraproject.org/wiki/EPEL/FAQ#howtouse [root@rmq-node1 ~]# rpm -Uvh http://download.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-9.noarch.rpm [root@rmq-node1 ~]# yum install foo
2)添加erlang解决方案库
#如果不添加erlang解决方案,yum安装的erlang版本会比较老; #解决方案添加及安装请见(根据OS选择):https://www.erlang-solutions.com/resources/download.html [root@rmq-node1 ~]# wget https://packages.erlang-solutions.com/erlang-solutions-1.0-1.noarch.rpm [root@rmq-node1 ~]# rpm -Uvh erlang-solutions-1.0-1.noarch.rpm #需要安装验证签名的公钥; [root@rmq-node1 ~]# rpm --import https://packages.erlang-solutions.com/rpm/erlang_solutions.asc
3)安装erlang
#下载速度会比较慢 [root@rmq-node1 ~]# yum install erlang -y
2. 安装RabbitMQ
1)下载RabbitMQ
[root@rmq-node1 ~]# wget https://bintray.com/rabbitmq/rabbitmq-server-rpm/download_file?file_path=rabbitmq-server-3.6.10-1.el7.noarch.rpm [root@rmq-node1 ~]# mv download_file\?file_path\=rabbitmq-server-3.6.10-1.el7.noarch.rpm rabbitmq-server-3.6.10-1.el7.noarch.rpm
2)导入认证签名
[root@rmq-node1 ~]# rpm --import https://www.rabbitmq.com/rabbitmq-release-signing-key.asc
3)安装
#yum安装使用已下载的rpm包本地安装,但可能会涉及到取依赖包,同样需要导入认证签名; #下载安装请见:http://www.rabbitmq.com/install-rpm.html [root@rmq-node1 ~]# yum install rabbitmq-server-3.6.10-1.el7.noarch.rpm -y
3. 启动
1)设置开机启动
[root@rmq-node1 ~]# systemctl enable rabbitmq-server
2)启动
[root@rmq-node1 ~]# systemctl start rabbitmq-server
4. 验证
1)查看状态
[root@rmq-node1 ~]# systemctl status rabbitmq-server
2)查看日志
#日志中给出了rabbitmq启动的重要信息,如node名,$home目录,cookie hash值,日志文件,数据存储目录等; #给出的信息会指出无配置文件(如下图),默认安装没有此文件 [root@rmq-node1 ~]# cat /var/log/rabbitmq/rabbit@rmq-node1.log
5. rabbitmq.conf
#手工建目录,将配置样例文件拷贝到配置目录并改名 [root@rmq-node1 ~]# mkdir -p /etc/rabbitmq [root@rmq-node1 ~]# cp /usr/share/doc/rabbitmq-server-3.6.10/rabbitmq.config.example /etc/rabbitmq/rabbitmq.config #配置重启生效 [root@rmq-node1 ~]# systemctl restart rabbitmq-server #另外还可以建环境配置文件:/etc/rabbitmq/rabbitmq-env.conf
6. 安装web管理插件
#management plugin默认就在RabbitMQ的发布版本中,enable即可 #服务重启,配置生效 [root@rmq-node1 ~]# rabbitmq-plugins enable rabbitmq_management
7. 设置iptables
#tcp4369端口用于集群邻居发现; #tcp5671,5672端口用于AMQP 0.9.1 and 1.0 clients使用; #tcp15672端口用于http api与rabbitadmin访问,后者仅限在management plugin开启时; #tcp25672端口用于erlang分布式节点/工具通信 [root@rmq-node1 ~]# vim /etc/sysconfig/iptables -A INPUT -p tcp -m state --state NEW -m tcp --dport 4369 -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 5671 -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 5672 -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 15672 -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 25672 -j ACCEPT [root@rmq-node1 ~]# service iptables restart
8. Management plugin登录账
1)guest账号
#rabbit默认只有guest账号,但为了安全,guest账号只能从localhost登录,如果需要guest账号可以远程登录,可以设置rabbitmq.conf文件: #根据说明,取消第64行参数的注释与句末的符号;建议不开启guest账号的远程登录; #服务重启,配置生效。 [root@rmq-node1 ~]# vim /etc/rabbitmq/rabbitmq.config
2)CLI创建登录账号
#“rabbitmqctl add_user”添加账号,并设置密码 [root@rmq-node1 ~]# rabbitmqctl add_user admin admin@123 #”rabbitmqctl set_user_tags”设置账号的状态 [root@rmq-node1 ~]# rabbitmqctl set_user_tags admin administrator #“rabbitmqctl set_permissions”设置账号的权限 [root@rmq-node1 ~]# rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*" #“rabbitmqctl list_users”列出账号 [root@rmq-node1 ~]# rabbitmqctl list_users
9. Management plugin登录验证
浏览器访问:http://172.16.3.231:15672
1)guest账号登录
2)CLI创建的账号登录
三.集群配置
RabbitMQ利用erlang的分布式特性组建集群,erlang集群通过magic cookie实现,此cookie保存在$home/.erlang.cookie,这里即:/var/lib/rabbitmq/.erlang.cookie,需要保证集群各节点的此cookie一致,可以选取一个节点的cookie,采用scp同步到其余节点。
1. 同步cookie
#注意.erlang.cookie文件的权限,rabbitmq账号,权限400或600即可,为组或other账号赋权会报错 [root@rmq-node1 ~]# scp /var/lib/rabbitmq/.erlang.cookie root@172.16.3.232:/var/lib/rabbitmq/ [root@rmq-node1 ~]# scp /var/lib/rabbitmq/.erlang.cookie root@172.16.3.233:/var/lib/rabbitmq/
2. 配置hosts
#组建集群时采用”cluster@node”的格式,需要提前设置hosts文件; #rmq-node2/3配置相同 [root@rmq-node1 ~]# echo -e "172.16.3.231 rmq-node1\n172.16.3.232 rmq-node2\n172.16.3.233 rmq-node3" >> /etc/hosts
3. 使用-detached参数启动节点
#rmq-node2/3因更换了.erlang.cookie,使用此命令会无效并报错,可以依次采用“systemctl stop rabbitmq-server”停止服务,“systemctl start rabbitmq-server”启动服务,最后再“rabbitmqctl stop” [root@rmq-node1 ~]# rabbitmqctl stop [root@rmq-node1 ~]# rabbitmq-server -detached
4. 组建集群(rmq-node2&rmq-node3)
1)组建集群(disk节点)
#“rabbitmqctl join_cluster rabbit@rmq-node1”中的“rabbit@rmq-node1”,rabbit代表集群名,rmq-node1代表集群节点;rmq-node2与rmq-node3均连接到rmq-node1,它们之间也会自动建立连接。 #如果需要使用内存节点,增加一个”--ram“的参数即可,如“rabbitmqctl join_cluster --ram rabbit@rmq-node1”,一个集群中至少需要一个”disk”节点 [root@rmq-node2 ~]# rabbitmqctl stop_app [root@rmq-node2 ~]# rabbitmqctl join_cluster rabbit@rmq-node1 [root@rmq-node2 ~]# rabbitmqctl start_app [root@rmq-node3 ~]# rabbitmqctl stop_app [root@rmq-node3 ~]# rabbitmqctl join_cluster rabbit@rmq-node1 [root@rmq-node3 ~]# rabbitmqctl start_app
2)修改disk节点到内存节点
#如果节点已是"disk"节点,可以修改为内存节点 [root@rmq-node3 ~]# rabbitmqctl stop_app [root@rmq-node3 ~]# rabbitmqctl change_cluster_node_type ram [root@rmq-node3 ~]# rabbitmqctl start_app
5. 查看集群状态
[root@rmq-node1 ~]# rabbitmqctl cluster_status
6. 设置镜像队列高可用
到目前为止,集群虽然搭建成功,但只是默认的普通集群,exchange,binding等数据可以复制到集群各节点。
但对于队列来说,各节点只有相同的元数据,即队列结构,但队列实体只存在于创建改队列的节点,即队列内容不会复制(从其余节点读取,可以建立临时的通信传输)。
这样此节点宕机后,其余节点无法从宕机节点获取还未消费的消息实体。如果做了持久化,则需要等待宕机节点恢复,期间其余节点不能创建宕机节点已创建过的持久化队列;如果未做持久化,则消息丢失。
#任意节点执行均可如下命令:将所有队列设置为镜像队列,即队列会被复制到各个节点,各个节点状态保持一直; #可通过命令查看:rabbitmqctl list_policies; #镜像队列相关解释与设置&操作等请见:http://www.ywnds.com/?p=4741 [root@rmq-node1 ~]# rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'
四.设置Haproxy
1. haproxy.cfg
#这里只给出针对rabbit_cluster的监控配置,global与default配置请见:http://www.cnblogs.com/netonline/p/7593762.html [root@haproxy-1 ~]# vim /usr/local/haproxy/etc/haproxy.cfg listen RabbitMQ_Cluster #监控模式 mode tcp #负载均衡模式 balance roundrobin #访问端口 bind 0.0.0.0:5672 #后端服务器检测 server rmq-node1 172.16.3.231:15672 check inter 2000 rise 2 fall 3 server rmq-node2 172.16.3.232:15672 check inter 2000 rise 2 fall 3 server rmq-node3 172.16.3.233:15672 check inter 2000 rise 2 fall 3
2. 效果验证
五.注意事项与遇到的问题
1. 注意事项
2. 网络分区问题
在完成集群后,遇到过1个"partitioned network"的错误。
网络分区具体问题请参考:https://www.rabbitmq.com/partitions.html
中文翻译:https://my.oschina.net/moooofly/blog/424660
1)现象
rmq-node1& rmq-node3与rmq-node2分裂成了两个网络分区
2)查看日志
查看rmq-node1与rmq-node2日志可以印证网络分区的形成时间
3)原因
如果其他节点无法连接该节点的时间达到1分钟以上(net_ticktime设定),则Mnesia判定某个其他节点失效。当这两个连接失效的节点恢复连接状态时,都会认为对端已down 掉,此时Mnesia将会判定发生了网络分区,这种情况会被记录进 RabbitMQ 的日志文件中。
导致网络分区的原因有很多,常见如下:
发生网络分区时,各分区均能够独立运行,同时认为其余节点(分区)已处于不可用状态。其中 queue、binding、exchange 均能够在各个分区中创建和删除;当由于网络分区而被割裂的镜像队列,最后会演变成每个分区中产生一个 master ,并且每一个分区均能独立进行工作,其他未定义和奇怪的行为也可能发生。
4)恢复
手工处理
#更简单直接的方式是:重启集群所有节点,但需要保证重启的第一个节点是可信任的节点。
#同时也可以观察3个节点的日志。
自动处理
RabbitMQ提供3种自动处理方式:pause-minority mode, pause-if-all-down mode and autoheal mode;默认的行为是ignore mode,不做处理,此模式适合网络非常稳定的场景。
自动处理配置文件:/etc/rabbitmq/rabbitmq.conf,第279行"cluster_partition_handling"项,可配置参数如下:
pause_minority
{pause_if_all_down, [nodes], ignore | autoheal}
autoheal
配置文件请参考:https://www.rabbitmq.com/configure.html#configuration-file
评论暂时关闭