本教程将为您介绍在 Google Cloud 上使用 Compute Engine 部署高可用性 IBM MQ 队列管理器集群的过程。MQ 通过队列系统在这些点之间传输数据,以确保在网络或应用发生故障时能够传送到目标。
本教程适用于企业架构师、系统管理员、开发者或者希望在 Google Cloud 上部署高可用性 IBM MQ 队列管理器集群的 DevOps 工程师。
本教程假定您熟悉以下内容:
- Ubuntu Server 16.04
- IBM MQ
- Compute Engine
- 网络服务负载平衡
目标
- 创建 Compute Engine 实例。
- 创建防火墙规则。
- 创建内部负载平衡器。
- 配置 GlusterFS 共享文件系统。
- 配置集群的每个节点。
- 配置集群以实现高可用性。
- 测试集群。
费用
本教程使用 Google Cloud 的以下收费组件:
- Compute Engine
- 网络
请使用价格计算器根据您的预计使用情况来估算费用。
准备工作
-
登录您的 Google 帐号。
如果您还没有 Google 帐号,请注册新帐号。
-
在 Google Cloud Console 的项目选择器页面上,选择或创建一个 Google Cloud 项目。
-
确保您的 Cloud 项目已启用结算功能。 了解如何确认您的项目是否已启用结算功能。
- 启用 Compute Engine API。
完成本教程后,您可以删除所创建的资源以避免继续计费。如需了解详情,请参阅清理。
架构
为了创建高度可用且可扩缩的 IBM MQ 部署,此解决方案将队列管理器集群与多实例队列管理器相结合。 多实例队列管理器采用活跃/备用配置运行,使用共享卷来共享配置和状态数据。集群队列管理器使用网络通道共享配置信息,并且可以对传入消息执行负载平衡。但是,两个队列管理器之间不共享消息状态。
通过使用这两种部署模型,您可以在队列管理器层级实现冗余,然后通过在一个或多个队列管理器之间分配负载来进行扩缩。
在本教程中,您将创建两个队列管理器(分别称为 A 和 B)。您会为每个队列管理器创建一个主节点和一个备用节点(队列管理器 A 的主节点和备用节点分别为 mq-1
和 mq-2
,队列管理器 B 的主节点和备用节点分别为 mq-3
和 mq-4
)。为了将流量路由到主实例,您将使用内部负载平衡器,每个队列管理器使用一个。使用者和发布者指向负载平衡器地址,就如同它们是直接队列管理器地址一样。队列管理器也通过内部负载平衡器互相通信。
IBM MQ 多实例队列管理器需要使用共享存储空间。在本教程中,您使用可扩缩的分布式文件系统 GlusterFS 作为每个多实例队列管理器的节点之间的共享文件系统。
创建 Compute Engine 实例
现在您可以创建本教程所需的计算资源了。Compute Engine 实例 mq-1
和 mq-2
是队列管理器 A 的主节点和备用节点,mq-3
和 mq-4
是队列管理器 B 的主节点和备用节点。此外,您还要为每个节点创建非代管实例组,因为它们位于不同的区域。之后,您需要将非代管实例组挂接到负载平衡器。
打开 Cloud Shell。
为 MQ 计算实例创建启动脚本:
cat << 'EOF' > mqstartup.sh #!/bin/bash if [ -f /root/INSTALLATION_DONE ]; then echo "Skipping because installation completed." exit 0 fi # Docker installation apt-get install -y apt-transport-https ca-certificates curl software-properties-common curl -fsSL https://download.docker.com/linux/ubuntu/gpg | apt-key add - add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" apt-get update apt-get install -y docker-ce # GlusterFS installation apt-get install -y glusterfs-server # Format and mount the persistent disk mkdir -p /data mkfs.ext4 -m 0 -F -E lazy_itable_init=0,lazy_journal_init=0,discard /dev/sdb mount -o discard,defaults /dev/sdb /data touch /root/INSTALLATION_DONE EOF
为队列管理器 A 的主节点创建 Compute Engine 实例:
gcloud compute instances create mq-1 \ --zone=us-central1-c \ --machine-type=n1-standard-1 \ --image-family=ubuntu-1604-lts \ --image-project=ubuntu-os-cloud \ --boot-disk-size=10GB \ --boot-disk-type=pd-standard \ --boot-disk-device-name=mq-1 \ --create-disk=mode=rw,size=10,type=projects/${DEVSHELL_PROJECT_ID}/zones/us-central1-c/diskTypes/pd-ssd,name=gluster-disk-1 \ --tags=ibmmq \ --metadata-from-file startup-script=mqstartup.sh
创建非代管实例组并添加实例:
gcloud compute instance-groups unmanaged create mq-group-1 \ --zone=us-central1-c gcloud compute instance-groups unmanaged add-instances mq-group-1 \ --zone=us-central1-c \ --instances=mq-1
为队列管理器 A 的备用节点创建 Compute Engine 实例:
gcloud compute instances create mq-2 \ --zone=us-central1-b \ --machine-type=n1-standard-1 \ --image-family=ubuntu-1604-lts \ --image-project=ubuntu-os-cloud \ --boot-disk-size=10GB \ --boot-disk-type=pd-standard \ --boot-disk-device-name=mq-2 \ --create-disk=mode=rw,size=10,type=projects/${DEVSHELL_PROJECT_ID}/zones/us-central1-b/diskTypes/pd-ssd,name=gluster-disk-2 \ --tags=ibmmq \ --metadata-from-file startup-script=mqstartup.sh
创建非代管实例组并添加实例:
gcloud compute instance-groups unmanaged create mq-group-2 \ --zone=us-central1-b gcloud compute instance-groups unmanaged add-instances mq-group-2 \ --zone=us-central1-b \ --instances=mq-2
为队列管理器 B 的主节点创建 Compute Engine 实例:
gcloud compute instances create mq-3 \ --zone=us-central1-a \ --machine-type=n1-standard-1 \ --image-family=ubuntu-1604-lts \ --image-project=ubuntu-os-cloud \ --boot-disk-size=10GB \ --boot-disk-type=pd-standard \ --boot-disk-device-name=mq-3 \ --create-disk=mode=rw,size=10,type=projects/${DEVSHELL_PROJECT_ID}/zones/us-central1-a/diskTypes/pd-ssd,name=gluster-disk-3 \ --tags=ibmmq \ --metadata-from-file startup-script=mqstartup.sh
创建非代管实例组并添加实例:
gcloud compute instance-groups unmanaged create mq-group-3 \ --zone=us-central1-a gcloud compute instance-groups unmanaged add-instances mq-group-3 \ --zone=us-central1-a \ --instances=mq-3
为队列管理器 B 的备用节点创建 Compute Engine 实例:
gcloud compute instances create mq-4 \ --zone=us-central1-f \ --machine-type=n1-standard-1 \ --image-family=ubuntu-1604-lts \ --image-project=ubuntu-os-cloud \ --boot-disk-size=10GB \ --boot-disk-type=pd-standard \ --boot-disk-device-name=mq-4 \ --create-disk=mode=rw,size=10,type=projects/${DEVSHELL_PROJECT_ID}/zones/us-central1-f/diskTypes/pd-ssd,name=gluster-disk-4 \ --tags=ibmmq \ --metadata-from-file startup-script=mqstartup.sh
创建非代管实例组并添加实例:
gcloud compute instance-groups unmanaged create mq-group-4 \ --zone=us-central1-f gcloud compute instance-groups unmanaged add-instances mq-group-4 \ --zone=us-central1-f \ --instances=mq-4
创建防火墙规则
为了使集群中的节点能够相互通信并从负载平衡器接收流量,您必须创建适当的防火墙规则。
创建一条防火墙规则以允许在集群的节点之间传递流量:
gcloud compute firewall-rules create ibmmq-transport \ --allow=tcp:1414 \ --target-tags ibmmq \ --source-tags ibmmq
创建一条防火墙规则以允许运行状况检查程序向队列管理器传递流量:
gcloud compute firewall-rules create fw-allow-health-checks \ --allow=tcp:1414 \ --target-tags ibmmq \ --source-ranges 35.191.0.0/16,130.211.0.0/22
设置内部 TCP 负载平衡器
现在,您可以创建内部负载平衡器来监控这四个实例,以确定这两个运行状况良好的主实例并将流量路由给它们。
创建运行状况检查:
gcloud compute health-checks create tcp hc-tcp-1414 \ --description="Health check: TCP 1414" \ --check-interval=2s \ --timeout=2s \ --healthy-threshold=2 \ --unhealthy-threshold=2 \ --port=1414
创建后端服务:
gcloud compute backend-services create mqm-svc-a \ --load-balancing-scheme internal \ --region us-central1 \ --health-checks hc-tcp-1414 \ --protocol tcp gcloud compute backend-services create mqm-svc-b \ --load-balancing-scheme internal \ --region us-central1 \ --health-checks hc-tcp-1414 \ --protocol tcp
将非代管实例组添加到后端服务:
gcloud compute backend-services add-backend mqm-svc-a \ --instance-group mq-group-1 \ --instance-group-zone us-central1-c \ --region us-central1 gcloud compute backend-services add-backend mqm-svc-a \ --instance-group mq-group-2 \ --instance-group-zone us-central1-b \ --region us-central1 gcloud compute backend-services add-backend mqm-svc-b \ --instance-group mq-group-3 \ --instance-group-zone us-central1-a \ --region us-central1 gcloud compute backend-services add-backend mqm-svc-b \ --instance-group mq-group-4 \ --instance-group-zone us-central1-f \ --region us-central1
创建转发规则:
gcloud compute forwarding-rules create mqm-svc-a-forwarding-rule \ --load-balancing-scheme internal \ --ports 1414 --network default \ --address 10.128.0.100 \ --region us-central1 \ --backend-service mqm-svc-a gcloud compute forwarding-rules create mqm-svc-b-forwarding-rule \ --load-balancing-scheme internal \ --ports 1414 \ --network default \ --address 10.128.0.101 \ --region us-central1 \ --backend-service mqm-svc-b
为队列管理器 A 创建和装载 GlusterFS 卷
在本教程中,您使用 GlusterFS 分布式文件系统作为队列管理器各节点之间的共享存储空间。现在,您可以通过在 mq-1
和 mq-2
实例上部署 GlusterFS 来为队列管理器 A 设置 GlusterFS。
在
mq-2
上,通过探测mq-1
初始化 GlusterFS 可信节点池:gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command='sudo mkdir -p /data/gv0 && sudo gluster peer probe mq-2' \ -- -t
在
mq-1
上,通过探测mq-2
初始化 GlusterFS 可信节点池:gcloud compute ssh mq-2 \ --zone=us-central1-b \ --command='sudo mkdir -p /data/gv0 && sudo gluster peer probe mq-1' \ -- -t
启动 GlusterFS 复制:
gcloud compute ssh mq-2 \ --zone=us-central1-b \ --command='sudo gluster volume create mq-data replica 2 mq-1:/data/gv0 mq-2:/data/gv0 && sudo gluster volume start mq-data' \ -- -t
在
mq-2
上装载共享卷:gcloud compute ssh mq-2 \ --zone=us-central1-b \ --command='sudo mkdir -p /mnt/mqm_glusterfs && sudo mount -t glusterfs mq-1:/mq-data /mnt/mqm_glusterfs' \ -- -t
在
mq-1
上装载共享卷:gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command='sudo mkdir -p /mnt/mqm_glusterfs && sudo mount -t glusterfs mq-1:/mq-data /mnt/mqm_glusterfs' \ -- -t
验证共享卷状态:
gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command='sudo gluster volume info'
输出内容如下所示(卷 ID 可能不同):
Volume Name: mq-data Type: Replicate Volume ID: ad63f6df-8469-4f30-9282-5a285d1a2b87 Status: Started Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: mq-1:/data/gv0 Brick2: mq-2:/data/gv0 Options Reconfigured: performance.readdir-ahead: on
为队列管理器 B 创建和装载 GlusterFS 卷
现在,您可以通过在 mq-3
和 mq-4
实例上部署 GlusterFS 来为队列管理器 B 设置 GlusterFS。
在
mq-4
上,通过探测mq-3
初始化 GlusterFS 可信节点池:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command='sudo mkdir -p /data/gv0 && sudo gluster peer probe mq-4' \ -- -t
在
mq-3
上,通过探测mq-4
初始化 GlusterFS 可信节点池:gcloud compute ssh mq-4 \ --zone=us-central1-f \ --command='sudo mkdir -p /data/gv0 && sudo gluster peer probe mq-3' \ -- -t
启动 GlusterFS 复制:
gcloud compute ssh mq-4 \ --zone=us-central1-f \ --command='sudo gluster volume create mq-data replica 2 mq-3:/data/gv0 mq-4:/data/gv0 && sudo gluster volume start mq-data' \ -- -t
在
mq-4
上装载共享卷:gcloud compute ssh mq-4 \ --zone=us-central1-f \ --command='sudo mkdir -p /mnt/mqm_glusterfs && sudo mount -t glusterfs mq-3:/mq-data /mnt/mqm_glusterfs' \ -- -t
在
mq-3
上装载共享卷:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command='sudo mkdir -p /mnt/mqm_glusterfs && sudo mount -t glusterfs mq-3:/mq-data /mnt/mqm_glusterfs' \ -- -t
验证共享卷状态:
gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command='sudo gluster volume info'
除卷 ID 外,您会看到以下输出内容:
Volume Name: mq-data Type: Replicate Volume ID: ad63f6df-8469-4f30-9282-5a285d1a2b87 Status: Started Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: mq-3:/data/gv0 Brick2: mq-4:/data/gv0 Options Reconfigured: performance.readdir-ahead: on
初始化队列管理器 A
现在,您可以在 mq-1
上运行一系列命令,这些命令定义队列管理器的名称、共享存储空间、传入和传出通信通道、身份验证以及队列管理器集群中的其他队列管理器。
在 Cloud Shell 中,在
mq-1
上运行临时 MQ 容器并连接该容器:gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command='sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=A --volume /mnt/mqm_glusterfs:/mnt/mqm --network host --name=ibmmq-init --rm=true ibmcom/mq:latest ' \ -- -t
输入集群和队列定义:
mkdir -p /mnt/mqm/data chown mqm:mqm /mnt/mqm/data /opt/mqm/bin/crtmqdir -f -s su mqm -c "cp /etc/mqm/web/installations/Installation1/servers/mqweb/*.xml /var/mqm/web/installations/Installation1/servers/mqweb/" su mqm -c "crtmqm -q -p 1414 $MQ_QMGR_NAME" su mqm -c "strmqm -x"
配置队列管理器 A 以建立集群:
echo " * Define the full repository for the cluster ALTER QMGR REPOS(GCP) * Define backstop rule for channel auth SET CHLAUTH('*') TYPE(ADDRESSMAP) ADDRESS('*') USERSRC(NOACCESS) DESCR('Back-stop rule - Blocks everyone') ACTION(REPLACE) * Clustering channels and listeners DEFINE LISTENER(A_LS) TRPTYPE(TCP) CONTROL(QMGR) DEFINE CHANNEL(GCP.A) CHLTYPE(CLUSRCVR) CONNAME('10.128.0.100') CLUSTER(GCP) REPLACE DEFINE CHANNEL(GCP.B) CHLTYPE(CLUSSDR) CONNAME('10.128.0.101') CLUSTER(GCP) REPLACE SET CHLAUTH('GCP.A') TYPE (QMGRMAP) QMNAME(B) USERSRC(CHANNEL) ADDRESS('*')" | runmqsc $MQ_QMGR_NAME
配置应用队列、通道和授权:
echo " * Application queues DEFINE QLOCAL('APP.QUEUE.1') DEFBIND(NOTFIXED) CLWLUSEQ(ANY) CLUSTER(GCP) REPLACE * Application topics DEFINE TOPIC('APP.BASE.TOPIC') TOPICSTR('app/') REPLACE * Application connection authentication DEFINE AUTHINFO('APP.AUTHINFO') AUTHTYPE(IDPWOS) CHCKCLNT(REQDADM) CHCKLOCL(OPTIONAL) ADOPTCTX(YES) REPLACE ALTER QMGR CONNAUTH('APP.AUTHINFO') REFRESH SECURITY(*) TYPE(CONNAUTH) * Application channels DEFINE CHANNEL('APP.SVRCONN') CHLTYPE(SVRCONN) MCAUSER('app') REPLACE SET CHLAUTH('APP.SVRCONN') TYPE(ADDRESSMAP) ADDRESS('*') USERSRC(CHANNEL) CHCKCLNT(REQUIRED) DESCR('Allows connection via APP channel') ACTION(REPLACE) * Application auth records SET AUTHREC GROUP('mqclient') OBJTYPE(QMGR) AUTHADD(CONNECT,INQ) SET AUTHREC PROFILE('APP.**') GROUP('mqclient') OBJTYPE(QUEUE) AUTHADD(BROWSE,GET,INQ,PUT) SET AUTHREC PROFILE('APP.**') GROUP('mqclient') OBJTYPE(TOPIC) AUTHADD(PUB,SUB)" | runmqsc $MQ_QMGR_NAME exit
初始化队列管理器 B
现在,您可以在 mq-3
上运行一系列相似的命令,这些命令为第二个队列管理器定义相同的信息:队列管理器的名称、共享存储空间、传入和传出通信通道、身份验证以及队列管理器集群中的其他队列管理器。
在 Cloud Shell 中,在
mq-3
上运行临时 MQ 容器并连接该容器:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command='sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=B --volume /mnt/mqm_glusterfs:/mnt/mqm --network host --name=ibmmq-init --rm=true ibmcom/mq:latest' \ -- -t
输入集群和队列定义。(本步骤合并了您对队列管理器 A 执行的过程中的步骤 2 到 4。)
mkdir -p /mnt/mqm/data chown mqm:mqm /mnt/mqm/data /opt/mqm/bin/crtmqdir -f -s su mqm -c "cp /etc/mqm/web/installations/Installation1/servers/mqweb/*.xml /var/mqm/web/installations/Installation1/servers/mqweb/" su mqm -c "crtmqm -q -p 1414 $MQ_QMGR_NAME" su mqm -c "strmqm -x" echo " * Define the full repository for the cluster ALTER QMGR REPOS(GCP) * Define backstop rule for channel auth SET CHLAUTH('*') TYPE(ADDRESSMAP) ADDRESS('*') USERSRC(NOACCESS) DESCR('Back-stop rule - Blocks everyone') ACTION(REPLACE) * Clustering channels and listeners DEFINE LISTENER(B_LS) TRPTYPE(TCP) CONTROL(QMGR) DEFINE CHANNEL(GCP.B) CHLTYPE(CLUSRCVR) CONNAME('10.128.0.101') CLUSTER(GCP) REPLACE DEFINE CHANNEL(GCP.A) CHLTYPE(CLUSSDR) CONNAME('10.128.0.100') CLUSTER(GCP) REPLACE SET CHLAUTH('GCP.B') TYPE (QMGRMAP) QMNAME(A) USERSRC(CHANNEL) ADDRESS('*') * Application queues DEFINE QLOCAL('APP.QUEUE.1') DEFBIND(NOTFIXED) CLWLUSEQ(ANY) CLUSTER(GCP) REPLACE * Application topics DEFINE TOPIC('APP.BASE.TOPIC') TOPICSTR('app/') REPLACE * Application connection authentication DEFINE AUTHINFO('APP.AUTHINFO') AUTHTYPE(IDPWOS) CHCKCLNT(REQDADM) CHCKLOCL(OPTIONAL) ADOPTCTX(YES) REPLACE ALTER QMGR CONNAUTH('APP.AUTHINFO') REFRESH SECURITY(*) TYPE(CONNAUTH) * Application channels DEFINE CHANNEL('APP.SVRCONN') CHLTYPE(SVRCONN) MCAUSER('app') REPLACE SET CHLAUTH('APP.SVRCONN') TYPE(ADDRESSMAP) ADDRESS('*') USERSRC(CHANNEL) CHCKCLNT(REQUIRED) DESCR('Allows connection via APP channel') ACTION(REPLACE) * Application auth records SET AUTHREC GROUP('mqclient') OBJTYPE(QMGR) AUTHADD(CONNECT,INQ) SET AUTHREC PROFILE('APP.**') GROUP('mqclient') OBJTYPE(QUEUE) AUTHADD(BROWSE,GET,INQ,PUT) SET AUTHREC PROFILE('APP.**') GROUP('mqclient') OBJTYPE(TOPIC) AUTHADD(PUB,SUB)" | runmqsc $MQ_QMGR_NAME exit
以 HA 模式启动 IBM MQ
现在,队列管理器已初始化,您可以启动 IBM MQ 集群了。
在 Cloud Shell 中,在
mq-1
上启动队列管理器 A:gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command="sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=A --volume /mnt/mqm_glusterfs:/mnt/mqm --publish 1414:1414 --network host --name=ibmmq-node --rm=true -d ibmcom/mq:latest -c 'echo app:APPPass1! | chpasswd && su mqm -c \"strmqm -x\"; tail -f /dev/null'"
为方便学习本教程,请在此命令中将用户应用的密码设为
AppPass1!
。在
mq-2
上启动队列管理器 A:gcloud compute ssh mq-2 \ --zone=us-central1-b \ --command="sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=A --volume /mnt/mqm_glusterfs:/mnt/mqm --publish 1414:1414 --network host --name=ibmmq-node --rm=true -d ibmcom/mq:latest -c 'echo app:APPPass1! | chpasswd && su mqm -c \"strmqm -x\"; tail -f /dev/null'"
在此命令中,您将用户应用的密码设为
AppPass1!
。如需检查负载平衡器的状态,请转到 Cloud Console 中的负载平衡页面。
从列表中选择负载平衡器 mqm-svc-a。
当负载平衡器 mqm-svc-a 显示其具有运行状况良好的实例组时(如上面的屏幕截图所示),表明您已准备好进入下一步。
在 Cloud Shell 中,在
mq-3
上启动队列管理器 B:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command="sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=B --volume /mnt/mqm_glusterfs:/mnt/mqm --publish 1414:1414 --network host --name=ibmmq-node --rm=true -d ibmcom/mq:latest -c 'echo app:APPPass1! | chpasswd && su mqm -c \"strmqm -x\"; tail -f /dev/null'"
在
mq-4
上启动队列管理器 B:gcloud compute ssh mq-4 \ --zone=us-central1-f \ --command="sudo docker run -it --entrypoint=/bin/bash --env LICENSE=accept --env MQ_QMGR_NAME=B --volume /mnt/mqm_glusterfs:/mnt/mqm --publish 1414:1414 --network host --name=ibmmq-node --rm=true -d ibmcom/mq:latest -c 'echo app:APPPass1! | chpasswd && su mqm -c \"strmqm -x\"; tail -f /dev/null'"
验证集群
在测试部署之前,您需要验证队列管理器 A 和队列管理器 B 是否可以正确通信。
在 Cloud Shell 中,连接到
mq-3
上的 IBM MQ 容器:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command="sudo docker exec -it ibmmq-node /bin/bash" \ -- -t
检查集群通信通道的状态:
echo "DISPLAY CHSTATUS(*)" | runmqsc $MQ_QMGR_NAME && exit
如果一切正常,则输出内容将如下所示:
5724-H72 (C) Copyright IBM Corp. 1994, 2018. Starting MQSC for queue manager B. 1 : display chstatus(*) AMQ8417I: Display Channel Status details. CHANNEL(GCP.B) CHLTYPE(CLUSRCVR) CONNAME(10.128.0.2) CURRENT RQMNAME(A) STATUS(RUNNING) SUBSTATE(RECEIVE) AMQ8417I: Display Channel Status details. CHANNEL(GCP.A) CHLTYPE(CLUSSDR) CONNAME(10.128.0.100(1414)) CURRENT RQMNAME(A) STATUS(RUNNING) SUBSTATE(MQGET) XMITQ(SYSTEM.CLUSTER.TRANSMIT.QUEUE) One MQSC command read. No commands have a syntax error. All valid MQSC commands were processed.
向集群发送消息
现在,您将使用 IBM 在 Docker 映像中提供的示例应用,向名为 APP.QUEUE.1
的队列发送 2 条消息,以测试集群。
向队列管理器 B 发送测试消息
在 Cloud Shell 中,连接到
mq-3
上的 IBM MQ 容器:gcloud compute ssh mq-3 \ --zone=us-central1-a \ --command="sudo docker exec -it ibmmq-node /bin/bash" \ -- -t
在终端 Shell 中,启动连接到队列管理器 B 的消息发送者应用:
MQSAMP_USER_ID=app /opt/mqm/samp/bin/amqsput APP.QUEUE.1 B
出现提示时,输入您之前创建的应用密码进行身份验证(在本教程中,密码为
APPPass1!
)。当您看到 target queue is APP.QUEUE.1 时,输入
abcdef
向队列发送测试消息。输入 123456 发送另一条测试消息。
按 Enter 键退出消息发送者应用。
输出内容如下所示:
Sample AMQSPUT0 start Enter password: ********* target queue is APP.QUEUE.1 abcdef 123456 Sample AMQSPUT0 end
验证队列管理器 B 中是否有一条正在传递的消息:
echo "display qstatus(APP.QUEUE.1)" | runmqsc $MQ_QMGR_NAME | grep CURDEPTH
只有一条正在传递的消息,因为 IBM MQ 负载平衡已将另一条消息路由到队列管理器 A(稍后将进行说明)。
关闭 SSH 连接:
exit
您将看到以下输出内容:
CURDEPTH(1) IPPROCS(0)
即使您在上一步中发送了两条消息,队列管理器 B 也只会有一条正在传递的消息。这是因为 IBM MQ 会对队列管理器之间的消息执行负载平衡,因此第二条消息已被发送到队列管理器 A。
验证队列管理器 A 中正在传递的消息
在 Cloud Shell 中,连接到
mq-1
上的 IBM MQ 容器:gcloud compute ssh mq-1 \ --zone=us-central1-c \ --command="sudo docker exec -it ibmmq-node /bin/bash" \ -- -t
在终端窗口中,验证队列管理器 A 中是否有一条正在传递的消息:
echo "display qstatus(APP.QUEUE.1)" | runmqsc $MQ_QMGR_NAME | grep CURDEPTH
您将看到以下输出内容:
CURDEPTH(1) IPPROCS(0)
测试队列管理器高可用性
现在,关停实例 mq-3
并验证 mq-4
已成为队列管理器 B 的主实例。
在 Cloud Shell 中,停止实例
mq-3
:gcloud compute instances stop mq-3 \ --zone=us-central1-a
从负载平衡器的角度查看
mq-4
的运行状况良好,验证其已成为主实例:gcloud compute backend-services get-health mqm-svc-b \ --region=us-central1
您将看到如下所示的输出内容:
backend: https://www.googleapis.com/compute/v1/projects/ibmmq1/zones/us-central1-a/instanceGroups/mq-group-3 status: kind: compute#backendServiceGroupHealth---backend: https://www.googleapis.com/compute/v1/projects/ibmmq1/zones/us-central1-f/instanceGroups/mq-group-4 status: healthStatus: - healthState: HEALTHY instance: https://www.googleapis.com/compute/v1/projects/ibmmq1/zones/us-central1-f/instances/mq-4 ipAddress: 10.128.0.5 port: 80 kind: compute#backendServiceGroupHealth
移到生产环境
在本教程中,您使用了 IBM MQ Advanced for Developers。在移到生产环境之前,请查看其他可用许可和功能集。您还应该在部署到生产环境之前查看有关在容器中运行 IBM MQ 的 IBM 文档。
清理
学完本教程后,您可以清理在 Google Cloud 上创建的资源,以免这些资源占用配额,日后产生费用。以下部分介绍如何删除或关闭这些资源。
删除项目
- 在 Cloud Console 中,转到管理资源页面。
- 在项目列表中,选择要删除的项目,然后点击删除。
- 在对话框中输入项目 ID,然后点击关闭以删除项目。