测试
2013-10-08 toudsf
Re: 所说各位的测试环境
两台dell r720+dell eq4100 > On Feb 10, 2015, at 9:29 AM, 李强 wrote: > > Hi > > 你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? > 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?
回复:所说各位的测试环境
我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:29 收件人: "users-cn"; 主题: 所说各位的测试环境 Hi 你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?
回复:所说各位的测试环境
一般pc机 可以测试高级网络? 网卡支持 trunk ? -- 原始邮件 -- 发件人: "杨炳文";<350884...@qq.com>; 发送时间: 2015年2月10日(星期二) 上午9:35 收件人: "users-cn"; 主题: 回复:所说各位的测试环境 我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:29 收件人: "users-cn"; 主题: 所说各位的测试环境 Hi 你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?
回复:所说各位的测试环境
一般的pc机,另外跟据需要外置网卡.交换机支持VLAN划分即可. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:37 收件人: "users-cn"; 主题: 回复:所说各位的测试环境 一般pc机 可以测试高级网络? 网卡支持 trunk ? -- 原始邮件 -- 发件人: "杨炳文";<350884...@qq.com>; 发送时间: 2015年2月10日(星期二) 上午9:35 收件人: "users-cn"; 主题: 回复:所说各位的测试环境 我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:29 收件人: "users-cn"; 主题: 所说各位的测试环境 Hi 你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?
使用Apache CloudStack and Gluster 搭建测试环境
This is an example of how to configure an environment where you can test CloudStack and Gluster. It uses two machines on the same LAN, one acts as a KVM hypervisor and the other as storage and management server. Because the (virtual) networking in the hypervisor is a little more complex than the networking on the management server, the hypervisor will be setup with an OpenVPN connection so that the local LAN is not affected with 'foreign' network traffic. I am not a CloudStack specialist, so this configuration may not be optimal for real world usage. It is the intention to be able to test CloudStack and its Gluster integration in existing networks. The CloudStack installation and configuration done is suitable for testing and development systems, for production environments it is highly recommended to follow the CloudStack documentation instead. .. .---. || | | | KVM Hypervisor | <--- LAN ---> | Management Server | ||^-- OpenVPN --^| | '' '---' agent.cloudstack.tld storage.cloudstack.tld Both systems have one network interface with a static IP-address. In the LAN, other IP-addresses can not be used. This makes it difficult to access virtual machines, but that does not matter too much for this testing. Both systems need a basic installation: Red Hat Enterprise Linux 6.5 (CentOS 6.5 should work too) Fedora EPEL enabled (howto install epel-release) enable ssh access SELinux in permissive mode (or disabled) firewall enabled, but not restricting anything Java 1.7 from the standard java-1.7.0-openjdk packages (not Java 1.6) On the hypervisor, an additional (internal only) bridge needs to be setup. This bridge will be used for providing IP-addresses to the virtual machines. Each virtual machine seems to need at least 3 IP-addresses. This is a default in CloudStack. This example uses virtual networks 192.168.N.0/24, where N is 0 to 4. Configuration for the main cloudbr0 device: #file: /etc/sysconfig/network-scripts/ifcfg-cloudbr0 DEVICE=cloudbr0 TYPE=Bridge ONBOOT=yes BOOTPROTO=static IPADDR=192.168.0.1 NETMASK=255.255.255.0 NM_CONTROLLED=no And the additional IP-addresses on the cloudbr0 bridge (create 4 files, replace N by 1, 2, 3 and 4): #file: /etc/sysconfig/network-scripts/ifcfg-cloudbr0:N DEVICE=cloudbr0:N ONBOOT=yes BOOTPROTO=static IPADDR=192.168.N.1 NETMASK=255.255.255.0 NM_CONTROLLED=no Enable the new cloudbr0 bridge with all its IP-addresses: # ifup cloudbr0 Any of the VMs that have a 192.168.*.* address, should be able to get to the real LAN, and ultimately also the internet. Enabling NAT for the internal virtual networks is the easiest: # iptables -t nat -A POSTROUTING -o eth0 -s 192.168.0.0/24 -j MASQUERADE # iptables -t nat -A POSTROUTING -o eth0 -s 192.168.1.0/24 -j MASQUERADE # iptables -t nat -A POSTROUTING -o eth0 -s 192.168.2.0/24 -j MASQUERADE # iptables -t nat -A POSTROUTING -o eth0 -s 192.168.3.0/24 -j MASQUERADE # iptables -t nat -A POSTROUTING -o eth0 -s 192.168.4.0/24 -j MASQUERADE # service iptables save The hypervisor will need to be setup to act as a gateway to the virtual machines on the cloudbr0 bridge. In order to so do, a very basic OpenVPN service does the trick: # yum install openvpn # openvpn --genkey --secret /etc/openvpn/static.key # cat << EOF > /etc/openvpn/server.conf dev tun ifconfig 192.168.200.1 192.168.200.2 secret static.key EOF # chkconfig openvpn on # service openvpn start On the management server, it is needed to configure OpenVPN as a client, so that routing to the virtual networks is possible: # yum install openvpn # cat << EOF > /etc/openvpn/client.conf remote real-hostname-of-hypervisor.example.net dev tun ifconfig 192.168.200.2 192.168.200.1 secret static.key EOF # scp real-hostname-of-hypervisor.example.net:/etc/openvpn/static.key /etc/openvpn # chkconfig opennvpn on # service openvpn start In /etc/hosts (on both the hypervisor and management server) the internal hostnames for the environment should be added: #file: /etc/hosts 192.168.200.1 agent.cloudstack.tld 192.168.200.2 storage.cloudstack.tld The hypervisor will also function as a DNS-server for the virtual machines. The easiest is to use dnsmasq which uses /etc/hosts and /etc/resolv.conf for resolving: # yum install dnsmasq # chkconfig dnsmasq on # service dnsmasq start The management server is also used as a Gluster Storage Server. Therefor it needs to have some Gluster packages: # wget -O /etc/yum.repo.d/glusterfs-epel.repo \ http://download.gluster.org/pub/gluster/glusterfs/3.4/LATEST/RHEL/glusterfs-epel.repo # yum install glusterfs-server # vim /etc/glusterfs/glusterd.vol # service glusterd restart Create two volumes where CloudStack will store disk images. Before starting the volumes, apply the required settings too. Note that t
Re: 回复:所说各位的测试环境
可以用esxi 装虚拟机来进行功能性测试,就不需要物理交换机了 hongtu_zang Email:hongtu.z...@gmail.com 发件人: 杨炳文 发送时间: 2015-02-10 09:42 收件人: users-cn 主题: 回复:所说各位的测试环境 一般的pc机,另外跟据需要外置网卡.交换机支持VLAN划分即可. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:37 收件人: "users-cn"; 主题: 回复:所说各位的测试环境 一般pc机 可以测试高级网络? 网卡支持 trunk ? -- 原始邮件 -- 发件人: "杨炳文";<350884...@qq.com>; 发送时间: 2015年2月10日(星期二) 上午9:35 收件人: "users-cn"; 主题: 回复:所说各位的测试环境 我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的. -- 原始邮件 -- 发件人: "李强";; 发送时间: 2015年2月10日(星期二) 上午9:29 收件人: "users-cn"; 主题: 所说各位的测试环境 Hi 你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?
是否可以在VMWare这样的虚拟机里面测试CloudStack
自己没有什么硬件环境,只有自己的笔记本电脑。Win7。是否可以在上面做CloudStack的测试。网上没有找到资料。 大家都是这么做的?
回复: 是否可以在VMWare这样的虚拟机里面测试CloudStack
只要CPU支持虚拟化,可以测KVM的,BIOS要开启VT,然后创建虚拟机的时候CPU设置要选中VT选项 lanv_11 发件人: 陈国辉 发送时间: 2013-07-02 08:12 收件人: users-cn 主题: 是否可以在VMWare这样的虚拟机里面测试CloudStack 自己没有什么硬件环境,只有自己的笔记本电脑。Win7。是否可以在上面做CloudStack的测试。网上没有找到资料。 大家都是这么做的?
测试HA断开网络再连接后Host状态为Alert的问题
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查: A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has no attribute 'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。 B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看 [root@xenserver2 ~]# xe sr-list name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 host ( RO): type ( RO): nfscontent-type ( RO): user [root@xenserver2 ~]# xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO) : 4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): false uuid ( RO) : d5853450-4a1f-2aea-43af-e00529c84b06 host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): true [root@xenserver2 ~]# 但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。 问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
测试HA断开网络再连接后Host状态为Alert的问题
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查: A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has no attribute 'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。 B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看 [root@xenserver2 ~]# xe sr-list name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 host ( RO): type ( RO): nfscontent-type ( RO): user [root@xenserver2 ~]# xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO) : 4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): false uuid ( RO) : d5853450-4a1f-2aea-43af-e00529c84b06 host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): true [root@xenserver2 ~]# 但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。 问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
测试HA断开网络再连接后Host状态为Alert的问题
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查: A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has no attribute 'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。 B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看 [root@xenserver2 ~]# xe sr-list name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 host ( RO): type ( RO): nfscontent-type ( RO): user [root@xenserver2 ~]# xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO) : 4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): false uuid ( RO) : d5853450-4a1f-2aea-43af-e00529c84b06 host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): true [root@xenserver2 ~]# 但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。 问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
测试HA断开网络再连接后Host状态为Alert的问题
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。 2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。 3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查: A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has no attribute 'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。 B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看 [root@xenserver2 ~]# xe sr-list name-label=ac701029-f6ab-314c-a674-2d9e115e56e1 uuid ( RO) : fe6402ef-372e-b5b6-eccc-d148c45efc82 name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1 name-description ( RW): 201 host ( RO): type ( RO): nfs content-type ( RO): user [root@xenserver2 ~]# xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82 uuid ( RO) : 4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): false uuid ( RO) : d5853450-4a1f-2aea-43af-e00529c84b06 host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): true [root@xenserver2 ~]# 但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。 问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗? 问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法? 问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。 问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
测试HA断开网络再连接后Host状态为Alert的问题
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。 2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。 3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查: A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has no attribute 'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。 B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看 [root@xenserver2 ~]# xe sr-list name-label=ac701029-f6ab-314c-a674-2d9e115e56e1 uuid ( RO) : fe6402ef-372e-b5b6-eccc-d148c45efc82 name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1 name-description ( RW): 201 host ( RO): type ( RO): nfs content-type ( RO): user [root@xenserver2 ~]# xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82 uuid ( RO) : 4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): false uuid ( RO) : d5853450-4a1f-2aea-43af-e00529c84b06 host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822 sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 192.168.1.22 currently-attached ( RO): true [root@xenserver2 ~]# 但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。 问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗? 问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法? 问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。 问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
测试cloudstack4.0.2对亚马逊AWS接口支持,在浏览器输入http://192.168.13.12:7080/awsapi/出现错误
测试cloudstack4.0.2对亚马逊AWS接口支持出现错误: 设置全局参数“enable.ec2.api”的值为true,修改完成后重启cloud-management。 在浏览器输入http://192.168.13.12:7080/awsapi/ HTTP Status 500 - type Exception report message description The server encountered an internal error () that prevented it from fulfilling this request. exception java.lang.RuntimeException: javax.servlet.ServletException: Servlet execution threw an exception com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:104) com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73) javax.servlet.http.HttpServlet.service(HttpServlet.java:617) javax.servlet.http.HttpServlet.service(HttpServlet.java:717) root cause javax.servlet.ServletException: Servlet execution threw an exception com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:102) com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73) javax.servlet.http.HttpServlet.service(HttpServlet.java:617) javax.servlet.http.HttpServlet.service(HttpServlet.java:717) root cause java.lang.NoSuchMethodError: org.apache.axis2.engine.AxisEngine.(Lorg/apache/axis2/context/ConfigurationContext;)V org.apache.axis2.transport.http.util.RESTUtil.invokeAxisEngine(RESTUtil.java:135) org.apache.axis2.transport.http.util.RESTUtil.processURLRequest(RESTUtil.java:130) org.apache.axis2.transport.http.AxisServlet$RestRequestProcessor.processURLRequest(AxisServlet.java:829) org.apache.axis2.transport.http.AxisServlet.doGet(AxisServlet.java:255) javax.servlet.http.HttpServlet.service(HttpServlet.java:617) javax.servlet.http.HttpServlet.service(HttpServlet.java:717) com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:102) com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73) javax.servlet.http.HttpServlet.service(HttpServlet.java:617) javax.servlet.http.HttpServlet.service(HttpServlet.java:717) note The full stack trace of the root cause is available in the Apache Tomcat/6.0.24 logs. zt