测试

2013-10-08 Thread toudsf


2013-10-08



toudsf

Re: 所说各位的测试环境

2015-02-09 Thread handeng@126
两台dell r720+dell eq4100

> On Feb 10, 2015, at 9:29 AM, 李强  wrote:
> 
> Hi  
> 
>   你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 
> 最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?


回复:所说各位的测试环境

2015-02-09 Thread 杨炳文
我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的.‍



-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:29
收件人: "users-cn"; 

主题: 所说各位的测试环境



Hi  
  
   你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 
最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?

回复:所说各位的测试环境

2015-02-09 Thread 李强
一般pc机 可以测试高级网络?  网卡支持 trunk ?  
  

 

 -- 原始邮件 --
  发件人: "杨炳文";<350884...@qq.com>;
 发送时间: 2015年2月10日(星期二) 上午9:35
 收件人: "users-cn"; 
 
 主题: 回复:所说各位的测试环境

 

我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的.‍



-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:29
收件人: "users-cn"; 

主题: 所说各位的测试环境



Hi  
  
   你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 
最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?

回复:所说各位的测试环境

2015-02-09 Thread 杨炳文
一般的pc机,另外跟据需要外置网卡.交换机支持VLAN划分即可.




-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:37
收件人: "users-cn"; 

主题: 回复:所说各位的测试环境



一般pc机 可以测试高级网络?  网卡支持 trunk ?  
  

 

 -- 原始邮件 --
  发件人: "杨炳文";<350884...@qq.com>;
 发送时间: 2015年2月10日(星期二) 上午9:35
 收件人: "users-cn"; 
 
 主题: 回复:所说各位的测试环境

 

我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的.‍



-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:29
收件人: "users-cn"; 

主题: 所说各位的测试环境



Hi  
  
   你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 
最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?

使用Apache CloudStack and Gluster 搭建测试环境

2014-07-14 Thread linux...@gmail.com
This is an example of how to configure an environment where you can
test CloudStack and Gluster. It uses two machines on the same LAN, one
acts as a KVM hypervisor and the other as storage and management
server. Because the (virtual) networking in the hypervisor is a little
more complex than the networking on the management server, the
hypervisor will be setup with an OpenVPN connection so that the local
LAN is not affected with 'foreign' network traffic.

I am not a CloudStack specialist, so this configuration may not be
optimal for real world usage. It is the intention to be able to test
CloudStack and its Gluster integration in existing networks. The
CloudStack installation and configuration done is suitable for testing
and development systems, for production environments it is highly
recommended to follow the CloudStack documentation instead.


 ..   .---.
 ||   |   |
 | KVM Hypervisor | <--- LAN ---> | Management Server |
 ||^-- OpenVPN --^|   |
 ''   '---'
agent.cloudstack.tld  storage.cloudstack.tld

Both systems have one network interface with a static IP-address. In
the LAN, other IP-addresses can not be used. This makes it difficult
to access virtual machines, but that does not matter too much for this
testing.

Both systems need a basic installation:

Red Hat Enterprise Linux 6.5 (CentOS 6.5 should work too)
Fedora EPEL enabled (howto install epel-release)
enable ssh access
SELinux in permissive mode (or disabled)
firewall enabled, but not restricting anything
Java 1.7 from the standard java-1.7.0-openjdk packages (not Java 1.6)

On the hypervisor, an additional (internal only) bridge needs to be
setup. This bridge will be used for providing IP-addresses to the
virtual machines. Each virtual machine seems to need at least 3
IP-addresses. This is a default in CloudStack. This example uses
virtual networks 192.168.N.0/24, where N is 0 to 4.

Configuration for the main cloudbr0 device:


#file: /etc/sysconfig/network-scripts/ifcfg-cloudbr0
DEVICE=cloudbr0
TYPE=Bridge
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.0.1
NETMASK=255.255.255.0
NM_CONTROLLED=no

And the additional IP-addresses on the cloudbr0 bridge (create 4
files, replace N by 1, 2, 3 and 4):


#file: /etc/sysconfig/network-scripts/ifcfg-cloudbr0:N
DEVICE=cloudbr0:N
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.N.1
NETMASK=255.255.255.0
NM_CONTROLLED=no

Enable the new cloudbr0 bridge with all its IP-addresses:


# ifup cloudbr0

Any of the VMs that have a 192.168.*.* address, should be able to get
to the real LAN, and ultimately also the internet. Enabling NAT for
the internal virtual networks is the easiest:


# iptables -t nat -A POSTROUTING -o eth0 -s 192.168.0.0/24 -j MASQUERADE
# iptables -t nat -A POSTROUTING -o eth0 -s 192.168.1.0/24 -j MASQUERADE
# iptables -t nat -A POSTROUTING -o eth0 -s 192.168.2.0/24 -j MASQUERADE
# iptables -t nat -A POSTROUTING -o eth0 -s 192.168.3.0/24 -j MASQUERADE
# iptables -t nat -A POSTROUTING -o eth0 -s 192.168.4.0/24 -j MASQUERADE
# service iptables save

The hypervisor will need to be setup to act as a gateway to the
virtual machines on the cloudbr0 bridge. In order to so do, a very
basic OpenVPN service does the trick:


# yum install openvpn
# openvpn --genkey --secret /etc/openvpn/static.key
# cat << EOF > /etc/openvpn/server.conf
dev tun
ifconfig 192.168.200.1 192.168.200.2
secret static.key
EOF
# chkconfig openvpn on
# service openvpn start

On the management server, it is needed to configure OpenVPN as a
client, so that routing to the virtual networks is possible:


# yum install openvpn
# cat << EOF > /etc/openvpn/client.conf
remote real-hostname-of-hypervisor.example.net
dev tun
ifconfig 192.168.200.2 192.168.200.1
secret static.key
EOF
# scp real-hostname-of-hypervisor.example.net:/etc/openvpn/static.key
/etc/openvpn
# chkconfig opennvpn on
# service openvpn start

In /etc/hosts (on both the hypervisor and management server) the
internal hostnames for the environment should be added:


#file: /etc/hosts
192.168.200.1 agent.cloudstack.tld
192.168.200.2 storage.cloudstack.tld

The hypervisor will also function as a DNS-server for the virtual
machines. The easiest is to use dnsmasq which uses /etc/hosts and
/etc/resolv.conf for resolving:


# yum install dnsmasq
# chkconfig dnsmasq on
# service dnsmasq start

The management server is also used as a Gluster Storage Server.
Therefor it needs to have some Gluster packages:


# wget -O /etc/yum.repo.d/glusterfs-epel.repo \
http://download.gluster.org/pub/gluster/glusterfs/3.4/LATEST/RHEL/glusterfs-epel.repo
# yum install glusterfs-server
# vim /etc/glusterfs/glusterd.vol

# service glusterd restart

Create two volumes where CloudStack will store disk images. Before
starting the volumes, apply the required settings too. Note that t

Re: 回复:所说各位的测试环境

2015-02-09 Thread hongtu.z...@gmail.com
可以用esxi 装虚拟机来进行功能性测试,就不需要物理交换机了




hongtu_zang
Email:hongtu.z...@gmail.com
 
发件人: 杨炳文
发送时间: 2015-02-10 09:42
收件人: users-cn
主题: 回复:所说各位的测试环境
一般的pc机,另外跟据需要外置网卡.交换机支持VLAN划分即可.
 
 
 
 
-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:37
收件人: "users-cn"; 
 
主题: 回复:所说各位的测试环境
 
 
 
一般pc机 可以测试高级网络?  网卡支持 trunk ?  
  
 
 
-- 原始邮件 --
  发件人: "杨炳文";<350884...@qq.com>;
发送时间: 2015年2月10日(星期二) 上午9:35
收件人: "users-cn"; 
主题: 回复:所说各位的测试环境
 
 
我用的是RG-S3760E交换机 服务器一般PC机,支持TV虚拟化的.‍
 
 
 
-- 原始邮件 --
发件人: "李强";;
发送时间: 2015年2月10日(星期二) 上午9:29
收件人: "users-cn"; 
 
主题: 所说各位的测试环境
 
 
 
Hi  
  
   你们都用什么服务器和交换机测试cloudstack高级网络呢?是公司提供的?或者自己买的? 
最近自己想买些二手设备测试,但不知道买什么型号和品牌好 谁知道呢?


是否可以在VMWare这样的虚拟机里面测试CloudStack

2013-07-01 Thread 陈国辉
自己没有什么硬件环境,只有自己的笔记本电脑。Win7。是否可以在上面做CloudStack的测试。网上没有找到资料。
大家都是这么做的?
 

回复: 是否可以在VMWare这样的虚拟机里面测试CloudStack

2013-07-01 Thread lanv_11
只要CPU支持虚拟化,可以测KVM的,BIOS要开启VT,然后创建虚拟机的时候CPU设置要选中VT选项




lanv_11

发件人: 陈国辉
发送时间: 2013-07-02 08:12
收件人: users-cn
主题: 是否可以在VMWare这样的虚拟机里面测试CloudStack
自己没有什么硬件环境,只有自己的笔记本电脑。Win7。是否可以在上面做CloudStack的测试。网上没有找到资料。
大家都是这么做的?

测试HA断开网络再连接后Host状态为Alert的问题

2013-07-15 Thread 王吉忠
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console
 Proxy 
VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console
 Proxy 
VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查:
   A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance 
Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has 
no attribute 
'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。
   
B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看
  [root@xenserver2 ~]# xe sr-list 
name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82  name-label ( RW): 
ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 
   host ( RO): type ( RO): nfscontent-type ( 
RO): user

[root@xenserver2 ~]#  xe pbd-list 
sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO)  : 
4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 
7b417fdf-6df0-44af-8294-fc358f4b1c41   sr-uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: 
/home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): 
false

uuid ( RO)  : d5853450-4a1f-2aea-43af-e00529c84b06 
host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822   sr-uuid ( 
RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): 
serverpath: /home/export/nfs/pristorage; server: 192.168.1.22
currently-attached ( RO): true

[root@xenserver2 ~]#  但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。
问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe 
pool-eject host-uuid删除故障主机,最后通过xe 
host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
   

测试HA断开网络再连接后Host状态为Alert的问题

2013-07-15 Thread 王吉忠
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console
 Proxy 
VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console
 Proxy 
VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查:
   A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance 
Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has 
no attribute 
'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。
   
B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看
  [root@xenserver2 ~]# xe sr-list 
name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82  name-label ( RW): 
ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 
   host ( RO): type ( RO): nfscontent-type ( 
RO): user

[root@xenserver2 ~]#  xe pbd-list 
sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO)  : 
4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 
7b417fdf-6df0-44af-8294-fc358f4b1c41   sr-uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: 
/home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): 
false

uuid ( RO)  : d5853450-4a1f-2aea-43af-e00529c84b06 
host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822   sr-uuid ( 
RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): 
serverpath: /home/export/nfs/pristorage; server: 192.168.1.22
currently-attached ( RO): true

[root@xenserver2 ~]#  但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。
问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe 
pool-eject host-uuid删除故障主机,最后通过xe 
host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
   

测试HA断开网络再连接后Host状态为Alert的问题

2013-07-15 Thread 王吉忠
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console
 Proxy 
VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console
 Proxy 
VM没有迁移成功,其它VM均迁移到Xenserver3。3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查:
   A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance 
Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has 
no attribute 
'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。
   
B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看
  [root@xenserver2 ~]# xe sr-list 
name-label=ac701029-f6ab-314c-a674-2d9e115e56e1uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82  name-label ( RW): 
ac701029-f6ab-314c-a674-2d9e115e56e1name-description ( RW): 201 
   host ( RO): type ( RO): nfscontent-type ( 
RO): user

[root@xenserver2 ~]#  xe pbd-list 
sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82uuid ( RO)  : 
4b57c32f-e598-1f98-ce39-e917ec7f668f host-uuid ( RO): 
7b417fdf-6df0-44af-8294-fc358f4b1c41   sr-uuid ( RO): 
fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): serverpath: 
/home/export/nfs/pristorage; server: 192.168.1.22currently-attached ( RO): 
false

uuid ( RO)  : d5853450-4a1f-2aea-43af-e00529c84b06 
host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822   sr-uuid ( 
RO): fe6402ef-372e-b5b6-eccc-d148c45efc82 device-config (MRO): 
serverpath: /home/export/nfs/pristorage; server: 192.168.1.22
currently-attached ( RO): true

[root@xenserver2 ~]#  但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。
问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?问题2:上述故障环境下,无法通过xencenter或通过xe 
pool-eject host-uuid删除故障主机,最后通过xe 
host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?
   

测试HA断开网络再连接后Host状态为Alert的问题

2013-07-15 Thread 王吉忠
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console
 Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。
2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。
3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查:
   A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance 
Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has 
no attribute 
'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。
   
B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看
      [root@xenserver2 ~]# xe sr-list 
name-label=ac701029-f6ab-314c-a674-2d9e115e56e1
uuid ( RO)                : fe6402ef-372e-b5b6-eccc-d148c45efc82
          name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1
    name-description ( RW): 201
                host ( RO): 
                type ( RO): nfs
        content-type ( RO): user


[root@xenserver2 ~]#  xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82
uuid ( RO)                  : 4b57c32f-e598-1f98-ce39-e917ec7f668f
             host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41
               sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82
         device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 
192.168.1.22
    currently-attached ( RO): false


uuid ( RO)                  : d5853450-4a1f-2aea-43af-e00529c84b06
             host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822
               sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82
         device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 
192.168.1.22
    currently-attached ( RO): true


[root@xenserver2 ~]# 
     但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。

问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?
问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe 
host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?
问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。
问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?  
  

测试HA断开网络再连接后Host状态为Alert的问题

2013-07-15 Thread 王吉忠
1、搭建了一个环境测试HA,两台Xenserver(Xenserver2-192.168.1.30,Xenserver3-192.168.1.31)组成一个集群(通过Xencerter查看,两个Xenserver自动组成一个pool,且Xenserver2是Master),并且启用了本地存储,其中Console
 Proxy VM就是使用Xenserver2的本地存储作为主存储,并且运行在Xenserver2上。其他VM根据计算方案使用了NFS作为主存储。
2、进行了HA的相关测试:即断开Xneserver2的网线,发现除了Console Proxy VM没有迁移成功,其它VM均迁移到Xenserver3。
3、重新连接Xenserver2的网络,管理端发现Xenserver2的状态由connecting转变为Alert。期间做过如下检查:
   A、通过显示器、键盘本地连接Xenserver服务器,发现服务器进入Maintenance Mode,推出Maintenance 
Mode失败,提示“'NoneType' object has no attribute 'xenapi'”或“'NoneType' object has 
no attribute 
'OpanqueRef'”,上网查询过此错误日志,有建议认为是磁盘空间不足,建议删除/var/log下的一些日志文件,能够退出维护模式但磁盘空间却是非常空闲的。但此方式仅成功过一次,当前再也无法退出维护模式。
   
B、在xencenter管理端发现nfs类型的ac701029-f6ab-314c-a674-2d9e115e56e1存储处于失效状态,在Xenserver2上查看
      [root@xenserver2 ~]# xe sr-list 
name-label=ac701029-f6ab-314c-a674-2d9e115e56e1
uuid ( RO)                : fe6402ef-372e-b5b6-eccc-d148c45efc82
          name-label ( RW): ac701029-f6ab-314c-a674-2d9e115e56e1
    name-description ( RW): 201
                host ( RO): 
                type ( RO): nfs
        content-type ( RO): user


[root@xenserver2 ~]#  xe pbd-list sr-uuid=fe6402ef-372e-b5b6-eccc-d148c45efc82
uuid ( RO)                  : 4b57c32f-e598-1f98-ce39-e917ec7f668f
             host-uuid ( RO): 7b417fdf-6df0-44af-8294-fc358f4b1c41
               sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82
         device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 
192.168.1.22
    currently-attached ( RO): false


uuid ( RO)                  : d5853450-4a1f-2aea-43af-e00529c84b06
             host-uuid ( RO): 0df3631c-5909-4e43-bd72-10b92c074822
               sr-uuid ( RO): fe6402ef-372e-b5b6-eccc-d148c45efc82
         device-config (MRO): serverpath: /home/export/nfs/pristorage; server: 
192.168.1.22
    currently-attached ( RO): true


[root@xenserver2 ~]# 
     但无法继续执行xe pbd-unlug等命令,后来xe命令都无法执行了。

问题1:通过CS添加主机时,相同集群下的xenserver会自动组成pool吗?
问题2:上述故障环境下,无法通过xencenter或通过xe pool-eject host-uuid删除故障主机,最后通过xe 
host-forget强制从pool中删除该主机,重新安装xenserver2并再次加入pool,但依然不能成功加入。这种情况有遇到过么?不能加入pool的解决办法?
问题3:对于出现xenapi故障的主机如何恢复,以便其在CS中变为正常?望指导或推荐一些文档看看。
问题4:如果将状态不是UP的主机从CS主机列表中删除(如果启用了本地存储一并删除本地存储)?  
  

测试cloudstack4.0.2对亚马逊AWS接口支持,在浏览器输入http://192.168.13.12:7080/awsapi/出现错误

2013-06-08 Thread zt
测试cloudstack4.0.2对亚马逊AWS接口支持出现错误:
设置全局参数“enable.ec2.api”的值为true,修改完成后重启cloud-management。
在浏览器输入http://192.168.13.12:7080/awsapi/ 
HTTP Status 500 -



type Exception report
message
description The server encountered an internal error () that prevented it from 
fulfilling this request.
exception
java.lang.RuntimeException: javax.servlet.ServletException: Servlet execution 
threw an exception

com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:104)
com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73)
javax.servlet.http.HttpServlet.service(HttpServlet.java:617)
javax.servlet.http.HttpServlet.service(HttpServlet.java:717)

root cause
javax.servlet.ServletException: Servlet execution threw an exception

com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:102)
com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73)
javax.servlet.http.HttpServlet.service(HttpServlet.java:617)
javax.servlet.http.HttpServlet.service(HttpServlet.java:717)

root cause
java.lang.NoSuchMethodError: 
org.apache.axis2.engine.AxisEngine.(Lorg/apache/axis2/context/ConfigurationContext;)V

org.apache.axis2.transport.http.util.RESTUtil.invokeAxisEngine(RESTUtil.java:135)

org.apache.axis2.transport.http.util.RESTUtil.processURLRequest(RESTUtil.java:130)

org.apache.axis2.transport.http.AxisServlet$RestRequestProcessor.processURLRequest(AxisServlet.java:829)
org.apache.axis2.transport.http.AxisServlet.doGet(AxisServlet.java:255)
javax.servlet.http.HttpServlet.service(HttpServlet.java:617)
javax.servlet.http.HttpServlet.service(HttpServlet.java:717)

com.cloud.bridge.service.EC2MainServlet.doGetOrPost(EC2MainServlet.java:102)
com.cloud.bridge.service.EC2MainServlet.doGet(EC2MainServlet.java:73)
javax.servlet.http.HttpServlet.service(HttpServlet.java:617)
javax.servlet.http.HttpServlet.service(HttpServlet.java:717)

note The full stack trace of the root cause is available in the Apache 
Tomcat/6.0.24 logs.





zt