- 你没法通过options来禁用ipv6解析
- single-request: 用来指定分别执行A和AAAA解析;即,收到A记录解析的结果后在发送AAAA记录解析请求; 默认情况下,同时在一个连接上发送A和AAAA的解析,这样效率会高一倍;然而,有些dns server不能很好地处理这种请求方式,很可能不能正确地返回AAAA的响应,以至于请求会超时
- single-request-reopen:强制A和AAAA的解析在两个连接中处理(主要体现在连接的源端口不同)
参考:
DevOps
参考:
按照下面参考中的做法,添加一个认证的中间件就可以搞定
参考: https://docs.openstack.org/keystone/latest/advanced-topics/external-auth.html
文档中说在 /etc/openstack-dashboard/local_settings 中修改(或添加)SESSION_TIMEOUT 可以控制dashboard的过期时间,但是修改了怎么也不生效,后看代码发现:
dashboard登录后总是去keystone获取一个token的,token总有过期时间的,所以,dashboard的session过期时间就是自己定义的过期时间和token的过期时间取小的那个。
keystone 的token过期时间配置参考: /etc/keystone/kestone.conf
1 2 |
ceph osd crush rm-device-class ssd osd.5 osd.6 osd.7 ceph osd crush set-device-class ssd osd.5 osd.6 osd.7 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
# ceph osd crush class ls [ "hdd", "ssd" ] # ceph osd crush class ls-osd hdd 0 1 2 3 4 # ceph osd crush class ls-osd ssd 5 6 7 |
1 2 3 4 5 6 7 8 9 10 11 |
[root@ceph-test-1 mnt]# ceph osd crush rm-device-class osd.1 done removing class of osd(s): 1 [root@ceph-test-1 mnt]# ceph osd crush set-device-class ssd osd.1 set osd(s) 1 to class 'ssd' [root@ceph-test-1 mnt]# ceph osd crush class ls-osd ssd 1 [root@ceph-test-1 mnt]# ceph osd crush class ls [ "hdd", "ssd" ] |
参考: http://docs.ceph.com/docs/master/rados/operations/crush-map/
参考:
示例:
1 2 3 4 5 6 7 8 9 10 |
#virsh virsh # pool-define-as kvm-pool logical - - /dev/sda6 kvm-pool /dev/kvm-pool 定义池 kvm-pool virsh # pool-build kvm-pool --overwrite 构建池 kvm-pool virsh # pool-start kvm-pool 池 kvm-pool 已启动 |
将一个img 磁盘文件导入kvm-pool (结果总是失败)
1 |
virsh vol-create-as kvm-pool ceph-3 50g --format raw |
1 |
virsh vol-upload --pool kvm-pool ceph-3 ./centos7.3.img |
成功的做法
1 2 3 4 5 6 7 8 9 10 |
<volume type='block'> <name>ceph-3</name> <source> <device path='/dev/sda6'> </device> </source> <target> <path>/dev/kvm-pool/ceph-3</path> </target> </volume> |
1 |
virsh vol-create-from --pool kvm-pool --file ceph-3.xml --vol centos7.3.img --inputpool default |
在配置openstack的热迁移时遇到了几个问题,这里记录一下。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
# rpm -ql libcgroup-tools ... /usr/bin/cgclassify /usr/bin/cgcreate /usr/bin/cgdelete /usr/bin/cgexec /usr/bin/cgget /usr/bin/cgset /usr/bin/cgsnapshot /usr/bin/lscgroup /usr/bin/lssubsys /usr/lib/systemd/system/cgconfig.service /usr/lib/systemd/system/cgred.service /usr/sbin/cgclear /usr/sbin/cgconfigparser /usr/sbin/cgrulesengd ... |
1 2 3 4 5 6 7 8 9 10 |
# lscgroup memory:/ memory:/ memory:/machine.slice memory:/machine.slice/machine-qemu\x2d14\x2dinstance\x2d00000012.scope memory:/machine.slice/machine-qemu\x2d16\x2dinstance\x2d00000014.scope memory:/machine.slice/machine-qemu\x2d9\x2dinstance\x2d00000009.scope memory:/machine.slice/machine-qemu\x2d6\x2dinstance\x2d00000008.scope memory:/machine.slice/machine-qemu\x2d15\x2dinstance\x2d00000013.scope memory:/system.slice memory:/user.slice |
lscgroup: 列出各cgroup及其挂载点; qemu 也是通过cgroup进行资源限制的
cgsnapshot 可以列出当前各cgroup子系统的配置信息
lssubsys 列出各子系统及其挂载点
1 2 3 4 5 6 7 8 9 10 11 |
# lssubsys -M cpuset /sys/fs/cgroup/cpuset cpu,cpuacct /sys/fs/cgroup/cpu,cpuacct blkio /sys/fs/cgroup/blkio memory /sys/fs/cgroup/memory devices /sys/fs/cgroup/devices freezer /sys/fs/cgroup/freezer net_cls,net_prio /sys/fs/cgroup/net_cls,net_prio perf_event /sys/fs/cgroup/perf_event hugetlb /sys/fs/cgroup/hugetlb pids /sys/fs/cgroup/pids |
遇到的问题:
ceph 版本: 12.2.0
glance-api 机器上的 librados2 版本太老(0.94),导致connect ceph cluster超时
升级glance-api 机器上的 librados2 为12.2.0 后,问题解决, 注意: 升级后重启glance-api