Ansible 基础

  1. 指定hosts文件
    1. 默认 /etc/ansible/hosts
    2. 可以通过-i选项指定
  2. 关于facts
    1. 每台目标机器上可以配置一些属性,就是所谓的facts,配置目录:/etc/ansible/facts.d/
  3. 缓存facts:
    1. 参考:
      1. https://www.imooc.com/article/48607
      2. https://www.jianshu.com/p/0cd54330e8b8
    2. 可以缓存到文件或缓存到redis
      1. 设置为参考缓存
        gathering 值设置为smart
        smart 表示默认收集 facts,但 facts 已有的情况下不会收集,即使用缓存 facts;
        implicit 表示默认收集 facts,要禁止收集,必须使用 gather_facts: False
        explicit 则表示默认不收集,要显式收集,必须使用 gather_facts: Ture
      2. 缓存到json文件:

        需要手动创建目录,只要文件存在就不会再次获取,哪怕设置为不参考缓存,只要设置了缓存,也会写缓存的
      3. 缓存到redis:

         
      4. 刷新缓存
        1. 对于文件缓存,可直接删除缓存文件
        2. 也可以直接  ansible -m setup, 这个会无视缓存文件而重新获取facts的
    3. 设置持久连接
      1. ssh中只设置: -o ControlPath=/home/phpor/.ansible/cp/4206c512dc  而不设置 -o ControlPersist=3600s 是不能持久连接的
    4. 设置并发
      1. 1个playbook中可以设置多个任务,在多台机器上执行,可以通过serial: 1 让所有机器顺序执行
      2. 并行执行的情况下,是按照playbook中定义的任务一个任务一个任务的执行的,第一个任务在serial定义的数量的机器上执行以后,在执行下一个任务,如果serial没有定义,则现在所有的机器上执行完第一个任务,再在所有的机器上执行下一个任务;如果需要每个机器执行完所有任务后再在下一个机器上执行,则设置serial: 1 (注意: 不是 并发为1就行的,即使并发为1,如果没有serial设置的话,也是所有机器上执行完第一个任务再在所有机器上开启下一个任务,对于升级应用的时候非常有用,因为步骤通常是:摘掉负载均衡,升级,挂回到负载均衡; 如果一下子都摘掉就完蛋了)
      3. -f 选项可以指定同时在多少个机器上执行
      4. 通过 async 和poll可以同时在所有机器上执行

        你会发现当你使用上面的例子控制超过5台机器的时候,command.在上面yum模块会先在5台机器上跑,完成后再继续下面的机器.而上面command模块的任务会一次性在所有机器上都执行了,然后监听它的回调结果
    5. 限制并发: https://www.cnblogs.com/breezey/p/10996651.html
    6. playbook中的hosts可以定义在哪些机器上执行,可以通过–limit选项只在指定的机器上执行,不过limit指定的主机一定要是playbook中的hosts指定的主机的子集,不能是playbook中的hosts指定的主机的集合外的机器
    7. include_tasks: 包含子任务
      1. 参考: https://www.cnblogs.com/jinyuanliu/p/10655374.html
      2. 子任务的文件格式和playbook的格式不太一样,不能包含hosts属性,而playbook必须包含hosts属性
      3. 包含的任务地点文件名不能使用通配符
    8. 关于变量加载的约定:
      1. hosts文件旁边的 group_vars 和 host_vars 目录中的 .yml  .yaml .json 扩展名或无扩展名的文件会被参考加载到对应的group和host的变量,执行playbook时,如果playbook dir(默认当前目录,可以通过–playbook-dir指定)中也存在 group_vars 或 host_vars 目录,则该目录的优先级更高,参考:https://docs.ansible.com/ansible/latest/user_guide/intro_inventory.html#group-variables
      2. roles中的task中引用的文件默认是files,templates,tasks 子目录中的文件: 参考: https://docs.ansible.com/ansible/latest/user_guide/playbooks_reuse_roles.html
        如果tasks目录中和template目录中有相同文件名的文件,则引用的时候可能会搞错,所以,尽量不重名吧
    9. 变量引用:
      1. 关联数组中的变量可以用 arr[‘key’]  或 arr.key 两种不同的方式引用

db2look 基本使用

  1. db2look导出的文件的字符集受两个配置的影响
    1. LANG
      1. 影响文件的表头
      2. 建议设置LANG=C,使得文件的头部和编码无关,不至于影响某些编辑器(如vim)对文件编码的检测
    2. DB2CODEPAGE
      1. 影响文件的内容
      2. 通过db2set进行设置,该设置是全局的,参考: https://phpor.net/blog/post/12804
  2. db2look 默认不导出创建数据库的语句,也不导出表存在就删除的drop语句,可以通过选项开启:
    1. -createdb: 生成创建数据库的语句
    2. -dp: Generate DROP statement before CREATE statement
    3. -printdbcfg: Generate UPDATE DB CFG commands for the database configuration parameters
      1. 如果目标数据库和源数据库配置期望一样的话,这样会比较方便

DB2 创建实例

首先,在安装目录find db2icrt;

db2icrt 需要指定db2fenc账号和实例账号,而且,这些账号不会自动创建,需要事先创建:

创建实例: (命令是在/opt/ibm/db2/V11.1/instance 下面的,默认没有在path目录中)

db2 create 的数据库默认在db2实例账户的家目录下的。

启动实例:

db2 实例名也不能多于8个字符(直到db2 11 中依然如此),哎

创建实例的时候,会自动往 /etc/services 中注册一个条目, 如: (不知道这个是如何选择到50001端口的,这是是因为另一个实例已经占用了 50000端口)

db2c_db2ist11 50001/tcp

 

创建实例时并不立即生成实例相关目录,只是在实例用户的目录中生成了sqllib目录,甚至在db2start后,都并不产生数据库的目录的。

 

DB2 和 Docker 的恩怨

DB2 11.5 的容器镜像,启动的时候,自动创建了数据库TESTDB, 但是没有自动启动DB2 manager,进入db2inst1账号后,由于db2admin没有在PATH里面,db2start会失败,所以,将路径 /opt/ibm/db2/V11.5/das/bin 假如到PATH 后,db2start可以正常启动,但是,db2 connect  to testdb 时,就会报错,然后db2 manager进程就退出了。

然而,也找不到哪里有有用的错误日志。

db2 manager启动的时候,数据库本身并没有启动,可以激活数据库,也可以第一次connect to 数据库的时候自动激活,目前的情况就是第一次连接的时候失败,应该就是因为数据库启动失败

先怀疑一下:

  1. 可能是日志文件配置的太多、太大,磁盘不够,所以数据库启动不了
  2. 可能是启动数据库需要的内存不能满足需求,所以数据库启动失败

检查:

db2 get db cfg for testdb

日志文件存储需求: 1024 * 4K * (13+12) = 100MB ;

这个完全没有问题。

内存需求: 1237664 * 4K =  4.8GB  ,然而,我的容器限制的是2GB的内存

修改内存需求配置:

修改后: 4096*4KB= 16MB  (这个是非常小的,这里仅仅是快速测试一下是不是内存问题导致的失败,所以,随便写了一个很小的值)

再次测试,发现连接数据库正常了

 

总结:

  1. 注意修改数据库相关配置

问题:

  1. 默认的数据库内存大小是如何确定的?

DB2之动态sql

DB2中记录了sql的执行次数和平均时长,执行总时长以及CPU时间。

但是,这些数据是多长时间内的呢?

  1. 这些数据仅仅是记录在内存中的,重启数据库就没有了,也就是说,数据是从启动数据库开始的
  2. 鉴于内存大小的限制,动态sql也不可能保存启动数据库以来所有的sql的统计信息,那么是保存最近多长时间或多少条sql的记录吗?
    1. 应该都不是,仅仅和分配的内存大小有关系,查看分配的内存大小:

      默认是4K的内存
    2. 如果空间用完后,新的sql进来的话,会如何处理呢?
      1. 如果新的sql已经存在在内存中,则仅仅修改已有记录的执行次数、执行时间等值就行了,不需要新的空间
      2. 如果是一个全新的sql,则直接丢弃?
    3. 如何查看动态sql内存的使用情况?
      1. 通常情况下,数据库中的sql类型是非常有限的,都记录下来是可能的
  3. 动态sql的信息
    1. 动态sql记录的是执行次数、平均执行时间,并不记录某次的慢查询,如果偶尔又一次10s的查询,但是有1000次的查询都在1ms以内,那么,平均查询时间在10ms以内,这样的话,10s的那次慢查询是被淹没了的,如何发现10s的那次慢查询呢?

db2 中的sleep函数

db2中没有sleep函数,但是可以自定义一个sleep存储过程:

 

关于儿子

10.1之前被医生诊断为线状苔藓的儿子腿上的十多公分长的一片小疙瘩,说是没有特效药,也没有可靠的治疗方法,可能会变多,也可能自己就消退,不治疗也没有影响的,于是开了两管糠酸莫米松乳膏,10元一管,大约用了一周,一管没用完,已经明显消退了。

儿子最近的口头禅是:(跟图图学的)

为什么,谁说的,你怎么知道

儿子最近迷上五子棋了,因为他总是能赢,每天晚上都有和我下几局

kvm根据IP地址查找kvm(虚拟机)进程

由于IP地址不会出现在kvm进程参数中,如果kvm虚拟机的名字(或其他属性)上也不标记IP地址的话,使用者只告知IP地址的时候就不太好查找虚拟机了。

查找办法:

  1. 首先,根据IP地址查找到MAC地址
    1. 查找方法:
      1. 同一网段的其它机器上ping一下虚拟机的IP地址,然后,arp -an查看IP对应的MAC地址
  2. 然后,根据MAC地址去进程中搜索就行了

注意: 这里是机器活着到底情况下的办法,如果机器死了的时候就不能这样了,所以,最好还是把IP地址标记到某个地方

podman 入门

安装

centos官方yum源目前更新至podman-1.4.4,距离最新的1.5并不太远,所以,centos7上直接yum install -y podman就行。

启动

podman search busybox

podman pull docker.io/library/busybox

podman run -it –rm busybox

查看相关进程:

进程分析:

  1. podman进程并没有立即退出
  2. podman进程也不是容器进程(2953)的祖先进程,
  3. conmon(2943)进程才是容器进程的父进程

通过execsnoop了解podman的基本逻辑:

  1. 首先,准备网络环境,通过iptables以及 containernetworking-plugins 实现
  2. 然后,通过conmon来借助runc启动容器进程

通过podman info 了解podman:

  1. 这里显示了buildah的版本号,podman和buildah是什么关系?buildah是制作镜像用的,应该是可以单独使用的,但是使用podman构建镜像的时候并没有调用buildah进程,难道编译到podman进程里面了?(事实却是如此:Podman uses Buildah’s golang API and can be installed independently from Buildah),参考:https://github.com/containers/libpod
    1. 虽然buidah也有run操作,也要容器的概念,但是这些和podman是不同的,buildah的run相当于dockerfile中的RUN,而容器也是一个短暂的状态
  2. conmon:
  3. registries: 允许有多个registry
  4. storage
    1. 存储驱动: overlay,docker已经默认overlay2了,podman为啥还不支持overlay2?
    2. 存储位置:/var/lib/containers/storage

podman远程连接

目前所有发行版并不带有该功能,通过varlink来实现的,原本只listen本地的unix socket,远程连接需要先走ssh通道,话说这个也无可厚非

Rootless

需要使用crun作为运行时,而不是runc,因为需要cgroup v2,runc不支持cgroup v2

https://github.com/containers/libpod/blob/master/docs/tutorials/rootless_tutorial.md

Skopeo

一个管理镜像仓库的工具

容器迁移

虽然可以设置一个检查点,保存到文件后,从另外一个机器上restore后,继续运行,但是,该模式从网络的角度来看,等待时间太长,或者根本就是中断的,而OpenStack中虚拟机的热迁移基本是无感知的;

测试发现,podman的checkpoint功能完成export功能都很难,尚未测试成功; 另外,如果容器中有僵尸进程,基本是export不了的