Kubernetes实战(十三)——SaltStack自动化部署Kubernetes

SaltStack自动化部署Kubernetes

  • SaltStack自动化部署Kubernetes v1.10.3版本(支持TLS双向认证、RBAC授权、Flannel网络、ETCD集群、Kuber-Proxy使用LVS等)。

版本明细:Release-v1.10.3

  • 测试通过系统:CentOS 7.4

  • salt-ssh: 2017.7.4

  • Kubernetes: v1.10.3

  • Etcd: v3.3.1

  • Docker: 17.12.1-ce

  • Flannel: v0.10.0

  • CNI-Plugins: v0.7.0 建议部署节点:最少三个节点,请配置好主机名解析(必备)

架构介绍

  1. 使用Salt Grains进行角色定义,增加灵活性。

  2. 使用Salt Pillar进行配置项管理,保证安全性。

  3. 使用Salt SSH执行状态,不需要安装Agent,保证通用性。

  4. 使用Kubernetes当前稳定版本v1.10.3,保证稳定性。

技术交流QQ群(加群请备注来源于Github):

  • 云计算与容器架构师:252370310

使用手册

手动部署

1.系统初始化

2.CA证书制作

3.ETCD集群部署

4.Master节点部署

5.Node节点部署

6.Flannel部署

7.应用创建

必备插件

1.CoreDNS部署

2.Dashboard部署

3.Heapster部署

4.Ingress部署

5.CI/CD

6.Helm部署

案例架构图

Kubernetes实战(十三)——SaltStack自动化部署Kubernetes

0.系统初始化

  1. 设置主机名!!!

  2. 设置/etc/hosts保证主机名能够解析

  3. 关闭SELinux和防火墙

1.设置部署节点到其它所有节点的SSH免密码登录(包括本机)

[root@linux-node1 ~]# ssh-keygen -t rsa
[root@linux-node1 ~]# ssh-copy-id linux-node1
[root@linux-node1 ~]# ssh-copy-id linux-node2
[root@linux-node1 ~]# ssh-copy-id linux-node3

2.安装Salt-SSH并克隆本项目代码。

2.1 安装Salt SSH(注意:老版本的Salt SSH不支持Roster定义Grains,需要2017.7.4以上版本)

[root@linux-node1 ~]# yum install https://mirrors.aliyun.com/epel/epel-release-latest-7.noarch.rpm
[root@linux-node1 ~]# yum install https://mirrors.aliyun.com/saltstack/yum/redhat/salt-repo-latest-2.el7.noarch.rpm
[root@linux-node1 ~]# sed -i "s/repo.saltstack.com/mirrors.aliyun.com\/saltstack/g" /etc/yum.repos.d/salt-latest.repo
[root@linux-node1 ~]# yum install -y salt-ssh git

2.2 获取本项目代码,并放置在/srv目录

[root@linux-node1 ~]# git clone https://github.com/unixhot/salt-kubernetes.git
[root@linux-node1 ~]# cd salt-kubernetes/
[root@linux-node1 ~]# mv * /srv/
[root@linux-node1 srv]# /bin/cp /srv/roster /etc/salt/roster
[root@linux-node1 srv]# /bin/cp /srv/master /etc/salt/master

2.4 下载二进制文件,也可以自行官方下载,为了方便国内用户访问,请在百度云盘下载,下载k8s-v1.10.3-auto.zip。 下载完成后,将文件移动到/srv/salt/k8s/目录下,并解压 Kubernetes二进制文件下载地址: https://pan.baidu.com/s/1zs8sCouDeCQJ9lghH1BPiw

[root@linux-node1 ~]# cd /srv/salt/k8s/
[root@linux-node1 k8s]# unzip k8s-v1.10.3-auto.zip
[root@linux-node1 k8s]# ls -l files/
total 0
drwxr-xr-x. 2 root root  94 Jun  3 19:12 cfssl-1.2
drwxr-xr-x. 2 root root 195 Jun  3 19:12 cni-plugins-amd64-v0.7.0
drwxr-xr-x. 2 root root  33 Jun  3 19:12 etcd-v3.3.1-linux-amd64
drwxr-xr-x. 2 root root  47 Jun  3 19:12 flannel-v0.10.0-linux-amd64
drwxr-xr-x. 3 root root  17 Jun  3 19:12 k8s-v1.10.3

3.Salt SSH管理的机器以及角色分配

  • k8s-role: 用来设置K8S的角色

  • etcd-role: 用来设置etcd的角色,如果只需要部署一个etcd,只需要在一台机器上设置即可

  • etcd-name: 如果对一台机器设置了etcd-role就必须设置etcd-name

[root@linux-node1 ~]# vim /etc/salt/roster
linux-node1:
 host: 192.168.56.11
 user: root
 priv: /root/.ssh/id_rsa
 minion_opts:
   grains:
     k8s-role: master
     etcd-role: node
     etcd-name: etcd-node1

linux-node2:
 host: 192.168.56.12
 user: root
 priv: /root/.ssh/id_rsa
 minion_opts:
   grains:
     k8s-role: node
     etcd-role: node
     etcd-name: etcd-node2

linux-node3:
 host: 192.168.56.13
 user: root
 priv: /root/.ssh/id_rsa
 minion_opts:
   grains:
     k8s-role: node
     etcd-role: node
     etcd-name: etcd-node3

4.修改对应的配置参数,本项目使用Salt Pillar保存配置

[root@linux-node1 ~]# vim /srv/pillar/k8s.sls
#设置Master的IP地址(必须修改)
MASTER_IP: "192.168.56.11"

#设置ETCD集群访问地址(必须修改)
ETCD_ENDPOINTS: "https://192.168.56.11:2379,https://192.168.56.12:2379,https://192.168.56.13:2379"

#设置ETCD集群初始化列表(必须修改)
ETCD_CLUSTER: "etcd-node1=https://192.168.56.11:2380,etcd-node2=https://192.168.56.12:2380,etcd-node3=https://192.168.56.13:2380"

#通过Grains FQDN自动获取本机IP地址,请注意保证主机名解析到本机IP地址
NODE_IP: {{ grains['fqdn_ip4'][0] }}

#设置BOOTSTARP的TOKEN,可以自己生成
BOOTSTRAP_TOKEN: "ad6d5bb607a186796d8861557df0d17f"

#配置Service IP地址段
SERVICE_CIDR: "10.1.0.0/16"

#Kubernetes服务 IP (从 SERVICE_CIDR 中预分配)
CLUSTER_KUBERNETES_SVC_IP: "10.1.0.1"

#Kubernetes DNS 服务 IP (从 SERVICE_CIDR 中预分配)
CLUSTER_DNS_SVC_IP: "10.1.0.2"

#设置Node Port的端口范围
NODE_PORT_RANGE: "20000-40000"

#设置POD的IP地址段
POD_CIDR: "10.2.0.0/16"

#设置集群的DNS域名
CLUSTER_DNS_DOMAIN: "cluster.local."

5.执行SaltStack状态

测试Salt SSH联通性
[root@linux-node1 ~]# salt-ssh '*' test.ping

执行高级状态,会根据定义的角色再对应的机器部署对应的服务

5.1 部署Etcd,由于Etcd是基础组建,需要先部署,目标为部署etcd的节点。
[root@linux-node1 ~]# salt-ssh -L 'linux-node1,linux-node2,linux-node3' state.sls k8s.etcd

5.2 部署K8S集群
[root@linux-node1 ~]# salt-ssh '*' state.highstate

由于包比较大,这里执行时间较长,5分钟+,喝杯咖啡休息一下,如果执行有失败可以再次执行即可!

6.测试Kubernetes安装

[root@linux-node1 ~]# source /etc/profile
[root@linux-node1 ~]# kubectl get cs
NAME                 STATUS    MESSAGE             ERROR
scheduler            Healthy   ok                  
controller-manager   Healthy   ok                  
etcd-0               Healthy   {"health":"true"}  
etcd-2               Healthy   {"health":"true"}  
etcd-1               Healthy   {"health":"true"}  
[root@linux-node1 ~]# kubectl get node
NAME            STATUS    ROLES     AGE       VERSION
192.168.56.12   Ready     <none>    1m        v1.10.3
192.168.56.13   Ready     <none>    1m        v1.10.3

7.测试Kubernetes集群和Flannel网络

[root@linux-node1 ~]# kubectl run net-test --image=alpine --replicas=2 sleep 360000
deployment "net-test" created
需要等待拉取镜像,可能稍有的慢,请等待。
[root@linux-node1 ~]# kubectl get pod -o wide
NAME                        READY     STATUS    RESTARTS   AGE       IP          NODE
net-test-5767cb94df-n9lvk   1/1       Running   0          14s       10.2.12.2   192.168.56.13
net-test-5767cb94df-zclc5   1/1       Running   0          14s       10.2.24.2   192.168.56.12

测试联通性,如果都能ping通,说明Kubernetes集群部署完毕,有问题请QQ群交流。
[root@linux-node1 ~]# ping -c 1 10.2.12.2
PING 10.2.12.2 (10.2.12.2) 56(84) bytes of data.
64 bytes from 10.2.12.2: icmp_seq=1 ttl=61 time=8.72 ms

--- 10.2.12.2 ping statistics ---
1 packets transmitted, 1 received, 0% packet loss, time 0ms
rtt min/avg/max/mdev = 8.729/8.729/8.729/0.000 ms

[root@linux-node1 ~]# ping -c 1 10.2.24.2
PING 10.2.24.2 (10.2.24.2) 56(84) bytes of data.
64 bytes from 10.2.24.2: icmp_seq=1 ttl=61 time=22.9 ms

--- 10.2.24.2 ping statistics ---
1 packets transmitted, 1 received, 0% packet loss, time 0ms
rtt min/avg/max/mdev = 22.960/22.960/22.960/0.000 ms

8.如何新增Kubernetes节点

  • 1.设置SSH无密码登录

  • 2.在/etc/salt/roster里面,增加对应的机器

  • 3.执行SaltStack状态salt-ssh '*' state.highstate。

[root@linux-node1 ~]# vim /etc/salt/roster
linux-node4:
 host: 192.168.56.14
 user: root
 priv: /root/.ssh/id_rsa
 minion_opts:
   grains:
     k8s-role: node
[root@linux-node1 ~]# salt-ssh '*' state.highstate

9.下一步要做什么?

你可以安装Kubernetes必备的插件

必备插件

1.CoreDNS部署

2.Dashboard部署

3.Heapster部署

4.Ingress部署

5.CI/CD

培训教学

  • 目前DevOps学院已经上线《基于Kubernetes构建企业容器云》的【入门实战篇】和【进阶提高篇】

  • 【DevOps学院】 http://www.devopsedu.com/

注意:不要相信自己,要相信电脑!!!

手动部署

转载自:https://github.com/unixhot/salt-kubernetes/blob/master/README.md

anzhihe安志合个人博客,版权所有丨 如未注明,均为原创 丨转载请注明转自:https://chegva.com/3057.html | ☆★★每天进步一点点,加油!★★☆

您可能还感兴趣的文章!

发表评论

电子邮件地址不会被公开。 必填项已用*标注