[kubernetes]部署一套三节点的k8s集群
2021-02-14 17:19
标签:manager err 指定 使用 配置环境 bind 加入集群 克隆虚拟机 join 本文主要参考https://blog.51cto.com/3241766/2405624,用于记录成功部署的过程 环境情况: 前言: 本文通过kudeadm方式在centos7.2上安装kubernetes v1.14.2集群,分为六个部分操作: 一、Docker安装 所有节点都需要安装docker docker的安装版本选择为18.09.6,这个版本安装是成功的 安装命令补全包,用于命令行操作时双击tab,自动提示 docker默认的镜像源下载速度较慢,配置国内的aliyun镜像网站,加快镜像下载的速度 配置完成后,需要重新加载文件,并重启docker服务 安装的centos是已经禁用了防火墙(firewalld)和selinux,配置了阿里云的yum源;master和node节点都需要执行本部分操作内容。 更改主机名,此处更改的是master节点,其他node类似修改 修改/etc/hosts文件 要求mac地址和uuid号不同,在使用克隆虚拟机测试部署时,需要注意对比; 保证各节点mac和uuid唯一 修改daemon.json,新增‘"exec-opts": ["native.cgroupdriver=systemd"’ 加载文件,重启docker生效 修改cgroupdriver是为了消除告警: 新增k8s.repo文件 节点重新生成缓存 本次安装的kubernetes版本为1.14.2,需要先检查源中是否包含这个版本 安装三个软件包,分别为kubelet,kubeadm,kubectl 启动服务,并设置开机自启 设置自动补全 Kubernetes几乎所有的安装组件和Docker镜像都放在goolge自己的网站上,直接访问可能会有网络问题,这里的解决办法是从阿里云镜像仓库下载镜像,拉取到本地以后改回默认的镜像tag,脚本如下; 在节点上执行该脚本 apiserver-advertise-address指定master的interface,pod-network-cidr指定Pod网络的范围,这里使用flannel网络方案。 将命令输出结果的最后一行保存下来,用于其他节点加入该集群,内容类似如下: 配置环境变量 本文所有操作都在root用户下执行,若为非root用户,则执行如下操作: 6. master节点配置 默认情况下集群不会在master上调度pod,如果偏想在master上调度Pod,可以执行如下操作: 查看污点: 删除默认污点: 同master节点 同master节点 在各个node上执行之前保存的join_cluster的命令 2. 配置本地访问dashboard 参照内容: https://github.com/kubernetes/dashboard master节点执行命令,在master节点能够访问控制台,放在后台执行 配置转发(可以做多层转发),在本地(这里是笔记本电脑)访问dashboard 笔记本是ubuntu系统,直接在命令行执行以上命令,转发master节点的8001端口 -L: 开启端口转发; local_socket(8001):host(192.168.110.11):hostport(8001) -N: 远端不执行命令 -f: 将ssh放在后台执行 然后在笔记本浏览器中输入如下地址,访问控制台 参照内容: https://github.com/kubernetes/dashboard/blob/master/docs/user/access-control/creating-sample-user.md 编辑用于新增用户的文件add_user.yml 加载文件配置 用户创建成功,权限相关绑定也已经完成 执行命令,获取secret 输出内容大致如下 复制token行内容就可以用于登录控制台了 [kubernetes]部署一套三节点的k8s集群 标签:manager err 指定 使用 配置环境 bind 加入集群 克隆虚拟机 join 原文地址:https://www.cnblogs.com/liawne/p/12991964.html
主机名
操作系统
主机ip地址
master
CentOS Linux release 7.2.1511
192.168.110.11
node2
CentOS Linux release 7.2.1511
192.168.110.22
node3
CentOS Linux release 7.2.1511
192.168.110.33
1. 安装依赖包
[root@centos7 ~]# yum install -y yum-utils device-mapper-persistent-data lvm2
2. 设置docker源
[root@centos7 ~]# yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
3. 安装docker-ce
[root@centos7 ~]# yum install docker-ce-18.09.6 docker-ce-cli-18.09.6 containerd.io -y
4. 启动docker
[root@centos7 ~]# systemctl start docker
[root@centos7 ~]# systemctl enable docker
5. 命令补全
[root@centos7 ~]# yum -y install bash-completion && source /etc/profile.d/bash_completion.sh
6. 镜像加速
[root@centos7 ~]# mkdir -p /etc/docker
[root@centos7 ~]# tee /etc/docker/daemon.json ‘EOF‘
{
"registry-mirrors": ["https://v16stybc.mirror.aliyuncs.com"]
}
EOF
[root@centos7 ~]# systemctl daemon-reload
[root@centos7 ~]# systemctl restart docker
7. 验证
[root@centos7 ~]# docker --version
Docker version 18.09.6, build 481bc77156
二、k8s安装准备工作
1. 配置主机名
[root@centos7 ~]# hostnamectl set-hostname master
[root@master ~]# cat >> /etc/hosts EOF
192.168.110.11 master
192.168.110.22 node2
192.168.110.33 node3
EOF
2. 验证mac地址uuid
[root@master ~]# cat /sys/class/net/ens33/address
[root@master ~]# cat /sys/class/dmi/id/product_uuid
3. 禁用swap
[root@master ~]# swapoff -a && sed -i.bak ‘/swap/s/^/#/‘ /etc/fstab
4. 内核参数修改
[root@master ~]# cat /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
[root@master ~]# sysctl -p /etc/sysctl.d/k8s.conf
5. 修改cgroup driver
[root@master ~]# more /etc/docker/daemon.json
{
"registry-mirrors": ["https://v16stybc.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"]
}
[root@master ~]# systemctl daemon-reload && systemctl restart docker
[WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/6. 设置kubernetes源
[root@master ~]# cat /etc/yum.repos.d/k8s.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
[root@master ~]# yum clean all && yum -y makecache
三、Master节点安装
1. 版本查看
[root@master ~]# yum list kubelet --showduplicates | grep 1.14.2
kubelet.x86_64 1.14.2-0 kubernetes
2. 安装kubelet、kubeadm和kubectl
[root@master ~]# yum install -y kubelet-1.14.2 kubeadm-1.14.2 kubectl-1.14.2
[root@master ~]# systemctl enable kubelet && systemctl start kubelet
3. 下载镜像
[root@master ~]# more image.sh
#!/bin/bash
url=registry.cn-hangzhou.aliyuncs.com/google_containers
version=v1.14.2
images=(`kubeadm config images list --kubernetes-version=$version|awk -F ‘/‘ ‘{print $2}‘`)
for imagename in ${images[@]} ; do
docker pull $url/$imagename
docker tag $url/$imagename k8s.gcr.io/$imagename
docker rmi -f $url/$imagename
done
4. 初始化master
[root@master ~]# kubeadm init --apiserver-advertise-address 192.168.110.11 --pod-network-cidr=10.244.0.0/16
[root@master config]# more join_cluster
kubeadm join 192.168.110.11:6443 --token z562f4.rs3yvzplnh3o80zn --discovery-token-ca-cert-hash sha256:1661c4532d4054a3f312a8f1e2232ef0b19033482aa52ca4e97f574b139e1cf7
[root@master ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
[root@master ~]# source .bash_profile
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config
5. 安装pod网络
[root@master ~]# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
[root@master ~]# kubectl describe node master|grep -i taints
Taints: node-role.kubernetes.io/master:NoSchedule
[root@master ~]# kubectl taint nodes master node-role.kubernetes.io/master-
node/master untainted
四、Node节点安装
1. 安装kubelet、kubeadm和kubectl
2. 下载镜像
3. 加入集群
[root@master config]# kubeadm join 192.168.110.11:6443 --token z562f4.rs3yvzplnh3o80zn --discovery-token-ca-cert-hash sha256:1661c4532d4054a3f312a8f1e2232ef0b19033482aa52ca4e97f574b139e1cf7
五、dashboard安装
1. 下载使用kubernetes-dashboard.yaml
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.1/aio/deploy/recommended.yaml
[root@master ~]# kubectl proxy &
$ ssh -L 8001:127.0.0.1:8001 -N -f root@192.168.110.11
http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/
3. 新增admin-user用户
cat /tmp/add_user.yml
apiVersion: v1 # 增加用户admin-user
kind: ServiceAccount
metadata:
name: admin-user
namespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1 # clusterrolebinding
kind: ClusterRoleBinding
metadata:
name: admin-user
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: admin-user
namespace: kubernetes-dashboard
EOF
[root@master config]# kubectl apply -f /tmp/add_user.yaml
4. 获取admin-user用户token用于登录控制台
[root@master config]# kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk ‘{print $1}‘)
[root@master ~]# kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk ‘{print $1}‘)
Name: admin-user-token-zckb9
Namespace: kubernetes-dashboard
Labels: