kubernetes系列(十五) - 集群调度
2021-01-22 14:17
标签:meta 解决 比较 operator shel 决定 exe val 计算 这里的 调度过程分为两部分,如果中间任何一步骤有错误,直接返回错误: 注意: 优先级由一系列键值对组成,键是该优先级项的名称,值是它的权重(该项的重要性)。这些优先级选项包括: 通过算法对所有的优先级项目和权重进行计算,得出最终的结果 简单来理解就是,指定调度到的 pod亲和性主要解决pod可以和哪些pod部署在同一个拓扑域中的问题 拓扑域: 用主机标签实现,可以是单个主机,或者具有同个label的多个主机,也可以是多个主机组成的 cluster、zone 等等 所以简单来说: 比如一个 pod 在一个节点上了,那么我这个也得在这个节点,或者你这个 pod 在节点上了,那么我就不想和你待在同一个节点上 pod亲和性/反亲和性又分为两种: 如果没有特别配置toleration,默认是不容忍所有污点的 污点的value是可选项,即污点有两种组成形式 effect effect描述污点的作用, 当前支持三种策略: 设置了污点的Node将根据 但我们可以在Pod上设置容忍(Toleration)。意思是设置了容忍的Pod将可以容忍污点的存在,可以被调度到存在污点的Node上 可以被调度不代表一定会被调度,只是保存了可能性 如下是 注意点 骚操作 通过指定 kubernetes系列(十五) - 集群调度 标签:meta 解决 比较 operator shel 决定 exe val 计算 原文地址:https://www.cnblogs.com/baoshu/p/13284176.html
1. 集群调度简介
Scheduler
是kubernetes
中的调度器组件,主要的任务是把定义的pod分配到集群的节点上。听起来非常简单,但有很多要考虑的问题:
Sheduler
是作为单独的程序运行的(如果是kubeadm
则是以pod形式运行的),启动之后会一直和APIServer
持续连接,获取PodSpec.NodeName
为空的pod,对每个pod都会创建一个binding
,表明该 pod 应该放到哪个节点上
PodSpec.NodeName
不为空的pod,说明我们手动指定了这个pod应该部署在哪个node上,所以这种情况Sheduler
就不需要参与进来了
2. 调度过程
2.1 调度过程概览
predicate
(预选): 首先是过滤掉不满足条件的节点priority
(优选): 然后从中选择优先级最高的节点2.2 Predicate(预选)
Predicate
有一系列的算法可以使用:
如果在predicate
过程中没有合适的节点。pod会一直在pending
状态,不断重试调度,直到有节点满足条件。经过这个步骤,如果有多个节点满足条件,就继续priorities
过程2.3 Priorities(优选)
Priorities
是按照优先级大小对节点排序
3. 调度的亲和性
3.1 node亲和性
3.1.1 node亲和性简介
node
,nodeAffinity
又分为两种:pod.spec.nodeAffinity
:
preferredDuringSchedulinglgnoredDuringExecution
:软策略【我想要去这个节点】requiredDuringschedulinglgnoredDuringExecution
:硬策略【我一定要去这个节点】3.1.2 node亲和性硬策略示例
apiVersion: v1
kind: Pod
metadata:
name: affinity
labels:
app: node-affinity-pod
spec:
containers:
- name: with-node-affinity
image: lzw5399/tocgenerator
affinity:
# 指定亲和性为node亲和性
nodeAffinity:
# 指定为硬策略
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
# key就是node的label
# 这句话代表当前pod一定不能分配到k8s-node02节点上
- matchExpressions:
- key: kubernetes.io/hostname
operator: NotIn
values:
- k8s-node02
- key: kubernetes.io/hostname
,可以通过以下方式查看node的label$ kubectl get nodes --show-labels
NAME STATUS ROLES AGE VERSION LABELS
master Ready master 154d v1.10.0 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/hostname=master,node-role.kubernetes.io/master=
node02 Ready
3.1.3 node亲和性软策略示例
apiVersion: v1
kind: Pod
metadata:
name: affinity
labels:
app: node-affinity-pod
spec:
containers:
- name: with-node-affinity
image: lzw5399/tocgenerator
affinity:
# 声明节点亲和性为软策略
nodeAffinity:
preferredDuringSchedulingIgnoredDuringExecution:
# 当前策略权重为1
- weight: 1
preference:
# [最好]能分配到label为source=k8s-node03的节点上
matchExpressions:
- key: source
operator: In
values:
- k8s-node03
3.2 pod亲和性
3.2.1 pod亲和性/反亲和性简介
pod.spec.affinity.podAffinity/podAntiAffinity
:
preferredDuringSchedulinglgnoredDuringExecution
:软策略requiredDuringSchedulinglgnoredDuringExecution
:硬策略3.2.2 pod亲和性/反亲和性示例
apiVersion: v1
kind: Pod
metadata:
name: pod-3
labels:
app: pod-3
spec:
containers:
- name: pod-3
image: hub.coreqi.cn/library/myapp:v1
affinity:
# 配置一条pod亲和性策略
podAffinity:
# 配置为硬策略
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app
operator: In
values:
- pod-1
topologyKey: kubernetes.io/hostname
# 配置一条pod反亲和性策略
podAntiAffinity:
# 配置为软策略
preferredDuringSchedulingIgnoredDuringExecution:
- weight: 1
podAffinityTerm:
labelSelector:
matchExpressions:
- key: app
operator: In
values:
- pod-2
topologyKey: kubernetes.io/hostname
3.3 亲和性/反亲和性调度策略比较
调度策略
匹配标签
操作符
拓扑域支持
调度目标
nodeAffinity
主机
IN, NotIn, Exists, DoesNotExist, Gt, Lt
否
指定主机
podAffinity
POD
IN, NotIn, Exists, DoesNotExist
是
POD与指定POD同一拓扑域
podAntiAffinity
POD
IN, NotIn, Exists, DoesNotExist
是
POD与指定POD不在同一拓扑域
4. Taint(污点)和Toleration(容忍)
4.1 Taint和和Toleration简介
节点亲和性
是pod的一种属性(偏好或硬性要求),它使pod被吸引到一类特定的节点。Taint
则相反,它使节点能够排斥一类特定的pod。Taint
和toleration
相互配合,可以用来避免pod被分配到不合适的节点上。每个节点上都可以应用一个或多个taint,这表示对于那些不能容忍这些taint的pod,是不会被该节点接受的。如果将toleration 应用于pod上,则表示这些pod 可以(但不要求)被调度到具有匹配 taint 的节点上。
4.2 Taint(污点)
4.2.1 Taint的组成
key-value:effect
key:effect
NoSchedu1e
:表示k8s将不会将Pod 调度到具有该污点的Node上PreferNoSchedu1e
:表示k8s将尽量避免将Pod调度到具有该污点的 Node上NoExecute
:表示k8s将不会将 Pod调度到具有该污点的Node上,同时会将Node上已经存在的 Pod 驱逐出去
4.2.2 Taint的设置、查看和去除
# value不为空的格式
kubectl taint nodes node1 key1=value1:NoSchedule
# value为空的格式
kubectl taint nodes node1 key1:NoExecute
# 通过describe node查看Taints属性
kubectl describe node nodename
-
就好了# 去除如上截图的一个污点
kubectl taint nodes node1 haha-233:NoSchedule-
4.3 Toleration(容忍)
4.3.1 Toleration简介
taint
的effect
:NoSchedule
、PreferNoSchedule
、NoExecute
和 Pod之间产生互斥的关系,Pod将在一定程度上不会被调度到Node上
4.3.2 Toleration的资源清单配置
pod.spec.tolerations
部分:tolerations:
# 容忍key1-value1:NoSchedule的污点
# 且需要被驱逐时,可以再呆3600秒
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoSchedule"
# 用于描述当Pod需要被驱逐时可以在 Pod上继续保留运行的时间
tolerationSeconds: 3600
# 容忍key1-value1:NoExecute的污点
- key: "key1"
operator: "Equal"
value: "value1"
effect: "NoExecute"
# 容忍key2:NoSchedule的污点
- key:"key2"
operator: "Exists"
effect: "NoSchedule"
key
,value
, effect
要与Node上设置的 taint保持一致operator
的值为Exists
将会忽略value值operator
,则默认为equal
tolerationSeconds
用于描述当Pod需要被驱逐时可以在 Pod上继续保留运行的时间
tolerations:
- operator: "Exists"
effect
时,表示容忍所有的污点作用tolerations:
- key: "key"
operator: "Exists"
Master
存在时,防止资源浪费,可以如下设置kubectl taint nodes Node-Name node-role.kubernetes.io/master=:PreferNoSchedule
5. 指定调度节点
Pod.spec.nodeName
将Pod直接调度到指定的Node节点上
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: myweb
spec:
replicas: 7
template:
metadata:
labels:
app: myweb
spec:
# 直接指定node名称
nodeName: k8s-node01
containers:
- name: myweb
image: lzw5399/tocgenerator
ports:
- containerPort: 80
文章标题:kubernetes系列(十五) - 集群调度
文章链接:http://soscw.com/index.php/essay/45468.html