Kubernetes之DaemonSet

2021-05-28 16:00

阅读:407

标签:代码   工作   min   restart   现在   选择器   目的   脚本   http   

1.DaemonSet在每个节点上运行一个pod

  K8s中Replicationcontroller和ReplicaSet都用于在Kubernetes集群上运行部署特定数量的pod。但是,当希望pod在集群中的每个节点上运行时(并且每个节点都需要正好一个运行的pod实例),就会出现某些情况。

  这些情况包括pod执行系统级别的与基础结构相关的操作。例如,希望在每个节点上运行日志收集器和资源监控器。另一个典型的例子是Kubernetes自己的kube-proxy进程,它需要运行在所有节点上才能使服务工作。

  在Kuberneters之外,此类进程通常在节点启动期间通过系统初始化脚本或systemd守护进程启动。在Kuberneters节点上,仍然可以使用systemd运行系统进程,但这样就不能利用所有的Kuberneters特性了。

 

1.1 使用DaemonSet在每个节点上运行一个pod

  要在所有集群节点上运行一个pod需要创建一个DaemonSet对象,这很像一个ReplicationController或ReplicaSet,除了由DaemonSet创建的pod,己经有一个指定的目标节点并跳过Kubemetes调度程序。它们不是随机分布在集群上的。

  DaemonSet确保创建足够的pod,并在自己的节点上部署每个pod。

  尽管ReplicaSet(或ReplicationController)确保集群中存在期望数量的pod副本,但DaemonSet并没有期望的副本数的概念。它不需要,因为它的工作是确保一个pod匹配它的选择器并在每个节点上运行。

  如果节点下线,DaemonSet不会在其他地方重新创建pod。但是,当将一个新节点添加到集群中时,DaemonSet会立刻部署一个新的pod实例。如果有人无意中删除了一个pod,那么它也会重新创建一个新的pod。与ReplicaSet—样,DaemonSet从配置的pod模板创建pod。

 

1.2 使用DaemonSet只在特定的节点上运行pod

  DaemonSet将pod部署到集群中的所有节点上,除非指定这些pod只在部分节点上运行。这是通过pod模板中的nodeSelector属性指定的,这是DaemonSet定义的一部分(类似于ReplicaSet或ReplicationController中的pod模板)。

  也可以使用节点选择器将pod部署到特定的节点上。DaemonSet中的节点选择器与之相似——它定义了DaemonSet必须将其pod部署到的节点。

  注意:节点可以被设置为不可调度的,防止pod被部署到节点上。DaemonSet甚至会将pod部署到这些节点上,因为无法调度的属性只会被调度器使用,而DaemonSet管理的pod则完全绕过调度器。这是预期的,因为DaemonSet的目的是运行系统服务,即使是在不可调度的节点上,系统服务通常也需要运行。

  用一个例子来解释DaemonSet

  假设有一个名为ssd-monitor的守护进程,它需要在包含固态驱动器(SSD)的所有节点上运行。你将创建一个DaemonSet,它在标记为具有SSD的所有 节点上运行这个守护进程。集群管理员己经向所有此类节点添加了disk=ssd的标签,因此你将使用节点选择器创建DaemonSet,该选择器只选择具有该标签的节点,如图4.9所示。

技术图片

  创建一个DaemonSet YAML定义文件

  假设将创建一个运行模拟的ssd-monitor监控器进程的DaemonSet,该进程每5秒会将“SSD OK”打印到标准输出。为DaemonSet创建一个YAML文件,如下面的代码清单所示。

apiVersion: apps/v1beta2     #DaemonSet在apps的API组中,版本是v1beta2
kind: DaemonSet
metadata:
  name: ssd-monitor
spec:
  selector:
    matchLabels:
      app: ssd-monitor
  template:
    metadata:
      labels:
        app: ssd-monitor
    spec:
      nodeSelector:                    #pod模版包含一个节点选择器,会选择所有disk=ssd标签的节点
        disk: ssd
      containers:
      - name: main
        image: luksa/ssd-monitor

  创建DaemonSet

  创建一个DaemonSet就像从YAML文件创建资源那样:

$ kubectl create -f ssd-monitor-daemonset.yaml
daemonset "ssd-monitor" created

  来看一下创建的DaemonSet:

$ kubectl get ds
NAME          DESIRED    CURRENT    READY    UP-TO-DATE    AVAILABLE    NODE-SELECTOR
ssd-monitor     0          0         0        0                 0         disk=ssd

  这0看起来很奇怪。DaemonSet应该部署pod吗? 现在列出pod:

$ kubectl get po
No resources found

  pod在哪里呢?知道发生了什么吗?是的,忘记给节点打上disk=ssd标签了。 打上标签之后,DaemonSet将检测到节点的标签己经更改,并将pod部署到有匹配标签的所有节点。

  向节点上添加所需的标签

  无论你使用的是Minikube、GKE或其他多节点集群,都需要首先列出节点,因为在标记时需要知道节点的名称:

$ kubectl get node
NAME    STATUS    AGE    VERSION
minikube Ready    4d         v1.6.0

  现在给节点添加disk=ssd标签(如果没有使用Minikube,用你的节点名替换minikube)

 kubectl label node minikube disk=ssd
node "minikube" labeled

  DaemonSet现在应该己经创建pod了

$ kubectl get po
NAME                       READY    STATUS    RESTARTS    AGE
ssd-monitor-hgxwq    1/1      Running           0          35s

  现在看起来一切正常。如果有多个节点并且其他的节点也加上了同样的标签,将会看到DaemonSet在每个节点上都启动pod。

  从节点上删除所需的标签

  现在假设给其中一个节点打错了标签。它的硬盘是磁盘而不是SSD。这时修改了标签会发生什么呢?

$ kubectl label node minikube disk=hdd --overwrite
node "minikube" labeled

  看一下更改是否影响了运行在节点上的pod:

$ kubectl get po
NAME                     READY    STATUS    RESTARTS AGE
ssd-rnonitor-hgxwq 1/1    Terminating       0        4m

  pod如预期中正在被终止。这里对DaemonSet的探索就要结束了,因此可能想要删除ssd-monitor DaemonSet。如果还有其他的pod在运行,删除DaemonSet也会一起删除这些pod。

Kubernetes之DaemonSet

标签:代码   工作   min   restart   现在   选择器   目的   脚本   http   

原文地址:https://www.cnblogs.com/lizexiong/p/14769853.html

上一篇:Http和Https

下一篇:HTML-表格


评论


亲,登录后才可以留言!