Kubernetes【K8S】(五):Service
2021-03-14 05:41
标签:mic provider dig 内核 访问 forward pac nec cname Kubernetes Service定义了一个Pod的逻辑分组,一种可以访问它们的策略。这组Pod能被Service访问到,通常是通过label Selector。 ? 在Kubernetes集群中,每个Node运行一个 修改后 有时不需要或不想要负载均衡,以及单独的 NodePort的原理在于在Node上开了一个端口,将向该端口的流量导入kube-proxy,然后由kube-proxy进一步给对应的Pod。 云供应商提供的服务,其实和NodePort是同一种方式。 这种类型的Service通过返回CNAME和它的值,可以将服务映射到externalName字段的内容(例如:www.123.com)。ExternalName Service是Service的特例,它没有selector,也没有定义任何的端口和Endpoint。相反的,对于运行在集群之外的服务,它通过返回该外部服务的别名这种方式来提供服务。 当查询主机 Kubernetes【K8S】(五):Service 标签:mic provider dig 内核 访问 forward pac nec cname 原文地址:https://www.cnblogs.com/chinda/p/12812939.htmlService概念
Service
能够提供负载均衡的能力,它只提供4层负载均衡的能力,而没有7层功能,有时我们可能需要更多的匹配规则来转发请求,这点上4层负载均衡是不支持的。Service的类型
Service
在K8S中有四种类型
ClusterIp:
默认类型,自动分配一个仅Cluster内部可以访问的虚拟IP。NodePort:
在ClusterIP
基础上为Service
在每台机器上绑定一个端口,这样就可以通过NodePort
来访问服务。LoadBalancer:
在NodePort
的基础上,借助cloud provider
创建一个外部负载均衡器,并将请求转发到NodePort
。ExternalName:
把集群外部的服务引入到集群内部来,在集群内部直接使用。没有任何类型代理被创建,只有Kubernetes1.7
或更高版本的kube-dns
才支持。VIP和Service代理
kube-proxy
进程。kube-proxy
负责为Service
实现了一种VIP(虚拟IP)的形式,而不是ExternalName
的形式。在Kubernetes v1.0版本,代理v完全在userspace。在Kubernetes v1.1版本,新增了iptables代理,但并不是默认的运行模式。从Kubernetes v1.2起,默认就是iptables代理。在Kubernetes v1.8.0-beta.0中,添加了ipvs代理,在Kubernetes 1.14版本开始默认使用ipvs代理。在Kubernetes v1.0版本,Service
是“4层”(TCP/UDP over IP)的概念。在Kubernetes v1.1版本,新增了Ingress API
(beta版),用来表示“7层”(HTTP)服务。代理模式的分类
userspace
代理模式
iptables
代理模式
ipvs
代理模式kube-proxy
会监视Kubernetes Service
对象和Endpoints
对象,调用netlink
接口以相应地创建ipvs
规则并定期与Kubernetes Service
对象和Endpoints
对象同步ipvs
规则,以确保ipvs
状态与期望一致。访问服务时,流量将被重定向到其中一个后端Pod。与iptables
类似,ipvs
于netfilter
的hook
功能,但使用哈希表作为底层数据结构并在内核空间中工作。这意味着ipvs
可以更快地重定向流量,并在同步代理规则时具有更好地性能。此外,ipvs
为负载均衡算法提供了更多选项,例如:
rr
:轮询调度lc
:最小连接数dh
:目标哈希sh
:源哈希sed
:最短期望延迟nq
:不排队调度注意:ipvs模式假定在运行kube-proxy之前在节点上都已经安装了ipvs内核模块。当kube-proxy以ipvs代理模式启动时,kube-proxy将验证节点上是否安装了ipvs模块,如果未安装,则kube-proxy将回退到iptables代理模式。
Service的 spec.type
ClusterIP
ClusterIP
主要在每个node
节点使用iptables
,将发向clusterIP
对应端口的数据,转发到kube-proxy
中。然后kube-proxy
自己内部实现有负载均衡的方法,并可以查询到这个service
下对应pod
的地址和端口,进而把数据转发给对应的pod
地址和端口。
kubectl
命令向apiserver
发送创建service
的命令,apiserver
收到请求后将数据存储到etcd
中。kubernetes
的每个节点中都有一个叫做kube-proxy
的进程,这个进程负责感知service
,pod
的变化,并将变化的信息写入本地的iptables
规则中。iptables
使用NAT等技术将virtualIP
的流量转至endpoint
中。创建myapp-deploy.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp-deploy
labels:
app: myapp-deploy
spec:
replicas: 3
template:
metadata:
name: myapp-deploy
labels:
app: myapp-deploy
release: stabel
env: test
spec:
containers:
- name: myapp-deploy
image: chinda.com/library/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
name: http
restartPolicy: Always
selector:
matchLabels:
app: myapp-deploy
release: stabel
创建myapp-service.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp-service
spec:
selector:
app: myapp-service
release: stabel
ports:
- port: 80
targetPort: 80
name: http
type: ClusterIP
测试
[root@k8s-master01 ~]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1
拒绝连接,ipvs检测service下没有挂载任何的pod,原因是deployment和service的spec.selector命名不相同。
修改后myapp-deploy.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp-deploy
labels:
app: myapp-deploy
spec:
replicas: 3
template:
metadata:
name: myapp
labels:
app: myapp
release: stabel
env: test
spec:
containers:
- name: myapp-deploy
image: chinda.com/library/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
name: http
restartPolicy: Always
selector:
matchLabels:
app: myapp
release: stabel
修改后myapp-service.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp-service
spec:
selector:
app: myapp
release: stabel
ports:
- port: 80
targetPort: 80
name: http
type: ClusterIP
检测
[root@k8s-master01 ~]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1
Headless Service
Service IP
。遇到这种情况,可以通过指定Cluster IP(spec.clusterIP)
的值为“None”来创建Headless Service。这类Service并不会分配Cluster IP,kube-proxy不会处理他们,而且平台也不会为它们进行负载均衡和路由。创建myapp-headless-svc.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp-headless
spec:
selector:
app: myapp
ports:
- port: 80
targetPort: 80
clusterIP: None
解析coredns
# svc 创建成功会写入到coredns中
[root@k8s-master01 ~]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1
NodePort
创建nodeport.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp-nodeport
spec:
selector:
app: myapp
release: stabel
ports:
- port: 80
targetPort: 80
type: NodePort
测试
[root@k8s-master01 ~]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1
LoadBalancer
ExternalName
创建ex.yaml
apiVersion: v1
kind: Service
metadata:
name: myapp-ex
spec:
type: ExternalName
externalName: www.123.com
检测
[root@k8s-master01 ~]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1
myapp-ex.default.svc.cluster.local
时,集群的DNS服务将返回一个值www.123.comd的CNAME记录。访问这个服务的工作方式和其他的相同,唯一不同的时重定向发生在DNS层,而且不会进行代理或转发。
文章标题:Kubernetes【K8S】(五):Service
文章链接:http://soscw.com/index.php/essay/64447.html