Kubernetes基础资源对象介绍

网友投稿 1090 2022-10-28

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

Kubernetes基础资源对象介绍

之前“Kubernetes基本架构及集群部署”中介绍了Kubernetes的基本架构、功能组件以及部署,本文继续基于张建锋老师容器技术培训内容整理介绍Kubernetes的一些基础的资源对象,包括Pod、有状态和无状态的Workload、Service以及Volume等。

1、K8S基础资源构成

上图是整个Kubernetes集群中的资源对象,主要功能和对象分类如下:

工作负载 (Workload)发现和负载均衡 (Discovery & LB),Service Endpoint Ingress配置和存储 (Config & Storage),ConfigMap Secret Volumn集群 (Cluster),Namespace Node Role ClusterRole RoleBinding ClusterRoleBinding元数据 (Metadata),HPA LimitRange

1.1 API对象

1.1.1 API对象基本组成

以下是简单的Deployment的yaml定义:

apiVersion: apps/v1kind: Deploymentmetadata: name: nginx-deployment namespace: nginx-example labels: apps: nginxspec: replicas: 3 selector: matchLabels:app: nginx template: metadata:labels: app: nginx spec: containers: - name: nginx image: nginx:1.7.9 ports: - containerPort: 80 resources: limits: memory: "200Mi" requests: memory: "100Mi"status: {}

1.1.2 Label标签

Label是Kubernetes中另一个重要概念,一个Label是一个key=value的键值对,其中key与value由用户自己指定。Label是资源上的标识,用来对它们进行区分和选择,具有以下特点:

一个label会以kv形式附加到各种对象上:Node、Pod、Service、RS。同一个资源对象的labels属性的key必须唯一一个资源对象可以定义任意多数量的Label,同一个Label也可以被添加到任意数量的资源对象上去;label通常在资源对象确定时定义,也可以在资源创建后动态添加或删除;

实际过程中可以通过label实现资源的多维度分组,以便灵活,方便的进行资源分配,调度,配置,部署等管理工作;常用的多维度标签分类如下:

版本标签(release):stable(稳定版),canary(金丝雀版本),beta(测试版)环境类(environment):dev(开发),qa(测试),production(生产),op(运维)应用类(applaction):ui(设计),as(应用软件),pc(电脑端),sc(网络方面)架构层(tier):frontend(前端),backend(后端),cache(缓存)分区标签(partition):customerA(客户),AreaB(区域)质量管控级别(track):daily(每天),weekly(每周)

Kubernetes通过label selector查询和筛选拥有某些Label的资源对象,这种方式类似于SQL的where查询条件,比如name=redis-slave匹配所有name=redis-slave的资源对象、env!=production匹配所有不具有标签env=production的资源对象。

1.2 NameSpace

NameSpace为Kubernetes集群提供虚拟的隔离作用,通过将集群内部的资源对象“分配”到不同的Namespace上,形成逻辑上分组的不同项目或用户组。

为团队创建不同Namespace为开发、测试、生产环境创建不同的Namespace,以做到彼此之间相互隔离可以使用 ResourceQuota 与Resource LimitRange 限制资源分配与使用

Kubernetes集群初始有三个命名空间,分别是default、kube-system和kube-public,除此以外,管理员可以创建新的命名空间满足需要。一旦创建了Namespace,可以在创建资源对象的时候指定资源对象属于哪个NameSpace。

1.3 基础构成POD

官方对于Pod的解释是:

Pod是可以在 Kubernetes 中创建和管理的、最小的可部署的计算单元。

简单来说Pod就是由若干容器组成的最小管理单元,在Pod内可以共享网络、存储和计算资源。Kubernetes为每个Pod都分配了唯一的IP地址,称之为Pod IP,一个Pod内的多个容器共享Pod IP地址。在同一节点上,Pod相互可见,但是Pod不能跨节点,一定在一个节点之上,如下图所示:

Pod有两种类型普通的Pod和静态Pod,静态Pod比较特殊,它并没有存放在K8S的etcd存储中,而是存放在某个具体的Node的一个具体文件中,并且只在此Node上启动运行。普通的Pod一旦被创建,就会放入etcd存储,随后被K8S Master调度到某个具体的Node上并进行绑定,随后该Pod被Kubelet进程实例化为一组Docker容器并启动。

1.3.1 创建POD

K8S中的所有对象都可以通过yaml来定义,以下是Pod的yaml文件:

apiVersion: v1kind: Podmetadata: name: memory-demo namespace: mem-examplespec: containers: - name: memory-demo-ctr image: polinux/stress resources: limits: memory: "200Mi" requests: memory: "100Mi" command: ["stress"] args: ["--vm", "1", "--vm-bytes", "150M", "--vm-hang", "1"] volumeMounts: - name: redis-storage mountPath: data/redis volumes: - name: redis-storage

apiVersion记录K8S的API Server版本,现在为v1kind记录该yaml的对象类型,这里是Podmetadata记录了Pod自身的元数据,比如Pod的名称、Pod属于哪个namespacespec记录了Pod内部所有的资源的详细信息:containers记录了Pod内的容器信息,包括:name容器名、image容器的镜像地址,resources容器需要的CPU、内存、GPU等资源,comman容器的入口命令,args容器的入口参数,volumeMounts容器要挂载的Pod数据卷等volumes记录了Pod内的数据卷信息

1.3.2 POD创建过程

用户通过kubectl命名发起请求。apiserver通过对应的kubeconfig进行认证,认证通过后将yaml中的po信息存到etcdController-Manager通过apiserver的watch接口发现了pod信息的更新执行该资源所依赖的拓扑结构整合,整合后将对应的信息交给apiserverapiserver写到etcd,此时pod已经可以被调度了Scheduler同样通过apiserver的watch接口更新到pod可以被调度,通过算法给pod分配节点并将pod和对应节点绑定的信息交给apiserverapiserver写到etcd,然后将pod交给kubeletkubelet收到pod后,调用CNI接口给pod创建pod网络调用CRI接口去启动容器,调用CSI进行存储卷的挂载网络,容器,存储创建完成后pod创建完成,等业务进程启动后,pod运行成功

1.4 工作负载

Kubernetes集群中的Workload工作负载根据不同业务分为以下:

业务类型API对象
无状态ReplicaSet、Deployment
有状态StatefulSet
后台持续服务DaemonSet
批处理型Job

1.4.1基础构成ReplicaSet

通过定义RS实现Pod创建及副本数量的自动控制RS中包括完整的Pod定义模板通过Label Selector机制实现对Pod副本的自动控制通过改变RS里Pod副本数量,可以实现Pod的扩容与缩容通过改变RS中Pod模板的镜像版本,可以实现Pod的滚动升级

如下图所示, ReplicaSets定义了5个副本分布在三个Node上,因此需要运行5个POD,而DaemonSet每个节点上只运行一个副本。

需要注意的是一般很少单独使用ReplicaSet,主要被Deployment这个更高层的资源对象引用,从而形成一整套Pod的创建、删除和更新的编排机制。

1.4.2 基础构成Deployment

Deployment的典型使用场景如下:

创建一个Deployment对象来生成对应的Replica Set并完成Pod副本的创建检查Deployment的状态来看部署动作是否完成(Pod副本数量是否达到预期的值)更新Deployment以创建新的Pod如果当前Deployment不稳定,则回滚到一个早先的Deployment版本暂停Deployment以便于一次性修改多个PodTemplateSpec的配置项,之后再恢复Deployment,进行新的发布扩展Deployment以应对高负载查看Deployment的状态,以此作为发布是否成功的指标清理不再需要的旧版本ReplicaSets

apiVersion: apps/v1beta1kind: Deploymentmetadata: name: kubiaspec: replicas: 3 template: metadata: name: kubia labels: app: kubia spec: containers: - image: luksa/kubia:v1 name: nodejs

运行下面命令创建Deployment

# kubectl create -f tomcat-deployment.yaml

运行下面命令查看Deployment信息:

# kubectl get deploymentsNAME DESIRED CURRENT UP-TO-DATE AGEtomcat-deploy 1 1 1 4h

DESIRED:Pod副本数量的期望值,即在Deployment里定义的Replica。CURRENT:当前Replica的值,实际上是Deployment创建的Replica Set里的Replica值,这个值不断增加,直到达到DESIRED为止,表明整个部署过程完成。UP-TO-DATE:最新版本的Pod的副本数量,用于指示在滚动升级的过程中,有多少个Pod副本已经成功升级。AVAILABLE:当前集群中可用的Pod副本数量,即集群中当前存活的Pod数量

1.4.3 组成部分StatefulSet

在Kubernetes管理的对象中,ReplicaSet、Deployment、DaemonSet和Job都是面向无状态的服务,但现实中很多服务是有状态的,比如数据库集群、Zookeeper集群等。这些有状态的集群有一些共性的特征:

每个节点都有固定的身份ID,通过这个ID,集群中的成员可以相互发现并通信;集群的规模是比较固定的,集群规模不能随意变动;集群中的每个节点都是有状态的,通常会持久化数据到永久存储中;如果磁盘损坏,则集群里的某个节点无法正常运行,集群功能受损。

为了解决这些有状态的服务,Kubernetes引入了StatefulSet资源,StatefulSet带有状态Pod,重启后依然具有原来的状态信息。具有以下特性:

StatefulSet里每个Pod都要稳定的、唯一的网络标识,可以用来发现集群内的其它成员。StatefulSet 中的每个 Pod 的名字都是事先确定的,不能更改。StatefulSet控制的Pod的启停顺序是有依赖的,操作第n个Pod,前n-1个Pod已经运行且准备好StatefulSet 中的 Pod,每个 Pod 挂载自己独立的存储,通过PV或PVC来实现,删除Pod时默认不会删除与StatefulSet相关的存储卷。如果一个 Pod 出现故障,从其他节点启动一个同样名字的 Pod,要挂载上原来 Pod 的存储继续以它的状态提供服务。

适合于StatefulSet的业务包括数据库服务MySQL和PostgreSQL、集群化管理服务ZooKeeper、etcd等有状态服务。StatefulSet的另一种典型应用场景是作为一种比普通容器更稳定可靠的模拟虚拟机的机制。使用 StatefulSet,Pod仍然可以通过漂移到不同节点提供高可用,而存储也可以通过外挂的存储来提供高可靠性,StatefulSet做的只是将确定的 Pod 与确定的存储关联起来保证状态的连续性。

1.4.4 后台支撑服务集DaemonSet

对于一些批处理型的业务,可能有些节点上运行多个同类业务的Pod,有些节点上又没有这类Pod运行。DaemonSet用于管理在集群中每个Node上仅运行一份Pod的副本实例。

典型的DaemonSet服务包括存储,日志和监控等在每个节点上支持Kubernetes集群运行的服务,比如每个Node上运行一个日志采集程序或者性能监控程序。

1.4.5 组成部分job

Job是Kubernetes用来控制批处理型任务的API对象,在处理完成后整个批处理任务就结束了。Job管理的Pod根据用户的设置把任务成功完成就自动退出了,成功完成的标志根据不同的spec.completions策略而不同:

单Pod型任务有一个Pod成功就标志完成定数成功型任务保证有N个任务全部成功,需设定参数.spec.completions工作队列型任务根据应用确认的全局成功而标志成功

apiVersion: batch/v1beta1kind: CronJobmetadata: name: cronjobspec: schedule: "*/1 * * * *"jobTemplate: spec: template: spec: containers: - name: cronjob image: busybox command: ["/bin/sh","-c","date"] restartPolicy: Never

按照批处理任务实现方式的不同,批处理任务可以分为几种模式:

Job Template Expansion模式:一个Job对象对应一个待处理的Work item,适用于Work item数量少每个work item需要处理大数据量的场景Queue with Pod Per Work Item模式:采用任务队列存放Work item,一个job对象作为消费者去完成这些Work item;这种模式下会启动N个Pod,每个Pod对应一个Work itemQueue with Variable Pod Count模式:也是采用任务队列存放work item,不同的是Job启动的Pod数量是可变的

1.5 基础构成Service

Service服务是Kubernetes中的核心资源对象之一,它屏蔽了服务细节,统一对外暴露服务接口,真正做到了“微服务”。在Kubernetes中RS和Deployment只是保证了支撑服务的微服务Pod的数量,但是没有解决如何访问这些服务的问题。一个 Pod 只是一个运行服务的实例,随时可能在一个节点上停止,在另一个节点以一个新的IP启动一个新的Pod,因此不能以确定的IP和端口号提供服务。

如果要稳定地提供服务需要服务发现和负载均衡能力:

服务发现完成的工作,是针对客户端访问的服务,找到对应的的后端服务实例。在K8S集群中,客户端需要访问的服务就是Service对象。每个Service会对应一个集群内部有效的虚拟 IP,集群内部通过虚拟IP访问一个服务。Kubernetes内部的负载均衡是由Kube-proxy实现的,Kube-proxy是一个分布式代理服务器,部署在K8S的每个节点上,负责把Service的请求转发到后端的某个Pod实例上,并在内部实现服务的负载均衡与会话保持机制;Kube-proxy在设计体现了它的伸缩性优势,需要访问服务的节点越多,提供负载均衡能力的 Kube-proxy 就越多,高可用节点也随之增多。

从图中可以看出,Kubernetes的Service定义了一个服务的访问入口地址,前端的应用通过这个入口地址访问其背后由Pod副本组成的集群实例,Service与其后端的Pod副本是通过Label Selector来实现无缝对接的。

1.6 基础构成Volume

Kubernetes提供了强大的Volume机制和丰富的插件,解决了容器数据持久化和容器间共享数据的问题。在容器部署过程中一般有以下三种数据:

启动时需要的初始数据,可以是配置文件启动过程中产生的临时数据,该临时数据需要多个容器间共享启动过程中产生的持久化数据

以上都不希望在容器重启时就消失,存储卷由此而来,K8S中可以根据不同场景提供不同类型的存储能力。K8S中支持的存储类型如下:

#hostPath – 挂载主机磁盘到容器#NFS/NAS –挂载共享文件系统#emptyDir#awsElasticBlockStore azureFileVolume#Glusterfs#Ceph rbd Cephfs

普通的Volume是定义在Pod上的,属于计算资源的一部分,实际上网络存储是相对独立于计算资源而存在的一种实体资源。因此PersistentVolumes可以理解为Kubernetes集群中某个网络存储对应的存储。如果某个Pod想申请某种类型的PV,首先需要定义一个PersistentVolumeClaims对象。

1.6.1 持久化存储卷PersistentVolume

PersistentVolume是存储系统与应用系统区分开,单独资源对象。PV是对底层共享存储的一种抽象,将共享存储定义为一种资源。PV不直接和Pod发生关系,通过资源对象PVC (PersistentVolumeClaim)来绑定关联。PV与Volume的区别如下:

PV只能是网络存储,不属于任何Node,但可以在每个Node上访问PV不是定义在Pod上的,而是独立于Pod之外定义的

PVC是用户存储的请求,在pod中定义存储卷,定义的时候直接指定大小,与对应的pv建立关系。PV的整个生命周期是:

Provisioning(配置)--->Binding(绑定)--->Using(使用)--->Releasing(释放)--->Recycling(回收)

PV的创建有两种模式:静态模式和动态模式,静态模式下除了创建PVC外,还需要手动创建PV。

apiVersion: v1kind: PersistentVolumemetadata: name: mongodb-nfs-pv namespace: defaultspec: capacity: storage: 1Gi accessModes: - ReadWriteMany persistentVolumeReclaimPolicy:Retain storageClassName: nfs-mongodb nfs: path: /root/data/nfs/mongodb server: 192.168.72.100

PV的accessModes属性,支持三种类型ReadWriteMany 多路读写,卷能被集群多个节点挂载并读写ReadWriteOnce 单路读写,卷只能被单一集群节点挂载读写ReadOnlyMany 多路只读,卷能被多个集群节点挂载且只能读persistentVolumeReclaimPolicy:当与之关联的PVC被删除以后,这个PV中的数据如何被处理Retain:当删除与之绑定的PVC时候,这个PV被标记为released且之前的数据依然保存在该PV上,但是该PV不可用,需要手动来处理这些数据并删除该PVDelete:当删除与之绑定的PVC时候

1.7 基础构成配置项

在Docker中,通过将程序、依赖库、数据及配置文件“打包固化”到一个不变的镜像文件中,解决了应用的部署的难题,但同时也带来了棘手的问题,即配置文件中的参数在运行期如何修改的问题。Docker提供了两种方式解决该问题:

在运行时通过容器的环境变量来传递参数通过Docker Volume将容器外的配置文件映射到容器内

上述两种方式在分布式系统中存在着明显的缺陷,因为修改多台服务器上的某个指定文件并确保这些文件是一致的,在一定程度上很难实现。另外,希望能够集中管理系统的配置参数,而不是一堆配置文件。在Kubernetes中通过ConfigMap实现上述功能:

ConfigMap将所有的配置项当作key-value的字符串,然后这些配置项作为Map表中的一个项,整个Map中的数据持久化的存储在Kubernetes的ETCD数据库中,最后提供API方便Kubernetes相关组件或者应用CURD操作这些数据;Kubernetes提供了一种内建机制,将存储在etcd中的ConfigMap通过Volume映射的方式变成目标Pod内的配置文件,不管目标Pod被调度到哪台服务器上,都会完成自动映射。如果ConfigMap中的key-value数据被修改,则映射到Pod中的“配置文件”也会随之自动更新。

2、总结

以上是Kubernetes集群中涉及到的主要的资源对象包括Pod、Namespace、Workload、Volume以及Configmap,总结如下图所示:

参考资料:

容器技术培训,张建峰老师Kubernetes权威指南第4版,龚正等编著https://kubernetes.io/zh/docs/home/https://blog.csdn.net/Tencent_TEG/article/details/111877836https://blog.csdn.net/qq_37419449/article/details/122157277

上一篇:Tomcat是Apache软件基金会(Apache Software Foundation)的Jakarta项目中的一个核心项目
下一篇:3分钟了解JAVA编程,助你升职拿高薪
相关文章

 发表评论

暂时没有评论,来抢沙发吧~