ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

8.k8s集群调度

2021-08-01 16:31:21  阅读:160  来源: 互联网

标签:调度 节点 集群 key 污点 Pod k8s pod


一、节点亲和性

pod_spec.nodeAffinity

  • preferredDuringSchedulingIgnoredDuringExecution: 软策略
  • requiredDuringSchedulingIgnoredDuringExecution: 硬策略

requiredDuringSchedulingIgnoredDuringExecution

apiVersion: v1
kind: Pod
metadata:
  name: affinity
  labels:
    app: node-affinity-pod
spec:
  containers:
  - name: with-node-affinity
    image: nginx
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: kubernetes.io/hostname
            operator: NotIn
            values:
            - k8s-node2

preferredDuringSchedulinglgnoredDuringExecution

apiVersion: v1
kind: Pod
metadata:
  name: affinity1
  labels:
    app: node-affinity-pod
spec:
  containers:
  - name: with-node-affinity
    image: nginx
  affinity:
    nodeAffinity:
      preferredDuringSchedulingIgnoredDuringExecution:
      - weight: 1
        preference:
          matchExpressions:
          - key: source
            operator: In
            values:
            - k8s-node1
  

合体

apiVersion: v1
kind: Pod
metadata:
  name: affinity
  labels:
    app: node-affinity-pod
spec:
  containers:
  - name: with-node-affinity
    image: nginx
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: kunernetes.io/hostname
            operator; NotIn
            values:
            - k8s-node2
      preferredDuringSchedulingIgnoredDuringExecution:
      - weight: 1
        preference:
          matchExpressions:
          - key: source
            operator: In
            values:
            - qikqiak

键值运算关系

  • In:label 的值在某个列表中
  • NotIn:label的值不在某个列表中
  • Gt:label的值大于某个值
  • It:label的值小于某个值
  • Exists: 某个label存在
  • DoesNotExist: 某个label不存在

注意:如果nodeSelectorTerms下面有多个选项的话,满足任何一个条件就可以了; 如果matchExpressions有多个选项的话,则必须同时满足这些条件才能正常调度 POD

Pod亲和性

pod.spec.affinity.podAffinity/podAntiAffinity

  • preferredDuringSchedulingIgnoredDuringExecution: 软策略
  • requiredDuringSchedulingIgnoredDuringExecution: 硬策略
apiVersion: v1
kind: Pod
metadata:
  name: pod-3
  labels:
    app: pod-3
spec:
  containers:
  - name: pod-3
    image: nginx
  affinity:
    podAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: app
            operator: In
            values:
            - pod-1
        topologyKey: kubernetes.io/hostname
    podAntiAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - weight: 1
        podAffinityTerm:
          labelSelector:
            matchExpressions:
            - key: app
              perator: In
              values:
              - pod-2
        topologyKey: kubernetes.io/hostname
      

亲和性、反亲和性调度策略比较如下:

调度策略 匹配标签 操作符 拓扑域支持 调度目标
nodeAffinity 主机 In,NotIn,Exists,DoesNotExist,Gt,Lt 指定主机
podAffinity POD In,NotIn,Exists,DoesNotExist POD与指定POD同一拓扑域
podAnitAffinity POD In,NotIn,Exists,DoesNotExist POD与指定POD不在同一拓扑域

二、污点和容忍

Taint和Toleration

节点亲和性,是pod的一种属(偏好或硬性要求),它边pod被吸引到一类特定的节点。Taint则相反,它便节点 能够排斥一类特定的pod

Taint和toeration相互配合 , 可以用来避免pod被分配到不合适的节点上, 每个节点上都可以应用一个或多个taint, 这表示对于那些不能容忍这些taint的pod , 是不会被该节点接受的 , 如果将toleration应用于pod上, 则表示这些pod可以(但不要求)被调度到具有匹配taint的节点上

如果你能容忍这个污点,代表你两能发生故事 。

污点(Taint)

1.污点(Taint)的组成

使用kubectl taint 命令可以给某个Node节点设置污点, Node被设置上污点之后就和Pod之间存在了一种相斥的关系 , 可以让Node拒绝Pod的调度执行 , 甚至将Node已经存在的Pod驱逐出去

每个污点的组成如下:

key=value:effect

每个污点有一个key和value作为污点的标签, 其中value可以为空, effect描述污点的作用 。当前taint effect支持如下三个选项

  • NoSchedule: 表示k8s将不会将Pod调度到具有该污点的Node上
  • PreferNoSchedule: 表示k8s将尽量避免将Pod调度到具有该污点的Node上
  • NoExecute: 表示k8s将不会将Pod调度到具有该污点的Node上, 同时会将Node上已经存在的Pod驱逐出去 。

2.污点的设置, 查看和去除

#设置污点
kubectl taint nodes node1 key1=value1:NoSchedule
kubectl taint nodes k8s-master03 check=haha:NoExecute

#节点说明中, 查找Taints字段
#查看污点
kubectl describe nodes 节点名称
kubectl describe nodes k8s-master03

#去除污点
kubectl taint nodes node1 key1:NoSchedule-
kubectl taint nodes k8s-master03 check:NoExecute-

容忍(Tolerations)

设置了污点的Node将根据taint的effect: NoSchedule, PreferNoSchedule, NoExecute和Pod之间产生互斥的关系 , Pod将在一定程度上不会被调度到Node上 。 但我们可以在Pod上设置容忍(Toleration),意思是设置了容忍的Pod将可以容忍污点的存在 , 可以调度到存在污点的Node上

pod.spec.tolerations

tolerations:
- key: "key1"
  operator: "Equa1"
  value: "value1"
  effect: "NoSchedule"
  tolerationSeconds: 3600
- key: "key1"
  operator: "Equa1"
  value: "value1"
  effect: "NoExecute"
- key: "key2"
  operator: "Exists"
  effect: "NoSchedule"
  • 其中key,value,effect要与Node上设置的taint保持一致
  • operator的值为Exists将会忽略value值
  • tolerationSeconds用于描述当Pod需要被驱逐时可以在Pod上继续保留运行的时间

1.当不指定key值时 , 表示容忍所有的污点key:

tolerations:
- operator: "Exists"

2.当不指定effect值时 , 表示容忍所有的污点作用

tolerations:
- key: "key"
  operator: "Exists"

3.有多个Master存在时 , 防止资源浪费, 可以如下设置

kubectl taint nodes Node-Name node-role.kubernetes.io/master=:PreferNoSchedule

三、固定节点调度

1.Pod.spec.nodeName将Pod直接调度到指定的Node节点上, 会跳过Scheduler的调度策略, 该匹配规则是强制匹配

apiVersion:  apps/v1
kind: Deployment
metadata:
  name: myweb
spec:
  replicas: 7
  selector:
        matchLabels:
          app: myweb
  template:
    metadata:
      labels:
        app: myweb
    spec:
      nodeName: k8s-master01
      containers:
      - name: myweb
        image: nginx
        ports:
        - containerPort: 80

2.Pod.spec.nodeSelector: 通过kubernetes的label-selector机制选择节点, 由调度器调度策略匹配label, 而后调度pod到目标节点, 该匹配规则属于强制约束

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: myweb
spec:
  replicas: 2
  template:
    metadata:
      labels:
        app: myweb
    spec:
      nodeSelector
        disk: ssd
      containers:
      - name: myweb
        image: nginx
        ports:
        - containerPort: 80

打标签在k8s-master02上打标签

kubectl label node k8s-master02 disk=ssd
kubectl get nodes --show-labels 

为k8s-master01增加标签

kubectl label node k8s-master01 disk=ssd

修改deployment副本数

kubectl edit deployment myweb

四、调度过程说明

简介

Scheduler是kubernetes的调度器 , 主要的任务是把定义的pod分配到集群的节点上 , 听起来非常简单 ,但有很多要考虑的问题:

  • 公平: 如何保证每个节点都能被分配资源
  • 资源高效利用:集群所有资源最大化被使用
  • 效率:调度的性能要好, 能够尽快地对大批量的pod完成调度工作
  • 灵活:允许用户根据自己的需求控制调度的逻辑

Sheduler是作为单独的程序运行的 , 启动之后会一直坚挺API Server, 获取PodSpec.NodeName为空的pod,对每个pod都会创建一个binding,表明该pod应该放到哪个节点上

调度过程

调度分为几个部分: 首先是过滤不满足条件的节点, 这个过程称为predicate;然后对通过的节点按照优先级排序, 这个是priority;最后从中选择优先级最高的节点。 如果中间任何一步骤有错误, 就直接返回错误

Predicate有一系列的算法可以使用:

  • PodFitsResources: 节点上剩余的资源是否大于pod请求的资源
  • PodFitsHost: 如果pod指定了NodeName, 检查节点名称是否和NodeName匹配
  • PodFitsHostPorts:节点上已经使用的port是否和pod申请的port冲突
  • PodSelectorMatches:过滤掉和pod指定的label不匹配的节点
  • NoDiskConflict:已经mount的volume和pod指定的volume不冲突, 除非它们都是只读

如果在predicate过程中没有合适的节点, pod会一直在pending状态, 不断重试调度, 直到有节点满足掉件。 经过这个步骤, 如果有多个节点满足条件, 就继续priorities过程;按照优先级大小对节点排序

优先级由一系列键值对组成, 键是该优先级顶的名称, 值是它的权重(该项的重要性)。 这些优先级选项包括:

  • LeastRequestedPriority: 通过计算CPU和Memory的使用率来决定权重, 使用率越低权重越高。 换句话说, 这个优先级指标倾向于资源使用比例更低的节点
  • BalancedResourceAllocation:节点上CPU和Memory使用率越接近, 权重越高 。 这个应该和上面的一起使用, 不应该单独使用。
  • ImageLocalityPriority:倾向于已经有要使用镜像的节点, 镜像总大小值越大, 权重越高通过算法对所有的优先级项目和权重进行计算, 得出最终的结果

自定义调度器

除了kubernetes自带的调度器, 你也可以编写自己的调度器 。 通过spec:schedlername参数指定调度器的名字, 可以为pod选择某个调度器进行调度。 比如下面的pod选择my-scheduler进行调度, 而不是默认的default-scheduler:

apiVersion: v1
kind: Pod
metadata:
  name: annotation-second-scheduler
  labels:
    name: multischeduler-example
spec:
  schedulername: my-scheduler
  containers:
  - name: pod-with-second-annotation-container
    image: nginx

标签:调度,节点,集群,key,污点,Pod,k8s,pod
来源: https://www.cnblogs.com/syuee/p/15086957.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有