Kubernetes-in-action (二)
探针
作用
- 用来探测程序是否处于正常状态, 异常如JVM OOM,死锁导致无法处理请求。
探测容器的机制
- HTTP GET探针: 对程序进行http get 请求,响应异常既pod需要重启
- TCP套接字探针:与程序进行TCP连接,失败则重启
- Exec探针: 在容器内执行任意命令,并查看退出码,如果非0,则需要重启。
实践
apiVersion: v1
kind: Pod
metadata:name: kubia-liveness
spec:containers:- image: luksa/kubia-unhealthyname: kubialivenessProbe: # 配置探针httpGet:path: /port: 8080initialDelaySeconds: 15 # 由于探针会在pod创建时就执行,可能进程还没启动,所以设置延迟执行
ReplicationController
作用
- 管理pod,弹性伸缩。 如果pod是单独创建的,那么node节点故障时,不会被重建,但是使用ReplicationController后,会在其他node上重建pod,并保证数量一致。
- 一般使用label来识别该pod是否被管控
实践
apiVersion: v1
kind: ReplicationController
metadata:name: kubia
spec:replicas: 3selector:app: kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubiaports:- containerPort: 8080
kubectl scale rc kubia --replicas=10 # 扩容kubectl edit rc kubia # 修改文件的配置,并且保存后立即生效kubectl delete rc kubia --cascade=false # 删除RC但是不删除pod
注意事项
- 如果修改了pod 的标签,那么RC会新建pod,因为RC是根据标签来判断的。
kubectl label pod kubia-tm2jw app=foo --overwrite # 修改label
- 如果修改了RC文件种的匹配标签,那么会创建出新的pod,旧的pod就不被管理了
- 修改RC种pod的template时候,并不会马上作用于现在的pod上,需要删除旧的才会有新的。
ReplicaSet
作用
- 与ReplicationController相似,但是在其基础上提供更丰富的声明表达,现在基本都是用RS而不是RC。
- 如RC只能管理具有指定的某些label的pod,后者对label的管理可以是匹配其中之一,或者全不匹配等等
实践
apiVersion: apps/v1beta2 #如果你的有问题,则用apps/v1
kind: ReplicaSet
metadata:name: kubia
spec:replicas: 3selector:matchLabels:app: kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubia
- 使用 matchExpressions 来管理pod
apiVersion: apps/v1beta2
kind: ReplicaSet
metadata:name: kubia
spec:replicas: 3selector:matchExpressions:- key: appoperator: In # NotIn, Exists, DoesNotExistvalues:- kubiatemplate:metadata:labels:app: kubiaspec:containers:- name: kubiaimage: luksa/kubia
- 删除RS命令:
kubectl delete rs kubia # 删除rs包括pod
DaemonSet
作用
- 它不关心副本数量,只关心为每个符合的node都要建一个pod
实践
apiVersion: apps/v1beta2
kind: DaemonSet
metadata:name: ssd-monitor
spec:selector:matchLabels:app: ssd-monitortemplate:metadata:labels:app: ssd-monitorspec:nodeSelector:disk: ssdcontainers:- name: mainimage: luksa/ssd-monitor
- get ds 信息:
kubectl get d - 给node加label:
kubectl label node node-name disk=ssd - 修改node的label:
kubectl label node node-name disk=hdd --overwrite # 修改后,pod会被删除
Job
作用
实践
- 查看job:
kubectl get job - 创建一个普通job
apiVersion: batch/v1
kind: Job
metadata:name: batch-job
spec:template:metadata:labels:app: batch-jobspec:restartPolicy: OnFailure # job 不能使用默认的always,因为执行完就要被销毁containers:- name: mainimage: luksa/batch-job
apiVersion: batch/v1
kind: Job
metadata:name: multi-completion-batch-job
spec:completions: 5 # 执行5次,会创建5次podparallelism: 2 # 同时启动两个pod来执行任务activeDeadlineSeconds: 10 # 超过这个时间认为失败,并终止podbackoffLimit: 1 # 允许的失败次数,默认是6template:metadata:labels:app: batch-jobspec:restartPolicy: OnFailurecontainers:- name: mainimage: luksa/batch-job
apiVersion: batch/v1beta1
kind: CronJob
metadata:name: batch-job-every-fifteen-minutes
spec:schedule: "0,15,30,45 * * * *" # 每小时的第几分钟 + 四个星号: 每天第几个小时, 每月的第几天,每年的第几个月,每周的第几天startingDeadlineSeconds: 15 # 允许开始的截至时间,当前表示开始后15s如果还没启动,任务就不允许,当初failed处理jobTemplate:spec:template:metadata:labels:app: periodic-batch-jobspec:restartPolicy: OnFailurecontainers:- name: mainimage: luksa/batch-job