链接:https://www.cnblogs.com/hahaha111122222/p/15592876.html
一般情况下 Kubernetes 可以通过 ReplicaSet 以一个 Pod 模板创建多个 pod 副本,但是它们都是无状态的,任何时候它们都可以被一个全新的 pod 替换。然而有状态的 pod 需要另外的方案确保当一个有状态的 pod 挂掉后,这个 pod 实例需要在别的节点上重建,但是新的实例必须与被替换的实例拥有相同的名称、网络标识和状态。这就是
Statefulset
管理 pod 的手段。
对于容器集群,有状态服务的挑战在于,通常集群中的任何节点都并非100%可靠的,服务所需的资源也会动态地更新改变。当节点由于故障或服务由于需要更多的资源而无法继续运行在原有节点上时,集群管理系统会为该服务重新分配一个新的运行位置,从而确保从整体上看,集群对外的服务不会中断。若采用本地存储,当服务漂移后数据并不会随着服务转移到新的节点,重启服务就会出现数据丢失的困境。
本文目的是通过一个 mysql 的主从集群搭建,深入了解 kubernetes 的 statfulset 管理。为了降低实验的外部依赖,存储层面上,我采用的是本地存储,当然生产上不建议这样做,生产环境的存储推荐官方介绍到的的 gce、nfs、ceph等存储方案,因为这些方案支持动态供给的特性,允许开发人员通过 pvc 的定义,快速实现数据有效存储,所以你绝不应该把一个宿主机上的目录当作 PV 使用, 只是本文用于实验需要,采用 Local Persistent Volume 的手段,目的只是为了验证 Statefulset 的状态管理功能。
实验环境
实验目的
本地存储原理
为了快速搭建测试环境,我们这里使用了本地存储,也就是说,用户希望 Kubernetes 能够直接使用宿主机上的本地磁盘目录,而不依赖于远程存储服务,来提供持久化的容器 Volume。不过这里有个难点:我们把存储固定在一个节点上,但是pod在调度的时候,是飘来飘去的,怎么能让pod通过pvc也能固定在pv上?
给这个 Pod 加上一个 nodeAffinity 行不行?
当然行,但是这变相破坏了开发人员对资源对象的定义规范了,开发人员应该不需要时刻考虑调度的细节。调度的改动应该交给运维就行。所以我们为了实现本地存储,我们采用了 延迟绑定 的方法。方法很简单,我们都知道 storageclass 一般由运维人员设计,我们只需要在storageclass 指定 no-provisioner。这是因为 Local Persistent Volume 目前尚不支持 Dynamic Provisioning,所以它没办法在用户创建 PVC 的时候,就自动创建出对应的 PV。与此同时,这个 StorageClass 还定义了一个 volumeBindingMode=WaitForFirstConsumer 的属性。它是 Local Persistent Volume 里一个非常重要的特性,即:延迟绑定
kind:StorageClass
apiVersion:storage.k8s.io/v1
metadata:
name:local-storage
provisioner:kubernetes.io/no-provisioner
volumeBindingMode:WaitForFirstConsumer
实验步骤
一、先在node (实验用的node节点IP是172.31.170.51 )节点上,预先分配几个pv (不建议在生产上这样操作)
01-persistentVolume-1.yaml
apiVersion:v1
kind:PersistentVolume
metadata:
name:example-mysql-pv
spec:
capacity:
storage:15Gi
volumeMode:Filesystem
accessModes:
-ReadWriteOnce
persistentVolumeReclaimPolicy:Delete
storageClassName:local-storage
local:
path:/data/svr/projects/mysql
nodeAffinity:
required:
nodeSelectorTerms:
-matchExpressions:
-key:kubernetes.io/hostname
operator:In
values:
-172.31.170.51
01-persistentVolume-2.yaml
apiVersion:v1
kind:PersistentVolume
metadata:
name:example-mysql-pv-2
spec:
capacity:
storage:15Gi
volumeMode:Filesystem
accessModes:
-ReadWriteOnce
persistentVolumeReclaimPolicy:Delete
storageClassName:local-storage
local:
path:/data/svr/projects/mysql2
nodeAffinity:
required:
nodeSelectorTerms:
-
matchExpressions:
-key:kubernetes.io/hostname
operator:In
values:
-172.31.170.51
01-persistentVolume-3.yaml
apiVersion:v1
kind:PersistentVolume
metadata:
name:example-mysql-pv-3
spec:
capacity:
storage:15Gi
volumeMode:Filesystem
accessModes:
-ReadWriteOnce
persistentVolumeReclaimPolicy:Delete
storageClassName:local-storage
local:
path:/data/svr/projects/mysql3
nodeAffinity:
required:
nodeSelectorTerms:
-matchExpressions:
-key:kubernetes.io/hostname
operator:In
values:
-172.31.170.51
记住,这是在生产上不推荐的做法,我只是实验用途才这样手动预先创建,正规的做法应该通过storageclass采用 Dynamic Provisioning, 而不是 Static Provisioning 机制生产PV。
kubectl apply -f 01-persistentVolume-{1..3}.yaml
persistentvolume/example-mysql-pv1 created
persistentvolume/example-mysql-pv2 created
persistentvolume/example-mysql-pv3 created
二、创建 StorageClass
02-storageclass.yaml
kind:StorageClass
apiVersion:storage.k8s.io/v1
metadata:
name:local-storage
provisioner:kubernetes.io/no-provisioner
volumeBindingMode:WaitForFirstConsumer
执行创建
kubectl apply -f 02-storageclass.yaml
storageclass.storage.k8s.io/local-storage created
三、创建Namespace
03-mysql-namespace.yaml
apiVersion:v1
kind:Namespace
metadata:
name:mysql
labels:
app:mysql
执行创建
kubectl apply -f 03-mysql-namespace.yaml
namespace/mysql created
四、使用 ConfigMap 为 Master/Slave 节点分配不同的配置文件
04-mysql-configmap.yaml
apiVersion:v1
kind:ConfigMap
metadata:
name:mysql
namespace:mysql
labels:
app:mysql
data:
master.cnf:|
# Master配置
[mysqld]
log-bin=mysqllog
skip-name-resolve
slave.cnf:|
# Slave配置
[mysqld]
super-read-only
skip-name-resolve
log-bin=mysql-bin
replicate-ignore-db=mysql
创建执行
kubectl apply -f 04-mysql-configmap.yaml
configmap/mysql created
五、创建mysql密码Secret
05-mysql-secret.yaml
apiVersion:v1
kind:Secret
metadata:
name:mysql-secret
namespace:mysql
labels:
app:mysql
type:Opaque
data:
password:MTIzNDU2# echo -n "123456" | base64
创建执行
kubectl apply -f 05-mysql-secret.yaml
secret/mysql-secret created
六、使用 Service 为 MySQL 提供读写分离
06-mysql-services.yaml
apiVersion:v1
kind:Service
metadata:
name:mysql
namespace:mysql
labels:
app:mysql
spec:
ports:
-name:mysql
port:3306
clusterIP:None
selector:
app:mysql
---
apiVersion:v1
kind:Service
metadata:
name:mysql-read
namespace:mysql
labels:
app:mysql
spec:
ports:
-name:mysql
port:3306
selector:
app:mysql
用户所有写请求,必须以 DNS 记录的方式直接访问到 Master 节点,也就是 mysql-0.mysql 这条 DNS 记录。
用户所有读请求,必须访问自动分配的 DNS 记录可以被转发到任意一个 Master 或 Slave 节点上,也就是 mysql-read 这条 DNS 记录
kubectl apply -f 06-mysql-services.yaml
$ kubectl get svc -n mysql
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
mysql ClusterIP None <none> 3306/TCP 20s
mysql-read ClusterIP 10.0.0.63 <none> 3306/TCP 20s
七、使用 StatefulSet 搭建 MySQL 主从集群
mysql-statefulset.yaml
apiVersion:apps/v1
kind:StatefulSet
metadata:
name:mysql
namespace:mysql
labels:
app:mysql
spec:
selector:
matchLabels:
app:mysql
serviceName:mysql
replicas:2
template:
metadata:
labels:
app:mysql
spec:
initContainers:
-name:init-mysql
image:mysql:5.7
env:
-name:MYSQL_ROOT_PASSWORD
valueFrom:
secretKeyRef:
name:mysql-secret
key:password
command:
-bash
-"-c"
-|
set -ex
# 从 Pod 的序号,生成 server-id
[[ $(hostname) =~ -([-9]+)$ ]] || exit 1
ordinal=${BASH_REMATCH[1]}
echo [mysqld] > /mnt/conf.d/server-id.cnf
# 由于 server-id 不能为 ,因此给 ID 加 100 来避开它
echo server-id=$((100 + $ordinal)) >> /mnt/conf.d/server-id.cnf
# 如果 Pod 的序号为 ,说明它是 Master 节点,从 ConfigMap 里把 Master 的配置文件拷贝到 /mnt/conf.d 目录下
# 否则,拷贝 ConfigMap 里的 Slave 的配置文件
if [[ ${ordinal} -eq ]]; then
cp /mnt/config-map/master.cnf /mnt/conf.d
else
cp /mnt/config-map/slave.cnf /mnt/conf.d
fi
volumeMounts:
-name:conf
mountPath:/mnt/conf.d
-name:config-map
mountPath:/mnt/config-map
-name:clone-mysql
image:gcr.io/google-samples/xtrabackup:1.0
env:
-name: