首页 > 基础资料 博客日记

centos搭建k8s 1.28集群

2026-05-10 17:00:02基础资料围观6

这篇文章介绍了centos搭建k8s 1.28集群,分享给大家做个参考,收藏极客资料网收获更多编程知识

实验环境

系统 主机 网卡
centos7.9.2009 k_master ens33 192.168.50.20
centos7.9.2009 k_node ens33 192.168.50.21

都是最小化安装的

基础环境准备(所有节点都需要配置的)

配置yum源

因为centos7 的yum源早就停止维护了,我们使用阿里云上面yum源

curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-7.repo

yum clean all
yum makecache

# 安装一些基础命令
yum -y install bash-completion vim net-tools bridge-utils wget

# 刷新一下终端
bash


修改主机名和ssh免密

hostnamectl set-hostname k_master
hostnamectl set-hostname k_node
bash

# 配置域名解析和ssh免密,方便传输文件
[root@k_master ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.50.20 k_master
192.168.50.21 k_node

ssh-keygen
ssh-copy-id root@k_master
ssh-copy-id root@k_node

配置ntp

yum -y install chrony
systemctl enable chronyd --now
chronyc sources
date

禁用防火墙和selinux

systemctl disable firewalld.service --now
setenforce 0
vim /etc/selinux/config
# 修改为
SELINUX=disabled

# 重启
reboot

禁用swap分区

k8s是要求禁止使用swap分区的,会对系统的性能产生负面的影响的

我这里的话,在创建虚拟机的时候,就没有创建交换分区,所以不需要操作

[root@k_node ~]# cat /etc/fstab 

#
# /etc/fstab
# Created by anaconda on Fri May  8 09:56:12 2026
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root /                       xfs     defaults        0 0
UUID=7cdc3393-4ec5-490d-a7c3-7fda6123940d /boot                   xfs     defaults        0 0

修改linux内核参数

# 加载br_netfilter内核模块
modprobe br_netfilter
# 永久生效,开启会自动加载这个模块
echo "br_netfilter" > /etc/modules-load.d/br_netfilter.conf

# 验证模块是否安装成功
lsmod |  grep br_netfilter

# 添加内核参数
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
EOF

sysctl -p /etc/sysctl.d/k8s.conf
# 会输出一些信息的

配置ipvs功能

  • k8s使用的是ipvs模式,而不是iptables模式

  • ipvs的性能更加的高

yum -y install ipset ipvsadm
cat > /etc/sysconfig/modules/ipvs.modules << EOF
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF

# 添加权限,这样开机回自动加载
chmod +x ipvs.modules
bash ipvs.modules

# 查看加载是否成功了
lsmod | grep  -e ip_vs -e nf_conntrack_ipv4

安装容器运行时(使用的是containerd作为容器运行时)

wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

yum -y install docker-ce
systemctl enable docker --now

# 安装docker的时候,默认会安装containerd

# 生成containerd配置文件
containerd config default > /etc/containerd/config.toml

# 编辑这个文件config.toml

#设置拉取的镜像
sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.9"

#设置system cgroup驱动
SystemdCgroup = true

# 修改镜像拉取策略,配置镜像加速器

      [plugins."io.containerd.grpc.v1.cri".registry.mirrors]
        [plugins."io.containerd.grpc.v1.cri".registry.mirrors."registry.k8s.io"]
           endpoint = ["https://registry-k8s-io.mirrors.sjtug.sjtu.edu.cn"]
        [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
           endpoint = ["自己的镜像仓库地址"]

# 当拉取registry.k8s.io 下的镜像的时候,去上海交大的镜像站下载,而不是去国外下载镜像

# 当拉取docker.io 镜像的时候,去国内网站下载

systemctl enable containerd --now
[root@k_master containerd]# systemctl restart containerd

# 查看containerd版本
[root@k_master containerd]# containerd -v
containerd containerd.io 1.6.33 d2d58213f83a351ca8f528a95fbd145f5654e957

安装k8s

配置k8s源

cat > /etc/yum.repos.d/k8s.repo << EOF
[kubernetes]
name=kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
       http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

安装k8s软件包

# 安装1.28版本
yum -y install kubelet-1.28.0 kubectl-1.28.0 kubeadm-1.28.0

# 设置开启自启,等会安装k8s集群的时候,会自动的启动的
systemctl enable kubelet

# 安装后就会有这个crictl命令了,这个就是用来连接哪一个容器运行时的

设置容器运行时

  • 设置容器运行时(containerd版本大于1.6有另外的一个写法)
# 这个是老版本的写法
crictl config runtime-endpoint unix:///var/run/containerd/containerd.sock
crictl config image-endpoint unix:///var/run/containerd/containerd.sock
  • 新版本的话写在/etc/crictl.yaml这个文件就可以

    • 告诉circtl需要连接哪一个containerd

    • 只配置了socket地址

    • 不影响containerd本身

    • 只是客户端的连接配置

# 新版本的写法
cat > /etc/crictl.yaml << EOF
runtime-endpoint: unix:///var/run/containerd/containerd.sock
image-endpoint: unix:///var/run/containerd/containerd.sock
timeout: 10
debug: false
EOF


# 配置好后可以通过下面的命令输出一些信息,会有报错的,因为还没有安装k8s网络插件
crictl info

systemctl restart containerd

当然上面写的镜像加速器也是老配置,1.6支持,但是2.0会被淘汰

新版和旧版配置参考下面的

https://www.cnblogs.com/fsdstudy/p/18355827

安装集群k8s(只在k_master节点上执行)

安装k8s集群2种方式,一个是命令行,另一个是通过配置文件

毫无疑问配置文件是最优解,能定义很多配置

kubeadm config print init-defaults > kubeadm.yaml

[root@k_master ~]# cat kubeadm.yaml 
apiVersion: kubeadm.k8s.io/v1beta3
bootstrapTokens:
- groups:
  - system:bootstrappers:kubeadm:default-node-token
  token: abcdef.0123456789abcdef
  ttl: 24h0m0s
  usages:
  - signing
  - authentication
kind: InitConfiguration
localAPIEndpoint:
  advertiseAddress: 192.168.50.20  # master 地址
  bindPort: 6443
nodeRegistration:
  criSocket: unix:///var/run/containerd/containerd.sock  # 容器运行时接口
  imagePullPolicy: IfNotPresent
  name: k_master  # 主机名区分
  taints: null
---
apiServer:
  timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta3
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns: {}
etcd:
  local:
    dataDir: /var/lib/etcd
imageRepository: registry.aliyuncs.com/google_containers  # 初始化时设置镜像仓库地址
kind: ClusterConfiguration
kubernetesVersion: 1.28.0
networking:
  dnsDomain: cluster.local
  serviceSubnet: 10.96.0.0/12
  podSubnet: 10.244.0.0/16  # pod网段
scheduler: {}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration   
mode: ipvs   # 设置ipvs模式
---
apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
cgroupDriver: systemd  # 设置kubelet驱动为systemd

执行初始化

kubeadm init --config=kubeadm.yaml

# 输出信息
Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.50.20:6443 --token abcdef.0123456789abcdef \
	--discovery-token-ca-cert-hash sha256:bd17a10cb11b2a54cdec94844bc0f58375d1448ce8f7275720c2584f4d725d91 

# 根据上面的信息,我们创建目录,这个目录就是k8s管理员文件,可以操作k8s集群的文件
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

将node节点添加到k8s集群

这个加入k8s集群是有时间限制的,24小时过期,可以手动生成kubeadm token create --print-join-command

kubeadm join 192.168.50.20:6443 --token abcdef.0123456789abcdef --discovery-token-ca-cert-hash sha256:bd17a10cb11b2a54cdec94844bc0f58375d1448ce8f7275720c2584f4d725d91

查看节点状态

[root@kmaster ~]# kubectl get node 
NAME      STATUS     ROLES           AGE     VERSION
kmaster   NotReady   control-plane   7m52s   v1.28.0
knode     NotReady   <none>          44s     v1.28.0

# 没有安装网络插件,因此是notready

安装网络插件(calico,只需要在kmaster节点上操作)

安装版本为3.26

https://archive-os-3-26.netlify.app/calico/3.26/about/

img

curl https://raw.githubusercontent.com/projectcalico/calico/v3.26.5/manifests/calico.yaml -O

kubectl apply -f calico.yaml

k8s集群测试

[root@kmaster ~]# kubectl get node 
NAME      STATUS   ROLES           AGE   VERSION
kmaster   Ready    control-plane   22m   v1.28.0
knode     Ready    <none>          15m   v1.28.0

创建一个busybox的pod,看能不能访问外网

kubectl run b1 --image busybox --image-pull-policy IfNotPresent  --dry-run=client -o yaml > b1.yaml -- sleep 36000

kubectl apply -f b1.yaml

# 进入容器访问外网
[root@kmaster test]# kubectl exec -ti b1 -- sh
/ # ping qq.com
PING qq.com (157.255.219.143): 56 data bytes
64 bytes from 157.255.219.143: seq=0 ttl=127 time=28.831 ms
64 bytes from 157.255.219.143: seq=1 ttl=127 time=29.131 ms
^C
--- qq.com ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 28.831/28.981/29.131 ms

# 可以访问外网,k8s集群就安装成功了

k8s安装其他组件

安装metrics-server组件

可以监控pod,node使用cpu,内存的情况

wget https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.6.4/components.yaml

# 添加文件中的135行
- --kubelet-insecure-tls 
# 不检验kubelet的https证书是否合法,直接信任,跳过证书验证

# 会创建一个pod出来
[root@kmaster ~]# kubectl get pod -n kube-system | grep -i metrics
metrics-server-69b546b776-kn8s9            1/1     Running   0          101s

# 就能监控节点或者pod的使用情况了
[root@kmaster ~]# kubectl top node
NAME      CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%   
kmaster   133m         6%     1801Mi          47%       
knode     63m          3%     1369Mi          23%   

安装nfs驱动,自动创建pv

安装dashboard

安装helm

补充

  • 命令补全
echo "source <(kubectl completion bash)" >> /etc/profile
echo "source <(istioctl completion bash)" >> /etc/profile
echo "source <(kubeadm completion bash)" >> /etc/profile
source  /etc/profile

# istioctl命令后面会安装的

# crictl拉取镜像,有一个名称空间的限制

ctr -n k8s.io image import 你的镜像包.tar

ctr和crictl区别

  • ctr是containerd工具,默认在default命名空间,导入tar包,需要手动加-n k8s.io

  • crictl走的是cri接口,强制只用k8s.io,因此crictl pull 拉取的镜像默认在k8s.io下面


文章来源:https://www.cnblogs.com/qylogs/p/20008094
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:jacktools123@163.com进行投诉反馈,一经查实,立即删除!

标签:

相关文章

本站推荐

标签云