Kubernetes中文文档

Ferdora部署Kubernetes集群

前提条件

1. 你需要2台或以上安装有Fedora的机器

说明

本文是针对Fedora系统的Kubernetes入门教程。通过手动配置,你将会理解所有底层的包、服务、端口等。

本文只会让一个节点(之前称从节点)工作。多节点需要在Kubernetes之外配置一个可用的网络环境,尽管这个额外的配置条件是显而易见的,(本节也不会去配置)。

Kubernetes包提供了一些服务:kube-apiserver,kube-scheduler,kube-controllermanager,kubelet,kube-proxy。这些服务通过systemd进行管理,配置信息都集中存放在一个地方:/etc/kubernetes。我们将会把这些服务运行到不同的主机上。第一台主机,fedmaster,将是Kubernetes的master主机。这台机器上将运行kube-apiserver,kube-controllermanager和kube-scheduler这几个服务,此外,master主机上还将运行etcd(如果etcd运行在另一台主机上,那就不需要了,本文假设etcd和Kubernetesmaster运行在同一台主机上)。其余的主机,fed-node,将是从节点,上面运行kubelet, proxy和docker。

系统信息:

主机:

fed-master = 192.168.121.9
fed-node = 192.168.121.65

准备主机:

  • 在所有主机上(fed-master和fed-node)都安装Kubernetes,。这对docker也适用。在fed-master上安装etcd。本文在kubernetes-0.18及之后版本上通过测试。
  • yum命令之后的 –enablerepo=update-testing 参数可以保证安装最新的Kubernetes预览版。如果不加这个参数,你安装的版本将是Fedora提供的较旧的稳定版。
  • 如果你想获取最新的版本,你可以从Fedora Koji上下载最新的RPM包,然后yum install安装。而不是用下面的命令。
yum -y install --enablerepo=updates-testing kubernetes
  • 安装etcd和iptables
yum -y install etcd iptables
  • 在所有主机的/etc/hosts文件中加入master和node节点,如果DNS中已经有了主机名,就不需要加了。需要保证fed-master和fed-node之间可以正常通信,可使用ping测试网络是否连通。

echo “192.168.121.9 fed-master
192.168.121.65 fed-node” >> /etc/hosts

编辑/etc/kubernetes/config文件,加入以下内容。所有主机都是(包括master和node)。

# Comma separated list of nodes in the etcd cluster
KUBE_MASTER=”–master=http://fed-master:8080″
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR=”–logtostderr=true”
# journal message level, 0 is debug
KUBE_LOG_LEVEL=”–v=0″
# Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV=”–allow_privileged=false”

  • 禁用master和node上的防火墙,因为如果有其他防火墙规则管理工具的话,docker会无法正常运行。请注意以默认方式安装的fedora服务器上,iptables服务并不存在。

systemctl disable iptables-services firewalld
systemctl stop iptables-services firewalld

配置master主机上Kubernetes服务

  • 按照下面的示例编辑/etc/kubernetes/apiserver文件。注意–service-cluster-ip-range参数后跟的IP地址必须是在任何地方都未使用的地址段,这些地址无需路由也无需分配到任何东西上。

# The address on the local server to listen to.
KUBE_API_ADDRESS=”–address=0.0.0.0″
# Comma separated list of nodes in the etcd cluster
KUBE_ETCD_SERVERS=”–etcd_servers=http://127.0.0.1:4001″
# Address range to use for services
KUBE_SERVICE_ADDRESSES=”–service-cluster-ip-range=10.254.0.0/16″
# Add your own!
KUBE_API_ARGS=””

  • 编辑/etc/etcd/etcd.conf文件,使得etcd监听除了127.0.0.1之外的所有IP,如果没有做这步,将会产生“connection refused”这样的错误。

ETCD_LISTEN_CLIENT_URLS=http://0.0.0.0:4001

  • 启动master上恰当的服务

for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler;do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done

  • 添加node结点:
  • 在Kubernetes的master上创建下面node.json文件:

{
“apiVersion”: “v1”,
“kind”: “Node”,
“metadata”: {
“name”: “fed-node”,
“labels”:{ “name”: “fed-node-label”}
},
“spec”: {
“externalID”: “fed-node”
}
}

现在在你的Kubernetes集群内部创建一个node对象,执行命令

$ kubectl create -f ./node.json
$ kubectl get nodes
NAME LABELS STATUS
fed-node name=fed-node-label Unknown

请注意上面的命令,它只在内部创建了一个fed-node的引用(原文representation),并不会真的提供fed-node节点。同时,假定fed-node节点(在name中指定的)能够被解析并可从Kubernetes的master节点访问。下面本文将论述如何提供Kubernetes node节点(fed-node)。

配置node节点上的Kubernetes服务

我们需要在节点上配置kubelet

  • 按照下面的示例编辑/etc/kubernetes/kubelet文件:
###
# Kubernetes kubelet (node) config
# The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
KUBELET_ADDRESS="--address=0.0.0.0"
# You may leave this blank to use the actual hostname
KUBELET_HOSTNAME="--hostname_override=fed-node"
# location of the api-server
KUBELET_API_SERVER="--api_servers=http://fed-master:8080"
# Add your own!
#KUBELET_ARGS=""
  • 启动节点上(fed-node)上恰当的服务
for SERVICES in kube-proxy kubelet docker; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done
  • 检测以确认现在集群中fed-master能够看到fed-node,而且状态变为Ready了
kubectl get nodes
NAME LABELS STATUS
fed-node name=fed-node-label Ready
  • 节点的删除 如果要想从Kubernetes集群中删除fed-node节点,需要在fed-master上执行下面命令(请别这样做,只是提示删除的方法)
kubectl delete -f ./node.json

你应该完成了吧!

集群现在应该在运行了,启动一个用于测试的Pod吧。

K8S中文社区微信公众号

评论 抢沙发

登录后评论

立即登录