写在开篇

这几天有点忙,终于抽出工夫更新了,之前曾经通过这篇 《通过源码剖析通知你:当拜访K8S API的代码运行在POD里的容器时,在集群内是如何进行身份验证的》 搞清楚了在集群内如何进行身份验证。那么,官网还提供了一个简略的利用示例,链接:https://github.com/kubernetes/client-go/tree/master/examples/in-cluster-client-configuration

本篇的主题是解读一下这个示例。联合之前的常识储备并等本篇讲完后,就会很清晰的晓得集群内的POD拜访API时是如何进行身份验证的。下次就要回到这篇 《对于ServiceAccount以及在集群内拜访K8S API》 持续解说接下来的实战内容了,有没有发现兜了个圈又兜回来了。

示例代码剖析

针对官网提供的示例,我做了点小革新。这段代码是一个应用Kubernetes Go客户端(client-go)的示例程序,用于获取Kubernetes集群中所有Pod的信息,并每隔10秒打印一次Pod的数量和POD名称。

package mainimport ( "context" "fmt" "time" metav1 "k8s.io/apimachinery/pkg/apis/meta/v1" "k8s.io/client-go/kubernetes" "k8s.io/client-go/rest")func main() { config, err := rest.InClusterConfig() if err != nil {  panic(err.Error()) } clientset, err := kubernetes.NewForConfig(config) if err != nil {  panic(err.Error()) } for {  pods, err := clientset.CoreV1().Pods("").List(context.TODO(), metav1.ListOptions{})  if err != nil {   panic(err.Error())  }  for _, pod := range pods.Items {   fmt.Printf("命名空间:%s POD名称:%s\n", pod.Namespace, pod.Name)  }  fmt.Printf("集群中有 %d 个 pod", len(pods.Items))  time.Sleep(10 * time.Second) }}

须要留神的事件,看这段代码的InClusterConfig函数,记得上次对它剖析过:

config, err := rest.InClusterConfig()if err != nil {        panic(err.Error())}

这段代码应用rest.InClusterConfig()函数获取以后运行环境下的Kubernetes集群的配置。如果获取配置时产生谬误,通过panic抛出异样。

不信的话,编译后运行试试:

[root@workhost in-cluster-client-configuration]# ./app panic: unable to load in-cluster configuration, KUBERNETES_SERVICE_HOST and KUBERNETES_SERVICE_PORT must be definedgoroutine 1 [running]:main.main()        /root/project/gocode/src/in-cluster-client-configuration/main.go:17 +0x314

报错了。要解决这个问题,就是要将这个应用程序在POD内运行。

提醒:报错的根本原因是因为这两个自定义变量是由K8S本身治理且定义在了POD里的容器内,只有将这个示例利用运行在POD里的容器能力正确加载自定义变量。

编译应用程序

[root@workhost src]# cd in-cluster-client-configuration/[root@workhost in-cluster-client-configuration]# go mod initgo: creating new go.mod: module in-cluster-client-configurationgo: to add module requirements and sums:        go mod tidy[root@workhost in-cluster-client-configuration]# go mod tidy[root@workhost in-cluster-client-configuration]# GOOS=linux go build -o ./app .
  • GOOS=linux:这将GOOS环境变量设置为linux,示意专门为Linux构建应用程序。
  • go build:这是Go语言的编译命令,用于编译Go源代码并生成可执行文件。
  • -o ./app:这是一个选项,指定编译输入的可执行文件的名称和门路。在这个命令中,-o示意指定输入文件,./app示意输入文件的门路和名称为当前目录下的app。
  • .:这是命令的最初一个参数,示意当前目录中的Go源代码文件。这通知编译器从当前目录中的所有Go源文件中构建应用程序。

编译后:

[root@workhost in-cluster-client-configuration]# ls -ltotal 43928-rwxr-xr-x. 1 root root 44919028 May 23 08:59 app # 编译后失去的可执行二进制文件-rw-r--r--. 1 root root       44 May 23 08:56 Dockerfile-rw-r--r--. 1 root root     1909 May 23 08:59 go.mod-rw-r--r--. 1 root root    47303 May 23 08:59 go.sum-rw-r--r--. 1 root root     1750 May 23 08:57 main.go 

制作镜像

Dockerfile内容:

FROM debianCOPY ./app /appENTRYPOINT /app

构建镜像和推送到公有仓库:

docker build -t 192.168.11.254:8081/library/example-app:v1 .docker push 192.168.11.254:8081/library/example-app:v1

在K8S运行

[root@k8s-b-master ~]# kubectl run --rm -i example-pod --image=192.168.11.254:8081/library/example-app:v1pod "example-pod" deletederror: timed out waiting for the condition

竟然超时了,没有获取到POD。官网示例中提到,如果在K8S集群上启用了RBAC,就须要创立角色绑定。就此看来是因为权限问题导致。那先确定一下k8s集群是否启用了RBAC:

[root@k8s-b-master kubernetes]# kubectl api-versions | grep rbacrbac.authorization.k8s.io/v1[root@k8s-b-master kubernetes]# kubectl get roles,rolebindings --all-namespacesNAMESPACE     NAME                                                                            CREATED ATkube-public   role.rbac.authorization.k8s.io/kubeadm:bootstrap-signer-clusterinfo             2023-04-30T03:23:50Zkube-public   role.rbac.authorization.k8s.io/system:controller:bootstrap-signer               2023-04-30T03:23:48Zkube-system   role.rbac.authorization.k8s.io/extension-apiserver-authentication-reader        2023-04-30T03:23:48Z...

这些输入提供了与RBAC受权相干的信息,包含可用的API版本以及集群中的角色和角色绑定配置,所以是启用了RBAC的。

留神:如果是应用kubeadm搭建的k8s集群,那么rbac默认都是启用的。如果是二进制搭建的,那就不肯定了,这将取决于您的配置和部署抉择。

接下来,创立一个名为"default-view"的ClusterRoleBinding:

kubectl create clusterrolebinding default-view --clusterrole=view --serviceaccount=default:default
  • default-view:ClusterRoleBinding的名称。在这个例子中,ClusterRoleBinding将被命名为"default-view"。
  • --clusterrole=view:选项,指定要绑定的ClusterRole。这里指定了"view" ClusterRole,它具备查看(view)集群资源的权限。ClusterRole是一组权限的汇合,能够授予用户、组或服务账号特定的权限。
  • --serviceaccount=default:default:选项,指定要绑定到ClusterRole的ServiceAccount。这里指定了"default:default",示意将"default"命名空间下的"default" ServiceAccount与ClusterRole进行绑定。
总之,这个命令将创立一个名为"default-view"的ClusterRoleBinding,将"default"命名空间下的"default" ServiceAccount与"view" ClusterRole进行绑定。这意味着"default" ServiceAccount将具备查看集群资源的权限。这能够用于授予特定的ServiceAccount对集群资源的只读拜访权限,而无需授予其余更高级的权限。

创立完角色绑定后持续运行:

[root@k8s-b-master ~]# kubectl run --rm -i example-pod --image=192.168.11.254:8081/library/example-app:v1If you don't see a command prompt, try pressing enter.命名空间:default POD名称:example-pod命名空间:default POD名称:goweb-7db674b88c-d544x命名空间:default POD名称:goweb-7db674b88c-j5hd6命名空间:default POD名称:goweb-7db674b88c-v2z5r命名空间:default POD名称:nginx命名空间:kube-system POD名称:calico-kube-controllers-567c56ff98-pb4dj命名空间:kube-system POD名称:calico-node-7kqhw命名空间:kube-system POD名称:calico-node-hbbs4命名空间:kube-system POD名称:calico-node-pngws命名空间:kube-system POD名称:calico-node-r8vp9命名空间:kube-system POD名称:calico-node-sfws4命名空间:kube-system POD名称:calico-node-skktr命名空间:kube-system POD名称:calico-node-wm2lt命名空间:kube-system POD名称:coredns-c676cc86f-lkw8r命名空间:kube-system POD名称:coredns-c676cc86f-ncnnn命名空间:kube-system POD名称:etcd-k8s-b-master命名空间:kube-system POD名称:kube-apiserver-k8s-b-master命名空间:kube-system POD名称:kube-controller-manager-k8s-b-master命名空间:kube-system POD名称:kube-proxy-8hw4f命名空间:kube-system POD名称:kube-proxy-9qsc8命名空间:kube-system POD名称:kube-proxy-b4vjj命名空间:kube-system POD名称:kube-proxy-d7lh9命名空间:kube-system POD名称:kube-proxy-nmdxd命名空间:kube-system POD名称:kube-proxy-ql2kf命名空间:kube-system POD名称:kube-proxy-stfff命名空间:kube-system POD名称:kube-scheduler-k8s-b-master集群中有 26 个 pod命名空间:default POD名称:example-pod命名空间:default POD名称:goweb-7db674b88c-d544x命名空间:default POD名称:goweb-7db674b88c-j5hd6命名空间:default POD名称:goweb-7db674b88c-v2z5r命名空间:default POD名称:nginx命名空间:kube-system POD名称:calico-kube-controllers-567c56ff98-pb4dj命名空间:kube-system POD名称:calico-node-7kqhw命名空间:kube-system POD名称:calico-node-hbbs4命名空间:kube-system POD名称:calico-node-pngws命名空间:kube-system POD名称:calico-node-r8vp9命名空间:kube-system POD名称:calico-node-sfws4命名空间:kube-system POD名称:calico-node-skktr命名空间:kube-system POD名称:calico-node-wm2lt命名空间:kube-system POD名称:coredns-c676cc86f-lkw8r命名空间:kube-system POD名称:coredns-c676cc86f-ncnnn命名空间:kube-system POD名称:etcd-k8s-b-master命名空间:kube-system POD名称:kube-apiserver-k8s-b-master命名空间:kube-system POD名称:kube-controller-manager-k8s-b-master命名空间:kube-system POD名称:kube-proxy-8hw4f命名空间:kube-system POD名称:kube-proxy-9qsc8命名空间:kube-system POD名称:kube-proxy-b4vjj命名空间:kube-system POD名称:kube-proxy-d7lh9命名空间:kube-system POD名称:kube-proxy-nmdxd命名空间:kube-system POD名称:kube-proxy-ql2kf命名空间:kube-system POD名称:kube-proxy-stfff命名空间:kube-system POD名称:kube-scheduler-k8s-b-master集群中有 26 个 pod命名空间:default POD名称:example-pod命名空间:default POD名称:goweb-7db674b88c-d544x命名空间:default POD名称:goweb-7db674b88c-j5hd6命名空间:default POD名称:goweb-7db674b88c-v2z5r命名空间:default POD名称:nginx命名空间:kube-system POD名称:calico-kube-controllers-567c56ff98-pb4dj命名空间:kube-system POD名称:calico-node-7kqhw命名空间:kube-system POD名称:calico-node-hbbs4命名空间:kube-system POD名称:calico-node-pngws命名空间:kube-system POD名称:calico-node-r8vp9命名空间:kube-system POD名称:calico-node-sfws4命名空间:kube-system POD名称:calico-node-skktr命名空间:kube-system POD名称:calico-node-wm2lt命名空间:kube-system POD名称:coredns-c676cc86f-lkw8r命名空间:kube-system POD名称:coredns-c676cc86f-ncnnn命名空间:kube-system POD名称:etcd-k8s-b-master命名空间:kube-system POD名称:kube-apiserver-k8s-b-master命名空间:kube-system POD名称:kube-controller-manager-k8s-b-master命名空间:kube-system POD名称:kube-proxy-8hw4f命名空间:kube-system POD名称:kube-proxy-9qsc8命名空间:kube-system POD名称:kube-proxy-b4vjj命名空间:kube-system POD名称:kube-proxy-d7lh9命名空间:kube-system POD名称:kube-proxy-nmdxd命名空间:kube-system POD名称:kube-proxy-ql2kf命名空间:kube-system POD名称:kube-proxy-stfff命名空间:kube-system POD名称:kube-scheduler-k8s-b-master集群中有 26 个 pod.........

本文转载于WX公众号:不背锅运维(喜爱的盆友关注咱们):https://mp.weixin.qq.com/s/N3ArZ-T62yUZClf2UN5Qrg