关于云计算:KubeSphere-后端源码深度解析

58次阅读

共计 19807 个字符,预计需要花费 50 分钟才能阅读完成。

这篇文章咱们将学习在 vscode 上的 ssh remote 插件根底上,尝试 debug 和学习 KubeSphere 后端模块架构。

前提

  • 装置好 vscode 以及 ssh remote container 插件;
  • 在近程主机上安装好 kubenertes 容器 ” 操作系统 ” 和 KubeSphere >= v3.1.0 云“控制面板”;
  • 装置 go >=1.16;
  • 在 KubeSphere 上装置了须要 debug 的 ks 组件,如 devops、kubeedge 或者 whatever, 如果是默认激活的组件,像 monitoring,不须要去激活。

配置 launch 文件

$ cat .vscode/launch.json
{
    // 应用 IntelliSense 理解相干属性。// 悬停以查看现有属性的形容。// 欲了解更多信息,请拜访: https://go.microsoft.com/fwlink/?linkid=830387
    "version": "0.2.0",
    "configurations": [
        {
            "name": "ks-apiserver",
            "type": "go",
            "request": "launch",
            "mode": "auto",
            "program": "${workspaceFolder}/cmd/ks-apiserver/apiserver.go"
        }
        
    ]
}

ks-apiserver 调试依赖文件

在相对路径 cmd/ks-apiserver/ 下配置 kubesphere.yaml。

首先,查看集群之中的 cm 配置文件 :

$ kubectl -n kubesphere-system get cm kubesphere-config -oyaml

因为上述 configmap 中差少 kubeconfig 相干配置,所以须要将上述 yaml 文件拷贝进去整合以下。

为啥要用增加 kubeconfig 文件?

次要是因为 k8s 在创立 client 时须要这么一个文件 , 而容器中会用到 inclusterconfig 就不须要增加了。

感兴趣能够看下 client-go 的例子:

https://github.com/kubernetes…

https://github.com/kubernetes…

所以残缺的配置启动文件如下:

$ cat ./cmd/ks-apiserver/kubesphere.yaml
kubernetes:
  kubeconfig: "/root/.kube/config"
  master: https://192.168.88.6:6443
  $qps: 1e+06
  burst: 1000000
authentication:
  authenticateRateLimiterMaxTries: 10
  authenticateRateLimiterDuration: 10m0s
  loginHistoryRetentionPeriod: 168h
  maximumClockSkew: 10s
  multipleLogin: True
  kubectlImage: kubesphere/kubectl:v1.20.0
  jwtSecret: "Xtc8ZWUf9f3cJN89bglrTJhfUPMZR87d"
  oauthOptions:
    clients:
    - name: kubesphere
      secret: kubesphere
      redirectURIs:
      - '*'
network:
  ippoolType: none
monitoring:
  endpoint: http://prometheus-operated.kubesphere-monitoring-system.svc:9090
  enableGPUMonitoring: false
gpu:
  kinds:
  - resourceName: nvidia.com/gpu
    resourceType: GPU
    default: True
notification:
  endpoint: http://notification-manager-svc.kubesphere-monitoring-system.svc:19093
  
kubeedge:
  endpoint: http://edge-watcher.kubeedge.svc/api/

gateway:
  watchesPath: /var/helm-charts/watches.yaml
  namespace: kubesphere-controls-system

除了 kubernetes, 第一层的 key 示意咱们集群中曾经依照或者默认激活的 ks 组件,当初就能够通过 F5 来启动 debug 了。

在 debug 之前,你可能会问,这个配置文件为啥要放在 /cmd/ks-apiserver/kubesphere.yaml?

咱们先来摸索一波 ks-apiserver 的运行逻辑。

启动 ks-apiserver

查看 cmd/ks-apiserver/app/server.go 的逻辑 :

// Load configuration from file
conf, err := apiserverconfig.TryLoadFromDisk()

TryLoadFromDisk 的逻辑如下:

viper.SetConfigName(defaultConfigurationName) // kubesphere
viper.AddConfigPath(defaultConfigurationPath) // /etc/kubesphere

// Load from current working directory, only used for debugging
viper.AddConfigPath(".")

// Load from Environment variables
viper.SetEnvPrefix("kubesphere")
viper.AutomaticEnv()
viper.SetEnvKeyReplacer(strings.NewReplacer(".", "_"))

// 下面一顿配置之后,单步调试,ReadInConfig 这一步读取的文件门路是    
// v.configPaths:["/etc/kubesphere","/root/go/src/kubesphere.io/kubesphere/cmd/ks-apiserver"]
if err := viper.ReadInConfig(); err != nil {if _, ok := err.(viper.ConfigFileNotFoundError); ok {return nil, err} else {return nil, fmt.Errorf("error parsing configuration file %s", err)
    }
}

conf := New() // 初始化各组件配置

// 从读取的理论门路配置文件来反序列化到 conf 这个 struct
if err := viper.Unmarshal(conf); err != nil {return nil, err}

return conf, n

下面的正文,解释了须要在指定门路下增加 kubesphere.yaml 启动 ks-apiserver 命令行。

咱们接着往下撸,这里应用 cobra.Command 这个 package 来做命令行的集成:

func Run(s *options.ServerRunOptions, ctx context.Context) error {
    // NewAPIServer 通过给定的配置启动 apiserver 实例,绑定实例化的各组件的 client
    // 这一步还通过 AddToScheme 来注册一些自定义的 GVK 到 k8s,最终裸露为 apis API
    // 借助 rest.Config 和 scheme 初始化 runtimecache 和 runtimeClient 
    apiserver, err := s.NewAPIServer(ctx.Done())
    if err != nil {return err}
    
    // PrepareRun 次要是应用 resful-go 集成 kapis API
    // 上一步绑定了各组件的 client,这一步就能够调用各组件的 client 来拜访对应组件的 server 端了
    // 猜猜 4.0 后端可插拔架构会是什么样子的?err = apiserver.PrepareRun(ctx.Done())
    if err != nil {return nil}
    
    // 运行各种 informers 同步资源,并开始 ks-apiserver 监听申请
    return apiserver.Run(ctx)
}

s.NewAPIServer(ctx.Done()) 次要是创立一个 apiserver 实例。创立 apiserver 实例这一步,还通过 scheme 注册 ks 自定义的 GVK 到 k8s, 裸露为 apis 申请门路的 API。

PrepareRun 次要是应用 resful-go 框架集成了各子模块代理申请或集成服务,裸露为 kapis 申请门路的 API 性能。

apiserver.Run(ctx) 则是做了资源同步,并启动 server 监听。

上面离开论述阐明。

NewAPIServer

首先是绑定各种 client 和 informers:

// 调用各组件的 NewForConfig 办法整合 clientset
kubernetesClient, err := k8s.NewKubernetesClient(s.KubernetesOptions)
if err != nil {return nil, err}
apiServer.KubernetesClient = kubernetesClient
informerFactory := informers.NewInformerFactories(kubernetesClient.Kubernetes(), kubernetesClient.KubeSphere(),kubernetesClient.Istio(), kubernetesClient.Snapshot(), kubernetesClient.ApiExtensions(), kubernetesClient.Prometheus())
apiServer.InformerFactory = informerFactory
...
// 依据 kubesphere.yaml 或者 kubesphere-config configmap 的配置来绑定 ks 组件的 client
...

初始化绑定结束后 , 会启动一个 server 来响应申请 , 所以这里会做一个 addr 绑定 :

...
server := &http.Server{Addr: fmt.Sprintf(":%d", s.GenericServerRunOptions.InsecurePort),
}

if s.GenericServerRunOptions.SecurePort != 0 {certificate, err := tls.LoadX509KeyPair(s.GenericServerRunOptions.TlsCertFile, s.GenericServerRunOptions.TlsPrivateKey)
    if err != nil {return nil, err}

    server.TLSConfig = &tls.Config{Certificates: []tls.Certificate{certificate},
    }
    server.Addr = fmt.Sprintf(":%d", s.GenericServerRunOptions.SecurePort)
}

sch := scheme.Scheme
if err := apis.AddToScheme(sch); err != nil {klog.Fatalf("unable add APIs to scheme: %v", err)
}
...

留神这一步 apis.AddToScheme(sch), 将咱们定义的 GVK 注册到 k8s 中。

顺带一提,GVK 指的是 Group,Version, Kind, 举个栗子:

{Group: "", Version:"v1", Resource:"namespaces"}
{Group: "", Version:"v1", Resource:"nodes"}
{Group: "", Version:"v1", Resource:"resourcequotas"}
...
{Group: "tenant.kubesphere.io", Version: "v1alpha1", Resource: "workspaces"}
{Group: "cluster.kubesphere.io", Version: "v1alpha1", Resource: "clusters"}
...

Scheme 治理 GVK 和 Type 的关系 , 一个 GVK 只能对应一个 reflect.Type, 一个 reflect.Type 可能对应多个 GVK;此外,Scheme 还聚合了 converter 及 cloner, 用来转换不同版本的构造体和获取构造体值的拷贝;限于篇幅无限,感兴趣的童鞋能够深刻摸索下。

回归注释,上面咱们看下怎么注入 scheme 的:

// AddToSchemes may be used to add all resources defined in the project to a Schemevar AddToSchemes runtime.SchemeBuilder
// AddToScheme adds all Resources to the Schemefunc 
AddToScheme(s *runtime.Scheme) error {return AddToSchemes.AddToScheme(s)}

而 AddToSchemes 这个类型的是 []func(*Scheme) error 的别名,只须要在 package apis 下的接口文件中实现相应的 init() 办法来导入实现的版本 API,就能够注入 Scheme 中。

举个例子:

$ cat pkg/apis/addtoscheme_dashboard_v1alpha2.go
package apis
import monitoringdashboardv1alpha2 "kubesphere.io/monitoring-dashboard/api/v1alpha2"
func init() {AddToSchemes = append(AddToSchemes, monitoringdashboardv1alpha2.SchemeBuilder.AddToScheme)
}

也就是,咱们开发的插件集成的版本化资源,必须实现 xxx.SchemeBuilder.AddToScheme 性能,能力注册到 scheme 中,最终裸露为 apis 拜访 API 服务。

至此,所有子模块对应的 client 曾经与这个 apiserver 绑定。

PrepareRun

上面,咱们探讨下 PrepareRun 是怎么注册 kapis 以及绑定 handler 的。

次要是通过 restful-go 框架来实现的。

restful-go 框架应用 container 来 hold 住领有特定 GVR 的 webservice, 一个 webserver 能够绑定多个 router,容许 container 或者 webserver 增加自定义拦截器,也就是调用 filter 办法。

func (s *APIServer) PrepareRun(stopCh <-chan struct{}) error {
  // container 来 hold 住领有特定 GVR 的 webservice
    s.container = restful.NewContainer()
    // 增加申请 Request 日志拦截器
    s.container.Filter(logRequestAndResponse)
    s.container.Router(restful.CurlyRouter{})
    
    // 产生 Recover 时,绑定一个日志 handler
    s.container.RecoverHandler(func(panicReason interface{}, httpWriter http.ResponseWriter) {logStackOnRecover(panicReason, httpWriter)
    })
    
    // 每个 API 组都构建一个 webservice,而后依据路由规定来并绑定回调函数
  // 通过 AddToContainer 来实现绑定
    s.installKubeSphereAPIs()
    
    // 注册 metrics 指标: ks_server_request_total、ks_server_request_duration_seconds
    // 绑定 metrics handler
    s.installMetricsAPI()
    
    // 为无效申请减少监控计数
    s.container.Filter(monitorRequest)

    for _, ws := range s.container.RegisteredWebServices() {klog.V(2).Infof("%s", ws.RootPath())
    }
    
    s.Server.Handler = s.container
    
    // 增加各个调用链的拦截器, 用于验证和路由散发
    s.buildHandlerChain(stopCh)

    return nil
}

下面次要应用 restful-go 框架给 s.Server.handler 绑定了一个 container, 增加了各种拦截器。

在 s.installKubeSphereAPIS() 这一步装置 GVR 绑定了 kapis 代理,具体是这样实现的:

// 调用各 api 组的 AddToContainer 办法来向 container 注册 kapi:
urlruntime.Must(monitoringv1alpha3.AddToContainer(s.container, s.KubernetesClient.Kubernetes(), s.MonitoringClient, s.MetricsClient, s.InformerFactory, s.KubernetesClient.KubeSphere(), s.Config.OpenPitrixOptions))

// 具体来说,各个组件实现的 AddToContainer 办法
// 为带有 GroupVersion 信息的 webserver 增加 route,不同路由门路绑定不同的 handler
ws := runtime.NewWebService(GroupVersion)
// 给子路由绑定回调函数
ws.Route(ws.GET("/kubesphere").
    To(h.handleKubeSphereMetricsQuery).
    Doc("Get platform-level metric data.").
    Metadata(restfulspec.KeyOpenAPITags, []string{constants.KubeSphereMetricsTag}).
    Writes(model.Metrics{}).
    Returns(http.StatusOK, respOK, model.Metrics{})).
    Produces(restful.MIME_JSON)

咱们晓得 apis 对应 k8s 的申请,而在 ks 中 kapis 对应子组件的代理申请,由 ks-apiserver 本身或者转发指标组件 server 来提供响应,那么 ks-apiserver 是怎么辨别这些申请的?

答案是通过 buildHandlerChain 来进行散发的。

buildHandlerChain

下面说到 buildHandlerChain 构建了各种服务的拦截器,按序排列如下。

handler = filters.WithKubeAPIServer(handler, s.KubernetesClient.Config(), &errorResponder{})

if s.Config.AuditingOptions.Enable {
    handler = filters.WithAuditing(handler,
        audit.NewAuditing(s.InformerFactory, s.Config.AuditingOptions, stopCh))
}

handler = filters.WithAuthorization(handler, authorizers)
if s.Config.MultiClusterOptions.Enable {clusterDispatcher := dispatch.NewClusterDispatch(s.InformerFactory.KubeSphereSharedInformerFactory().Cluster().V1alpha1().Clusters())
    handler = filters.WithMultipleClusterDispatcher(handler, clusterDispatcher)
}

handler = filters.WithAuthentication(handler, authn)
handler = filters.WithRequestInfo(handler, requestInfoResolver)

WithRequestInfo 这个 filter 定义了如下逻辑:

info, err := resolver.NewRequestInfo(req)
---
func (r *RequestInfoFactory) NewRequestInfo(req *http.Request) (*RequestInfo, error) {
   ...
   defer func() {
        prefix := requestInfo.APIPrefix
        if prefix == "" {currentParts := splitPath(requestInfo.Path)
            //Proxy discovery API
            if len(currentParts) > 0 && len(currentParts) < 3 {prefix = currentParts[0]
            }
        }
    // 通过 api 路由门路中的携带 apis 还是 kapis 就能够辨别
        if kubernetesAPIPrefixes.Has(prefix) {requestInfo.IsKubernetesRequest = true}
    }()
    
    ...
    // URL forms: /clusters/{cluster}/*
    if currentParts[0] == "clusters" {if len(currentParts) > 1 {requestInfo.Cluster = currentParts[1]
        }
        if len(currentParts) > 2 {currentParts = currentParts[2:]
        }
    }
    ...
}

代码很多,我就不一一截图了,大略意思能够从正文看到:

// NewRequestInfo returns the information from the http request.  If error is not nil, RequestInfo holds the information as best it is known before the failure
// It handles both resource and non-resource requests and fills in all the pertinent information for each.
// Valid Inputs:
//
// /apis/{api-group}/{version}/namespaces
// /api/{version}/namespaces
// /api/{version}/namespaces/{namespace}
// /api/{version}/namespaces/{namespace}/{resource}
// /api/{version}/namespaces/{namespace}/{resource}/{resourceName}
// /api/{version}/{resource}
// /api/{version}/{resource}/{resourceName}
//
// Special verbs without subresources:
// /api/{version}/proxy/{resource}/{resourceName}
// /api/{version}/proxy/namespaces/{namespace}/{resource}/{resourceName}
//
// Special verbs with subresources:
// /api/{version}/watch/{resource}
// /api/{version}/watch/namespaces/{namespace}/{resource}
//
// /kapis/{api-group}/{version}/workspaces/{workspace}/{resource}/{resourceName}
// /
// /kapis/{api-group}/{version}/namespaces/{namespace}/{resource}
// /kapis/{api-group}/{version}/namespaces/{namespace}/{resource}/{resourceName}
// With workspaces:
// /kapis/clusters/{cluster}/{api-group}/{version}/namespaces/{namespace}/{resource}
// /kapis/clusters/{cluster}/{api-group}/{version}/namespaces/{namespace}/{resource}/{resourceName}

通过路由定义的信息,就能够辨别这个申请是什么级别的,以及这个申请要散发到哪个 server 了。

咱们给各个 filter 的回调函数加上断点,而后做个小试验看下拦截器的拦挡程序是怎么的。

假如近程云主机的服务曾经启动,服务端口在 9090,以及你为 anonymous 这个 globalrole 设定了 monitoring.kubesphere.io 这个组下资源类型为 ClusterDashboard 的拜访权限。当然了,你也能够用有拜访权限的账号来间接测试。

接下来,咱们来发送一个 kapis 申请,看这个链路怎么跳跃的:

curl -d '{"grafanaDashboardUrl":"https://grafana.com/api/dashboards/7362/revisions/5/download","description":"this is a test dashboard."}' -H "Content-Type: application/json" localhost:9090/kapis/monitoring.kubesphere.io/v1alpha3/clusterdashboards/test1/template

测试后果如下:

WithRequestInfo -> WithAuthentication -> WithAuthorization -> WithKubeAPIServer

Run

这个办法次要干了两件事,一是启动 informers 同步资源 , 二是启动 ks apiserver。

func (s *APIServer) Run(ctx context.Context) (err error) {
  // 启动 informer 工厂,包含 k8s 和 ks 的 informers
    // 同步资源,包含 k8s 和 ks 的 GVR
    // 查看 GVR 是否存在,不存在报错正告,存在就同步
    err = s.waitForResourceSync(ctx)
    if err != nil {return err}

    shutdownCtx, cancel := context.WithCancel(context.Background())
    defer cancel()

    go func() {<-ctx.Done()
        _ = s.Server.Shutdown(shutdownCtx)
    }()
    
    // 启动 server
    klog.V(0).Infof("Start listening on %s", s.Server.Addr)
    if s.Server.TLSConfig != nil {err = s.Server.ListenAndServeTLS("","")
    } else {err = s.Server.ListenAndServe()
    }

    return err
}

至此,调用完 Run 办法后,ks-apiserver 就启动了。

当初咱们做一下简略总结:

  • 依据配置文件创立 ks-apiserver 实例 , 该实例调用了三个要害办法,别离是 NewAPIServer、PrepareRun 以及 Run 办法;
  • NewAPIServer 通过给定的配置,绑定各个模块的 client,将自定义的 GVK 注册到 Scheme,裸露 apis 路由服务;
  • PrepareRun 通过 restful-go 框架来注册、绑定 kapi 路由和回调函数,用来本身响应或者下发组件 server 查问合并数据返回给客户端 ;
  • 最初 , 调用 Run 办法,同步资源并启动 ks-apiserver 服务;

GVK 摸索实战

显然,咱们只须要关注各模块的 AddToContainer 办法就行了。

iam.kubesphere.io

pkg/kapis/iam/v1alpha2/register.go

从代码正文来看,这个模块治理着 users、clustermembers、globalroles、clusterroles、workspaceroles、roles、workspaces groups、workspace members、devops members 等账号角色的 CRUD。

当初咱们能够在 handler 中打上断点,去申请这些 api。

$ curl "localhost:9090/kapis/iam.kubesphere.io/v1alpha2/users"
$ curl "localhost:9090/kapis/iam.kubesphere.io/v1alpha2/clustermembers"
$ curl "localhost:9090/kapis/iam.kubesphere.io/v1alpha2/users/admin/globalroles"
...

kubeedge.kubesphere.io

pkg/kapis/kubeedge/v1alpha1/register.go

代码外面应用的代理转发申请:

func AddToContainer(container *restful.Container, endpoint string) error {proxy, err := generic.NewGenericProxy(endpoint, GroupVersion.Group, GroupVersion.Version)
    if err != nil {return nil}

    return proxy.AddToContainer(container)
}

也就是 kapis/kubeedge.kubesphere.io 的申请会转发到 http://edge-watcher.kubeedge….,也就是 kubeedge 这个 namespace 下的 service,相干的接口集成在那里。

对于整合边缘计算平台的集成,除了须要做一个支流边缘框架的疾速装置和集成外,还能够集成一个相似 edge-shim 的适配器,大略须要从一下几个方面思考:

  • 代理 endpoint: 当初的 kubeedge 就是应用代理模式转发;
  • 健康检查接口:至多要确保云端的组件曾经胜利部署;
  • 事件、长期日志、审计等可观测组件的反对;
  • 其余边缘辅助性能,如文件或者配置下发等;

notification.kubesphere.io

pkg/kapis/notification/v2beta1/register.go

这个组下的 api 次要实现了 notification 的全局或租户级别的 config 和 receivers 资源的 CRUD。

config 资源

用于配置对接告诉渠道相干参数的一些配置,分为全局的和租户级别的 config 资源;

reciever 资源

用于配置接收者的一些配置信息,辨别全局的和租户级别的接收者;

咱们筛选一个回调函数进行分析:

ws.Route(ws.GET("/{resources}").
        To(h.ListResource).
        Doc("list the notification configs or receivers").
        Metadata(KeyOpenAPITags, []string{constants.NotificationTag}).
        Param(ws.PathParameter("resources", "known values include configs, receivers, secrets")).
        Param(ws.QueryParameter(query.ParameterName, "name used for filtering").Required(false)).
        Param(ws.QueryParameter(query.ParameterLabelSelector, "label selector used for filtering").Required(false)).
        Param(ws.QueryParameter("type", "config or receiver type, known values include dingtalk, email, slack, webhook, wechat").Required(false)).
        Param(ws.QueryParameter(query.ParameterPage, "page").Required(false).DataFormat("page=%d").DefaultValue("page=1")).
        Param(ws.QueryParameter(query.ParameterLimit, "limit").Required(false)).
        Param(ws.QueryParameter(query.ParameterAscending, "sort parameters, e.g. ascending=false").Required(false).DefaultValue("ascending=false")).
        Param(ws.QueryParameter(query.ParameterOrderBy, "sort parameters, e.g. orderBy=createTime")).
        Returns(http.StatusOK, api.StatusOK, api.ListResult{Items: []interface{}{}}))
        
func (h *handler) ListResource(req *restful.Request, resp *restful.Response) {
    // 租户或用户的名称
    user := req.PathParameter("user")
    // 资源类型,configs/recievers/secrets
    resource := req.PathParameter("resources")
    // 告诉渠道 dingtalk/slack/email/webhook/wechat
    subresource := req.QueryParameter("type")
    q := query.ParseQueryParameter(req)

    if !h.operator.IsKnownResource(resource, subresource) {api.HandleBadRequest(resp, req, servererr.New("unknown resource type %s/%s", resource, subresource))
        return
    }

    objs, err := h.operator.List(user, resource, subresource, q)
    handleResponse(req, resp, objs, err)
}

咱们看下 list object 的逻辑:

// List objects.
func (o *operator) List(user, resource, subresource string, q *query.Query) (*api.ListResult, error) {if len(q.LabelSelector) > 0 {q.LabelSelector = q.LabelSelector + ","}

    filter := ""
    // 如果没有给定租户的名称,则获取全局的对象
    if user == "" {if isConfig(o.GetObject(resource)) {
            // type=default 对 config 资源来说是全局的
            filter = "type=default"
        } else {
            // type=global 对 receiever 资源来说是全局的
            filter = "type=global"
        }
    } else {
    // 否则就给过滤器绑定租户名称
        filter = "type=tenant,user=" + user
    }
    // 组装过滤标签
    q.LabelSelector = q.LabelSelector + filter
    ...
    // 通过过滤标签获取 cluster 或者 namespace 下的指定资源
    res, err := o.resourceGetter.List(resource, ns, q)
    if err != nil {return nil, err}

    if subresource == "" || resource == Secret {return res, nil}

    results := &api.ListResult{}
    ...
}

这样一来,就实现了租户级别的告诉告警 CR 配置的 CRUD,这些 CR 是这么分类的:

  • config 分为全局 type = default, 租户 type = tenant 两种级别;
  • reciever 分为全局 type = global, 租户 type = tenant 两种级别;

那么 config 和 reciever 怎么互相绑定、告警是如何通过渠道给租户发消息的?

https://github.com/kubesphere…

https://github.com/kubesphere…

notification-manager 简称 nm,我这里断章取义地简要答复一下。

性能方面:

  • 全局配置 reciever 通过配置的渠道将所有的 alerts 发送给其定义好的接收者名单,配置了租户信息的 reciever 只能通过渠道发送以后 ns 下的 alerts;
  • reciever 中能够通过配置 alertSelector 参数来进一步过滤告警音讯;
  • 通过批改名为 notification-manager-template 的 confimap 来定制发送音讯模板;

告警到告诉的流程:

  • nm 应用端口 19093 和 API 门路 /api/v2/alerts 接管从 Alertmanager 发送的告警 ;
  • 回调函数承受 alerts 转换为 notification 模板数据,依照 namespace 辨别告警数据;
  • 遍历所有 Recievers,每个 ns 下启动一个协程来发送音讯,而这里每个 ns 对应着多个告诉渠道,因而也应用 waitgroup 来并发编排实现工作;

monitoring.kubesphere.io

pkg/kapis/monitoring/v1alpha3/register.go

将监控指标分为平台级、节点级、workspaces、namespaces、pods 等级别,不仅能够获取总的统计,还能获取 nodes/namespaces/workspaces 下的所有 pods/containers 等监控指标。

咱们查看回调函数,以 handleNamedMetricsQuery 为例剖析:

  • 遍历给定指标级别下的非法 metric 指标,依据申请参数中 metricFilter 的来过滤指标名;
  • 判断为范畴查问还是实时查问,来调取 monitoring 包中相干办法,通过对应的 client 申请后端获取后果返回;

代码如下:

func (h handler) handleNamedMetricsQuery(resp *restful.Response, q queryOptions) {
    var res model.Metrics

    var metrics []string
    // q.namedMetrics 是一组依照监控指标级别分类好的领有 promsql expr 定义的残缺指标名数组
    // 监控指标级别分类是依据 monitoring.Levelxxx 在上一个栈里细分的,i.e: monitoring.LevelPod
    for _, metric := range q.namedMetrics {if strings.HasPrefix(metric, model.MetricMeterPrefix) {
            // skip meter metric
            continue
        }
        // 依据申请参数中的指标名来过滤
        ok, _ := regexp.MatchString(q.metricFilter, metric)
        if ok {metrics = append(metrics, metric)
        }
    }
    if len(metrics) == 0 {resp.WriteAsJson(res)
        return
    }
    
    // 判断是否是范畴查问还是实时查问,持续调用相干函数
    // 次要还是用 prometheus client 去查问 promsql, 边缘节点的指标目前通过 metrics server 来查问
    if q.isRangeQuery() {res = h.mo.GetNamedMetricsOverTime(metrics, q.start, q.end, q.step, q.option)
    } else {res = h.mo.GetNamedMetrics(metrics, q.time, q.option)
        if q.shouldSort() {res = *res.Sort(q.target, q.order, q.identifier).Page(q.page, q.limit)
        }
    }
    resp.WriteAsJson(res)
}

当初,咱们将视角移植到 :

pkg/models/monitoring/monitoring.go:156

以 GetNamedMetricsOverTime 为例,这里论述了会合并 prometheus 和 metrics-server 的查问后果进行返回:

func (mo monitoringOperator) GetNamedMetricsOverTime(metrics []string, start, end time.Time, step time.Duration, opt monitoring.QueryOption) Metrics {
    // 获取 prometheus client 查问后果,次要应用 sync.WaitGroup 并发查问,每个指标启动一个 goroutine,最初将后果和并返回
    ress := mo.prometheus.GetNamedMetricsOverTime(metrics, start, end, step, opt)
    // 如果 metrics-server 激活了
    if mo.metricsserver != nil {

        // 合并边缘节点数据
        edgeMetrics := make(map[string]monitoring.MetricData)

        for i, ressMetric := range ress {
            metricName := ressMetric.MetricName
            ressMetricValues := ressMetric.MetricData.MetricValues
            if len(ressMetricValues) == 0 {
                // this metric has no prometheus metrics data
                if len(edgeMetrics) == 0 {
                    // start to request monintoring metricsApi data
                    mr := mo.metricsserver.GetNamedMetricsOverTime(metrics, start, end, step, opt)
                    for _, mrMetric := range mr {edgeMetrics[mrMetric.MetricName] = mrMetric.MetricData
                    }
                }
                if val, ok := edgeMetrics[metricName]; ok {ress[i].MetricData.MetricValues = append(ress[i].MetricData.MetricValues, val.MetricValues...)
                }
            }
        }
    }

    return Metrics{Results: ress}
}

此外,monitoring 包还定义了各监控查问 client 的接口办法,能够按需摸索:

  • GetMetric(expr string, time time.Time) Metric
  • GetMetricOverTime(expr string, start, end time.Time, step time.Duration) Metric
  • GetNamedMetrics(metrics []string, time time.Time, opt QueryOption) []Metric
  • GetNamedMetricsOverTime(metrics []string, start, end time.Time, step time.Duration, opt QueryOption) []Metric
  • GetMetadata(namespace string) []Metadata
  • GetMetricLabelSet(expr string, start, end time.Time) []map[string]string

tenant.kubesphere.io

再聊 api 之前,顺带一提多租户在隔离的平安水平上,咱们能够将其分为软隔离 (Soft Multi-tenancy) 和硬隔离 (Hard Multi-tenancy) 两种。

  • 软隔离更多的是面向企业外部的多租需要;
  • 硬隔离面向的更多是对外提供服务的服务供应商,须要更严格的隔离作为平安保障。

这个 group 下比拟重要的局部是实现租户查问 logs/audits/events:

以查问日志为例:

func (h *tenantHandler) QueryLogs(req *restful.Request, resp *restful.Response) {
    // 查问上下文中携带的租户信息
    user, ok := request.UserFrom(req.Request.Context())
    if !ok {err := fmt.Errorf("cannot obtain user info")
        klog.Errorln(err)
        api.HandleForbidden(resp, req, err)
        return
    }
    // 解析查问的参数,比方确定属于哪个 ns/workload/pod/container 的查问、时间段,是否为柱状查问等
    queryParam, err := loggingv1alpha2.ParseQueryParameter(req)
    if err != nil {klog.Errorln(err)
        api.HandleInternalError(resp, req, err)
        return
    }
    // 导出数据
    if queryParam.Operation == loggingv1alpha2.OperationExport {resp.Header().Set(restful.HEADER_ContentType, "text/plain")
        resp.Header().Set("Content-Disposition", "attachment")
        // 验证账号是否有权限
        // admin 账号能够导出所有 ns 的日志,租户只能导出本 ns 的日志
        // 组装 loggingclient 进行日志导出
        err := h.tenant.ExportLogs(user, queryParam, resp)
        if err != nil {klog.Errorln(err)
            api.HandleInternalError(resp, req, err)
            return
        }
    } else {
        // 验证账号是否有权限
        // admin 账号能够查看所有 ns 的日志,租户只能查看本 ns 的日志
        // 组装 loggingclient 进行日志返回
        result, err := h.tenant.QueryLogs(user, queryParam)
        if err != nil {klog.Errorln(err)
            api.HandleInternalError(resp, req, err)
            return
        }
        resp.WriteAsJson(result)
    }
}

因为篇幅无限,只对以上 GVR 进行了调试,感兴趣能够深刻理解~

本文由博客一文多发平台 OpenWrite 公布!

正文完
 0