作者:学仁

简介

K8s Job 是 Kubernetes 中的一种资源,用来解决短周期的 Pod,相当于一次性工作,跑完就会把 Pod 销毁,不会始终占用资源,能够节省成本,进步资源利用率

阿里任务调度 SchedulerX 和云原生联合,重磅推出可视化 K8s 工作,针对脚本使用者,屏蔽了容器服务的细节,不必构建镜像就能够让不相熟容器的同学(比方运维和经营同学)玩转K8s Job,受害容器服务带来的降本增效福利。针对容器使用者,SchedulerX 岂但齐全兼容原生的 K8s Job,还能反对历史执行记录、日志服务、重跑工作、报警监控、可视化工作编排等能力,为企业级利用保驾护航。架构图如下:

个性一:疾速开发 K8s 可视化脚本工作

Kubernetes 的 Job,常见用来做离线数据处理和运维工作(比方每天凌晨 2 点把 mysql 数据同步到大数据平台,每隔 1 小时更新一次 redis 缓存等),个别以脚本实现居多。这里以一个简略的场景举例子,来比照两种计划的差别。

Kubernetes 原生解决方案

K8s 调度的最小单位是 Pod,想跑脚本工作,须要提前把脚本打包到镜像里,而后在 YAML 文件中配置脚本命令,上面以通过 python 脚本查询数据库为例子:

  • 编写 python 脚本 demo.py
#!/usr/bin/python# -*- coding: UTF-8 -*-import MySQLdb# 关上数据库连贯db = MySQLdb.connect("localhost", "testuser", "test123", "TESTDB", charset='utf8' )# 应用cursor()办法获取操作游标 cursor = db.cursor()# SQL 查问语句sql = "SELECT * FROM EMPLOYEE \WHERE INCOME > %s" % (1000)try:    # 执行SQL语句    cursor.execute(sql)    # 获取所有记录列表    results = cursor.fetchall()    for row in results:        fname = row[0]        lname = row[1]        age = row[2]        sex = row[3]        income = row[4]        # 打印后果        print "fname=%s,lname=%s,age=%s,sex=%s,income=%s" % \        (fname, lname, age, sex, income )        except:            print "Error: unable to fetch data"                        # 敞开数据库连贯db.close()
  • 编写 Dockerfile
FROM python:3WORKDIR /usr/src/appCOPY requirements.txt ./RUN pip install --no-cache-dir -r requirements.txtCOPY demo.py /root/demo.pyCMD [ "python", "/root/demo.py" ]
  • 制作 docker 镜像,推到镜像仓库中
docker build -t registry.cn-beijing.aliyuncs.com/demo/python:1.0.0 .docker push registry.cn-beijing.aliyuncs.com/demo/python:1.0.0
  • 编写 K8s Job 的 YAML 文件,image 抉择第 3 步制作的镜像,command 的命令为执行脚本
apiVersion: batch/v1kind: Jobmetadata:  name: demo-pythonspec:  template:    spec:      containers:      - name: demo-python        image: registry.cn-beijing.aliyuncs.com/demo/python:1.0.0        command: ["python",  "/root/demo.py"]      restartPolicy: Never  backoffLimit: 4

咱们看到要在容器服务中跑脚本,须要这么多步骤,如果要批改脚本,还须要从新构建镜像和从新公布 K8s Job,十分麻烦。

阿里云解决方案

阿里任务调度 SchedulerX 联合云原生技术,提出了一套可视化的脚本工作解决方案,通过任务调度零碎来治理脚本,间接在线编写脚本,不须要构建镜像,就能够将脚本以 Pod 的形式在用户的 K8s 集群当中运行起来,应用十分不便,如下图:

  1. 在 SchedulerX 工作治理新建一个 K8s 工作,资源类型抉择 Python-Script(以后反对shell/python/php/nodejs 四种脚本类型)

  1. 点击运行一次,在 Kubernetes 集群中能够看到 pod 启动,pod 名称为 schedulerx-python-{JobId}

  1. 在 SchedulerX 控制台也能够看到历史执行记录

  1. 在 SchedulerX 控制台能够看到 Pod 运行的日志

上面通过一个表格更不便的看到两个计划的差别:

个性二:齐全兼容原生 K8s Job

SchedulerX 岂但可能疾速开发 K8s 脚本工作,屏蔽容器服务的细节,给不相熟容器服务的同学带来福音,同时还能托管原生 K8s Job。

原生自带的Job计划

  • Job

以官网提供的 Job 为例:

  1. 编写 YAML 文件 pi.yaml,成心写一个谬误,bpi(-1)是非法的
apiVersion: batch/v1kind: Jobmetadata:  name: pispec:  template:    spec:      containers:      - name: pi        image: perl:5.34        command: ["perl",  "-Mbignum=bpi", "-wle", "print bpi(-1)"]      restartPolicy: Never  backoffLimit: 4
  1. 在 K8s 集群中运行该 Job,并查看 Pod 的状态和日志:

K8s 原生的 Job 不反对重跑,批改完 Job 后想要重跑,须要先删除,再从新 apply,十分麻烦。

  • CronJob

以官网提供的 CronJob 为例:

  1. 编写 hello.yaml
apiVersion: batch/v1kind: CronJobmetadata:  name: hellospec:  schedule: "* * * * *"  jobTemplate:    spec:      template:        spec:          containers:          - name: hello            image: perl:5.34            command: ["perl",  "-Mbignum=bpi", "-wle", "print bpi(100)"]          restartPolicy: OnFailure
  1. 在 K8s 集群中运行该 CronJob,查看 pod 历史记录和日志

发现原生的 CronJob 只能查看最近3条执行记录,想要查看更久之前的记录无奈看到,这在业务呈现问题想排查的时候就变得尤为艰难。

阿里云解决方案

阿里任务调度 SchedulerX 能够托管原生 K8s 工作,不便移植,应用 SchedulerX 托管,能够享有任务调度的个性,比方工作重跑、历史记录、日志服务、报警监控等。

  1. 新建 K8s 工作,工作类型抉择 K8s,资源类型抉择 Job-YAML,打印 bpi(-1)

  1. 通过工具来生成 cron 表达式,比方每小时第 8 分钟跑

  1. 调度工夫还没到,也能够手动点击“运行一次”来进行测试

  1. 在 K8s 集群中能够看到 Job 和 Pod 启动胜利

  1. 在 SchedulerX 控制台也能够看到历史执行记录

  1. 在 SchedulerX 控制台能够看到工作运行日志

  1. 在线批改工作的 YAML,打印 bpi(100)

  1. 不须要删除 Job,通过控制台来重跑工作

  1. 工作重跑胜利,且能看到新的日志

上面通过一个表格来比照两个计划的差别

个性三:加强原生 Job,反对可视化工作编排

在数据处理场景下,工作之间往往有依赖关系,比方 A 工作依赖 B 工作的实现能力开始执行。

Kubernetes 原生解决方案

以后 K8s 中支流的解决方案是应用 argo 进行工作流编排,比方定义一个 DAG 如下:

# The following workflow executes a diamond workflow# #   A#  / \# B   C#  \ /#   DapiVersion: argoproj.io/v1alpha1kind: Workflowmetadata:  generateName: dag-diamondspec:  entrypoint: diamond  templates:  - name: diamond    dag:      tasks:      - name: A        template: echo        arguments:          parameters: [{name: message, value: A}]      - name: B        depends: "A"        template: echo        arguments:          parameters: [{name: message, value: B}]      - name: C        depends: "A"        template: echo        arguments:          parameters: [{name: message, value: C}]      - name: D        depends: "B && C"        template: echo        arguments:          parameters: [{name: message, value: D}]  - name: echo    inputs:      parameters:      - name: message    container:      image: alpine:3.7      command: [echo, "{{inputs.parameters.message}}"]

咱们看到构建这么简略的一个 DAG,就须要写这么多 YAML,如果依赖关系简单,则 YAML 就变得十分难保护。

阿里云解决方案

阿里任务调度 SchedulerX 反对通过可视化的工作流进行工作编排

  1. 创立一个工作流,能够导入工作,也能够在以后画布新建工作,通过拖拽构建一个工作流

  1. 点击运行一次,能够实时看到工作流的运行状况,不便排查工作卡在哪个环节:

  1. 如果有工作失败了,通过控制台查看日志

  1. 把工作批改正确,在工作流实例图上,原地重跑失败的节点

  1. 失败的工作会从新依照最新的内容执行

  1. 当上游都执行胜利,上游就能够继续执行了

总结

通过任务调度 SchedulerX 来调度你的 K8s 工作,可能升高学习老本,放慢开发效率,让你的工作失败可报警,出问题可排查,打造云原生可观测体系下的可视化 K8s 工作。