2021.4.2-4.11期间工作通关处分

工作实现后,您能够支付如下各种处分:

1、您能够支付“阿里云20元抵用券”共计1500张,每天限领150张。

2、CNCF官网“Kubernetes”指尖陀螺一个加减压握力圈一个,共计1000套,每天200套。

3、 侥幸转盘锦鲤抽奖,礼品范畴机械键盘、阿里云定制水杯、无线充电线、台灯, 共计16个。

支付地址:https://developer.aliyun.com/...

必读阐明

依照操作文档,实现部署工作,会耗费肯定的云资源,并产生费用,包含容器服务集群ASK及Kafka实例所需资源费用。

  • 音讯服务Kafka: 1个5元月包
  • 容器服务ASK集群: 集群底层计算资源ECI弹性容器实例(4c8g左右)、集群APIserver的内网SLB、集群拉取公网镜像须要的NAT网关实例费与流量费用
  • 利用对外裸露公网拜访:1个内网SLB 与 1个公网EIP

以1小时的举荐体验时长为例,预计耗费6-7元。(音讯队列Kafka 5元包 可按量付费)

创立ASK集群

1.关上容器服务控制台,开始创立ASK集群
https://cs.console.aliyun.com...

2.填写配置并创立集群
倡议抉择深圳region,并且请记住后续资源开明均抉择此region,并留神下图红框中的配置统一;否则无奈部署本试验利用、或代金券额度有余无奈进行。

备注:

1 此项须要您的账号有100元余额,否则无奈通过。

2 如果您曾经有可用Kafka实例,此处可抉择与Kafka实例对应region。

创立集群参考图

点击右侧的“创立集群”按钮,页面出现三列查看我的项目,顺次通过即可创立集群。

备注:如果您呈现“not authorized to create an enhanced NAT gateway”的集群创立失败提醒,请从新再创立一次。

3.在ASK中部署容器的Eventing

集群创立结束后,呈现在控制台左侧导航栏中。单击新建集群名,进入集群治理更多。

a.在集群治理页左侧导航栏中,抉择利用 > Knative。
b.在组件治理页签外围组件区域单击Eventing操作列的部署。

Knative组件Eventing部署参考图

4.在ASK集群中装置Kafka Source
a.在集群治理页左侧导航栏中,抉择利用 > Knative。
b.在组件治理页签add-on 组件区域单击Kafka操作列的部署。

在容器集群中退出Kafka组件部署参考图

5.记录ASK集群网络资源,据此信息部署Kafka
您须要依据ASK集群的虚构专有网络VPC、节点虚拟机VSwitch,相应地部署Kafka实例。

点击左侧目录集群信息》集群资源,找到对应的VSwitch ID和VPC ID,您能够放弃此窗口。

购买Kafka实例

新开一个浏览器窗口,输出https://common-buy.aliyun.com...

1.开明kafka 5元包
抉择 「流量规格:alikafka.hw.test」 , 「实例类型:VPC实例」,「磁盘类型:高效云盘」。 即可取得1个月5元的Kafka资源包。同时,倡议抉择深圳region,务必与后面ASK集群在同一个region。

备注:此款优惠价格仅限于Kafka新客户,如果您曾经领有了Kafka实例能够复用已有资源,或者间接购买按量实例。

2.部署实例
a.在音讯队列Kafka版控制台的实例列表页面,找到未部署的实例,单击部署。


Kafka实例部署参考图

b.在部署对话框,部署实例。

从VPC ID列表,抉择上述ASK集群的VPC ID。
从VSwitch ID列表,抉择上述ASK集群的VSwitch ID。抉择VSwitch ID后,零碎会为您主动抉择该交换机所在的可用区。
可选:如果实例的规格类型为专业版,您能够抉择是否跨可用区部署。跨可用区部署具备较高的容灾能力,能够抵挡机房级别的故障。
单击部署。
c.实例进入部署中状态。实例部署预计须要10分钟~30分钟。

3.创立Topic
创立topic,请命名demo。「不倡议批改,这样能够间接复用前面yaml」


4.创立Consumer Group
创立Consumer Group,请命名demo-consumer。「不倡议批改,这样能够间接复用前面yaml」


5.为Kafka增加白名单
点击实例 》 抉择灰色目录平安配置 》平安变更 》 增加白名单IP 》 输出0.0.0.0/0 确定增加


6.保留本Kafka实例默认接入点
a.在音讯队列Kafka版控制台的实例列表页面,单击指标实例名称。
b.在实例详情页面的根本信息区域,查看实例的默认接入点。
在实例详情中能够看到该信息,抉择蓝色复制按钮,暂存Kafka默认接入点,倡议能够临时存到本地某个txt文件中。

通过模版文件(yaml)部署弹幕相干应用服务

将上面yaml的两处 KAFKA_SOURCE_LIST 替换成上步中获取到的Kaka「默认接入点」。

apiVersion: serving.knative.dev/v1kind: Servicemetadata:  name: danmu-portal  namespace: defaultspec:  template:    metadata:      annotations:        autoscaling.knative.dev/maxScale: "1"        autoscaling.knative.dev/minScale: "1"    spec:      containerConcurrency: 0      serviceAccountName: danmu-install-sa      containers:      - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/danmu:v1.1        name: user-container        env:        - name: KAFKA_SERVER          value: "__KAFKA_SOURCE_LIST__"        - name: KAFKA_TOPIC          value: "demo"        ports:        - containerPort: 8080          name: http1---apiVersion: serving.knative.dev/v1kind: Servicemetadata:  name: danmu-message  namespace: defaultspec:  template:    metadata:      annotations:        autoscaling.knative.dev/maxScale: "10"        autoscaling.knative.dev/minScale: "1"    spec:      containerConcurrency: 2      containers:      - args:        - /manager        - --url=http://danmu-portal.default.svc.cluster.local/api/send        env:        - name: POD_NAME          valueFrom:            fieldRef:              fieldPath: metadata.name        image: registry.cn-hangzhou.aliyuncs.com/knative-sample/danmu-manager:danmu_48680a04-20210319171906        name: user-container        ports:        - containerPort: 8000          name: http1---apiVersion: sources.knative.dev/v1alpha1kind: KafkaSourcemetadata:  annotations:    k8s.aliyun.com/req-timeout: "60"    k8s.aliyun.com/retry-count: "1"    k8s.aliyun.com/retry-interval: "2"  name: kafka-danmu  namespace: defaultspec:  bootstrapServers: "__KAFKA_SOURCE_LIST__"  consumerGroup: demo-consumer  sink:    ref:      apiVersion: serving.knative.dev/v1      kind: Service      name: danmu-message      namespace: default  topics: demo---apiVersion: rbac.authorization.k8s.io/v1beta1kind: ClusterRolemetadata:  name: danmu-install  labels:    app: danmurules:- apiGroups: [""]  resources: ["configmaps"]  verbs: ["get", "list"]---apiVersion: rbac.authorization.k8s.io/v1beta1kind: ClusterRoleBindingmetadata:  name: danmu-install-role-binding  labels:    app: danmuroleRef:  apiGroup: rbac.authorization.k8s.io  kind: ClusterRole  name: danmu-installsubjects:  - kind: ServiceAccount    name: danmu-install-sa    namespace: default    ---apiVersion: v1kind: ServiceAccountmetadata:  name: danmu-install-sa  namespace: default  labels:    app: danmu

返回到容器服务控制台, 找到此前的集群并开始部署。

在集群治理页左侧导航栏中,抉择利用 > Knative > 服务治理。
在服务治理页单击应用模版创立,贴入yaml文件,并且把这个 yaml 中的两个 KAFKA_SOURCE_LIST 替换成 kafka 「默认接入点」。
将资源请部署到 default 命名空间。


最初胜利查看示例图

绑定域名并开始体验

1.找到ASK集群中Knative的拜访网关,用于下一步绑定域名
在Knative对应组件治理页面,复制拜访网关地址


2.增加 host 绑定
a.Linux 和 Mac 编辑/etc/hosts 文件,在最初增加一行,将对应的“47.95.xx.xx”更换成上步获取到的「拜访网关地址」

47.95.xx.xx danmu-portal.default.example.com

b.Windows

间接在 C:\WINDOWS\system32\drivers\etc 目录的 HOSTS 文件最初增加一行 47.95.139.xx danmu-portal.default.example.com 即可。具体操作办法参见:https://yq.aliyun.com/article...

c.如果如果有公网域名,也能够绑定

最初,祝贺通关!!开始体验吧!!
在浏览器输出“http://danmu-portal.default.e...”开始体验吧

删除所有资源

1.先删除容器集群中的利用、组件以及集群。
a、先删除Knative中的“服务治理“,列表中有刚刚通过yaml部署的两个服务。

b、随后Knative中的“组建治理”,一键卸载Kantive及相干组建。

c、返回集群的 工作负载》无状态 》 抉择“所有命名空间” ,此时应该仅剩惟一的“kafkasource-kafka-danmu*”一项,点击最右端的“更多”》删除。

d、返回集群的容器组》抉择“所有命名空间” ,此时应该仅剩惟一的“storage-version-migration-eventing-eventing**”一项,点击最右端的删除。

5、在确认上述四个页面都曾经删除结束后,您当初ASK集群即为空集群,能够进行删除。返回集群列表,对试验集群进行删除。找到对应集群,点击最右端的“更多”》 “查看更多 ”「抉择保留集群中的VPC和虚构交换机」删除。


阐明:VPC和虚构交换机是免费资源, 此资源中有Kafka实例,出于应用平安思考,容器不会删除这两个收费的网络资源。

2.删除Kafka资源包
如果您依照前序步骤购买的是5元实例且没有抉择主动续费,该实例资源在一个月后主动生效并且不会再产生费用。 您能够持续体验该产品,如果十分心愿删除可提交工单。

3.再次确认本试验所有付费资源均已删除,不再产生费用
ASK控制台,确定并无集群 https://cs.console.aliyun.com...

ECI控制台,切换到此前应用region,确定并无ECI资源 https://eci.console.aliyun.com/

NAT控制台,切换到此前应用region,确定并无NAT资源 https://vpc.console.aliyun.co...

SLB控制台,切换到此前应用region,确定并无SLB资源 https://slb.console.aliyun.co...

EIP控制台,切换到此前应用region,确定并无EIP资源 https://vpc.console.aliyun.co...

Kafka控制台,切换到此前应用region,确定并无Kafka资源 https://kafka.console.aliyun....