关于阿里云:阿里云智能编码插件更Cosy的开发体验

咱们是谁咱们来自阿里云云效代码团队,为了寻找更难受的开(更)发(早)体(下)验(班),为Java程序员打造出 阿里云智能编码插件,aka Alibaba Cloud AI Coding Assistant(小名 Cosy)。 (目前曾经上架 IntelliJ IDEA 插件市场 ⬆️ ) Cosy汇合了代码补全和代码搜寻两大开发辅助性能,不仅能通过深度学习模型和程序剖析技术,精准智能地帮忙咱们缩小 击剑 击键次数,还能基于海量代码片段和社区问答数据,让咱们能够哪里不会搜哪里,沉迷在IDE内高兴开发。 明天带大家感触致力于打造沉迷式开发体验的代码示例搜寻性能~ 更难受的开发姿态 大家设想中开发者的工作状态应该是码字如飞形如流水零打碎敲,但理论却往往是左手百度谷歌,右手Stack Overflow,在IDE和浏览器间来回横跳(。坦白说,咱们之前也是这样~ 咱们开发过程中常常写着写着就会用到一些并不是那么相熟的接口,或者是要实现一些不那么罕用的性能,很难徒手全文默写一步到位,每天对着浏览器的工夫比IDE窗口还要久。认真想想这个过程效率还挺低的,不仅不同的参考信息要用不同的形式搜寻不同的网站,还要筛选掉大量有效低质的信息,一不小心浏览器窗口就层层叠叠Tab列表就稀稀拉拉了。 为了让这个过程更简略更酷炫,咱们除了代码智能补全,也在Cosy中精心打造了代码示例搜寻性能,让咱们和“在IDE和浏览器之间重复横跳”的日子说拜拜 1、多API精准搜寻:这个接口怎么用来着名字听起来很酷炫,实际上就是:我明确记得我要用的办法是什么,然而不记得具体的应用形式,比方入参出参、异样解决等。 这个时候咱们就能够间接把光标落在咱们要查看参考示例的类或办法上,即可通过快捷键一键呼出海量参考示例片段(还反对快捷键触发和鼠标右键菜单栏抉择哦)。 比方,我正在行云流水地高兴编码,忽然想从本地读取配置文件,只记得能够用FileInputStream 但忘了上上流解决的具体写法,我能够先打出 FileInputStream 而后间接一个快捷键,一秒弹出大量应用到FileInputStream的开源优质示例,我就能够间接对照着实现剩下的代码逻辑啦。 除此以外,API精准搜寻还反对多API同时应用的场景。比方我不仅须要应用FileInputStream还须要同时用到BufferedReader的参考片段,我能够将BufferedReader退出到我的搜寻条件,查看更为确切的搜寻后果。 2、自然语言搜寻:这个性能怎么实现来着?第二种姿态是自然语言搜寻,咱们在明确晓得咱们要做什么,但不晓得要如何实现时,咱们能够通过形容咱们的用意进行搜寻。 在咱们形容过程中,Cosy也会主动联想咱们的查问语句。 除了GitHub开源代码片段以外,咱们还收录了海量优质的StackOverflow社区问答数据。通过代码片段语义剖析和上下文形容,咱们反对对代码片段的自然语言描述性搜寻。 3、组合技:小孩子才做抉择,我全都要!最初一种场景是咱们的组合技。当咱们明确咱们要做的事件,比如说咱们想要读取Excel,然而咱们还想用第三方组件库EasyExcel实现这件事件,那你咱们能够将EasyExcel这个精准API搜寻条件到性能形容的前面,像上面这个样子: 更敌对的中文反对 或者你会问:可是中文才是我的本命,英文形容不分明我的问题该怎么办? 不 用 担 心 ! 咱们贴心地对自然语言搜寻进行了更好的本土化反对~ 岂但能够补全联想中文搜索语句,还能应用中文搜索中英文代码片段~ 再也不必在海量信息中苦苦筛选,IDE内疾速验证可用,哪里不会查哪里,老板再也不必放心我的进度( *`´) 下期预报咱们不忘初心,为了寻找最舒服的开发体验(最早上班!)在捣鼓进去代码示例片段搜寻性能之后,咱们进一步想做社区问答和社区文档搜寻。 设想一下,我本地调试堆栈异样了,间接框选谬误提醒,一键搜寻相干解决探讨,间接在IDE内解决问题! 是不是很酷炫,是不是很想用 ~ 这个月0.9.8-beta版本行将上线新性能,各位Java开发同学们,咱们不见不散! 对于咱们理解更多对于云效DevOps最新动静,可微信搜寻并关注【云效】公众号; 福利:公众号后盾回复【指南】,可取得《阿里巴巴DevOps实际指南》&《10倍研发效力晋升案例集》; 看完感觉对您有所帮忙别忘记点赞、珍藏和关注呦;

March 1, 2022 · 1 min · jiezi

关于阿里云:配置Docker-CE-镜像

 Docker CE 是收费的 Docker 产品的新名称,Docker CE 蕴含了残缺的 Docker 平台,非常适合开发人员和运维团队构建容器 APP。 参考阿里云官网镜像站:阿里巴巴开源镜像站-OPSX镜像站-阿里云开发者社区 下载地址:阿里云开源镜像站资源目录 Centos7配置办法 step 1: 装置必要的一些零碎工具sudo yum install -y yum-utils device-mapper-persistent-data lvm2 Step 2: 增加软件源信息sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo Step 3sudo sed -i 's+download.docker.com+mirrors.aliyun.com/docker-ce+' /etc/yum.repos.d/docker-ce.repo Step 5 更新并装置Docker-CEsudo yum makecache fast sudo yum -y install docker-ce Step 4: 开启Docker服务sudo service docker start 最初装置校验 执行如下命令 docker version

February 28, 2022 · 1 min · jiezi

关于阿里云:Ubuntu2110配置Docker-CE-镜像

 Docker CE 是收费的 Docker 产品的新名称,Docker CE 蕴含了残缺的 Docker 平台,非常适合开发人员和运维团队构建容器 APP。  参考阿里云官网镜像站:阿里巴巴开源镜像站-OPSX镜像站-阿里云开发者社区 下载地址:阿里云开源镜像站资源目录 Ubuntu21.10配置Docker CE 镜像办法 1: 装置必要的一些零碎工具,执行如下命令: sudo apt-get update sudo apt-get -y install apt-transport-https ca-certificates curl software-properties-common 2: 装置GPG证书,执行如下命令: curl -fsSL https://mirrors.aliyun.com/do... | sudo apt-key add – 3: 写入软件源信息,执行如下命令: sudo add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/do... $(lsb_release -cs) stable" 4: 更新并装置Docker-CE,执行如下命令: sudo apt-get -y update sudo apt-get -y install docker-ce 至此装置及配置已实现。

February 28, 2022 · 1 min · jiezi

关于阿里云:Centos7安装PHP

 阿里云官网镜像站:阿里巴巴开源镜像站-OPSX镜像站-阿里云开发者社区 咱们在零碎装置软件时都会遇到各种小问题,那么如何能力进步咱们在云服务器上的软件装置效率呢?接下来就为大家具体介绍下如何在 CentOS 环境下通过 yum 命令疾速装置软件。 在 CentOS 环境下,咱们能够通过 yum 命令疾速装置软件。对于 yum 下载源,咱们不须要增加任何软件源,就能够间接装置软件包。 yum install 软件名称 在装置软件的过程中,零碎将主动搜寻相干的软件包和依赖关系,并在界面中提醒用户确认搜寻到的软件包是否适合。在这里咱们将以 PHP 为例,进行具体阐明。 更新yum源(默认yum源中无php) rpm -Uvh http://mirror.webtatic.com/yum/el6/latest.rpm (暂未找到阿里云yum源,先用其它代替) 执行 yum -y install php 命令,装置 PHP 后,界面显示如下图:  查看php装置了那些拓展模块 php -m 你也能够执行以下命令,查看软件包的版本信息 rpm -q 软件名 ![]() 比方执行 rpm -q php ,如下图所示:

February 28, 2022 · 1 min · jiezi

关于阿里云:鉴机识变面向未来|RocketMQ-Summit-2022-即将来袭

自 1983 年,工作在 MIT 的孟买工程师 Vivek Ranadive 构想出一种软件总线概念,音讯队列的故事就此诞生。随后的四十年中,音讯队列的传奇故事一直连续。AMQP 规范诞生,其跨语言和跨平台的个性使其成为全行业宽泛应用的规范消息中间件技术。RabbitMQ、Kafka、RocketMQ 为代表的音讯队列我的项目不断涌现,在不同技术场景施展着重要作用。 回看音讯队列发展史,咱们很荣幸见证了音讯队列对于计算机及互联网世界的微小影响。参加了技术倒退对于产业及社会的价值重塑,减速了寰球企业数字化转型的过程。 Apache RocketMQ 作为配角之一,也在这一直进击的故事中,施展着重要作用与价值。截至目前,Apache RocketMQ 为寰球超过数万家企业提供服务,这其中不仅包含字节跳动、快手、小米、滴滴、同城艺龙等互联网头部企业,还有泛滥银行、券商、保险,基金公司等金融公司。Apache RocketMQ 已成为音讯队列畛域的业务首选。 作为国内重要的开源我的项目,为了帮忙更多企业、开发者、开源贡献者理解 Apache RocketMQ ,并退出其中,促成 Apache RocketMQ 及其开源生态的凋敝倒退。由阿里云云原生利用平台以及 RocketMQ 中文社区独特主办的 RocketMQ Summit 2022 正式拉开帷幕! 作为面向开源及音讯畛域的盛会,2022 年 3 月 26 日北京金茂万丽酒店,RocketMQ Summit 如约而至,近四十个优质议题与探讨,精心筹备中,盛会行将拉开帷幕! 深度实战解析,分享干货满满在常设主论坛之外,本次 RocketMQ Summit 分设「行业摸索实际」、「开源生态倒退」、「核心技术解析」三大分论坛。从行业实际、生态倒退、技术解读三大维度全面展示 Apache RocketMQ 的倒退全貌,小米、快手、同程艺龙、vivo、光大银行、挪动云、中通快递、闪送等不同行业头部企业带来全景分享。深刻解说企业落地 RocketMQ 过程中的技术挑战与难题,分享场景摸索教训。 Apahce Hudi、Apache Flink、Spring Cloud alibaba、Dapr、Knative、Apache APISIX 等行业出名开源我的项目,多维度解说泛滥我的项目如何与 APache RocketMQ 开展联动,开释「1+1>2」的场景价值。 Apache RocketMQ 泛滥 PMC、contributor、Commiter 全景展示 Apache RocketMQ 的我的项目、社区的最新动静及我的项目思考。 作为 RocketMQ 在举办的首次峰会,咱们将联结国内外优良开源我的项目、开发者社区独特推广,让更多开发者与技术爱好者理解、应用 RocketMQ 及上下游我的项目,推动 RocketMQ 及其生态在国内落地倒退。 ...

February 28, 2022 · 1 min · jiezi

关于阿里云:Centos7配置阿里云DNS

 DNS 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 参考阿里云官网镜像站:阿里巴巴开源镜像站-OPSX镜像站-阿里云开发者社区 Centos7配置办法 1.您必须是管理员root或者具备管理员权限 2.sudo vim /etc/resolv.conf 3.退出:(此处以IPv4为例) nameserver 223.5.5.5 nameserver 223.6.6.6 4.保留退出, 而后应用dig验证,执行如下命令dig alidns.com   若呈现后果则示意失常。

February 27, 2022 · 1 min · jiezi

关于阿里云:Firefox配置阿里云DNS

 DNS 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。 Firefox配置办法: 1.从 Firefox 菜单栏中点击设置。 2.搜寻框中输出“DNS”,点击【网络设置】中的【设置】按钮。 3.在设置页面的底部,找到并勾选“启用基于HTTPS的DNS”,抉择“自定义”的提供商,并输出接口地址: https://dns.alidns.com/dns-query ,点击【确定】。

February 27, 2022 · 1 min · jiezi

关于阿里云:EventBridge消息路由|高效构建消息路由能力

作者:肯梦 企业数字化转型过程中,人造会遇到音讯路由,异地多活,协定适配,音讯备份等场景。本篇次要通过 EventBridge 音讯路由的利用场景和利用试验介绍,帮忙大家理解如何通过 EventBridge 的音讯路由高效构建音讯路由能力。 背景常识EventBridge 音讯路由次要波及以下云产品和服务: 事件总线 EventBridge事件总线 EventBridge 是阿里云提供的一款无服务器事件总线服务,反对阿里云服务、自定义利用、SaaS 利用以标准化、中心化的形式接入,并可能以标准化的 CloudEvents 1.0 协定在这些利用之间路由事件,帮忙您轻松构建松耦合、分布式的事件驱动架构。 音讯队列 RabbitMQ 版阿里云音讯队列 RabbitMQ 版反对 AMQP 协定,齐全兼容 RabbitMQ 开源生态以及多语言客户端,打造分布式、高吞吐、低提早、高可扩大的云音讯服务。开箱即用,用户无需部署免运维,轻松实现疾速上云,阿里云提供全托管服务,更业余、更牢靠、更平安。 音讯队列 MNS 版阿里云音讯服务 MNS 版是一款高效、牢靠、平安、便捷、可弹性扩大的分布式音讯告诉服务。MNS 可能帮忙利用开发者在他们利用的分布式组件上自在的传递数据、告诉音讯,构建松耦合零碎。 场景利用EventBridge 音讯路由性能在构建在构建音讯零碎过程中次要利用于上面三个场景,一是音讯路由场景,二是音讯多活场景,三是多协定适配场景,上面对这三个场景进行简要介绍。 音讯路由场景该场景是指心愿对音讯进行二次散发,通过简略过滤或者筛选将音讯散发到其余 Topic 或跨地区 Topic,实现音讯共享 & 音讯脱敏的场景。 通过一层转发将音讯分发给不同的 Topic 生产,是音讯路由的外围能力。随着企业转型遇到音讯拆分且做业务脱敏的场景会越来越多。如下图是一个较为典型的路由分流场景。 音讯多活场景音讯多活场景指每个数据中心均部署了残缺、独立的 MQ 集群。数据中心内的应用服务只连贯本地的 MQ 集群,不连贯其余单元的 MQ 集群。MQ 集群中蕴含的音讯路由模块,负责在不同单元 MQ 集群之间同步指定主题的音讯。 依据应用服务是否具备单元化能力,可分为核心服务和单元服务两类。核心服务只在一个数据中心提供服务;单元服务在各个数据中心都提供服务,但只负责合乎规定的局部用户,而非全量用户。 所有部署了单元服务的数据中心都是一个单元,所有单元的单元服务同时对外提供服务,从而造成一个异地多活架构或者叫单元化架构。通过多活管控平台可动静调整各个单元服务负责的流量。 多协定适配场景随着业务团队的逐步宏大,对音讯的建设诉求一劳永逸,因为部门技术栈的不同会导致部门间的音讯协定也不尽相同。多协定适配是指用一种音讯协定平滑迁徙到多种音讯协定的能力。 架构形容应用 EventBridge 的事件流能力做音讯路由,事件流模型是 EventBridge 在音讯畛域主打的解决模型,实用规范 Streaming(1:1)流式解决场景,无总线概念。用于端到端的音讯路由,音讯转储,音讯同步及解决等,帮忙开发者轻松构建云上数据管道服务。 上面的架构展现了如何通过桥接 EventBridge 实现 MNS 音讯路由至 RabbitMQ Queues,MNS Queues。(A/B 链路任选其一进行试验) ...

February 27, 2022 · 2 min · jiezi

关于阿里云:极速生成缩略图Serverless-支撑赛事转播锁定冬奥亮点

作者:西流、筱姜 "北京冬奥会在开赛的第四天便成为了历史上收视最高的一届冬奥会,其转播内容总生产量将达 6000 小时,超过平昌冬奥会的 5400 小时。关注北京冬奥会的人群比往届都多,北京冬奥会在寰球收视预计将超过 20 亿人次。" 这是奥林匹克播送服务公司(OBS)首席执行官伊阿尼斯·埃克萨科斯在 2 月 10 日公布的一组数据。毫无疑问,北京冬奥是近一个月世界网络中的 "顶流"。 寰球观众对观看北京冬奥会赛事的热情高涨,让赛事转播视频备受瞩目。通过浏览赛事亮点缩略图,观众能够在泛滥转播视频中疾速找到本人感兴趣的内容。对于转播商来说,如何简略疾速的对海量赛事直播视频做实时处理,在不同工夫点上生成缩略图是一个难题。 Serverless 撑持赛事转播锁定冬奥亮点视频缩略图是在视频中某一帧动画的缩略图,相当于将视频的封面或其中一帧的画面内容转换成了图片文件,选取的视频缩略图可能把视频中亮点画面突出显示,疾速抓住用户眼球,进步点击播放率,赛事视频缩略图与一般视频缩略图有些不同,须要对海量视频做更为疾速实时的抓取。 函数计算反对的客户须要对北京冬奥会的海量较量直播视频进行实时处理,在直播视频里的不同工夫点上做截屏(专业术语 "视频图片采集"), 客户的需要如下: 须要定时事件触发截屏操作客户只想集中精力在具体的逻辑开发, 外围视频截图逻辑代码量不大, 须要疾速实现开发客户不心愿治理部署虚拟机/物理机,心愿越简略越好客户须要这个外围业务逻辑具备弹性高可用, 免运维通过应用阿里云函数计算(FC),用户开发了视频截图的外围业务代码,开发成本低,一键部署,即失去了一个弹性高可用免运维的直播视频截图服务,帮忙实现冬奥视频亮点实时抓取。 图片图片仅展现视频缩略图成果 其实早在 2021 年东京奥运会期间, 就有转播公司通过阿里云函数计算(FC)视频缩略图服务完满撑持直播赛事实时锁定精彩亮点了。在奥运会的 15 天期间内, 产生了数千万次函数调用, FC 保障了该服务弹性高可用。 稳固应答爆发式峰值流量,实时进行多媒体解决私有云 Serverless 架构具备应答爆发式峰值流量的长处。函数计算是阿里云提供的 Serverless 计算平台,函数计算能够依据申请量动态分配执行环境,毫秒级调度计算资源,确保在负载高时保持稳定的延时,在负载低时有较高的资源利用率,且只会对代码运行时应用的计算资源付费。函数计算还能够与对象存储服务无缝集成,能够不便地对存储在对象存储中的图片进行实时处理。 1、函数计算视频直播截帧服务在北京米连科技有限公司旗下相亲交友产品伊对 App 的业务场景外面,视频直播是最为重要的环节,基于视频直播这个骨架,能够融入线上红娘等多类翻新业务模式,这也对视频直播的内容平安提出了极高的要求。不论是本身通过 AI 技术对视频直播内容进行智能剖析,还是应答监管的要求,都须要在每一路视频直播流开始后,依据固定频率对视频进行截帧,并通过对立的审核服务对截帧生成的图片进行解决。 在这个需要外面,截帧服务承当着要害职责,这个服务不仅须要通过 FFmpeg 命令对每一路直播视频流进行截帧操作,还须要将生成的图片保留到对象存储 OSS,并将截帧信息写入到 Kafka。这样上游的截帧服务就能从 Kafka 上拉取截帧信息,并从截帧信息中失去图片在 OSS 中的地址,从而实现对于图片的审核。在这个架构中,引入 Kafka 是为了通过异步解决机制缓解审核服务在业务高峰期的负载。 伊对 App 应用函数计算,用户无需洽购与治理服务器等基础设施,只需编写并上传代码。函数计算会主动筹备好计算资源,弹性地、牢靠地运行工作,并提供日志查问、性能监控和报警等性能。借助函数计算 FC,能够疾速构建任何类型的利用和服务,并且只需为工作理论耗费的资源付费。之前截帧业务的架构只须要做很小的调整,就能迁徙到函数计算平台上来,以享受 Serverless 的价值。 2、函数计算图片实时处理服务以新浪微博为例,业务的急速增长对微博的原有技术体系造成了极大的冲击。如何在用户量飞速增长、热点事件流量激增及申请有显著波峰波谷的状况下,既不影响用户体验,又不减少服务器老本投入是微博开发人员的事不宜迟。 函数计算的弹性扩容、事件触发、按量付费的个性与微博一拍即合。新浪微博决定应用函数计算部署图片解决业务。 新浪微博应用函数计算的弹性扩容、事件触发、按量付费的个性部署图片解决业务,将用户上传的图片存储到对象存储中,编写函数实现个性化的图片解决。当微博的用户通过客户端获取图片时,申请通过阿里云 CDN 回源到函数计算,函数从对象存储中下载原图,依据客户端类型(比方不同的手机型号)实时处理成预期规格的图片,并将后果图片返回, 极大缩小存储老本。 ...

February 27, 2022 · 1 min · jiezi

关于阿里云:gimp镜像下载方法

 gimp镜像 简介 GIMP is a cross-platform image editor available for GNU/Linux, OS X, Windows and more operating systems. GIMP是可用于GNU / Linux,OS X,Windows和更多操作系统的跨平台图像编辑器。 下载地址:阿里云开源镜像站资源目录 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 因为这是一款国外的软件,大家下载可不太不便,但当初在阿里云镜像站就能够下载了。 办法如下: 首先关上下载地址阿里云开源镜像站资源目录 点击gimp 在接下来的界面即可看到各个版本,这里以v2.99为例, 进入目录后,如果依据零碎抉择对应版本下载即可。 以windows零碎为例,进入目录即可看到对应安装包。

February 25, 2022 · 1 min · jiezi

关于阿里云:Centos7-安装Redis

 Redis 是一个开源的在内存存储键值对数据的存储程序。它能够被用作数据库,缓存,信息暂存,并且反对各种数据结构,例如:字符串,哈希值,列表,汇合等等。 Redis 通过 Redis Sentinel 和 Redis 集群中多个 Redis 节点的主动分块解决,提供了高可用性。 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 下载redis安装包 wget http://download.redis.io/releases/redis-4.0.6.tar.gz 解压压缩包 tar -zxvf redis-4.0.6.tar.gz yum装置gcc依赖 yum install gcc 跳转到redis解压目录下 cd redis-4.0.6 编译装置 make MALLOC=libc cd src && make install 启动redis ./redis-server 就这些。你曾经在 CentOS 零碎上胜利地装置了 Redis。

February 25, 2022 · 1 min · jiezi

关于阿里云:阿里云资深专家李国强云原生的一些趋势和新方向

作者:阿里云用户组 2021 年 11 月 26 日,阿里云用户组(AUG)第 3 期流动在广州顺利举办。具备丰盛的容器、微服务等畛域教训的阿里云云原生资深专家李国强,向现场数十家广州企业分享了云原生的趋势方向以及阿里云云原生的能力布局。本文依据作者的演讲整顿而成。 大家下午好!十分欢送大家来到下午的交换场,后面说了,明天配角是在座的每一位,咱们做分享其实是心愿起到抛砖引玉的作用,在这个议题里我会分享云原生的一些趋势和新方向,心愿能引起大家的一些思考。 云原生的含意1 云原生的社区定义Pivotal 是第一个提出云原生这个概念的,他过后给云原生的定义就是这四块:DevOps、CI/CD、微服务和 Container。从技术来讲,基本上是正确的,但真正把云原生发扬光大,其实是谷歌发动的 CNCF 基金会。明天 CNCF 上面曾经有超过 1000 个我的项目了,咱们来看这么多我的项目到底想帮忙用户做什么。 CNCF 对于云原生的定义是帮忙用户构建可弹性的利用,提到一系列代表性技术:容器服务,网格,微服务,不可变基础设施和申明式 API,置信这些技术词大家都听过。 那到底这些技术能干什么呢?上面有一个很好的总结,就是帮忙用户构建容错性好、易于治理、便于观测,松耦合的零碎,这几个词都很要害,用户在构建利用或者构建零碎的时候,根本都会以这个为指标。特地是新型的互联网利用,会面对各种各样的技术挑战和市场挑战,比方大流量的冲击、歹意攻打、疾速上线促销流动等。在这些挑战之下,客户都会心愿本人的软件或者零碎能做到高容错性、易于治理、松耦合便于观测等等。同时这些个性带来的业务价值,就是帮忙企业可能频繁地和可预测地进行重大并更。这些合在一起就是明天对于云原生的定义。 因云而生的云原生那到底是不是用这些技术就是云原生呢?往年在云栖大会的时候对云原生从新进行了一个定义的延展,云原生不仅仅是这些技术,更重要的是云原生技术须要和云计算进行联合,帮忙用户构建云原生架构的利用。 在上图能够看到,右边有一系列云原生技术,和云计算相结合的时候,它会产生一系列云原生的产品,包含咱们之前讲到的容器服务, Kubernetes 作为 CNCF 的第一个我的项目,肯定是咱们明天云原生整个体系的外围。还包含围绕云原生的中间件、数据库、平安,明天都依照云原生的模式去运行,外面用到云原生的技术,帮忙用户去构建合乎云原生定义的利用和零碎。 明天来讲,阿里云上有大量的云原生产品。其实企业在应用以及真正落地到一个场景的时候,要把这些产品造成一个一个的计划,比如说多活计划、AI 平台计划、弹性上云、对立调度等等一系列的,在产品之上构建进去的这整个是咱们对于云原生从技术到产品到计划的体系。 云原生趋势云原生开启全云开发时代有几个趋势和大家分享,大家肯定很好奇,明天云原生在行业和企业外面处于什么阶段?如果我明天开始应用云原生,我会是那个吃螃蟹的人,还是明天曾经有很多人在用了? 依据有些行业的剖析报告,明天容器的应用曾经十分宽泛了,到当初为止曾经有 68%的企业在生产环境应用容器了,当然不肯定全是外围零碎,然而曾经有三分之二的企业在生产应用容器,所以容器曾经十分成熟了。 80%以上的用户在应用或者打算应用微服务,这也是十分大的趋势,它的使用率比容器还要高,但并不是说所有的业务都须要容器、都须要用微服务,这是一个利用架构抉择,只是说这个技术越来越遍及。另外是 Serverless 技术,有 25%的开发者将应用  Serverless。前面我会简略介绍 Serverless,它的成熟度也在一直地晋升。 明天我会把几个重要的趋势和大家做一些分享,也是抛个砖,大家能够去思考一下在这些畛域有没有和你们以后业务有联合的点。 分布式云成为一种新的趋势第一,分布式云曾经成为一种新的趋势,分布式云曾经间断两年成为 Gartner 十大技术趋势之一。 明天越来越多的企业包含厂商在讲分布式云,背地到底是为什么?其实还是业务的变动带来云状态的变动,对技术提出了新的挑战。明天各个云厂商,比方以阿里为例,除了公共云之外,还有本地云、边缘云,包含帮忙用户在 IDC 外部构建公有云的状态,所以云的状态越来越多了。阿里云提出“一云多状态”的新概念,云不仅仅是指公共云,还包含了多种状态。那为什么会呈现一云多状态?是因为明天越来越多的业务场景须要这样的多状态。明天在边缘侧视频技术越来越发达,直播业务、VR、AI 业务要求数据和算力在边缘侧呈现,所以这就推动了边缘云的倒退。 第二,随着 IDC、公共云的倒退,很多企业可能会持有超过一种云,这也是业务诉求,比方企业心愿构建多活的高可用架构须要跨多个机房或云,客户线下 IDC 心愿可能充沛联结应用公共云的能力,催生了一云多状态呈现。然而一云多状态呈现之后,也会带来很大的复杂性,这些云之间有肯定的异构性,怎么对云上的业务可用性零碎进行治理是企业的广泛诉求。比方方才讲的场景,客户怎么可能在 IDC 和公共云之间构建一个主备关系或者建设双活体系,假如以前我的业务次要在 IDC 外面,然而 IDC 可能会出问题,我能不能在公共云上建一个主备环境。还有一种状况,比方我原来 IDC 有一个业务,明天可能没方法全副搬到云上,那我可否能弹到云上? 这些都是明天在一云多平台之下联合业务能够思考到的越来越多的场景。这块也是咱们明天探讨的重点,前面会和大家具体探讨。 AI 负载云原生化另外一个十分重要的趋势是 AI 负载云原生化。为什么 AI 的负载变得越来越原生化?这外面有几个很重要的起因。整个脉络来讲,先是大数据的呈现,之后基于数据深度学习的技术呈现,再往后就催生了 AI 负载与容器以及 Kubernetes 生态体系的联合。 ...

February 25, 2022 · 1 min · jiezi

关于阿里云:异步请求积压可视化|如何-1-分钟内快速定位函数计算积压问题

作者 | 千风 本文分为三个局部:概述中引入了积压问题,并介绍了函数计算异步调用根本链路;并在指标介绍局部具体介绍了指标查看形式,分类解读了不同的指标含意;最初以一个常见的异步申请积压场景为例,介绍如何在 1 分钟内疾速定位积压问题。 为异步调用保驾护航应用函数计算异步调用的开发者最关怀的问题是:调用申请是否在预期的工夫内被解决实现。若没能解决实现,那么在客户眼中就是异步调用申请积压了,然而基于之前函数计算异步调用指标体系,无论是定位积压,还是查看积压,过程都是非常繁琐的。 针对以上问题,函数计算推出了一系列异步调用申请积压相干的指标,可能帮忙用户疾速定位申请积压,向用户展现积压量化值。本文将具体介绍如何通过这些监控指标疾速定位到函数异步调用呈现的积压问题,为各位开发者解说降级后的异步调用指标体系。 在开始之前,先简略介绍下函数计算异步调用。 异步调用是函数计算调用函数的一种形式,通过异步调用你不仅能够确保函数会至多执行一次,还能够保留调用执行过程中的状态转换信息和执行后果,其调用链路如下所示: 用户/事件源发动异步调用申请后会立即返回本次申请 ID,随后函数计算零碎将本次调用的相干信息转换为音讯的格局,放入 MNS 音讯队队列中供零碎内上游模块生产,上游模块会基于解析进去的调用音讯进行函数调用。 调用实现后,如果函数配置了 Destination,则零碎会基于调用后果以及 Destination 内容进行进一步解决,Destination 相干内容介绍请参考异步调用文档: https://help.aliyun.com/document_detail/181866.html 指标降级降级后的函数计算异步调用链路监控指标次要新增了如下几类: 上面咱们将对上述指标进行具体解读。 指标查看目前能够通过函数计算控制台或者 Serverless Devs 工具这两种形式查看函数的监控指标大盘,上面咱们将以控制台为例,领导大家如何查看异步调用链路相干的监控指标,基于 Serverless Devs 的查看形式能够参考: https://github.com/devsapp/fc/blob/main/docs/zh/command/metrics.md 上面介绍的步骤前提是已开明了函数计算服务;且胜利创立了服务以及函数,如果还未进行这些操作,请参考应用控制台创立函数: https://help.aliyun.com/document_detail/51783.html 首先关上函数计算控制台,点击左侧监控大盘标签,滑倒底部,能够查看到该地区所有服务的异步调用解决状况以及异步音讯解决均匀延时概览表格: 此时咱们点击任意一个服务名称,进入后,能够看到该服务下所有函数的异步调用解决状况;以及异步音讯解决均匀延时概览表格: 接下来咱们点击任意一个函数名称,进入后能够看到所有函数纬度的监控指标,并以图的模式展现: 至此,咱们曾经学会了这些指标的查看路径。上面持续为各位开发者介绍解读上述异步链路相干指标。 指标解读咱们将依据不同的指标类型对监控指标进行分类解读。 异步调用解决状况异步申请入队异步调用中,达到函数计算的申请数,当入队申请数大于申请解决实现数时,示意有申请积压,函数解决异步申请的速度小于异步申请发动的速度。请调整函数弹性伸缩(含预留资源)下限,参考: https://help.aliyun.com/document_detail/185038.html#task-2538034 或可钉钉搜寻退出阿里函数计算官网客户群(11721331)分割咱们进行解决图片。 异步申请解决实现异步调用中,函数计算解决实现的申请数,异步申请解决实现数量,应始终不大于异步申请入队的数量。 异步申请积压数曾经达到函数计算的异步申请中,期待解决以及正在解决中的申请对立视为积压申请, 这些申请的数量为异步音讯积压数,当这个值不为 0 时,示意异步调用申请是有积压的。 该指标将异步调用申请积压量化,解决积压数不可见问题,极大进步了异步调用的可观测性,也是本次降级的重要内容之一。 异步申请解决提早均匀解决时延函数异步调用申请从进入解决队列到开始解决的时延,按指定工夫粒度统计求平均值。当该值高于预期时,表明函数异步调用申请可能存在积压。 “异步申请入队”、“异步申请解决实现” 以及 “均匀解决延时” 这三个指标被搁置在监控大盘的概览图表中,旨在帮忙用户疾速定位到呈现积压的函数,解决积压定位难的问题。 1 分钟定位积压问题在之前的异步调用指标体系下,如果想要定位积压问题,首先须要找到积压函数,此时须要一一函数查看其函数监控指标详情,定位胜利后,也无奈直观看到具体的积压量化值。 降级后的异步调用指标体系可能很好地解决积压问题定位难以及积压量化的问题。上面将围绕积压问题的场景,形容如何应用上述指标疾速定位积压问题。 业务场景问题形容:小张的业务波及到三个函数,且都是异步调用,某天用户的业务出了问题,每个环节的异步解决时延都增大了。为了疾速定位问题,用户想到了异步链路监控指标,进行了如下定位动作。 定位过程:首先关上地区级别的监控大盘,抉择指标时间段,查看该地区下各个服务的监控指标; 发现多个服务的异步调用均匀解决延时高于预期,同时其异步申请入队数均大于申请解决实现数,示意这些服务都有肯定水平异步调用音讯积压,且 A-Service 的异步申请入队数量和异步调用申请实现数差异最大,积压最重大,点击 A-Service 查看监控指标: 能够看到该服务下的函数 A-Function 是积压源,点击 A-Function 查看函数纬度的监控指标: ...

February 25, 2022 · 1 min · jiezi

关于阿里云:微服务用户为什么要用云原生网关

作者:百丈 随着云原生技术的倒退,微服务的架构选型也是突飞猛进。在 Kubernetes 重塑运维体系的云时代,咱们在平安、降本提效、精细化经营等方面都有了更高的要求和更多的抉择。已经关煊赫一时的 Zuul/SpringCloud Gateway/Kong 等在其网关地位上开始显得力不从心。它们欠缺发现容器服务的能力,性能可能不如 Nginx Ingress,可观测、平安等方面都须要二次开发再集成,这些要害短板都妨碍着技术倒退。明天来看云原生网关如何助你解决这些痛点,优雅玩转云上微服务架构降级。 微服务(网关)的倒退微服务倒退大事记 随着 Martin Fowler 在 2014 年的文章总结梳理  [1] “微服务”概念开始逐步深入人心。之后各类开源或商业反对如雨后春笋般涌现,到现在笔者按年份简略整顿了每年的大事记,其中两个变动值得大家须要关注: 微服务从单点反对向平台解决方案倒退,例如 SpringCloud 解决方案、 Kubernetes 体系。开源和商业产品交融得更加严密,云原生的倒退让技术从业者有了更多的抉择。微服务网关的变动 笔者按工夫整顿了几个简略比照: 2013 ZUUL:Netflix 开源的负载平衡组件,简略易上手,不过晚期的 ZUUL 1 性能下限稍低。2015 KONG:基于 Nginx 的 API 网关,性能强劲,Lua 国内开发者绝对较少。2016 SpringCloud Gateway:网关开始作为整个微服务解决方案的门面呈现。2019 Ambasssador(当初更名 Emissaey-ingress):反对 Kubernetes ingress 规范,且与 Istio 无缝集成。微服务逐渐向平台解决方案倒退的同时,对网关的集成能力也有了更高的需要。这也是咱们看到了这个趋势,云原生网关应运而生,而且云原生网关不仅集齐了他们的长处,而且性能更丰盛、性能更强劲、稳固更牢靠。 Kubernetes 微服务这里为什么独自提 Kubernetes 微服务?这须要回到没有 Kubernetes 的时候采纳微服务架构咱们碰到哪些问题? 拆分了微服务后相应的构建部署工作量开始翻倍,运维压力急剧晋升;随着业务迭代,微服务之间调用链路变的简单,强弱依赖不清晰,故障/瓶颈排查艰难;不同业务团队应用异构的服务框架或技术栈,相互依赖集成成本增加。通过正当的拆分服务能够升高合作老本及管制变更危险,这是微服务思维带来的价值,然而随之而来的也有微小的治理难度和运维压力。 不过 Kubernetes 以其残缺的网络、服务、负载平衡的规范定义仿佛解决了咱们不少问题。 对立的服务定义及服务发现机制得益于 Kubernetes 的网络模型和 Pod 规范,Kubernetes Service 能够将运行在一组 Pods   [2] 上的应用程序形象为网络服务(Kubernetes 微服务),你无需批改应用程序即可应用不相熟的服务发现机制。Kubernetes 为 Pods 提供本人的 IP 地址,并为一组 Pod 提供雷同的 DNS 名, 并且能够在它们之间进行负载平衡。 ...

February 25, 2022 · 1 min · jiezi

关于阿里云:15-分钟实现企业级应用无损上下线

很多用户量大并发度高的利用零碎为了防止公布过程中的流量有损,个别抉择在流量较小的中午公布,尽管这样做有成果,但不可控导致背地的研发运维老本对企业来说是一笔不小的累赘。基于此,阿里云微服务引擎 MSE 在利用公布过程中,通过利用下线时进行自适应期待+被动告诉,利用上线时就绪查看与微服务生命周期对齐+服务预热等技术手段所提供的微服务利用无损高低线性能,能无效帮忙企业躲避线上公布所呈现的流量资损。 无损高低线功能设计常见的流量有损景象呈现的起因包含但不限于以下几种:• 服务无奈及时下线:服务消费者感知注册核心服务列表存在延时,导致利用下线后在一段时间内服务消费者依然调用已下线利用造成申请报错。• 初始化慢:利用刚启动接管线上流量进行资源初始化加载,因为流量太大,初始化过程慢,呈现大量申请响应超时、阻塞、资源耗尽从而造成刚启动利用宕机。• 注册太早:服务存在异步资源加载问题,当服务还未初始化齐全就被注册到注册核心,导致调用时资源未加载结束呈现申请响应慢、调用超时报错等景象。• 公布态与运行态未对齐:应用 Kubernetes 的滚动公布性能进行利用公布,因为Kubernetes 的滚动公布个别关联的就绪查看机制,是通过查看利用特定端口是否启动作为利用就绪的标记来触发下一批次的实例公布,但在微服务利用中只有当利用实现了服务注册才可对外提供服务调用。因而某些状况下会呈现新利用还未注册到注册核心,老利用实例就被下线,导致无服务可用。 无损下线其中的服务无奈及时下线问题,如下图 1 所示: 图1. Spring Cloud 利用消费者无奈及时感知提供者服务下线 对于 Spring Cloud 利用,当利用的两个实例 A’ 和 A 中的 A 下线时,因为 Spring Cloud 框架为了在可用性和性能方面做均衡,消费者默认是 30s 去注册核心拉取最新的服务列表,因而 A 实例的下线不能被实时感知,此时消费者持续通过本地缓存持续调用 A 就会呈现调用已下线实例呈现流量有损。 针对该问题,阿里云微服务引擎 MSE 基于 Java Agent 字节码技术设计实现的无损下线性能如下图 2 所示:图2. 无损下线计划 在该套无损下线计划中,服务提供者利用仅需接入 MSE,相比个别的有损下线。利用在下线前会有一段自适应期待期间,该期间待下线利用会通过被动告诉的形式,向其在自适应期待阶段发送了申请的服务消费者发送下线事件,消费者接管到下线事件后会被动拉取注册核心服务实例列表以便实时感知利用下线事件防止调用已下线实例造成利用下线流量有损。 无损上线提早加载是软件框架设计中最常见的一种策略,例如在 Spring Cloud 框架中 Ribbon 组件的拉取服务列表初始化机会默认是要等到服务的第 1 次调用时刻,例如下图 3 是 Spring Cloud 利用中第 1 次和第 2 次通过 RestTemplate 调用近程服务的申请耗时状况: 图3. 利用启动资源初始化与失常运行过程中耗时状况比照 ...

February 25, 2022 · 5 min · jiezi

关于阿里云:如何设计一个复杂的业务系统从对领域设计云原生微服务中台的理解开始

作者:焦方飞 大年初一,看完中国队 1:3 越南队的较量,在思考中国足球江河日下的深层次起因之外,不禁回想起这几年做过的一些大型企业数字化转型我的项目,有得有失,最终回归到根源“如何设计和施行一个简单软件工程”这个问题上,趁着春节长假,把本人的一些对架构设计思考和学习随笔写下来,写的仓促,心愿能引起大家一些启发和探讨。当然本文所说的软件开发次要业务应用软件的开发,而中间件、数据库等技术组件开发的关注点则在其余一些方面,不在这里开展。 如何解决简单业务设计软件架构设计自身就是一个简单的事件,但其实业界已有一个共识,那就是“通过组件化实现关注点的拆散从而升高部分复杂度”。其实当初咱们用的无论是容器、中间件、音讯、数据库等,在某种意义上都是组件化的产物。这样的益处是在不同的零碎里能够复用。在云原生衰亡的明天,以通用的、组件化的服务模式更容易为咱们所用,所以说当初如果还不享受云原生技术红利,那你就会被时代摈弃。 云原生满足非功能性品质需要 云原生在技术上可能最大水平的解决泛滥非功能性品质和技术需要(如上图),那作为一个企业级利用架构,天然会把专一点转移到业务利用功能性设计自身上来。当初来说对于一个简单业务架构进行设计,咱们要想做到又快又好,无非是两种状况:一是架构师自身对业务了解很深、能力超强、炉火纯青;二是原有的业务零碎自身模型清晰,足够的“高内聚低耦合”,能够疾速在其根底之上剖析业务变动造成新的业务架构设计。咱们应该谋求的是第二种状况,这也就意味着从一开始的企业级模型建设,就要对模型设计、业务流程认真看待,只有做到根底扎实,能力有前面的“疾速迭代”。 咱们再回到架构设计的实质,即为什么咱们要在代码实现前做设计。设计首先是要解决问题的复杂度。于是有人做了一个架构,交给了一个团队去实现,很快发现实现的架构和设计齐全是两回事。当然起因很明确——短少了交换和沟通;其次是要建设团队合作沟通的共识。即便咱们做好了一个团队都达成共识的架构设计,大家都脚踏实地把设计变成了事实,一个长期困扰软件行业的问题呈现了,需要总是在变动,无论事后设计如何“准确”,总是发现下一个坑就在不远处,后果往往是状况越来越蹩脚,也就是咱们常说的架构“腐化”了,最初大家不得不承受重写。这些经验让咱们逐渐明确了软件架构设计的本质是通过外围问题的拆散升高复杂度,并让零碎可能更快地响应外界业务的变动,并且使得零碎可能继续演进。在遇到变动时不须要从头开始,保障实现老本失去无效管制。 所以,我感觉从架构设计角度,以下三点是最为要害的: 让咱们的模型、组件和业务划分尽量凑近变动的实质,比方对于个别电商零碎来说,就是用户、商品、交易、领取等,这样的划分可能让咱们将变动“隔离”在肯定的范畴(业务模块)内,从而帮忙咱们无效缩小扭转点。设计上,业务模型外部是高内聚,模型之间是低耦合,即各自实现的业务是绝对独立的,不会因为一方掉线而株连另外一方,比方商品举荐性能挂掉了,然而交易和领取业务应该持续失常提供服务,可能提醒用户临时无奈提供举荐服务,或者罗唆降级为兜底策略。模型、组件在业务上尽可能是复用的,正是这样的复用才成就了明天的互联网级架构,咱们不会每做一个电商零碎都从零做起。而被“复用”最多的业务模块显然会重点设计和经营,成为外围业务模块。当然架构上这样的电商零碎必然也会比拟强壮。下面的三点毫无疑问都指向了业务,从业务登程、面向业务变动是咱们古代架构设计胜利的要害,所以说简单业务架构设计的外围本质是保障面对业务变动时咱们可能有足够快的响应能力。 畛域设计后面说了业务软件开发的常见病:从一个小的我的项目一直开发演变变成一个大型业务零碎,但随着新需要的一直减少,最终演变成了开发团队的噩梦。而这些噩梦大部分是源于软件的概念完整性(“概念完整性”一词来源于软件工程的经典著作《人月神话》)受到了毁坏。这些业务代码可能是一代又一代的开发人员各行其道的重叠起来的(咱们又称之为“屎山”),而这个过程中没人无意识的去保护软件的概念完整性。而 DDD 畛域设计,特地是 DDD 提供的策略建模层面的概念,是保护软件概念完整性的良药。 “技术服务于业务、业务驱动技术”是目前大部分人的共识,尤其是对商业公司而言。而 DDD 畛域设计主张在软件设计中把业务畛域自身作为关注的焦点(换句话说就是软件开发人员要懂业务)十分合乎这种思维;并且,DDD 提供了切实可行的面对简单业务软件设计的解决办法,这也是我十分提倡作为一个架构师去深刻学习和探讨 DDD 畛域设计的相干常识。 策略建模在策略层面,DDD 十分强调对业务问题的剖析和合成,通过辨认外围问题来升高问题的复杂度。DDD 在策略层面保护模型的概念完整性的办法,最重要的两个概念就是界线上下文(Bounded Context)和防腐层(Anti-Corruption Layer)。 定义好界线上下文对于界线上下文的定义,轻易一本讲 DDD 的书上都会具体解说,这里我只想分享一下本人的一些了解。这时,有人会问:界线上下文多大能力适合呢,划分上下文有没有能够遵循的规定呢? 划分上下文的规定,无非就是放之四海而皆准的“高内聚、低耦合”,这么说可能还是太虚。其实真正让大家感到纠结的是,不知如何切分的那些货色之间所存在的关联,有的甚至罗唆都纳入到一个上下文里。其实,我认为与其关注上下文的“大小”,不如关注模型的“品质”,关注概念的完整性是不是容易被毁坏。我感觉,判断大小是不是适合,要联合利用开发团队的能力,看开发团队能在多大的一个范畴内掌控软件的概念完整性。只有是开发团队没有问题,这个范畴就算再大也都是能够的。 如果开发团队的程度在业界属于上游,那么保护上下文的范畴往往是很大的;一些公司开发团队的程度参差不齐,所以在我的项目的施行过程中,可能须要划分绝对小的上下文,尽可能减少“屎山”的一直沉积。  做好防腐层界线上下文须要时刻爱护好本人所保护的边界,以及边界内概念的完整性,这时须要将某个上下文的概念转化为另一个上下文概念的中央就叫做“防腐层”。防腐层的实现有很多种,典型的比方作为适配器 Adaptor 来实现,另外狭义上讲,Gateway 也是一个典型性的防腐层组件,当然,防腐层的代码和其余外部业务模型之间要存在显著的物理边界(当然不肯定说要把防腐层作为一个个独立部署的过程),至多咱们能够思考把防腐层作为一个独立的类库来进行构建和保护,阿里外部的比方星环、其实就是这个思路。 一个典型的防腐层的设计 战术建模DDD 在战术上最外围的概念就是实体和聚合,为了更好的了解什么是聚合、聚合根、聚合外部实体,上面举例说明一下。设想一下一个电商零碎的订单相干的模型,咱们可能会失去订单 Order、订单头 OrderHeader、订单行项 OrderItem 三个互相关联的概念: 一个叫做 Order 的聚合。这个订单聚合的聚合根是一个叫做 OrderHeader 的实体,实体 OrderHeader 的 ID 叫做 OrderId(订单号)。通过 OrderHeader 实体,咱们能够拜访 OrderItem 实体的一个聚合。OrderItem 这个实体的部分 ID 叫做 ProductId(产品 ID)。因为业务善变不容许在同一个订单的不同订单项内呈现同一个产品,所以咱们能够抉择产品 ID 作为订单项的部分 ID。“聚合是数据批改的单元”,基于这个准则,咱们能够做到“聚合内强统一、聚合外最终统一”,比方,咱们能够不能承受一个订单内的所有订单项的金额之和不等于订单头的总金额,咱们就必须把订单头和订单行项这两个实体划分到同一个聚合内。 设计聚合的准则咱们无妨先看一下《实现畛域驱动设计》一书中对聚合设计准则的形容,原文是有点不太好了解的,我来略微解释一下: 在一致性边界内建模真正的不变条件。聚合用来封装真正的不变性,而不是简略地将对象组合在一起。聚合内有一套不变的业务规定,各实体和值对象依照对立的业务规定运行,实现对象数据的一致性,边界之外的任何货色都与该聚合无关,这就是聚合能实现业务高内聚的起因。尽量设计小的聚合。如果聚合设计得过大,聚合会因为蕴含过多的实体,导致实体之间的治理过于简单,高频操作时会呈现并发抵触或者数据库锁,最终导致系统可用性变差。而小聚合设计则能够升高因为业务过大导致聚合重构的可能性,让畛域模型更能适应业务的变动。通过惟一标识援用其它聚合。聚合之间是通过关联内部聚合根 ID 的形式援用,而不是间接对象援用的形式。内部聚合的对象放在聚合边界内治理,容易导致聚合的边界不清晰,也会减少聚合之间的耦合度。在边界之外应用最终一致性。聚合内数据强一致性,而聚合之间数据最终一致性。在一次事务中,最多只能更改一个聚合的状态。如果一次业务操作波及多个聚合状态的更改,应采纳畛域事件的形式异步批改相干的聚合,实现聚合之间的解耦(相干内容我会在畛域事件局部详解)。通过应用层实现跨聚合的服务调用。为实现微服务内聚合之间的解耦,以及将来以聚合为单位的微服务组合和拆分,应防止跨聚合的畛域服务调用和跨聚合的数据库表关联。下面的这些准则是 DDD 的一些通用的设计准则,还是那句话:“适宜本人的才是最好的。”在零碎设计过程时,你肯定要思考我的项目的具体情况,如果面临应用的便利性、高性能要求、技术能力缺失和全局事务管理等影响因素,这些准则也并不是不能冲破的,总之所有以解决理论问题为出发点。 ...

February 24, 2022 · 1 min · jiezi

关于阿里云:关于阿里云多活容灾的那点事

一: 业内首本聚焦多活畛域的《利用多活技术白皮书》公布,引领云原生畛域容灾新规范。 下载地址:https://developer.aliyun.com/... 二:商业化产品 MSHA 公布了残缺的利用双活能力,囊括接入层、音讯层以及数据层等常见组件,此外还公布了接入层灰度公布、报警巡检指标欠缺等稳定性能力,为您的利用保驾护航。 产品官网地址:https://www.aliyun.com/produc... 三:开源产品 AppActive 公布了残缺的异地双活概念模型,并给出了接入层、服务层、音讯层以及数据层等常见组件的实现,搭配欠缺的 demo,让您低成本地体验异地多活,为建设生产可用的多活容灾零碎打下基础~ 开源地址:https://github.com/alibaba/Ap... 下滑海报,查看一月产品详情!

February 24, 2022 · 1 min · jiezi

关于阿里云:云计算情报局预告|告别-Kafka-Streams让轻量级流处理更加简单

作者:不周关键词:Kafka ETL,高弹性、免运维、低成本 阿里云音讯队列 Kafka 版提供兼容 Apache Kafka 生态的全托管服务,彻底解决开源产品长期的痛点,是大数据生态中不可或缺的产品之一。随着 Kafka 越来越风行,最后只是作为简略的音讯总线,起初逐步成为数据集成系统,Kafka 牢靠的传递能力让它成为流式解决零碎完满的数据起源。在大数据工程畛域,Kafka 在承接上下游、串联数据流管道方面施展了重要作用,Kafka 利用流式框架解决音讯也逐步成为趋势。 说到流计算,罕用的便是 Storm、Spark Streaming、Flink 和 Kafka Streams,目前这些框架都绝对成熟,并且都有相应的应用案例,但这些框架应用起来门槛较高,首先要学习框架和各种技术、标准的应用,而后要将业务迁徙到这些框架中,最初线上应用并运维这些流计算框架。尤其在面对 70% 以上简略流解决场景的需要,传统计划的弊病会被一直放大,客户依然须要投入较大的人力老本和较高的资源,同时整个架构也比较复杂。总结来说,次要遇到的问题蕴含以下四个方面: 一是运维老本较高,研发团队自行编写代码,前期须要继续保护,会带来较大的运维老本;二是技术老本较大,对于很多轻量或简略计算需要,须要进行技术选型,而引入一个全新的组件会带来较高的技术老本;三是学习老本不可预期,在某组件选定后,须要研发团队进行学习并继续保护,这就带来了不可预期的学习老本;四是开发人员自行选用开源组件之后,可靠性和可用性并不能失去很好的保障。 为了更好的解决传统流式计算在面对简略流解决场景需要时遇到的种种问题,阿里云音讯队列 Kafka 版也推出了相应的解决方案:Kafka ETL。 那么阿里云 Kafka ETL 具体是如何解决以上问题的呢? 2 月 18 日下午 14:00,云计算情报局直播间将为您答疑解惑。 点击此处,立刻返回云计算情报局直播间!

February 24, 2022 · 1 min · jiezi

关于阿里云:如何合理使用-CPU-管理策略提升容器性能

作者:张佐玮(佑祎) 前言在云原生时代下,利用工作负载都是以容器的模式部署在宿主机,共享各类物理资源。随着宿主机硬件性能的加强,单节点的容器部署密度进一步晋升,由此带来的过程间 CPU 争用,跨 NUMA 访存等问题也更加重大,影响了利用性能体现。如何调配和治理宿主机的 CPU 资源,保障利用能够取得最优的服务质量,是掂量容器服务技术能力的关键因素。 节点侧容器 CPU 资源管理Kubelet 的 CPU 调配策略Kubernetes 为容器资源管理提供了 request(申请)和 limit(束缚)的语义形容,当容器指定了 request 时,调度器会利用该信息决定 Pod 应该被调配到哪个节点上;当容器指定了 limit 时,Kubelet 会确保容器在运行时不会超用。 CPU 是一种典型的分时复用型资源,内核调度器会将 CPU 分为多个工夫片,轮流为各过程调配肯定的运行工夫。Kubelet 默认的 CPU 管理策略会通过 Linux 内核的 CFS 带宽控制器(CFS Bandwidth Controller)来管制容器 CPU 资源的应用下限。在多核节点下,过程在运行过程中常常会被迁徙到其不同的外围,思考到有些利用的性能对 CPU 上下文切换比拟敏感,Kubelet 还提供了 static 策略,容许 Guaranteed 类型 Pod 独占 CPU 外围。 内核 CPU 资源调度内核 CFS 调度是通过 cfs_period 和 cfs_quota 两个参数来治理容器 CPU 工夫片耗费的,cfs_period 个别为固定值 100 ms,cfs_quota 对应容器的 CPU Limit。例如对于一个 CPU Limit = 2 的容器,其 cfs_quota 会被设置为 200ms,示意该容器在每 100ms 的工夫周期内最多应用 200ms 的 CPU 工夫片,即 2 个 CPU 外围。当其 CPU 使用量超出预设的 limit 值时,容器中的过程会受内核调度束缚而被限流。仔细的利用管理员往往会在集群 Pod 监控中的 CPU Throttle Rate 指标察看到这一特色。 ...

February 24, 2022 · 2 min · jiezi

关于阿里云:Ubuntu操作系统配置Grafana镜像

Grafana镜像 简介 Grafana是一个跨平台的开源的度量剖析和可视化工具,能够通过将采集的数据查问而后可视化的展现,并及时告诉。 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 参考及下载地址:阿里云开源镜像站资源目录 配置办法 Ubuntu21.10操作系统配置办法如下: 首先执行如下命令: 信赖 https://packages.grafana.com/ 的 GPG 公钥: curl https://packages.grafana.com/... | sudo apt-key add – 执行如下命令确保你的 apt 反对 HTTPS: sudo apt-get install -y apt-transport-https 抉择你心愿装置的 Grafana 版本(与你的 Debian/Ubuntu 零碎版本无关),Stable和Beta两个版本,这里以Stable版本为例,执行如下命令: Stable echo "deb https://mirrors.aliyun.com/gr... stable main" | sudo tee -a /etc/apt/sources.list.d/grafana.list Beta版本需执行如下命令: echo "deb https://mirrors.aliyun.com/gr... beta main" | sudo tee -a /etc/apt/sources.list.d/grafana.list 最初装置 Grafana 执行如下两行命令即可。 sudo apt-get update sudo apt-get install grafana ...

February 24, 2022 · 1 min · jiezi

关于阿里云:开发运维效率提升-80计算成本下降-50分众传媒的-Serverless-实践

作者:吴松 本文总结于分众传媒研发总监吴松在阿里云云原生实战峰会上的分享,从三个方面讲述了对 Serverless 技术的摸索。 分众传媒的业务现状 分众传媒的业务场景很简略,就是广告主买量,而后进行投放排期和统计,最初进行成果展现。业务场景后期要做广告设计、视频解决,前期还有一个广告投放、成果展现,可能会给客户提供各种各样的数据展现。分众传媒次要的业务状态有动态海报(市场占有率超过 73%),电梯屏幕 30 万块,笼罩 91% 中高档的写字楼。 咱们把云原生利用架构利用于手机 APP 和视频终端,而业务利用则有很多,比方员工接入、CRM、视频解决、图片辨认、数据上报、数据分析、视频直播。其中,视频直播是新开发的业务,就是为了把直播视频实时推到分众传媒的屏端上。 云服务则用到 SLB、MQDT、转码服务、IoT 等等。先说一下 IoT,咱们当初所有屏端都是用的都是阿里云的 IoT 服务。这项服务带来的最大劣势是屏端连通率大略能够放弃在 95% 左右,这大大晋升了团队工作效率。因为以前咱们的屏端都是要人工去插卡上刊,当初接入 IoT 之后,咱们的业务量从原来的 50% 晋升到了当初的 95%,也就是说,在里面 100 台设施有 95 台设施连网,这能够很好地撑持咱们的业务,给咱们的技术实现带来了很大的价值。 另外,咱们有 200 万个动态的电梯海报,每周都须要上刊,在上刊之后会有图片解决的流程。这块目前应用的是自动识别解决,每次上刊之后须要判断图片是否上错或者图片有没有放反。这一系列操作当初全副能够实时告诉到上刊人员,一旦呈现上刊之后图片放错、放反的问题,能够及时通过手机短信告诉到相干负责人,揭示他们立即采取措施去解决,保障在一个小时之内实现。 Serverless 的摸索实际 传统服务器无奈满足咱们的业务高速增长,次要有三大痛点。耗时太长、资源利用率低、运维简单,对人员技能要求高。 耗时太长:以前的人工上刊无奈及时晓得上刊是否正确或者谬误,须要破费很多工夫去核查和批改;资源利用率低:上刊的次要业务是集中在周六和周日,因而所有资源根本在周六周日应用,大部分时间段是不须要应用服务器资源的;运维简单、人员技能要求高:大家都会遇到的惯例痛点,因为业务的复杂度对相干业务人员的技能要求也高,同时也须要招聘更高级的人员来反对对应的运维工作。于是,对于咱们来说,上云有两个抉择。第一个是用 K8s 服务本人搭建一套容器集群,第二个是用函数计算 FC。那咱们是如何抉择的呢? 在抉择 Serverless 时,其实咱们也有一些担心。第一是大规模的实际案例,第二是图象识别的算法往往很大,函数计算 FC 是否实用?第三,FC 最高规格只能反对 2C3GB,这对咱们业务有很大的考验。第四,是否能够提供 CPU 应用和内存应用的监控等等。这些都是咱们很担心的一些问题。 K8s 和 Serverless 运行原理的差别大家能够从上图中看到,如果用 K8s 申请云主机,咱们须要本人搭建 K8s,通过对外的 API 来提供申请;而应用 Serverless 计算平台,咱们不须要关怀用了多少服务器或者多少人力,咱们只须要关怀每一次 API 申请是否正确达到和触达,就能够确认每次的图象识别是否有确切辨认到图片,并把辨认谬误的货色收回来,告诉到上刊人员。 因而咱们最初抉择了函数计算,因为它有以下 3 个突出劣势: ...

February 24, 2022 · 1 min · jiezi

关于阿里云:开发之痛稳定的测试环境怎么就那么难-研发效能提升36计

专栏策动|雅纯 意愿编辑|jimmy、吕瑞星 “对于生产环境,精确、稳固最重要,咱们举荐以利用为核心的基于OAM和IaC的实际形式。 对于测试环境,隔离、低成本和稳固的依赖最重要,咱们举荐基于稳固环境的隔离测试环境的实际,复用稳固环境,通过流量隔离和数据隔离来生成测试环境。“ 以下是具体内容。 环境这个概念,大多数开发者都很相熟。一个稳固、可预期、低成本的环境也是大家统一的诉求。 如下图所示,咱们将环境分为生产环境、测试环境、开发环境3类。很多时候咱们会把生产环境、测试环境、开发环境隔离开,就像图上的那个防火墙一样,分为线下环境和线上环境。 但在理论状况下,思考公司体量和开发成本等诸多因素,环境的应用和划分会产生一些变动。 例如,基于老本考量,首先要保障的是生产环境,所有以提供服务为外围要务;其次是测试环境,在迁徙至线上环境之前咱们须要在相似于生产环境的测试环境中进行相应的验证,只有在测试环境中验证无误才能够迁徙至生产环境,从而保证系统稳固的过渡。 生产环境 对于生产环境,精确、稳固的运行是相当重要的,也产生了大量的运维和治理的诉求。 如果测试环境给配置一个节点就够了,生产环境就要思考备份、主备、分流、容灾等诸多问题,其目标都是为了保障环境的稳固运行。 精确、稳固是生产环境和别的环境的最大区别。这一特点带来了大量的运维的和服务治理的配置诉求,如何无效保护这些配置也是咱们基于OAM模型、以IaC的形式来治理配置的初衷,上篇文章中有做分享。 (小编注:云效AppStack正是基于OAM的云原生利用交付平台,企业能够通过利用编排、占位符、变量等申明式定义,实现一套编排多环境差异化部署,同时基于版本和基线实现环境一键拉起、一键回滚。感兴趣的同学点击文末浏览原文能够收费应用)。生产环境蕴含了很多种配置,如利用配置、利用镜像、利用运维配置、基础设施运维配置等。这些不同的配置和镜像的内容是由不同的同学关注和治理的。 开发批改代码,代码发布会扭转镜像和配置;利用运维会被动批改利用运维配置;基础设施运维会批改基础设施配置。所有的配置改变都会对生产环境产生影响,带来生产环境的变动,进而可能带来危险。 因而生产环境的运维和和治理显然应该是由开发和运维来独特负责的。 测试环境 测试环境是另一类重要环境。测试环境蕴含两种类型:一种是集成环境,一种是预发环境。预发环境也就是类生产环境。集成环境次要用于集成测试,或者功能性的验证;预发环境次要在验收的过程中应用。 测试环境的指标是用尽可能少的资源进行独立的测试,做到隔离、复用、模仿。 例如,利用要跟内部的服务交互,如果内部服务有问题,能够在测试环境中模仿一个。 以某大数据产品为例,大数据产品大家可能会感觉环境要求太高了,没有方法做测试环境,很多的技术服务如Hive、Kafka、MySQL,对机器的要求会很高:Hive、Kafka须要有很多的机器。另外,还须要Redis做缓存、Zookeeper做服务发现。最早的时候就一套测试环境,这个显然是很低效的。如果有50个开发,共享一套测试环境,频繁抵触的状况下,简直没有方法做测试。 为了解决这个问题,服务和利用能够做一些分层,这里分成三层。首先是公共的根底服务,比方Hive、Kafka;而后是独立的小服务,比方Redis、Zookeeper。在测试环境下,Redis和Zookeeper全副用单点是没有问题的,能够在一台虚拟机上跑起来;最上层是利用,只部署必须的利用以实现所要的测试工作。 因而,测试环境将会这么治理:首先所有的公共服务是共享的根底服务,所有的测试环境都依赖这些根底服务,各个环境的数据通过逻辑机制(如命名空间)进行隔离。在每一个测试环境会部署一套独立服务的Redis、Zookeeper。 应用层只部署所须要的利用,这样根本能够做到只耗费很小的资源就能够部署一套测试环境。很多的测试资源利用率很低,如果残缺的搭一套环境的话你会发现99.99%的状况下,资源利用率都很低。 另外测试环境都该当是长期环境,这一点很重要。如果把测试环境用作长期环境,使用者会习惯某个环境就是他的,例如给环境起名字,这个环境其他人不能用,而这样会造成很大的节约,毕竟每天应用的工夫都是无限的。咱们心愿测试环境的资源是一个池子,能够被复用,用完即销毁。这也同时要求进步测试效率,在最短的工夫内做更多的测试。 开发环境 开发环境是除了上文咱们说到的生产环境和测试环境之外波及最多的环境,比方开发、构建要用到的一些工具链,都属于开发环境的领域。在开发环境下,咱们的关注点是在本地上怎么把服务顺畅跑起来。 现实的开发环境能够跟其余的服务买通,且双向连通,因而有3个须要解决的问题:首先这个开发环境怎么拜访根底环境中的服务,比方另外一个Service。第二个是怎么让其余服务拜访到咱们开发中的服务。第三个是怎么与其余的开发环境的申请和数据隔离。这也是咱们在后面测试环境遇到的相似的问题,因而在开发环境之间也须要相似的伎俩,云效团队开源的kt-connect就是为了解决这个问题而设计的一个工具。 在开发环境里也会有相应的一些工具,如上图所示。大家也能够看一下,你罕用的有哪些。 测试环境之痛很多公司、很多人一提到测试环境就会说测试环境不够用、测试环境不稳固。咱们在测试环境中会面临哪些挑战?尤其是分布式应用。在微服务化之后,分布式所面对的挑战也越发显著,这些挑战很多和环境无关。 例如某个利用变动没有做很好的验证,无意间进入到集成环境。这样它进入集成环境的时候自身品质是无奈保障的。而在集成测试阶段,利用之间的关系非常复杂,一个服务不稳固,其余的链路都很有可能不稳固。 这也导致咱们常常没有方法很好地进行日常集成测试。因为后面的过程没有方法保障,这个时候变动的利用会占用预发环境,而预发环境又是一个绝对高老本的环境,不可能常常被某个人占用。于是,为了能让所有人都能够应用预发,对预发的应用将会变成很多人批量进行,这样预发变成长期环境,带来的结果就是预发的工夫增长,整个开发周期和交付周期都会增长。在继续交付的流程当中,咱们在测试环境当中会面临十分多的挑战:不稳固的问题、资源的问题、集成的问题等。 就目前来说,大家会遇到的比拟多的测试环境的问题,大都源自服务没有进行无效的治理。服务办法多,耦合高,一旦某个服务呈现问题,其余的都会受到影响。当一个环境的服务都是处在变动中时,因为随时都有不稳固的服务在部署,整个环境也将是不稳固的。 集成环境无奈稳固的结果是大量的测试迁往预发,预发成为瓶颈之后又往线上迁徙。任何利用最终都会用线上环境来兜底。 总结来看,测试环境次要面临如下2个挑战: 第一个是如何解决服务之间的依赖。比方A对C的强依赖,A的性能胜利与否取决于C,而且C变动之后也要在A下面做相应的验证,保障C的变动是对的。 另外一个是环境自身的,次要有2点,一个是机器的稳定性,另一个是服务自身的稳定性。 机器的稳固次要是:有效应对硬盘故障,网络故障等状况,做好零碎的备份和容灾。 服务自身的稳固次要是:无效确保每个服务本身的可用性,因为如果一个利用的可用性是90%的话,那10个利用就是90%的10次方,导致整个的零碎都会很低。 如何保障测试环境的稳定性 上文咱们说到了测试环境存在的两种挑战。任何测试环境都须要保障其稳定性,升高应用线上环境的危险。那么如何保障测试环境的稳定性呢? 在测试环境中罕用的实际次要有:双机部署、N+1部署、隔离环境等。 例如咱们一个利用至多部署两个Pod,保障至多一个在提供服务,不能让两个同时重启。的确会产生这样的状况:在某个测试环境,如果某个服务只有一个正本,该服务产生部署导致重启,会导致整个测试的不可用。在这种状况下双机部署是很好的疾速解决伎俩,但也占用了较多的资源。 为了解决双机部署资源占用高的毛病,N+1的部署形式应运而生。采纳滚动的形式一一替换服务利用。这样你的机器就只有一个是处于变动当中,其余都是work的。这也是K8S默认的形式,个别会生成新的实例,而后再把旧的实例下掉。 为了保障测试零碎的稳定性,咱们须要做隔离,尽量做到除本人批改的利用,其它利用都是稳固的。 在阿里,团队引入了我的项目预集成环境,在阿里外部叫我的项目环境,这是一个隔离进去的环境,针对某一个个性在开发的阶段独自的拉取一个环境进去。 综上所述,预集成环境是隔离的,跟谁都没有关系,所依赖的其它服务都来源于稳固的环境,以保障依赖的服务都是稳固的,以便进行独立的开发和测试。 在我的项目晚期的时候,我的项目预集成环境里依赖的环境还是日常集成环境,无论如何必定比什么都不做间接放入日常集成环境外面好很多。这个时候咱们发现日常集成环境还是有问题,因为在我的项目初期并不能保障所有的提交都会在我的项目预集成环境去做验证,因而会导致日常集成环境外面的依赖也可能存在很大的问题,其实实质上又回到了咱们要治理日常的集成环境的事件,怎么样维持绝对稳固。 针对上述问题,咱们引入稳固环境的概念。既然咱们将环境隔离进去了,但隔离依赖的根底环境不稳固,这个时候如果咱们有一个稳固的环境是否就能解决问题了呢? 什么样的环境是稳固环境呢?就是可能公布到线上版本的环境,线上环境必定是稳固环境,所以咱们的稳固环境其实是由与线上版本统一的应用服务组成的,跟线上的服务是统一的。线上稳固,这个环境就是稳固的,所以咱们就能够在这种稳固环境下再去发明隔离环境,从而保障整体稳定性。 当有了稳固的根底环境,在利用部署到生产环境之后,也同样要把它部署到根底环境中去,提供一个给测试环境作为依赖的根底环境。有了这样一个根底环境依赖,在咱们利用开发时,拉进去的环境就是齐全隔离的,只蕴含和我严密相干的几个变动当中的利用,其余所有的依赖的服务都是从根底环境外面来的。 这里提到了根底环境的概念,那么什么是根底环境呢?根底环境是一个稳固的环境,当有了一个稳固的集成环境就能够做隔离的环境,个性测试将能够基于该隔离环境,依赖的流量也能够在隔离环境外面找。但根底环境有肯定的保护老本,尽管部署老本相对来说很低,其占用的机器资源绝对于个别大公司来说不是太大的问题,但对小公司可能是一个问题。但次要的老本是根底环境的保护,对根底环境进行监控并修复呈现的问题,这在人力上须要肯定的投入。 根底环境的维护者个别不是这个环境的使用者,所以这个时候须要有一个比拟成熟的机制保障根底环境长期稳固的运行。咱们开一下脑洞,如果说没有新的根底环境,哪一个环境是最稳固的呢?咱们在后面把线上线下用防火墙隔开了,为什么隔开大家都晓得,咱们是怕平安危险,怕数据净化,然而如果咱们的隔离能力做的足够好,服务路由做的足够好,监控做的足够好,平安爱护做的足够好,咱们是能够用生产环境来做根底环境的。 生产环境做根底环境,要解决两个重要的问题,第一个是流量隔离,流量隔离相对来说问题不太大,从以前面向资源到当初面向流量的隔离有很多现成的伎俩能够做。第二个是数据隔离。这个是挺大的挑战,数据模式有很多种,比如说音讯队列和一般的数据库不一样,数仓又不一样,很多麻烦的问题在这里,然而具体到某一个点上都有方法解决。 小结总结一下,对于生产环境,精确、稳固最重要,咱们举荐以利用为核心的基于OAM和IaC的实际形式;对于测试环境,隔离、低成本和稳固的依赖是最重要的,咱们举荐基于稳固环境的隔离测试环境的实际,复用稳固环境,通过流量隔离和数据隔离来生成测试环境。 通过环境建设,咱们解决了研发过程中的资源抵触,下一章咱们将关注研发过程中的合作问题。 ...

February 24, 2022 · 1 min · jiezi

关于阿里云:重新理解无容灾不上云应用多活将成为云原生容灾新趋势

作者:Tina 互联网技术倒退到了 2021 年,上云也更加广泛,但宕机事件却仿佛没怎么缩小。 这一年 10 月,领有 30 亿用户的脸书 (Facebook) 遭逢大规模宕机,中断服务约 7 小时后大部分服务才从新上线。据说,这是 Facebook 开办以来最重大的一次网络拜访事变,导致脸书一夜之间市值蒸发约 473 亿美元 (约合 3049 亿元人民币)。 而在更早些时候,国内某视频网站也因机房故障导致网站解体,大量用户“漂泊”到其余网站,微小的流量洪峰又让其余平台也连锁式瘫痪了。此外,领有 15 万家客户的 Salesforce 在这一年也遭逢了一次长达 5 个小时的寰球性质的宕机事变,在线游戏平台 Roblox 还曾产生过长达 73 小时的宕机事变...... 互联网技术倒退到当初,实践上来说是能够做到“永不宕机”的,但为什么还有这么多规模大、工夫长的系统故障产生?如何缩小宕机事变的产生?InfoQ 采访了阿里云全局高可用技术团队,谈谈如何保障简单零碎中的业务可持续性。 从泛滥宕机事件说开去云计算的蓬勃发展,催生了越来越多的“国民级利用”,但传统的灾备架构已很难满足业务疾速复原的须要。 有统计数据表明,96% 的企业曾在过来三年中至多经验过一次零碎中断。对于小型企业来说,一小时的宕机工夫会均匀造成 25,000 美元的损失。对于大型企业来说,均匀老本可能高达 540,000 美元。现在,停机工夫越长,这意味着产生永久性损失的可能性越大。 然而宕机事变又不可预测,因而它也被称为零碎中的“黑天鹅”。阿里云全局高可用技术团队负责人周洋示意,以后大型互联网零碎架构日趋简单,稳定性危险也在升高,零碎中肯定会有一些没被发现的黑天鹅潜伏着。 尽管预测不了“黑天鹅”什么时候会呈现,然而能从故障中去寻求一些分类,并有针对性地对一类问题进行进攻。比方当初的容灾架构就是一种劫难进攻伎俩,它次要针对的是机房级的故障场景。 机房级的故障场景,从 IDC 的维度上看,次要有机房入口网络故障、机房间网络故障以及机房掉电。如果精细化到应用层,又能够分为接入网关故障、业务利用故障以及数据库故障等,背地的故障起因可能是软件 BUG 或者局部硬件故障,比方机柜掉电、接入交换机故障等等。 容灾架构的指标是,在单机房呈现任何故障的状况下,可能疾速复原业务,保障 RTO 和 RPO。 RTO(复原工夫指标)是指用户违心为从劫难中复原而破费的最长工夫。一般来说,数据量越大,复原所需的工夫就越长。 RPO(复原点指标)是指在产生劫难时用能够接受的最大数据失落量。例如,如果用户能够接受 1 天的数据失落,RPO 就是 24 小时。 RTO 和 RPO 针对不同品种的故障,灾备行业有三种不同等级的进攻形式:数据级、利用级、业务级。当初业内支流的容灾架构还是灾备容灾,属于数据级的容灾计划。因为灾备核心平时不工作,应用服务的完整性和运行状态未知,在产生故障的关键时刻会面临敢不敢切的问题。 有些企业会因为无奈确定是否承载流量而不敢切,有些决定切换的企业也可能因为备用机房的利用状态不对而不能完全恢复业务,最终造成的影响就是 RTO 或者 RPO 较长,反馈给外界就是大型“宕机”事件。 起源自阿里实际的 AppActive2021 年,国内外多家出名公司、云平台呈现较重大服务中断、宕机事件,为企业敲响了警钟,越来越多的企业把容灾建设提上日程。在解决容灾问题的同时,为放弃对老本的管制、撑持将来的多云架构演进和劫难容灾的确定性,许多企业抉择尝试采纳多活容灾的形式。 ...

February 24, 2022 · 1 min · jiezi

关于阿里云:RocketMQStreams-首个版本发布轻量级计算的新选择

RocketMQ-Streams 聚焦「大数据量->高过滤->轻窗口计算」场景,外围打造轻资源,高性能劣势,在资源敏感场景有很大劣势,最低 1Core,1G 可部署。通过大量过滤优化,性能比其余大数据晋升 2-5 倍性能。广泛应用于平安,风控,边缘计算,音讯队列流计算。RocketMQ-Streams 兼容 Flink 的 SQL,udf/udtf/udaf,未来咱们会和 Flink 生态做深度交融,即能够独立运行,也可公布成 Flink 工作,跑在 Flink 集群,对于有 Flink 集群的场景,即能享有轻资源优势,能够做到对立部署和运维。 RocketMQ-Streams 特点及利用场景RocketMQ-Streams 利用场景 • 计算场景: 适宜大数据量->高过滤->轻窗口计算的场景。不同于支流计算引擎,须要先部署集群,写工作,公布,调优,运行这么简单的过程。RocketMQ-Streams 自身就是一个 lib 包,基于 SDK 写完流工作,能够间接运行。反对大数据开发须要的计算个性:Exactly-ONCE,灵便窗口(滚动、滑动、会话),双流Join,高吞吐、低提早、高性能。最低 1Core,1G 能够运行。 • SQL引擎 : RocketMQ-Streams 可视作一个 SQL 引擎,兼容 Flink SQL 语法,反对 Flink udf/udtf/udaf 的扩大。反对 SQL 热降级,写完 SQL,通过 SDK 提交 SQL,就能够实现 SQL 的热公布。 • ETL引擎: RocketMQ-Streams 还可视作 ETL 引擎,在很多大数据场景,须要实现数据从一个源通过 ETl,汇聚到对立存储,外面内置了 grok,正则解析等函数,能够联合 SQL 一块实现数据 ETL 。 • 开发 SDK,它也是一个数据开发 SDK 包,外面的大多数组件都能够独自应用,如 Source/sink,它屏蔽了数据源,数据存储细节,提供对立编程接口,一套代码,切换输入输出,不须要扭转代码。 ...

February 24, 2022 · 2 min · jiezi

关于阿里云:一个字稳云原生产品家族支撑冬奥会九大业务场景打造云上奥运新体验

北京冬奥会曾经成为收视最高的一届冬奥会,在转播时长、技术、内容制作形式等多方面都书写了新记录。云技术的利用,是本届北京冬奥会赛事转播的一大特色。 而云原生作为云计算的新界面,如何稳固撑持北京冬奥会多个业务零碎? 九大业务场景,打造冬奥会体验「稳稳的」业务场景一:奥运票务,践行ACK Anywhere,落地云边一体票务零碎是阿里优酷奥运小组依靠大麦原有的现场服务能力,提供的奥运换验服务。次要承载现场售票的验证服务,晋升现场服务平安、稳定性,力保为冬奥观众提供丝般顺滑的现场服务。 为了升高验票的时延,晋升奥运观众的入场速率,票务零碎须要别离部署在每个奥运场馆中,实现验票流程的本场馆闭环,充分发挥边缘计算大连贯、低时延的劣势,晋升票务的验票体验,缩小奥运观众排队等待时间。然而因为票务零碎扩散部署在每个奥运场馆中,奥运场馆间隔都比拟远,为了平安思考,部署在奥运场馆的服务器不容许有公网 IP,每个奥运场馆都有本人的内网环境,这对于票务零碎的开发、测试、验证和降级部署运维都带来了很大的挑战。若每个场馆安顿几位利用交付人员去做利用的降级和部署工作,老本太高,效率太低。 工作人员现场验票 基于以上思考,票务零碎团队心愿开发人员可能在云上开发、云上治理运维这些边缘侧节点和利用,实现云与边的一体化运维能力,因而急须要一套云边一体的架构和平台去撑持。 阿里云边缘容器服务(简称 ACK@Edge)是一款提供规范 Kubernetes 集群云端托管,反对边缘计算资源、业务疾速接入、对立治理、对立运维的云原生利用平台,可能帮忙用户轻松实现云边一体化协同。 用户利用 ACK@Edge 通过纳管边缘节点将云上利用延长到边缘,联动边缘和云端的数据,使得边缘节点领有云端雷同能力。在云端提供对边缘设施、边缘利用的对立 Ops 能力,保障边缘设施及边缘智能利用少运维、高可用。 基于 ACK@Edge 云边一体、Kubernetes 容器编排调度的能力,以及 ACK@Edge 在 Kubernetes 之上针对边缘场景叠加的如边缘自治、边缘单元化、单元化部署、Tunnel 通道的能力,切实解决了票务零碎利用运维的痛点,最终承载了北京、延庆、张家口三地冬奥会、冬残奥会所有较量场馆及鸟巢开闭幕式现场票务服务的对立治理和运维业务。 ACK@Edge 针对于 Kubernetes 在边缘计算场景提供了独有的增强型性能: 节点单元化-边缘节点池: 别离每个奥运场馆代创立了对应的边缘节点池,奥运场馆的边缘服务器能够疾速接入到对应的边缘节点池中。 利用单元化-单元化部署: 票务零碎通过 ACK@Edge 的单元化部署 UnitedDeployment,将业务部署到不同的奥运场馆的边缘服务器中, 实现了在云上对立散发利用、对立运维的能力,业务人员无需现场部署,即可实现全副奥运场馆票务零碎的疾速降级部署工作,此性能在票务零碎上线过程中施展了重要作用。 云端运维,近程调试: ACK@Edge 提供的 Tunnel 通道, 能够让业务人员疾速查看容器日志和进入容器调试。 边缘自治: ACK@Edge 的边缘自治能力,能够在云边网络断开、主机重启这种极其状况下, 还能保障本地边缘服务器上的业务能失常运行。期间,ACK@Edge 团队与票务零碎团队做了大量的断网、重启操作,最终证实票务零碎始终失常提供服务。 截至目前,ACK@Edge 基于云原生的云边一体架构, 曾经宽泛用于 CDN、IoT、智慧物流、工业大脑、新批发等诸多场景。本次冬奥会票务零碎的完满保障,进一步验证了 ACK@Edge 在云边一体、边缘计算畛域的价值。同时阿里云将 ACK@Edge 全副外围代码奉献进去,成立了 OpenYurt 开源社区。 OpenYurt 作为 CNCF 的沙箱我的项目,秉承着凋谢、自在、中立的态度,吸引了大量来自于 VMware、中国电信、浙大实验室、中国联通、中国移动等公司和组织的泛滥开发者参加。在《2021 中国开源年度报告》中, OpenYurt 我的项目进入 CNCF 中国我的项目活跃度 Top 10。将来,阿里云会在边缘计算畛域拓展更多的业务场景,通过一直打磨产品能力、壮大开源社区,来更好的服务社会。 ...

February 24, 2022 · 2 min · jiezi

关于阿里云:与阿里云容器服务-ACK-发行版的深度对话第一弹如何借助-sealer-实现快速构建-部署

作者:淮右、王飞、瑜佳 记者: 阿里云原生的读者敌人们大家好,明天应宽广感兴趣敌人们的强烈要求,咱们邀请来了「阿里云容器服务 ACK 发行版」做客咱们的栏目,为大家讲述它的身世之谜,以及它是如何和搭档们配合,让大家在自有基础设施上取得统一的最佳体验。所以走过路过千万不容错过哦~  阿里云容器服务 ACK 发行版(简称 ACK Distro): 大家好,我是阿里云容器服务 ACK 发行版,大家能够叫我的小名,ACK Distro,本次采访我将为大家具体解说我的好搭档:阿里巴巴的开源集群镜像技术 sealer,以及我是如何借助它来实现阿里云 ACK 服务的疾速稳固交付。 ACK Distro 是什么记者: 在介绍搭档之前,让咱们先进入第一个版块吧。很多新来的读者还不分明您是谁,及您的性能是什么,无妨先来做个自我介绍。 ACK Distro: 好的没问题。我是阿里针对异构 IaaS 环境公布的 Kubernetes 发行版,能够在异构 IaaS 部署私有化输入的容器服务 ACK 麻利版,就是默认通过我生产、运维 Kubernetes 集群,大家在应用容器服务 ACK 麻利版时,通过简略平台交互,即可实现 ACK Distro 集群的部署、降级、扩容等根底运维。 我的搭档们,即外围组件都通过了阿里云容器服务 ACK 和阿里巴巴团体外围业务场景在大规模生产环境中的验证和安全检查,它们都具备业界当先的安全性和可靠性。 身为一个残缺的 Kubernetes 发行版,我能够通过开源集群镜像技术 sealer 简略疾速地交付到离线环境,帮忙大家更简略灵便地治理集群。这些组件反对 X86和 ARM 硬件架构,并蕴含一个高性能的网络插件 hybridnet,它确保我能够在不同的基础设施上顺利运行。同时,我能够在阿里云容器服务 ACK 上被注册,达到统一的资源管理、策略听从和流量管制,使大家能够取得与在线 ACK 集群雷同的用户体验。另外,针对 hybridnet 的具体阐明,我将在之后的采访中为大家披露,敬请期待哦~  sealer 的定义及其外围原理记者: 您方才提到能够通过 sealer 更简略灵便地治理集群,那它具体是什么以及外围原理是怎么的呢? ACK Distro: sealer 作为阿里巴巴开源的一款帮忙分布式应用疾速进行打包、交付和运行的解决方案,能够通过把分布式应用及其数据库中间件等依赖项一起打包来解决简单利用的交付问题。 sealer 构建进去的产物咱们称之为集群镜像,集群镜像里内嵌了一套残缺的 Kubernetes + 容器,它们双剑合璧,解决了分布式应用的交付一致性问题。 ...

February 23, 2022 · 2 min · jiezi

关于阿里云:阿里云能耗宝新品发布

能耗宝是阿里云在“双碳”策略大背景下推出“双碳”及能源管理的应用服务产品,从企业能耗优化登程,提供碳计量、认证、交易的节能降碳一站式服务平台,助力企业客户聚焦碳中和万亿级市场。报名理解:阿里云能耗宝新品公布

February 23, 2022 · 1 min · jiezi

关于阿里云:80的软件环境管理问题根因都在这里-研发效能提升36计

专栏策动|雅纯意愿编辑|jimmy、吕瑞星 软件交付的终态是提供稳固可预期的零碎,要做到这一点,咱们须要确保:一、软件制品的一致性;二、运行环境的一致性。 第3讲咱们分享了如何保障软件制品的一致性,这一讲咱们来谈谈如何保障环境的一致性。 运行环境一致性的指标是环境可预期、稳固、低成本。其中低成本比拟要害,因为环境资源的老本个别比拟高。 咱们能够将运行环境分为3局部:制品、执行引擎和编排规定。 要保障制品的一致性,第一是保障代码及其依赖的一致性;第二是保障构建环境的一致性;最初是保障构建脚本的一致性。保障环境的一致性,也蕴含了三点: 利用的一致性,比方统一的容器镜像;容器运行所需的上下文的一致性,比方统一的数据配置等;编排规定的一致性,须要保障编排执行雷同的规定,比方雷同容器部署规定、雷同节点散布规定、雷同备份规定等。保障这3点,部署实现之后才会造成统一的可运行环境。然而事实当中,环境还是会有很多其它的问题,比方: 配置文件中有好多监控之类的配置,对于使用者来说,不晓得配置的具体作用,须要批改时不知如何设置。测试的时候依赖的环境常常产生问题,消耗大量期待和排查工夫。比如说依赖的API常常出问题,排查修复可能须要期待依赖方很久,导致测试工作无奈持续进行。新环境的搭建很耗时。搭建一个新的环境是很苦楚的事件,比方国际化团队,常常要搭建新的站点,而每搭一个新的环境就要消耗一整天的工夫是很苦楚的。利用在本地无奈运行。比方因为缺某个资源导致利用无奈失常运行。配置环境须要小心翼翼,可能呈现配置脱漏。每次配环境的时候须要很小心,特地是当环境配置由多人配合时,会呈现配置抵触,导致程序无奈运行,须要全链路排查解决。这里咱们简略列了五个常见的问题,它们的本源都是环境不足清晰的定义:不分明环境的具体内容、对环境搭建过程的认知含糊。 环境的清晰定义,包含环境蕴含什么制品、这些制品如何部署等。那么环境治理的终态是什么呢? 当制品雷同、运行上下文雷同,并且资源数据是一样的状况下,基于雷同的编排规定,环境就应该是统一的。同时,环境能够由软件来定义和申明。这是咱们认为的环境治理的终态,简略来说,即软件定义的不可变环境。软件定义的不可变环境,能够纳入版本治理,保障环境首先是定义明确的,其次是有明确版本的。 环境治理的3个阶段 阶段一:说明书 环境治理的第一个阶段是阐明文档,这点置信很多人都经验过。当咱们在做一个我的项目或产品时,会写整个产品的部署说明书、阐明文档、降级文档等各种文档。但文档很难保障实用,也不肯定是最新的、精确的。每次咱们去现场交付时,都会遇到一些文档里没有形容的问题。这时候还得打电话确认,是否有脱漏什么。用文档或说明书去治理环境,存在很大的弊病,所以咱们想到了用命令的形式去治理。 阶段二:命令 第二阶段,咱们通过命令的形式,写了各种shell、Python脚本,把相干命令组合在一起。之前咱们在做一个产品的私有化交付的时候,一开始的做法就是用脚本去治理环境,因为开启一个新环境切实太苦楚了,须要花很多工夫改参数、找包、配IP等,效率太低。所以咱们写了脚本来治理,用脚本代替了文档。 然而用脚本治理环境也存在很多问题。咱们要应答各种各样的环境,同一个工作在不同的场景里,命令组合可能是不一样的,所以脚本会越来越多,保护脚本的老本也越来越高。 阶段三:申明 为了解决命令脚本的保护和稳定性问题,咱们进入了第三个阶段,申明式——通过配置的形式表白环境,把环境定义进去。申明式的形容提供了环境的确定性表白。 以k8s为例,咱们以一个例子来看,如何做环境申明 上图是K8S的简略架构,左上角是K8S的master,左下角是node,master有好几个组件:scheduler、ControllerManager、APIserver,以及Etcd。Etcd是一个分布式存储,配置信息都在Etcd外面。Node是物理机或者虚拟机,在每一个Node下面会有多个pod,下面会运行很多的容器。 咱们晓得K8S的最小单元是pod,外面有容器,还有各种网络存储等,通过pod申明去形容。申明被apply后,具体的事件在controller外面解决。 通过sidecar拆散关注点 咱们写一个利用,这个利用外面大量的代码其实与业务无关,而是蕴含很多服务治理的代码,例如日志、监控、限流、熔断等。这些代码占了很大的比重,而且这些代码的维护者和利用开发者不肯定是同一批人。服务治理相干的代码,在很多企业会有专门的团队负责保护和降级,相似阿里的中间件团队。传统的状况下,咱们须要降级并重新部署利用能力降级服务治理能力。然而在云原生时代,利用开发者心愿仅关注利用业务代码,服务治理相干的代码放在其余的容器外面,业务容器和服务治理容器通常会编排在同一个pod外面,然而服务治理容器的治理、开发、公布都跟利用开发者没有关系,这些就是sidecar容器。sidecar容器实现了关注点的拆散,利用的开发者和中间件的开发者以及运维相干的开发者,都能够有本人的关注点。 咱们以两个角色为例,一是业务的开发者,关注的是利用的容器,所以公布的时候,他的关注点都在利用容器这一块。二是企业的SRE,他的关注点往往在sidecar的各种服务治理容器上,比方logagent的日志级别和采样率是否正当等。 通过sidecar,业务开发者和SRE的关注点就拆散了。这样拆散还有一个益处,就是中间件下沉,都以sidecar的形式治理。一旦遇到相应的中间件须要降级,业务代码不须要做任何的扭转和公布,只须要做sidecar的公布就好了。 咱们后面提到,统一的环境须要有3个组成部分:雷同的制品、雷同的运行上下文以及雷同的编排规定。雷同的运行上下文,实质就是外面的配置要统一。最早咱们是用文档通知咱们怎么把环境治理起来,之后用脚本,最初用环境申明。 然而,用申明式的形式定义环境也并不完满。举个具体的例子,在利用运行的时候须要有一些相应的配置,中间件、根底资源、CPU、存储等都须要配置,这样会面临一个很大的问题——环境相干的配置太多了。 环境相干的配置太多,该怎么治理好呢?通过IaC来定义环境 为了解决这个问题,业内采纳了IaC的概念(InfrastructureasCode)。晚期在云机房上架的时候会用到IaC,比方有一个新的机器过去,要装成centos7的零碎,外面要配特定的DNS服务等等。这是就会定义一个申明文件,发送给saltstack这样的工具。当初整个环境都是通过基础设施来形容进去的,所以整个环境包含中间件的资源都是基础设施了,在范畴上比原先要广的多。 从配置的角度,咱们有利用配置、运维配置、基础设施运维配置,甚至软件生产过程的配置。咱们把利用代码和IaC代码,放在两个库外面(也有放到一个库外面的,各有利弊,在此咱们不开展也不评估)。 比方上图中,在IaCRepo里咱们放了动静配置(即运行时的配置)、BaaS配置(基础设施,如数据库、中间件存储、音讯队列等)、监控配置(如监控粒度、采样频率)、公布配置等。所有的配置都申明在代码库外面,基于该申明编排的所有环境就都是统一的了。 任何事件都是有利有弊,用IaC的形式治理环境又会带来什么新的挑战呢? 首先是“灵便的代价”。因为所有的配置都是涣散的文本,短少对立的聚合根,导致批改者须要本人了解这些配置背地对应的依赖关系。比方某个配置项设置为on会开启限流,然而必须配合特定的configMap一起应用;比方开启了一个Ingress插件,但如果另一个Rollout插件没有开启,会无奈失常工作;再比方HPA和CronHPA无奈同时应用,会产生抵触。因为编写的灵活性,会导致无穷的组合模式,其组合产生的结果往往在运行时才会发现。 其次是常识的老本。IaC将一个环境所有的配置都以文本的界面给到了开发者,然而很多配置项是须要业余背景的,比方运维相干的策略、比方监控的配置形式等等,价值IaC自身的学习老本,往往让很多开发者望而却步。 为了解决这个问题,阿里联结微软一起公布了OAM模型,以利用为对立维度,将IaC蕴含的各类资源和角色进行了分类和聚合。 首先,OAM引入了利用(Application)的概念,将利用的各类IaC配置都聚合在一起,解决其依赖问题。 其次,OAM将IaC的使用者拆散为:利用开发者、利用运维、基础设施运维三大角色,彼此的关注点进行了拆散。 OAM形象和简化了IaC的定义和保护形式,升高开发者的学习和应用老本。 总结一下,咱们认为,环境治理的终态是软件定义的不可变环境,而当下,它的最佳实际咱们认为是基于OAM模型的、以利用为外围的IaC申明。 云效云原生利用治理平台AppStack正是基于OAM的利用交付平台,企业在云效AppStack,能够通过利用编排、占位符、变量等申明式定义,实现一套编排多环境差异化部署,同时基于版本和基线实现环境一键拉起、一键回滚。感兴趣的同学点下方链接即可收费应用。[https://www.aliyun.com/produc...]( https://www.aliyun.com/produc...) 下篇预报:环境治理的指标是心愿有一个稳固、可预期、低成本的环境。在软件开发中,咱们会波及到开发、测试、生产各种环境,如何保障这些环境的稳固、可预期、低成本呢?下一节咱们将进一步开展,敬请期待。 浏览上篇:这样才是代码治理和 Commit 的正确姿态!

February 23, 2022 · 1 min · jiezi

关于阿里云:阿里云能耗宝即将发布助力中小企业绿色升级参与碳中和万亿市场

阿里云能耗宝新品发布会由阿里云-企业云服务-能耗云团队主办,将于2022年2月23号举办,本期发布会将为企业出现“双碳”背景下的一站式服务。通过阿里云能耗宝,企业如何更加高效便捷地核算碳排放量、制订节能降碳计划、布局碳中和门路。 2020年,我国提出了要在2030年前碳达峰、2060年前碳中和的“双碳”指标,相较于美国、欧洲等发达国家的历史进程,中国碳中和工夫紧迫,再联合中国是寰球第一工业大国、GDP增速寰球当先、煤为主的能源构造等现状,这是一个微小的挑战。此外,双碳趋势下,碳监管、碳交易流程与机制日趋完善,企业、工厂、修建、园区、学校及社区迫切想要参加其中,碳盘查、碳认证、碳交易等需要旺盛,然而以后参加双碳门槛高、路径少、业务流程不明确,这是另一大挑战。 2021年底,阿里巴巴公布了碳中和口头报告。除了要实现碳排放“范畴1、2、3”的本身经营碳中和、上下游价值链节能减排外,还开创性地提出了“范畴3+”的概念,做大绿色生态的指标,要用平台的形式,通过助力消费者和企业,激发更大的社会参加,到2035年,用15年工夫,带动生态累计减碳15亿吨。 能耗宝发布会 2022年2月23日能耗宝将重磅公布,能耗宝是基于阿里云大数据计算及人工智能技术,阿里云在“双碳”策略大背景下推出“双碳”及能源管理的应用服务产品,从企业能耗优化登程,提供碳计量、认证、交易的节能降碳一站式服务平台,助力企业客户聚焦碳中和万亿级市场,能耗宝为客户提供低门槛、全链路、全流程的双碳服务,让客户疾速便捷地参加到双碳中来。 本次发布会将邀请能耗云产品专家谢予丛讲师、中国电子节能技术协会LCA专委会主任、四川大学副教授王洪涛讲师、广州赛宝认证核心绿色低碳事业部副主任郭智源讲师,在直播间为咱们论述企业如何核算碳排放量、制订节能降碳计划、布局碳中和门路,如何精确核算与决策,防止漂绿和知识产权危险,如何更高效便捷地实现碳核算、认证, 促成企业绿色转型等极具价值的重要内容。 感兴趣的用户可点击 参加线上报名 原文链接

February 22, 2022 · 1 min · jiezi

关于阿里云:看懂这5幅图研发效能分析和改进就容易了

作为 CTO 或企业管理者,咱们如何去理解和掂量研发团队的研发效力呢? 作为 PMO 和效力负责人,咱们该从哪几个维度来答复对于研发效力的问题呢? 带着这两个问题,咱们进入到研发效力剖析的场景,聊一聊咱们如何通过效力数据分析,帮忙企业管理者透明化研发效力程度和变化趋势,剖析效力问题根因、领导改良口头、掂量改良成果。 注:以下内容分为视频版和文字版,读者可自选学习。 观看地址:https://v.qq.com/x/page/j3324... 在云效效力洞察 Insight 中,咱们能够从 3 个维度掂量和剖析团队的研发效力: 看交付速率:单位工夫内,团队可能交付多少需要,即需要交付的吞吐量;看响应能力:需要从提出到交付上线的工夫长短,即需要交付周期;看交付品质:交付过程中缺点发现和修复的及时性,以及缺点数量的多少。看交付速率在云效Insight的效力剖析场景报表,通过「需要交付速率」指标卡,咱们能够: 看到在单位工夫内的需要交付量,及所选时间段内均匀单位工夫需要交付量;看到需要交付速率趋势,依据近期交付量来合理安排团队未来的交付节奏和对外的承诺。 图片起源:云效效力洞察Insight 需要交付速率:横坐标为工夫,以周为单位,纵坐标是需要的数量(个),柱子高下代表一周交付需要数量的多少,柱子的色彩散布别离对应交付周期的长短散布。 注:按需要个数统计的形式,因需要大小不统一会呈现一些统计偏差,因而冀望做需要交付统计时可能将需要粒度拆分的绝对较小且平均。 在「需要交付速率」指标卡中,咱们能够深入分析: 1. 依据团队交付速率,评估团队交付能力 咱们能够依据团队近期的交付速率,预测团队未来的交付速率,以便更好地安顿团队将来可接收需要的工作量。比方最近 6 周,每周交付需要数量为 10,12,15,13,11,17,平均值为 13,咱们能够预测团队每周可交付需要数量在 13 个左右,当咱们晓得这个数据时,能够更好的安顿需要交付的节奏和工夫,并对外部承诺。 2. 通过观测公布频率,推动团队继续交付 如果每周都有柱子,阐明每周都有公布,如果柱子有间隔性,即每两周有一个柱子,阐明是两周一次公布,以此类推。 看响应能力通过云效Insight效力剖析报表中的「需要交付散布」、「需要累积流图」指标卡,咱们能够看响应能力。 首先,在「需要交付散布」指标卡中,咱们能够: 看到各需要上线工夫的散布状况,反映团队的需要公布频率;看到需要交付周期的趋势,反映团队对需要响应能力及变化趋势;通过历史数据分析,预测未来的响应能力。 图片起源:云效效力洞察Insight 指标卡中数据含意: 需要交付散布,也叫需要管制图,横坐标为工夫,纵坐标为需要交付周期(天),图中: 圆点:代表一个已交付的需要,它所在的横坐标为交付工夫,纵坐标为该需要交付时长;折线:代表需要交付周期的滚动均值,取该点以及前后各1/3/5/7/9 点(随区间事项数变动)的平均值;面积:蓝色暗影区域代表滚动标准差,即理论数据与滚动平均值的偏差量;横线:所选工夫区间内,需要交付周期的平均值。在看到「需要交付散布」的数据时,咱们能够从 5 个方面进行了解和剖析: 1、纵向上,交付需要的圆点越向下越好,反映出周期时间越短、响应能力越快,可预测性越好; 2、横向上,交付需要的圆点散布越密越好,反映出需要在频繁地交付,即公布频率越高; 3、横向上,交付需要的圆点散布越平均越好,反映出需要在继续稳固地交付,更趋向于继续交付;如果圆点散布间断而交付集中,可反映出是批量地交付需要; 图片起源:云效效力洞察Insight 注:每个批量的间隔时间比拟长(譬如2周或1个月以上),可采取缩小需要进出的批量和减少公布窗口的措施。 4、交付周期线,代表在所选时间段内,交付周期的一个根本水位,该水位越低越好; 5、动均值折线,展现需要交付周期的变化趋势,冀望是有往下走的趋势,代表团队的响应能力在继续地晋升。 「需要交付散布」能够反映出团队是否已具备继续疾速交付需要的能力,帮忙团队回顾和剖析队的效力状况,并依据历史效力状况,设定团队的效力指标。其次,对业务人员来说,可随时查看交付团队的效力状况,预测需要的上线工夫。 「需要交付散布」是针对交付的后果进行度量,如果须要对整个交付过程进一步了剖析,咱们能够中点关注「需要累积流图」,可综合反映了前置工夫(交付周期)、在制品数量、交付速率等指标,并体现了团队合作、打算和交付需要的模式,罕用以发现系统性的改良机会,上面就对该图进行进一步介绍。 通过「需要累积流图」指标卡,咱们能够: 看均匀交付周期:需要在各阶段的停留时长之和,指需要交付之前,从开始到完结所经验的工夫;看在制品数量:需要在各阶段的停留数量,能够反馈出解决需要批量大小和并行度状况;看交付速率:公布阶段曲线的整体斜率,能够反馈出团队的需要交付速率。 图片起源:云效效力洞察Insight 指标卡中数据含意: 累积流图:横坐标为日期,纵坐标为各个阶段累积的需要数量;从左到右的每个阶段,都是需要按程序变动的阶段,相应的,曲线对应的别离是这些阶段的累积实现的需要数量。 「需要累积流图」同时具备整体性和动态性,它既反映了团队整体的合作模式,端到端的动静交付过程,同时还反映了交付模式和交付能力的变化趋势。咱们能够从累积流图中,剖析团队的合作和交付模式,并发现改良机会。咱们从上面 3 个方面进行剖析: 1. 团队的打算模式 次要看需要进入开发阶段的数量和频率,如一个我的项目中,进入开发阶段的批量大,而且频次低(譬如每月一次),往往是大批量的输出,很容易呈现大量需要并行,导致需要交付周期变短。反之,如果是小批量,多频次的输出,让在制品数量变低,缩短需要交付周期; 2. 需要的转测模式 需要大批量转测,带来的问题是,开发实现的需要,要期待较长时间才开始测试,导致更多在制品,并缩短了需要交付周期; 3. 需要的公布模式 需要发布会呈现阶梯状,阶梯的距离越长,代表公布的频率越少,也就是每个公布的间隔时间比拟长。同时也能够看进去,公布距离越长,则每次公布需要的数量就越多,而公布的难度随着需要的减少而减少。 ...

February 22, 2022 · 1 min · jiezi

关于阿里云:敏捷研发项目我们该如何度量

作为我的项目负责人,咱们如何及时获悉以后我的项目的最新进展和问题,理解我的项目的整体情况? 作为项目管理人员,咱们如何跟进和推动我的项目的失常进行? 带着这两个问题,咱们进入到麻利我的项目度量的场景,聊一聊如何借助云效效力洞察平台 Insight,帮忙我的项目管理者及时发现问题和偏差,推动我的项目停顿、保障我的项目的迭代和高质量交付。 注:以下内容分为视频版和文字版,读者可自选学习。 观看地址:https://v.qq.com/x/page/i3324... 在云效效力洞察 Insight 中,咱们能够从 3 个维度跟进我的项目的运作情况: 看我的项目整体情况:理解我的项目(或交付团队)的整体运作状况;看我的项目交付趋势:理解我的项目迭代交付的速率、品质和停顿;看资源投入情况:理解团队成员工作散布,保障我的项目中的重点事项的投入与交付。看我的项目整体情况在云效Insight的麻利我的项目度量的报表中,通过「我的项目停顿」和「需要/缺点现状概览」指标卡,咱们能够: ,如停顿、偏差、危险、问题、需要/缺点停顿等;疾速获知所选时间段内需要、缺点的吞吐量和逾期情况。图片起源:云效效力洞察Insight 咱们能够依据这些数据,及时跟进解决危险和问题,如果发现异常,可疾速采取行动。例如,当咱们看到我的项目中有缺点过多、存量危险和已超期事项,须要疾速推动我的项目的负责人去催办,疾速将缺点、危险和已超期事项解决,免得成为我的项目最终交付的卡点。 看我的项目交付趋势在云效Insight的麻利我的项目度量的报表中,通过「需要趋势」和「缺点趋势」 指标卡,咱们能够: 理解我的项目的需要、缺点的新增与实现状况,把握团队的交付模式,提前辨认问题和危险;理解我的项目的需要、缺点的存量的发展趋势。图片起源:云效效力洞察Insight 在观测需要、缺点的趋势时,咱们须要重点关注: 1. 看存量趋势 通过我的项目的需要、缺点的存量趋势,当存量曲线走高时,能够疾速推动重点需要和要害缺点的及时实现;当存量需要曲线走低时,须要查看需要布局状况,是否会呈现需要断档的状况产生。当存量缺点缺点逐渐或忽然走低时,须要查看需要提测的品质,是否真的是品质比拟好,还是测试不充沛导致的; 2. 看团队的交付模式 如果长时间没发现缺点,而到某一段时间集中新增大量缺点,可能反映出是瀑布交付模式,须要及时进行干涉,防止集中和批量集成,缩短问题裸露的工夫,建设疾速反馈机制。 其次,咱们能够观测「需要交付速率」和「缺点修复速率」指标卡,通过这两张指标卡,咱们能够: 看到在每一个单位工夫内的需要交付、缺点修复的数量,及所选时间段内均匀单位工夫需要和缺点交付量;看到需要交付速率趋势,依据近期交付量来合理安排团队未来的交付节奏和对外的承诺。图片起源:云效效力洞察Insight 其中: 需要交付效率:横坐标为工夫,以周为单位,纵坐标是需要的数量(个),柱子高下代表一周交付需要数量的多少,柱子的色彩散布别离对应交付周期的长短散布; 注:按需要个数统计的形式,因需要大小不统一会呈现一些统计偏差,因而冀望做需要交付统计时可能将需要粒度拆分的绝对较小且平均。 缺点修复效率:横坐标为工夫,以周为单位,纵坐标是缺点的数量(个),柱子高下代表一周修复缺点数量的多少,柱子的色彩散布别离对应修复周期的长短散布。 在察看需要交付速率和缺点修复速率时,咱们须要重点关注: 1.需要交付速率的趋势 查看本周内已交付的需要数量,并与历史速率的做比照,可发现差距,并及时推动打算交付但还未交付的需要; 2.需要和缺点联合理解交付关系 需要的交付速率和缺点的修复速率联合起来一起看,能够帮忙咱们判断缺点修复速率与需要交付速率的关系。个别状况下,缺点数量多且修复速度越低,需要的交付速率也会比拟低。反之,缺点数量少且修复速度快,需要的交付速率就会比拟快。 最初,咱们须要察看「需要燃起图」和「缺点燃起图」指标卡,通过燃起图咱们能够: 看到我的项目(团队)一段时间内的工作成绩,理解交付的速率和残余需要/缺点量;通过两条曲线的差距和将来交叉点,可预测我的项目(需要、缺点)的实现工夫,不便对外做承诺。图片起源:云效效力洞察Insight 其中: 需要燃起图:横坐标为工夫,纵坐标是需要的数量(个),“实现曲线”该我的项目(团队)已实现的需要数量变动,“全副曲线”该我的项目(团队)总共须要实现的需要数量变动; 缺点燃起图:横坐标为工夫,纵坐标是缺点的数量(个),“实现曲线”该我的项目(团队)已修复的缺点数量变动,“全副曲线”该我的项目(团队)总共须要修复的缺点数量变动; 曲线交叉点:依照所选时间段内的交付速率,我的项目中存量需要或缺点预计实现的工夫。 在察看需要和缺点燃起图时,咱们须要重点关注: 实现曲线的斜率:实现曲线的斜率代表团队的需要交付速率和缺点修复速率,当曲线的斜率陡升或陡降的时,须要及时关注和跟进,理解是否呈现了集中交付需要或修复缺点的状况;两曲线间的间隔:两曲线的间隔代表待实现需要和缺点的数量,也是该我的项目残余的工作量,当间隔根本变动不大时阐明需要实现或缺点修复与其新增量保持平衡,在继续交付的模式下,间隔应该尽可能的短且两条线平缓增长。两曲线的交叉点:两曲线的交叉点代表该我的项目(团队)如果依照以后的交付速率,我的项目中所有需要或缺点预计实现的工夫,当咱们晓得这个工夫时,咱们能够更不便对外做承诺。看资源投入情况在云效Insight的麻利我的项目度量的报表中,通过「成员工作量排名」和「存量缺点按成员排名」 指标卡,咱们能够: 看需要、缺点和工作按人员的散布状况;看我的项目组成员所负责的缺点状况,以及不同类型的缺点的散布状况;图片起源:云效效力洞察Insight 在察看我的项目人员散布时,咱们须要重点关注: 工作量排名前三位:成员工作量排名在后面的几位,咱们须要理解成员是否工作负荷过高、并行需要是否过多等,如果有此类情况,须要及时调整成员的工作安顿;工作量排名后三位:成员工作量排名在前面的几位,咱们须要理解成员是否工作量安顿过少,或不负责以后我的项目中的工作,如果有此类情况,须要调整成员的工作安顿;缺点的排名前三位:缺点数量排名的前几位人员,须要推动其及时修复缺点,同时须要对缺点的引入起因进行剖析,防止相似的问题再次引入。整体回顾咱们能够从整体情况、交付趋势和人力投入 3 个方面来观测我的项目的情况,重点观测 5 幅图: 我的项目停顿:反馈我的项目的整体停顿,可查看我的项目的停顿和危险等;需要交付速率:反馈我的项目历史的需要交付吞吐量,可对将来的交付产能进行预测;缺点趋势图:反馈团队历史的过程品质状况,可剖析团队的交付模式和品质情况;需要燃起图:反馈我的项目交付速率,可对我的项目打算实现工夫点进行预测;成员工作量排名:反映我的项目工作量的散布状况。同时咱们还能够有更多的数据分析,比方:需要趋势、缺点修复速率、缺点燃起图、缺点按成员排名、迭代停顿概览等,这篇文章中咱们没做分享,然而也能够在云效Insight中看到。 最初,在跟进麻利我的项目时,咱们还能够跟进迭代停顿的具体度量数据。对于迭代的度量内容,咱们将在下篇文章中进行分享,敬请期待。 如果你想要体验云效Insight 的麻利我的项目度量场景报表,点击下方链接,返回云效Insight 即可「收费试用」。 https://www.aliyun.com/product/yunxiao/insight?channel=yy_yc

February 21, 2022 · 1 min · jiezi

关于阿里云:KubeVela-v12-发布你要的图形化操作控制台-VelaUX-终于来了

作者:KubeVela 社区 随着云原生的一直倒退和成熟,越来越多的基础设施能力逐步标准化成为 PaaS 平台或者 SaaS 化产品。一个产品的诞生不再像过来那样须要建设一个团队,从开发、测试始终到运维、基础设施全局部多种角色零碎实现。现在,麻利组织文化和云原生技术驱动,使得这些职责更多的是“左移”到了开发者身上,测试左移、监控左移、平安左移,以及 DevOps 等一系列理念都是在强调,通过开源我的项目或者云的产品和服务将测试、监控、平安、运维等一系列事务提前到开发阶段实现。这看似美妙的愿景却给开发者带来了微小的挑战,开发者对底层形形色色的产品和简单 API 不足掌控力,他们不仅仅是在做抉择,更多的须要去了解和协调底层简单异构的基础设施能力,以便满足下层业务的疾速倒退和迭代需要。 这种复杂性和不确定性无疑大大降低了开发者的体验,升高了业务零碎的交付效率,减少了运维危险。开发者体验的外围是“简略”和“高效率”,不论是开发者还是企业都须要更好用的开发者工具或者平台来达成。在古代云原生技术之上打造一款帮忙开发者从开发、交付以及后续继续运维的一体化平台,始终是 KubeVela 演进的外围指标。如图 1 所示,在 v1.2 版本中,咱们围绕开发者体验新增了 UI 控制台组件(VelaUX),简化了编排 YAML 的复杂性,欠缺了插件体系建设,丰盛了云资源的扩大能力,减少了大量 CI/CD 等生态对接的能力,进一步欠缺了开发者端到端的应用体验。 图 1:KubeVela 架构设计 倒退历程回顾让咱们再来简略回顾一下 OAM 和 KubeVela 的倒退阶段和历程: OAM(Open Application Model)诞生和成长在简单的世界中要发明简略,首先咱们须要解决的问题就是形象和标准化。阿里云和微软联合推出 OAM 模型,创新性地提出“关注点拆散”的理念,开发者关注业务自身、运维关注模块化能力。OAM 模型围绕“所有皆服务,全面模块化”的思维,为各大厂商和云原生的平台构建者们实现本人的利用治理平台提供了简略易用与高度可扩大相结合的规范实际形式。该模型提出后的短短一年内便失去了包含 AWS、Oracle、腾讯、华为在内的国内外各大厂商响应,被国家信通院立项作为行业标准。因为大家有独特的指标,升高云原生的应用门槛,让利用交付和治理更简略。 KubeVela 开源我的项目 v1.0 公布,为社区带来了 OAM 的规范实现有了 OAM 模型作为实际领导,社区高级玩家也开始发明本人的工具来实际,包含阿里、微软、Oracle、Upbond、腾讯在内的一系列公司都基于 OAM 的领导构建了本人的业务平台。但对于更宽广的开发者和中小型企业群体来说,他们却无奈间接享受模型带来的红利,于是,KubeVela 作为 OAM 社区的官网实现引擎诞生了。它从一开始就由 7 家来自不同组织的 OAM 社区成员从零到一构建。KubeVela 的实现排汇了多家公司针对 OAM 的实践经验,同时联合 Kubernetes 社区生态劣势,实现了自动化、可收敛、幂等且稳固的利用公布控制器,围绕 IaC(基础设施即配置)结构了用户敌对的形象层,帮忙开发者实现了开箱基于的 OAM 实现引擎。 KubeVela v1.1 公布,实现利用交付工作流,原生反对混合环境多集群利用交付随着企业上云过程的推动,混合云、分布式云等多元化基础设施逐步成为常态。KubeVela 作为古代利用管理系统也顺应潮流,整体架构降级为面向混合环境做利用交付和治理的管制立体,将所有的性能人造构筑在多集群技术之上。咱们置信,出于高可用、老本性能、数据安全等多方面因素,将来大多数企业应用的状态都将是异构多元的。KubeVela v1.1 版本的公布,同时也实现了高度可扩大的利用公布工作流,它人造以混合环境架构出现,创新性的实现了交付工作流与利用形象相结合的工作模式,实现了面向终态的利用交付工作流,大大简化了流程编排的复杂性。 ...

February 21, 2022 · 2 min · jiezi

关于阿里云:技术盘点容器技术的演进路线是什么未来有哪些想象空间

作者:志敏,徙远 回顾2021年,云原生畛域有哪些重要意义的事件?1. 基于容器的分布式云治理减速落地:2021年5月阿里云峰会上,阿里云公布了一云多状态的部署形式,基于飞天架构的一朵云能够全面笼罩从外围地区到客户数据中心的各种计算场景,为客户提供低成本、低提早、本地化的公共云产品。 在一云多状态公布之前,阿里云容器服务在 2019 年云栖大会上公布了云下Kubernetes 注册集群能力,反对对立纳管云上云下不同 Kubernetes 集群。2021年,阿里云容器服务进一步全面降级了核心云、本地云、边缘云容器集群的对立治理,可能将成熟的云原生可观测、平安防护能力部署到用户环境,更能够将云端先进的中间件、数据分析和 AI 能力下沉到本地,满足客户对于产品丰盛度以及数据管控的需要,减速业务翻新。并依靠弱小的弹性算力,通过托管弹性节点,企业能够按需从本地扩容到云端,实现秒级伸缩,从容应对周期性或突发业务流量顶峰。 截至 2021 年,基于 Kubernetes 来屏蔽异构环境的差别,搭建分布式云架构曾经成为企业和云厂商的共识。 2. Knative1.0正式公布:Knative 作为一款基于 Kubernetes 之上的开源 Serverless 编排框架,提供面向 Kubernetes 标准化 API 进行 Serverless 利用编排能力。Knative 反对诸多个性:基于流量的主动弹性、灰度公布、多版本治理、缩容到0、事件驱动 Eventing等。依据 CNCF 2020 中国云原生调查报告,Knative 曾经成为 Kubernetes 上装置 Serverless 的首选。 2021 年 11 月,Knative 公布了 1.0 版本,同月 Google 发表将 Knative 捐献给云原生计算基金会 (CNCF)。阿里云提供了 Knative 的托管,并联合阿里云基础设施提供了比方冷启动优化、基于预测的智能弹性等加强,实现了社区规范和云服务劣势的深度整合。 2021年容器技术获得了哪些冲破?背地是解决什么问题?在2021年,企业对容器的拥抱更加踊跃,对容器核心技术的启动效率、资源开销、调度效率都有了更高的要求,阿里云容器团队也反对了新一代的容器架构降级,通过对容器、裸金属、操作系统等全栈优化,继续开掘容器的潜能。 高效调度: 全新降级 Cybernetes 调度器,反对对多架构神龙的 NUMA 负载感知、拓扑调度和细粒度的资源隔离和混部,晋升利用性能30%。此外,在调度器上做了大量端到端优化,在1000节点规模集群中,能够提供20000Pods/min以上的调度速度,确保在线服务和离线工作都能高效地运行在 K8s 上; 高性能容器网络: 最新一代的阿里云容器网络 Terway 3.0,一方面通过神龙芯片 offload 虚拟化网络开销,一方面在 OS 内核中通过 eBPF 实现容器 Service 转发和网络策略,真正实现零损耗,高性能。 ...

February 21, 2022 · 2 min · jiezi

关于阿里云:技术盘点消息中间件的过去现在和未来

作者介绍:林清山(花名:隆基) 操作系统、数据库、中间件是根底软件的三驾马车,而音讯队列属于最经典的中间件之一,曾经有30多年的历史。其倒退次要经验了以下几个阶段: 第一个阶段,2000年之前。 80年代诞生了第一款音讯队列是 The Information Bus,第一次提出公布订阅模式来解决软件之间的通信问题;到了90年代,则是国内商业软件巨头的时代,IBM、Oracle、Microsoft纷纷推出了本人的 MQ,其中最具代表性的是IBM MQ,价格昂贵,面向高端企业,如大型金融、电信等企业;这类商业MQ个别采纳高端硬件,软硬件一体机交付,MQ自身的架构是单机架构。 第二阶段,2000~2007年。 进入00年代后,初代开源音讯队列崛起,诞生了JMS、AMQP两大规范,与之对应的两个实现别离为 ActiveMQ、RabbitMQ,开源极大的促成了音讯队列的风行度,升高了应用门槛,逐步成为了企业级架构的标配。相比于明天而言,这类MQ次要还是面向传统企业级利用,面向小流量场景,横向扩大能力比拟弱。 第三阶段,2007~2018年。 PC互联网、挪动互联网爆发式倒退。因为传统的音讯队列无奈接受亿级用户的拜访流量和海量数据传输,诞生了互联网消息中间件,外围能力是全面采纳分布式架构、具备很强的横向扩大能力,开源典型代表有 Kafka、RocketMQ,还有淘宝的 Notify。Kafka 的诞生还将消息中间件从Messaging畛域延长到了 Streaming 畛域,从分布式应用的异步解耦场景延长到大数据畛域的流存储和流计算场景。 第四阶段,2014~至今。 IoT、云计算、云原生引领了新的技术趋势。面向IoT的场景,音讯队列开始从云内服务端利用通信,延长到边缘机房和物联网终端设备,反对MQTT等物联网标准协议也成了各大音讯队列的标配。 随着云计算的遍及,云原生的理念深入人心,各种云原生代表技术层出不穷,包含容器、微服务、Serverless、Service Mesh、事件驱动等。云原生的外围问题是如何从新设计利用,能力充沛开释云计算的技术红利,实现业务胜利最短门路。 音讯队列自身作为云计算的PaaS服务之一,要进一步施展“解耦”的能力,帮忙业务构建现代化利用,这里最要害的一个能力演进是Eventing的演进。通过将音讯升华为“事件”,提供面向规范 CloudEvent 的编排过滤、公布订阅等能力构建更大范畴的解耦,包含云服务事件和业务利用的解耦、跨组织SaaS业务事件的解耦、遗留利用和现代化利用的解耦等,同时事件驱动也是人造合乎云计算 Serverless 函数计算的范式,是利用 Serverless 化演进的催化剂。 云原生对于消息中间件而言,还有另一层含意就是音讯队列本身架构的云原生化演进,如何充分发挥云的弹性计算、存储、网络,让本人取得更强的技术指标和 Serverless 弹性能力。 消息中间件在技术上有哪些停顿与冲破?阿里云 MQ 是基于 RocketMQ 打造的一站式音讯服务,以 RocketMQ 作为对立内核,实现业界规范、支流的音讯协定,包含MQTT、Kafka、RabbitMQ、AMQP、CloudEvent、HTTP等,满足客户多样化场景诉求。为了进步易用性,咱们别离对不同的协定进行了产品化,以独立产品的模式提供音讯服务(如阿里云RabbitMQ、阿里云Kafka),开箱即用、免运维、齐备的可观测体系,帮忙开源客户无缝迁云。 在经验数万企业客户多样化场景的继续打磨,数年的超大规模云计算的生产实践,咱们的内核RocketMQ逐步往一体化架构和云原生架构演进。 1. 一体化架构微服务、大数据、实时计算、IoT、事件驱动等技术潮流,一直的扩大音讯的业务边界,业界有不同的音讯队列满足不同的业务场景,比方RabbitMQ偏重满足微服务场景,Kafka则是侧重于满足大数据、事件流场景,EMQ则是满足了IoT垂直畛域场景。而随着数字化转型的深刻,客户的业务往往同时波及穿插场景,比方来自物联网设施的音讯、或者微服务零碎产生的业务音讯要进行实时计算,如果是引入多套零碎,会带来额定的机器、运维、学习等老本。 在过来“分”往往是技术实现的斗争,而当初“合”才是用户的真正需要。 RocketMQ 5.0基于对立Commitlog扩大多元化索引,包含工夫索引、百万队列索引、事务索引、KV索引、批量索引、逻辑队列等技术。在场景上同时撑持了RabbitMQ、Kafka、MQTT、边缘轻量计算等产品能力,真正实现了“音讯、事件、流”,“云边端”一体化架构。 2. 云原生架构云原生架构是指云上原生的架构,云计算是云原生的“源能源”,脱离了云计算谈云原生如同夸夸其谈。RocketMQ 过来几年正是立足于阿里云超大规模的云计算生产实践,帮忙数万企业实现数字化转型的教训中汲取营养,从而实现互联网消息中间件到云原生消息中间件的进化。这也是 RocketMQ 和其余消息中间件最大的区别,他是实际进去的云原生架构,上面咱们盘点一下 RocketMQ 在云原生架构的关键技术演进。 RocketMQ 是 2011 年诞生于淘宝外围电商零碎,一开始是定位于服务团体业务,面向繁多超大规模互联网企业设计。原来的架构并不能很好的满足云计算的场景,有不少的痛点,比方重型 SDK,客户端逻辑简单、多语言 SDK 开发成本高、商业个性迭代慢;弹性能力差,计算存储耦合、客户端和物理队列数耦合、队列数无奈扩大到百万级、千万级;而其余支流的开源音讯我的项目也同样未进行云原生架构的转型,比方 RabbitMQ 单队列能力无奈横向扩大、Kafka 弹性扩容会面临大量的数据拷贝平衡等,都不适用于在公共云为大规模客户提供弹性服务。 为此,RocketMQ 5.0 面向云计算的场景进行从新设计,冀望从架构层面解决根本性问题,对客户端、Broker到存储引擎全面降级: 客户端轻量化。 RocketMQ 5.0 SDK 把大量逻辑下沉到服务端,代码行数精简三分之二,开发保护多语言 SDK 的老本大幅度降低;轻量的 SDK 更容易被 Service Mesh、Dapr等云原生代表技术集成。 ...

February 20, 2022 · 1 min · jiezi

关于阿里云:技术盘点云原生中间件的技术演进与未来趋势展望

作者:胡伟琪(白慕) 阿里巴巴董事会主席兼首席执行官张勇在云栖大会分享 过来这几年,随着云原生技术生态的高速倒退,中间件技术也在适应这个大趋势向前演进,如果要说中间件的演进大方向,我认为就是云原生化,然而对于中间件来说,这外面蕴含了两层含意。 首先是中间件本身架构和运行时的云原生化。家喻户晓中件间基本上都是有状态的利用,在整个IT架构中承当了十分外围的作用,对于 IO、性能、稳定性的要求都十分高,所以始终以来中间件的容量治理、交付、运维、容灾都是业界的难题,然而随着云原生技术体系的逐步成熟,当初的中间件都在云原生化,借助云原生技术,首先解决了本身的弹性和韧性问题,其次基于以 K8s +容器的运行底座,解决了中间件的运维、交付问题。 其次是开发者应用中间件形式的云原生化。当初的云原生中间件,通常以 BaaS 或SaaS的状态呈现,帮忙使用者屏蔽了底层的运行环境差别和运维复杂度,使用者通过标准化的 API 就能够实现对中间件的调用,这种状态的益处在于让中间件逐步基础设施化,开发者能够更关注业务的开发,从而晋升企业整体的开发和运维效率。 云原生中间件和本地 PaaS 中间件之间是否有实质上的不同?要谈这个问题,咱们只须要了解云计算和云原生的实质是什么。当初业界对于云原生的定义基本上达成了共识,在这里就不开展谈了,联合中间件的个性,云原生中间件和本地 PaaS 中间件的本质区别次要在于弹性、稳定性、高可用、安全性、应用老本等。 弹性: 云原生技术体系为中间件带来了良好的扩大机制和弹性架构,再借助云上的海量资源实现中间件的按需弹性扩缩容的能力,让使用者既不须要提前准备相干资源,也不需再为容量是否满足业务需要担心。 稳定性: 在稳定性方面,须要先剖析一下影响中间件稳定性的因素,次要包含硬件、操作系统、网络、存储、运维等,利用云上齐备的 IaaS 和 PaaS 能力,能够很高效地为各畛域中间件构建出高质量的稳定性保障体系,这是本地中间件无奈实现的。 高可用: 在高可用方面,这是云计算和云原生的先天劣势了,多机房的异地容灾、多链路网络保障、齐备的可观测体系和诊断能力等,能够说云原生中间件能提供的高可用能力,曾经能够让使用者无需再放心因为中间件导致的业务连续性受影响的问题。 安全性: 大家都晓得去年在 Java 畛域发现了一个十分重大的破绽,但其实这只是其中一个案例,咱们应用的软件、零碎,包含中间件,无奈避免出现破绽或 bug,对于云原生中间件来说,咱们对破绽的修复效率的要求,是最高优先级的,使用者无需承当破绽带来的潜在数据和零碎危险。 应用老本: 这里的老本是狭义的老本,蕴含资源老本、人力老本、工夫老本等,借助云原生中间件,使用者不再须要关注中间件的公布、降级、运维等一系列高人员投入的事务,也不须要为资源的空置率领取老本,就拿消息中间件来举个例子,咱们常常能够看到,很多企业用户的音讯推送量,在业务顶峰和低谷期的音讯量能够相差数百甚至上千倍,借助云的弹性能力,客户不须要再为业务低谷期的资源节约担心,节约了大量的老本。  2021年中间件畛域有哪些重要的停顿?  借助云原生技术底座减速中间件在不同的环境输入:云原生技术生态的覆盖面越来越广了,在分布式云和无边界计算的大趋势下,中间件也在减速向不同的环境输入,比方不同的 CPU 架构平台,过来中间件次要运行于 X86 架构上,然而随着 ARM 架构的疾速倒退,当初大量中间件曾经能够反对运行 ARM 架构之上。另外,中间件也开始实用于不同的计算场合,比方边缘计算,尤其在更细分的现场和区域边缘畛域。 中间件逐步服务化、透明化:中间件通过 BaaS 和 SaaS 状态把根底能力下沉,赋能轻量、麻利的云原生利用,解决用户应用效率和老本问题,这同时也合乎开发者对于云和云原生倒退的冀望。 开源和商业联合更严密:云原生技术内核是围绕开源开展的,随着中间件云原生化过程的一直推动,开源中间件的倒退也越来越沉闷,这一方面能够减速中间件和云原生生态的联合,另一方面也看到在这样的趋势下,中间件越来越凋谢,在各细分畛域会逐步基于开源推出规范,开源规范的推动会反推云服务更加标准化,最终受害的是宽广的中间件开发者和使用者。 阿里云云原生中间件不得不提的技术冲破?软硬件协同晋升中间件性能:软件的一直迭代,配合新硬件个性,是开释技术红利的最高效门路,往年阿里云在这一方面进行了多方位的布局和尝试,目前基于软硬件协同优化能为消息中间件 MQ 整体带来 20% 的综合性能晋升,在网关和 Service Mesh 的局部场景中,对申请的解决效率晋升了 260%,这些技术演进带来的晋升,阿里云曾经通过云服务提供给了云原生中间件的使用者, 譬如在服务网格 ASM 和 MSE 等产品中曾经透出基于 Multi-Buffer 技术的性能实现 TLS 的减速。 基于云原生重构中间件带来性能飞跃:在 2021 年 6 月份,阿里云公布了开源注册配置核心 Nacos 2.0,联合云原生理念设计的全新 2.0 架构,将性能大幅晋升10倍,内核进行了分层形象,实现插件扩大机制,反对 10w 级实例规模,并反对服务网格生态;同时,阿里云在云上同步提供了对应的云产品 MSE 注册配置核心。 ...

February 20, 2022 · 1 min · jiezi

关于阿里云:技术盘点2022-年容器Serverless可观测服务网格有哪些值得关注的趋势

阿里云智能总裁张建锋在2021云栖大会分享 2021 年,云原生获得很多重要停顿。2022 年又有哪些值得关注的趋势?阿里云资深技术专家李国强(崭岩)做客 InfoQ 视频号,对云原生趋势做了最新的解读。以下依据直播内容整顿,有不扭转原意的删减,残缺内容可点击此处查看回放,以下内容转载自 InfoQ,并补充了相干参考内容,供读者更全面地理解和学习。 2021 年,云原生畛域产生了哪些您比拟印象粗浅的事件? 观点:在 2020 年的时候,云原生理念就被提到得越来越多,但我感觉真正呈现出暴发状态、真正被所有的云厂商、用户宽泛应用的是在 2021 年。2021 年产生了很多印象粗浅的事件,能够挑两件跟大家分享。 第一个,分布式云在 2021 年有了比拟大的暴发。不论是用户应用还是各个云厂商的技术支持方面,都呈现出了十分炽热的趋势。为什么呢?我感觉这跟大家业务状态的倒退分割十分严密。直播、5G、IoT 等畛域的衰亡,让业务对于云的状态需要更高,大家心愿云可能更贴近数据的产生点,因而相应的边缘云、本地云、混合云的状态越来越多。当初,整个云计算有一个很重要的趋势,就是出现一云多状态的模式,用户在各个中央都能用到云计算的能力。但这也对云的基础设施提出了比拟大的挑战。用户以前就是用一朵云,治理复杂度是能够承受,但多朵云状态后,挑战难度就比拟大了。 云原生技术人造可能比拟好地解决云变成多状态后的对立界面治理问题,包含混合云带来的复杂度挑战。所以各个云厂商在这方面的投入十分大。亚马逊的 EKS Anywhere 在往年 9 月上线,阿里云也在往年 9 月公布了 ACK Anywhere,两者实质上都是提供更加齐备的计划让用户能够在一朵云的模式下应用多朵云。业务场景驱动了技术的广泛落地。 第二个,2021 年,头部互联网公司的云原生落地达到了一个里程碑式的要害节点,代表性事件就是各大互联网公司根本实现了云原生化,所有业务百分之百上云。现在,云原生的核心技术如容器、微服务、服务网格等的可用性和成熟度都曾经能够撑持起头部互联网的体量。每个行业的云原生进度不一样,头部互联网公司跑得比拟靠前,根本都做到了全面云原生化。将来几年,其余行业会逐渐追寻互联网的脚步全面走向云原生化。 有人说,云原生乃至整个云计算就是规范之争。您怎么对待这句话?这场“和平”您认为完结了吗? 观点:这个是蛮有意思的话题。实际上,当初云原生畛域的开源是十分火的。CNCF 外面有十分多的开源我的项目,外面的我的项目曾经超过一千了。这么多开源我的项目的规范到底和云计算公司是什么关系?在我集体看来,我不会把它定义为规范之争,因为规范演进的作用对于云厂商和用户来讲都是十分要害,只有标准化后,能力真正实现规模化和效率的晋升。将来,不论是云厂商还是其余企业,大规模、高效率的方向肯定是标准化。 在云原生畛域有几个比拟要害的规范。最早呈现的是容器,解决了利用打包标准化和利用公布标准化的问题。在此之前,虚拟机等形式的标准化水平是不够的,Docker 终结了这一问题。随着 Docker 的一直演进和推广,在利用编排、资源调度等又呈现了新的问题,过后的 Docker  Swarm、Mesos 和 Kubernetes 相互竞争,最初 Kubernetes 胜出,并带来了新的资源编排方面的事实标准。明天的 Kubernetes 曾经成为一个事实标准。而应用层之前也是百家争鸣的状况,每个企业都在做本人的云原生利用,当初有越来越多的开源声音和规范呈现,如 Open  Application  Model 等,大家都在尝试定义应用层的规范。 KubeVela 1.1 公布,开启混合环境利用交付新里程碑 2000 年或者更早的时候,标准化的玩法是,一些组织设立规范委员会去制订。明天规范的定制流程更多的是先有开源我的项目,当开源成为事实标准后,大家来 Follow。国内还会有一些相干的部门参加规范的制订和推广。对我来讲,标准化更多的是企业和生态的合作,推动整个云计算和云原生技术体系更加规模化和普适化。 云原生畛域有什么趋势会连续到 2022 年? 观点:云原生畛域真的是太丰盛了,有十分多的货色会连续到下一年,包含后面讲到的分布式云。我还是十分看好分布式云里的边缘计算场景的,为什么呢?因为这个场景正变得越来越丰盛。例如,大家当初看文字内容越来越少,音视频越来越多,因而视频解决业务倒退十分快,对边缘计算的需要会越来越强烈。 边缘计算作为云计算的延展会被利用到更多畛域,同样也会给基础设施带来很多的挑战,比方有的边缘侧网络可能是弱网络,计算资源也不丰盛,基础设施怎么在这种状况下发挥作用。云边协同的时候如何解决运维等问题。边缘架构之下,容器在网络买通、弹性负载等方面能够施展比拟大的作用。这方面,云厂商的投入也比拟大,多个开源的我的项目如 OpenYurt、KubeEdge 等多个边缘侧开源我的项目进入 CNCF。2021 年,边缘技术在从业务侧和开源侧的暴发比拟强,我冀望 2022 年无论是开源社区还是云厂商的反对能力都能够有较大的变动和停顿。 ...

February 20, 2022 · 2 min · jiezi

关于阿里云:韵达基于云原生的业务中台建设-实战派

本文将为大家分享韵达业务中台基于云原生的建设过程。次要分为三局部,第一局部是 IT 信息的倒退布局,第二局部是韵达业务中台建设的具体过程,第三局部是对应云原生技术的撑持。 IT 信息的倒退布局大部分人都晓得韵达是“三通一达”外面的一达,是综合物流快递的服务商,其实它当初也有很多新兴的业务,包含供应链、国内业务、冷链业务等,给用户提供平安、快捷的物流服务。韵达是以客户为核心,其企业使命是传爱心、送温暖、更便当,指标是基于大数据、云原生、智能科技等信息技术来打造一流的物流企业。 韵达公司的业务倒退很快,随着电商的倒退,电商物流企业每天的订单量、运单量、数据量十分大。还有一些新兴的业务,业务的疾速倒退给其 IT 建设也提出更高的要求,次要是两方面: 一方面是如何更敏捷地反对业务倒退: 更加敏捷地反对业务疾速倒退。因为业务倒退很快,外围业务能力须要服务化,要增强复用,所以肯定要晋升外围业务能力的复用率。服务须要增强管控和经营。零碎建设好当前要在公司外部进行疾速推广,要升高沟通老本。业务性能须要疾速响应。当初互联网企业里常说的三高之外的新要求,就是高响应力,针对业务需要可能疾速迭代公布上线。另外一方面就是如何更稳固地撑持业务运行。 一部分人认为物流公司无非就是开个车送包裹就能够了。实际上韵达的业务量、订单量一天都是好几千万的,按运单轨迹一天数据量是几十亿的,不是开车就能够的。快递物流对利用零碎依赖性是十分高的,如果咱们的零碎出问题快递包裹就不晓得怎么送了,包含中转站包含也不晓得往哪个道口散发。 韵达业务中台建设的过程韵达整个业务运行须要零碎更加稳固的运行,要更加高效,能够反对海量高并发解决能力。有些 API 每秒调用量能够达到几万,数据存储量很大,对于海量数据高并发解决也有很高要求。业务须要可观测性、故障疾速定位可复原。像韵达业务中台一些零碎基本上复用率能够达到 70% 到 80%,零碎呈现问题,业务方一堆反馈就过去了,因而,对于故障的疾速定位、复原也有更高的要求。 基于后面两个要求,韵达开始了中台化的建设。外围是共享业务中台的建设,整个我的项目基于阿里云原生技术构建,其中包含企业级分布式应用服务 EDAS、利用实时监控服务 ARMS、音讯队列 RocketMQ 、容器服务 ACK。韵达心愿给客户提供高效、稳固、更好的物流服务,因而韵达抉择与阿里云单干。 除了阿里云云原生产品之外,韵达也采纳业界开源成熟的框架,包含大家都用到的 Redis、Elasticsearch 等设计,还有 Pika、Apache Doris、Apache Flink 等。韵达整个基础设施技术次要就是云原生+开源的成熟技术框架。在基础设施层下面搭建了韵达业务中台,包含订单核心、运单核心、分单核心、会员、用户画像、交易中心等,交易中心是新建设的,提供对立自理经营,其余包含能力注册、能力扩大、依赖治理、品质治理,都是业务中台对立提供。咱们反对前端快递的业务板块,包含新兴业务、供应链、冷链、同城等业务。 韵达的业务中台分三个阶段,每个阶段是三个月,也是循序渐进来推动的。其中咱们通过和阿里专家的单干,导入了 DDD 畛域驱动设计的方法论,在策略设计阶段把整个业务中台分成了不同业务域、子域以及连接上下文的映射关系。在战术设计阶段,进行面向对象的代码开发实际,包含畛域实体、畛域服务以及畛域事件,实现业务逻辑和技术细节的拆散。韵达的开发人员只须要聚焦于业务逻辑的实现,在基础设施层基于阿里云原生技术来搭建。 在业务中台建设过程中,韵达并不是齐全从零开始的,在倒退的二十多年里,韵达有很多共享能力之前在各个业务线上里,须要把这部分业务能力移交给业务中台团队,再在原有零碎根底之上,对接阿里云原生技术,再进行零碎层面的革新降级加固,让它能够反对海量数据高并发的解决能力。 当然,也有一些零碎是从零开始建设的,比如说交易中心之前是没有的,交易中心次要做在线交易、领取等业务,整体架构上采纳阿里开源的 DDD 框架(COLA),它把整个利用零碎分为应用层、畛域层、基础设施层,代码分层很清晰,让咱们外围能力建设能够有疾速地迭代并具备高响应能力。 这就是韵达的业务中台建设的大抵过程。 云原生技术的撑持在韵达的业务中台建设实现之后,能给业务带来哪些价值呢?咱们简略总结一下: 第一,麻利高效地撑持业务。将新的业务利用、业务翻新进行疾速组装,能够实现相干的业务利用疾速响应市场。整个业务能力分为两块:第一个是根底能力,还有一个是商业能力,商业能力基于业务场景做了粗粒度的组装、打包服务。通过服务的积淀能够带来业务的复用,疾速响应市场和业务倒退的需要,最大水平缩小零碎建设和运维带来的老本。韵达业务中台很灵便,并不是很臃肿的,它能够基于业务上的需要疾速迭代更新。 第二,构建面向业务全景监控能力。依照统计数据,业务中台的外围能力每天光 API 调用量近五亿次,推送音讯记录就有大略十多亿的音讯量,有些外围能力复用率都达到 70%,很多业务线利用都依赖于业务中台提供的能力,如果零碎出问题咱们须要很快晓得哪里呈现问题,这是很重要的。 如果没有出问题,咱们也要晓得中台服务的调用量,这些都要看得很分明,呈现问题也要疾速定位、疾速修复,这对于咱们业务中台十分重要。基于我的项目建设中的 ARMS 监测体系,能够晋升用户体验洞察和故障定位能力,这一点是不可缺失的。 点击此处,观看云原生实战视频回放。

February 20, 2022 · 1 min · jiezi

关于阿里云:技术盘点2022年云原生架构趋势解读

作者:辛晓亮 采访嘉宾:至简、彦林 软件架构倒退至今,经验了从单体架构、垂直架构、SOA 架构到当初的以微服务、服务网格等云原生技术为主的演变过程,云原生技术倒退势不可挡,陈词滥调的“云原生”将仍然会是将来的热门话题。而且随着数字化转型减速,企业对于云的应用将会达到新的程度,云原生架构和云原生利用也将会继续迭代演进。 那么在云原生等技术的加持下,2022 年的架构畛域有哪些值得关注的趋势?云原生如何撑起架构的将来?本文转载自 InfoQ 架构头条,阿里云 MSE 负责人李艳林(彦林)、阿里云高级技术专家李云(至简)一起做客 InfoQ 视频号,分享云原生架构畛域最新趋势。残缺视频回放点击浏览原文观看。 软件架构演进过程InfoQ:软件架构经验了从单体架构到 SOA 架构再到前面以微服务云原生为代表的架构状态,两头有哪些要害的节点? 至简:讲明天的云原生我感觉咱们还是须要回顾一下历史,去理解一下它是怎么一回事。 2000 年的时候,还没有虚拟化的概念,大家看到的都是物理机;2001 年 VMware 横空出世,不过这个时候交付的还是一个虚拟机;之后 2006 年亚马逊推出 IaaS(基础设施即服务)平台 AWS,这个时候的思路曾经是把 CAPEX(资金投入老本) 变成 OPEX(经营老本)。就是我不须要再买一大堆机器,而是用到了再去云上买;2009 年 Heroku 提出 PaaS,这个时候不再是用虚拟机来交付,变成了 Buildpacks,也开始了有了容器化的概念,还有 12 因素应用程序的一套规定;2010 年,呈现了 OpenStack,它其实是通过开源的形式来做 IaaS,目标是跟 AWS 做竞争,它构建的 building block 还是一个 VM;2013 年,Docker 的呈现带来了比拟大的变动,这个时候交付就变成了容器。明天讲的 Cloud Native 最早由 Pivotal 提出,起初由 2015 年成立的 CNCF(Cloud Native Computing Foundation)进行了定义。 其实整个过程中咱们能很显著的看到一些变动,从大型机、Server 到 VM、Buildpacks,再到容器,隔离的单元也是越来越小,从很重很大到前面通过微服务软件架构把它变得很小。这两头最重要的目标是为了做解耦。大家可能对 Cloud Native 有很多想法,但我感觉要害的一点就是 Cloud Native 的外围是什么,从我本人的认知来看,我感觉所有的软件都有一条至理名言,咱们叫做分而治之,也能够叫做解耦,或者高内聚低耦合。通过一直的解耦变成微服务,让整个交互更加麻利。而不是像以前单体利用耦合在一起,很难协同,很难交付。 Cloud Native 还有一个重要的因素就是 no lock-in,即防止技术锁定。从 CNCF 定义规范说起,CNCF 不会间接说某个货色是一个规范,他们会认为这个货色是一个要害的组件,并示意这个组件是被宽泛驳回的,也是咱们 CNCF 认可的。这样的话就会有更多的人去用,也晓得这个软件会有长期的保护,自然而然它就会标准化,而这种标准化带来的益处就是 no lock-in,我感觉能够从不同的维度去了解它。 ...

February 20, 2022 · 2 min · jiezi

关于阿里云:Ubuntu2110配置Kubernetes-镜像

 Kubernetes 镜像 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 简介 Kubernetes 是一个开源零碎,用于容器化利用的主动部署、扩缩和治理。它将形成利用的容器按逻辑单位进行分组以便于管理和发现。 下载地址:阿里云开源镜像站资源目录 Ubuntu21.10配置办法 1: 装置必要的一些零碎工具,执行如下命令: apt-get update && apt-get install -y apt-transport-https 2: 装置GPG证书,执行如下命令: curl https://mirrors.aliyun.com/ku... | apt-key add - 3: 增加并查看源,执行如下命令: cat <<EOF >/etc/apt/sources.list.d/kubernetes.list deb https://mirrors.aliyun.com/ku... kubernetes-xenial main EOF 4: 更新并装置,执行如下命令: apt-get update apt-get install -y kubelet kubeadm kubectl 至此装置配置已实现。

February 20, 2022 · 1 min · jiezi

关于阿里云:Ubuntu2110配置Docker-CE-镜像

Docker CE 镜像  参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 简介 Docker CE 是收费的 Docker 产品的新名称,Docker CE 蕴含了残缺的 Docker 平台,非常适合开发人员和运维团队构建容器 APP。 下载地址:阿里云开源镜像站资源目录 Ubuntu21.10配置办法 1: 装置必要的一些零碎工具,执行如下命令: sudo apt-get update sudo apt-get -y install apt-transport-https ca-certificates curl software-properties-common 2: 装置GPG证书,执行如下命令: curl -fsSL https://mirrors.aliyun.com/do... | sudo apt-key add – 3: 写入软件源信息,执行如下命令: sudo add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/do... $(lsb_release -cs) stable" 4: 更新并装置Docker-CE,执行如下命令: sudo apt-get -y update sudo apt-get -y install docker-ce 至此装置及配置已实现。

February 20, 2022 · 1 min · jiezi

关于阿里云:Kafka-ETL-的应用及架构解析|告别-Kafka-Streams让轻量级流处理更加简单

作者:竹恩、岁月、不周 关键词:Kafka ETL,高弹性、免运维、低成本 引言: 阿里云音讯队列 Kafka 版提供兼容 Apache Kafka 生态的全托管服务,彻底解决开源产品长期的痛点,是大数据生态中不可或缺的产品之一。随着 Kafka 越来越风行,最后只是作为简略的音讯总线,起初逐步成为数据集成系统,Kafka 牢靠的传递能力让它成为流式解决零碎牢靠的数据起源。在大数据工程畛域,Kafka 在承接上下游、串联数据流管道方面施展了重要作用,Kafka 利用流式框架解决音讯也逐步成为趋势。音讯流解决框架选型说到流计算,罕用的便是 Storm、Spark Streaming 和 Flink,目前这些框架都曾经完满的反对流计算,并且都有相应的应用案例,但这些框架应用起来门槛绝对较高,首先要学习框架和各种技术、标准的应用,而后要将业务迁徙到这些框架中,最初线上应用、运维这些流计算框架,对于简略的流解决利用来说,可能较为简单。 在与传统流解决零碎对接中,因为所有的数据根底都要从一个零碎流入 Kafka 而后再流入到另一个零碎中,以至于引发 Kafka 社区的思考:与其把数据从一个零碎传递到下一个零碎中做解决,为何不本人实现一套流解决框架呢?基于这个考量,从 0.10.0 版本开始,Kafka 不仅为每一个风行的流式解决框架提供了牢靠的数据起源,还提供了一个弱小的流式解决类库 Kafka Streams,并将其作为客户端类的一部分。这样,开发人员就能够在应用程序里读取、解决和生成事件,而不须要再依赖内部的解决框架。 但因为 Kafka Streams 自身是一个 Java 客户端库,须要开发人员自行打包和部署;同时 Kafka Streams 是开源版本,可靠性和可用性不能失去很好的保障,也不能实现按需应用;此外应用过程中须要用到流的编程,应用的门槛也绝对较高。 音讯流解决框架次要面临的问题通过后面对常见的音讯流解决的介绍,不论是传统的流解决架构还是 Kafka Streams,对于开发人员来说都会面临一些问题,尤其是在面对 70% 以上简略流场景的需要,原有的计划弊病被一直放大,客户依然须要投入较大的人力老本和较高的资源,同时整个架构也很简单。总体来说,目前面临次要是四个方面的问题: 1、运维老本较大,研发团队自行编写代码,前期继续保护,运维老本较大; 2、技术老本较大,对于很多轻量或简略计算需要,须要进行技术选型,引入一个全新组件的技术老本过高; 3、学习老本不可预期,在某组件选定后,须要研发团队进行学习并继续保护,这就带来了不可预期的学习老本; 4、自行选用开源组件后,可靠性和可用性不能失去无效保障。 面对这些问题,阿里音讯队列 Kafka 也推出了相应的解决方案:Kafka ETL。 阿里云的解决方案 - Kafka ETLKafka ETL 简介阿里云音讯队列 Kafka 版推出更低成本的 Kafka –ETL 组件,是一款免运维的流计算组件,次要个性是反对配置化流式解决音讯。Kafka ETL 组件次要提供的是非工夫窗口相干的流计算服务,客户能够配置,甚至简略写入几行代码就能满足包含格局转换、内容富化、本地聚合、路由散发等罕用的数据处理需要。 Kafka ETL 在应用上拆分成有向无环图,在计算节点转换时,把 Topic 作为一个存储,在 Topic 里进行有状态的计算,还能够反对音讯的转储。 ...

February 18, 2022 · 3 min · jiezi

关于阿里云:Centos7配置Docker-CE-镜像

 Docker CE 镜像 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 简介 Docker CE 是收费的 Docker 产品的新名称,Docker CE 蕴含了残缺的 Docker 平台,非常适合开发人员和运维团队构建容器 APP。 下载地址:阿里云开源镜像站资源目录 Centos7配置办法 step 1: 装置必要的一些零碎工具sudo yum install -y yum-utils device-mapper-persistent-data lvm2 Step 2: 增加软件源信息sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo Step 3sudo sed -i 's+download.docker.com+mirrors.aliyun.com/docker-ce+' /etc/yum.repos.d/docker-ce.repo Step 5 更新并装置Docker-CEsudo yum makecache fast sudo yum -y install docker-ce Step 4: 开启Docker服务sudo service docker start 最初装置校验 执行如下命令 docker version

February 18, 2022 · 1 min · jiezi

关于阿里云:Ubuntu2110配置Grafana镜像

Grafana镜像 简介 Grafana是一个跨平台的开源的度量剖析和可视化工具,能够通过将采集的数据查问而后可视化的展现,并及时告诉。 参考阿里云官网镜像站:https://developer.aliyun.com/mirror/ 下载地址:阿里云开源镜像站资源目录 配置办法 Ubuntu 用户 首先执行如下命令: 信赖 https://packages.grafana.com/ 的 GPG 公钥: curl https://packages.grafana.com/... | sudo apt-key add – 执行如下命令确保你的 apt 反对 HTTPS: sudo apt-get install -y apt-transport-https 抉择你心愿装置的 Grafana 版本(与你的 Debian/Ubuntu 零碎版本无关),Stable和Beta两个版本,这里以Stable版本为例,执行如下命令: Stable echo "deb https://mirrors.aliyun.com/gr... stable main" | sudo tee -a /etc/apt/sources.list.d/grafana.list Beta版本需执行如下命令: echo "deb https://mirrors.aliyun.com/gr... beta main" | sudo tee -a /etc/apt/sources.list.d/grafana.list 最初装置 Grafana 执行如下两行命令即可。 sudo apt-get update sudo apt-get install grafana ...

February 18, 2022 · 1 min · jiezi

关于阿里云:跨项目度量CTOPMO们的好帮手

编者按:研发效力度量中,3个常见的场景是:跨我的项目、麻利研发、研发效力剖析和改良。 云效研发效力专家洪永潮、云效效力洞察产品负责人李田莉,将分3篇文章,别离为你讲述每个场景下,咱们该度量什么、如何进行度量。以下是视频和文字版内容。 https://v.qq.com/x/page/c3324... 作为 CTO 或企业管理者,咱们如何去理解组织中各项目标整体运作情况? 作为 PMO 和项目管理人员,咱们要如何去跟踪和推动我的项目的的失常进行? 带着这两个问题,咱们进入到跨我的项目度量的场景,聊一聊如何借助云效效力洞察平台 Insight,帮忙管理者把握我的项目停顿、跟踪打算执行、正当调度资源,保障我的项目最终的交付效率和品质。 在云效效力洞察 Insight 中,咱们能够从 3 个维度跟进组织的运作情况: 看组织整体情况:理解各我的项目(或交付团队)的整体运作状况;看响应能力与品质:理解业务响应和交付趋势,反对更主观和正当的对外承诺;看资源分配状况:进行正当的资源调度,保障重点业务和重点项目的投入与交付;看组织整体情况:洞察各我的项目运作情况在云效Insight的跨我的项目度量场景报表中,通过「我的项目停顿」指标卡,咱们能够: 疾速洞察各项目标整体运作情况,如停顿、偏差、危险、问题、需要/缺点停顿等;疾速获知所选时间段内需要、缺点的吞吐量和交付速度情况。 当咱们剖析指标卡中的数据,咱们能够在研发过程中疾速采取行动,例如: 1.当咱们看到某个我的项目中存在的缺点、存量危险和已超期事项过多,咱们须要疾速推动各我的项目负责人去催办,疾速将缺点、危险和已超期事项解决,免得成为我的项目最终交付的卡点;· 2.当咱们整体比照各项目标需要交付、缺点修复周期时,如果发现某个我的项目交付/修复周期过长时,咱们须要深刻到具体我的项目度量中去理解,比方哪个环节耗时较长,哪些需要/缺点耗拉低了效率,找准耗时卡点后重点深入分析,以一直晋升我的项目的交付效率和品质; 3.均衡需要的新增、交付速度。在比拟现实的状况下,新增、交付需要应该放弃动态平衡,需要新增数量与交付团队的吞吐量相匹配。当需要的新增量显著多于交付量时,可能会呈现需要大量积压的问题,耗费团队精力,导致团队整体交付效率升高。所以咱们要均衡需要新增、交付速度。 看响应能力和品质:跟进需要/缺点趋势在云效Insight的跨我的项目度量场景的报表中,通过「存量需要趋势」、「存量缺点趋势」、「新增需要趋势」、「新增缺点趋势」4 张指标卡,咱们能够: 观测各我的项目存量需要、存量缺点在所选时间段内变化趋势;观测各我的项目新增需要、新增缺点在所选时间段内变化趋势;不便的判断和剖析各项目标需要吞吐和品质状况。 在观测需要、缺点的存量和新增趋势时,咱们须要重点关注: 1.缩小需要的并行 当某我的项目的存量需要在逐渐减少的时候,有可能需要在某个状态呈现了沉积,尤其是进入开发后,须要及时处理沉积列的需要,确保需要能疾速流动。 2.晋升开发提测品质 当某我的项目在一个时间段内,需要存量放弃安稳、新增缺点多、存量缺点减少的时候,阐明需要交付品质不高,团队须要重点关注我的项目的品质情况,尤其是需要的提测品质。 3.推动缺点的及时修复 当某我的项目的需要新增和存量缺点陡然回升的时候,须要及时推动缺点的修复,有必要时,须要暂缓需要开发,聚焦缺点的修复。 看资源分配状况:时刻关注我的项目投入与工作量在云效Insight的跨我的项目度量场景的报表中,通过「我的项目投入人力名」、「我的项目工作量排名」2张指标卡,咱们能够: 查看各我的项目投入成员/工时排名,理解各我的项目资源投入状况;查看各我的项目存量工作项/预估工时排名,理解各我的项目存量的工作量状况;比照察看各我的项目人力投入与存量工作量的匹配状况。当某我的项目的需要新增和存量缺点陡然回升的时候,须要及时推动缺点的修复,有必要时,须要暂缓需要开发,聚焦缺点的修复。 在查看我的项目投入和存量工作量时,咱们须要重点关注: 1.存量需求量与投入人力是否匹配 当咱们把「我的项目投入人力」和「需要存量趋势」 两幅图一起看,失常状况下,存量需要数量和我的项目投入人力会是正比例的关系,如出现异常,须要重点关注并进行具体确认; 2.人力投入是否异样 通过我的项目投入人力排名,可查看是否把要害人力投入中重要我的项目上了,不便做人力排布和资源调整。 最初,咱们再整体回顾一下。在云效Insight中,通过「我的项目停顿」、「存量需要趋势」、「存量缺点趋势」、「新增需要趋势」、「新增缺点趋势」「我的项目投入人力名」、「我的项目工作量排名」这7张指标卡,CTO以及我的项目管理者能够及时理解组织整体的运作情况、业务的响应能力与品质、业务及我的项目的资源分配状况,以便及时做出决策和响应。 目前,云效Insight反对30天收费试用,感兴趣的企业点击下方链接,返回云效Insight官网,点击收费试用,进入后即可申请。 https://www.aliyun.com/product/yunxiao/insight?channel=yy_yc

February 18, 2022 · 1 min · jiezi

关于阿里云:阿里云张献涛自主最强DPU神龙的秘诀

简介:读懂云计算,能力看清DPU热潮。 如果细数最近火爆的科技概念,DPU必然位列其中。 这是英伟达一手捧红的新造富故事,是2021年SoC畛域最热气腾腾的守业赛道,也是数据中心继CPU、GPU后的又一大“台柱子”。 只管在云计算畛域曾经培养多年,但对于外界来说,DPU并不是一个容易了解的概念,各路玩家的产品定义和结构设计也不尽相同。 总体来说,DPU是个软硬一体的数据处理单元,通常以架构的模式存在,能够帮CPU“减负”,解决一些CPU解决数据方面的短板问题,并提供硬件加速的网络、存储、平安、基础设施治理等服务。 而追溯DPU的源头,真正实现大规模商用DPU架构的,历数寰球,次要有两家云计算巨头——东方的亚马逊云AWS,西方的阿里云。 2017年10月,阿里云的神龙架构横空出世;仅1个月后,AWS的Nitro也走到了历史台前。这两个为了解决虚拟化问题而相继问世的翻新产品,被业界视作迄今最胜利的两款DPU。 一手促成神龙架构诞生的张献涛,也是国内最懂DPU的人物之一。 现在,第四代阿里云神龙曾经开始撑持阿里云的大规模云上业务,并在计算、存储、网络、平安四项要害指标达成业界最高程度。 近日,芯货色独家对话阿里巴巴团体研究员、阿里云弹性计算产品线负责人张献涛(花名旭卿),听他讲述云端业务需要变动、继续翻新的研发心得,以及对DPU热潮的独到思考。 在他看来,这不是一类适宜走通用路线的芯片,对于云厂商而言,DPU是一个软硬件技术栈联合极其亲密的工作,是软件定义的计算架构,DPU必须以自研为主,做到相干软硬件技术栈齐全可控,且通过超大规模验证。而做通用DPU的公司很难满足云厂商的需要,被收买或者是最佳终局。 01 风起云计算DPU的新风口来得忽然。 2020年10月,在NVIDIA GTC 2020大会上,NVIDIA创始人兼CEO黄仁勋发表推出一种全新数据处理器——DPU。这颗被称作“将来计算三大支柱之一”的处理单元,赫然闯入公众和资本的视线。 此时,间隔阿里云软硬一体虚拟化架构「神龙」的诞生,曾经过来整整四年。现在,其被市场视作阿里云的DPU,而这个颇具开创性的翻新架构,当初是为解决传统虚拟化技术利用到云计算带来的老本、性能、服务质量以及平安问题而生的。 张献涛是负责阿里云神龙的核心人物,于2014年退出阿里云,彼时他曾经从事虚拟化技术钻研约十年,阿里云刚走到第五个年头。传统虚拟化架构的种种缺点,日渐成为掣肘这家云计算公司降本增效、晋升服务质量的顽疾。 虚拟化技术是云计算的根底,它将本来不可分割的硬件资源形象成共享资源池,按需分配和共享计算、存储、网络资源。 而治理资源,就需占用掉一些本来用于运行业务负载的CPU和内存,也就造成了资源损耗。比方一个工厂有100位工人,如果他们全副去流水线上干活,那么资源利用率是100%;但如果从中抽出10人负责兼顾治理,那么余下只有90人在流水线上干活,利用率则降为90%。 随着云计算业务规模继续扩充规模,资源争抢、算力损失、性能瓶颈等问题日益严厉,寻求解局之道未然火烧眉毛。 通过两年摸索,阿里云的稳定性不再是问题。2016年,张献涛开始思考下一代虚拟化技术计划在哪里?什么样的计划,能力合乎阿里云将来长期的倒退? 神龙(X-Dragon)应运而生。 这是团队头脑风暴的后果。如果造出一个专门负责做虚拟化的架构,那么CPU的算力资源就被释放出来,可能更聚焦于运行云上业务。 第一代神龙正式立项的工夫是2017年4月1日。将问题定义进去后,张献涛开始组建团队,从零碎架构设计到芯片及硬件开发,到服务器开发,再到系统软件的研发适配,初始团队总共二十几个人干了半年的工夫,胜利于2017年10月将神龙上线。 自此以后,作为解决高速数据流的高手,神龙架构从CPU手头接过虚拟化的重任,一路带飞存储、网络、平安等要害性能。 02 从小试牛刀,到大规模落地一开始,张献涛其实不太承受「DPU」这个命名形式。 DPU的“D”有几种常见解释,包含“数据”、“数据中心”、“以数据为核心”等。可严格意义上来讲,数据中心的哪个主力芯片(如CPU、GPU)不合乎这些特色呢? 因而,阿里云对神龙架构的论述是,真正为云而生的、软硬一体的技术架构。在他看来,将来是一个云的时代,须要这样的技术架构来全面解决老本、性能、平安等问题。目前来看,DPU想做的仿佛是相似的事件,市场也认为阿里云和AWS做的就是DPU。 阿里云和AWS之所以近乎“同步”地推出DPU,最间接的起因是云计算倒退到肯定阶段后,研发人员意识到,有了这样的数据处理架构,老本将大幅降落,同时性能会大幅晋升,再加上云厂商的规模化劣势能为客户提供更有竞争力的高性价比服务。 无论是阿里云的神龙,还是AWS的Nitro,晚期都主攻虚拟化的性能损耗、资源损耗问题,即老本和性能问题。 张献涛给咱们算了一笔账,那时阿里云营收规模曾经达到上百亿元,如果存储、网络占用约10%的CPU资源,则意味着年损失10多亿元。无论从晋升性能还是优化老本的角度,研发神龙都势在必行。 获得技术冲破只是第一步。神龙上线后,如何大规模利用成为新的挑战。 阿里云先在外部业务试水,2017年双十一期间部署了1000台撑持天猫大促业务,胜利验证没有问题。上汽团体是第一家吃螃蟹的内部客户,提出违心尝试这个新产品,与阿里云共担风险。单方一起磨了近两个月,到邻近春节,终于将稳定性、性能等问题统统解决。 在此类种子客户的反对下,阿里云神龙打磨出大规模上云的功底,并开始成长为阿里云最外围的竞争力之一。 从2019年起,阿里巴巴团体的所有业务、包含阿里云的计算类服务全副迁至神龙架构。到2021年10月,第四代神龙架构问世,其存储IOPS高达300万、网络PPS达5000万、网络延时最低5微秒等多项指标刷新业界最高程度。 依据出名国内市场钻研机构Gartner颁布的2021年度寰球云计算厂商整体能力评估报告,阿里云IaaS基础设施能力超过AWS拿下寰球第一,并在计算、存储、网络、平安四项外围评比中取得最高分。 ▲Gartner Solution Scorecard 2021报告显示,阿里云四项能力超AWS 03 云厂商必须自研DPU云计算市场正在飞速扩容,当每台云服务器中都须要一个DPU,谁能跻身头部,谁就可能享受到难以估计的市场红利。 仅在2021年,取得新融资的国内DPU企业就有不少于7家,包含湖州芯启源、北京大禹智芯、珠海星云智联、上海益思芯科技、深圳云豹智能、上海云脉芯联、北京中科驭数等。 其中少数企业单笔融资额达数亿元,且投资方不乏出名科技企业身影。比方,星云智联A轮融资由美团独家投资,腾讯投资了云豹智能,云脉芯联的投资方有字节跳动、壁仞科技…… 但资本只看见热度,未必能看清外面的坑。 在张献涛看来,DPU不应该被视作「智能网卡」的继任者,智能网卡只解决网络减速问题,而DPU的性能远比智能网卡丰盛。 有些DPU创企其实仍在做智能网卡,也有创企想在智能网卡的根底上做演进。但他认为:“在一个智能网卡上打补丁是解决不了的,因为自身设计理念是不统一的。”从架构层面来讲,DPU的架构是在DPU零碎上插入一台服务器从而解决整台服务器相干的数据处理减速和平安及管控问题,而智能网卡架构则是在服务器上插入一个网卡解决网络减速的问题,二者有本质性的区别。 形虽差之毫厘,神却谬以千里。 自2017年推出神龙后,张献涛印象中,简直所有DPU公司的DPU架构、接口、功能模块、能力实现等,都是仿照神龙已公开的架构来设计。 可为何仿照神龙设计,依然很难做好DPU? 外围问题出在对云业务的了解。张献涛说,第三方厂商通过跟客户、工程师沟通,只能失去对云业务需要的全面理解,所以最终做进去的成果很难满足客户需要。 他深信,云厂商必须自研DPU架构。“如果不相熟软件架构和系统软件栈,不相熟自家技术栈中哪些地方才是瓶颈,很难把它设计得很好,而这些都是内部DPU公司很难拿到的技术信息。” 换个角度来看,对云厂商而言,只有从硬件架构到固件到软件栈都自研,能力做到整个技术链路的可控,它能力成为一个负责任的云厂商。 近年云计算厂商的动向印证了张献涛的判断。京东云研发基于自研智能芯片的虚拟化架构京刚,谷歌云与英特尔单干研发基础设施解决芯片IPU,字节跳动发表其自研DPU将通过火山引擎云产品对外服务…… “从终局上判断,明天DPU的守业公司没有太好的前途,最好的前途就是把相干业务发售,卖给有须要的云计算公司,通过被收买变现。”张献涛说,如果对云计算业务不够理解,一味想把DPU做成通用架构是很难胜利的,做DPU的公司,最终都要和云厂商做产品和技术的共建单干,这样胜利的可能性才会晋升。 04 DPU不适宜走通用路线“业界投资的DPU都想尝试着做一颗通用的DPU,有的甚至想推配套的软件技术栈作为业界规范,其实出发点就是有问题的。” 这是因为DPU齐全由软件定义的架构,由客户需要或业务倒退状态驱动,与客户整个后端软件栈联合十分严密,很难做到通用的水平。 在张献涛看来,真正做出DPU,并且让客户规模化用起来,其实比AI芯片还要难。 要害难点在于,它的软件生态注定造就不起来,因为各家公司的软件技术栈都倒退多年,很难废掉去适配一个难于自控的内部厂商举荐的技术栈,所以在三年之后,DPU畛域肯定会呈现整合,一些公司可能会隐没或者被卖掉。 DPU的使用者通常是云计算公司或做虚拟化软件的公司。如果只是针对某一个软件栈来做,无奈实现通用,如果想做得十分通用,“因为各家的软件栈都不一样,整个平安机制的设计也都不一样,则很难和云厂商进行适配”。 这与GPU+CUDA的逻辑不同。英伟达花了十多年研发,又遇到深度学习暴发的契机,才将这样的生态巩固下来,成为业界的规范。 而在DPU畛域,各家公司的软件栈曾经存在,互不雷同,强行标准化很难实现,并且研发周期长、固件很难凋谢、接口的定义不统一等都是不可控的因素。 “如果想做一个对立的规范,放之四海而皆准的规范或者软件生态,是十分难的。”张献涛解释说,当每家软件栈不一样时,DPU要解决的数据格式也都不同,因而很难将这样的一个齐全固化、做出对立的货色。 ...

February 18, 2022 · 1 min · jiezi

关于阿里云:告警运维中心|构建高效精准的告警协同处理体系

作者:延福 在开始正式内容前,我想跟大家聊一聊为什么要做告警平台。 随着越来越多企业上云,会用到各种监控零碎。这其中,用 Skywalking 做 tracing,Prometheus 做 matches,ES 或者云上日志服务,做日志相干监控,轻易算算就至多有三套零碎了,这其中还不包含云监控等云平台本身的监控平台。这么多监控平台如果没有对立配置告警的中央,就须要在每个零碎中都保护一套联系人,这会是一个简单的治理问题。与此同时,会十分难以造成上下文关联。比方,某一个接口呈现问题,那可能云监控的拨测在报警,日志服务的日志也在报警,甚至 ARMS 利用监控也在报警。这些报警之间毫无关联,这是在云上做告警云很大的痛点。 其次有效告警十分多。什么叫有效告警?当业务零碎呈现重大故障时,关联系统也可能呈现相干告警。而且关联告警会十分多,进而将要害信息吞没在告警陆地中,导致运维人员没方法及时对告警进行解决。最初,当初很多报警常常产生,然而没有人解决,就算有人解决了,但解决状况怎么样,关键性告警从产生到修复的工夫到底有多长,每天有多少人在解决,企业的 MTTR 能不能算进去?这也是咱们要做对立告警平台要解决的问题。 为了解决以上三个问题,ARMS 的智能告警平台利用而生。 首先,集成了泛滥监控零碎包含 ARMS 自身的利用监控、云监控、日志服务等十几家监控零碎,并提供开箱即用的智能降噪能力。同时,为了更高效的合作,整个协同的工作流都能够放在钉钉、企业微信等 IM 工具上,用户能够更加便捷的去解决和运维相干的告警。最初,提供告警剖析大盘帮忙用户来剖析告警是不是每天都有人在解决,解决状况是什么样的。 告警要在脑海里造成形象的概念,到底分成哪些步骤? 第一、从事件源产生告警事件,事件是告警发送之前的状态。事件并不会间接发送进来,它须要和告警的联系人匹配实现当前,能力生成告警流程。这张图简略的介绍了告警的过程。这也是很多同学用零碎时候会经常出现的问题:配置了事件,却不晓得怎么样产生告警。必须要事件加联系人能力产生告警。 第二、很多同学用的告警零碎默认没有接入。咱们也提供了灵便告警事件源的接入形式。能够依照自定义的接入形式,将事件传进来,咱们来荡涤字段,最初接入造成告警平台能够了解的告警。 工单零碎举例,心愿零碎里产生很重要的事件也往告警平台去传时,能够把工单零碎的报警事件通过 webhook 的形式发送到告警平台。辨认并设置相干内容,再通过电话或短信形式告诉到相应联系人。告警平台实质上是承受事件,把告警团队相干信息配到告警平台,帮用户把事件给这些团队的联系人进行匹配发送。 接下来,展现一下这部分能力是怎么实现的,在界面上是什么样的性能。 首先,关上 ARMS 控制台,拉到最上面告警治理模块。咱们能够看到概览,其中包含大部分接入过程、事件处理流程等等。 当初曾经用 ARMS 利用监控的用户,能够间接在其中先创立一个告警的规定。条件是利用响应工夫,调用次数大于一次的时候,它就会产生一个事件。 如果是开源 Skywalking 或其余服务,须要到其中去把告警规定设好,把相应的事件传递过去。传递进来当前,在报警事件列表外面就能看到对应报警的事件了。 报警事件发送进来当前。首先会对告警事件进行降噪解决,辨认告警目前最多关键词是什么样,哪些关键词高度反复,或者哪些内容是高度匹配的。同时,依据咱们给出的关键词进行压缩。比方,不心愿能收到来自于测试环境的告警,能够把“测试”这两个字作为屏蔽词,这样带“测试”相干屏蔽词的性能,告警事件就不会进行二次报警。 告警事件传递过去后,整个数据都会放在事件大池子外面。须要对这些事件进行调配,这个事件到底谁去接管他,谁来对这些事件做告诉和排班治理。依照告警名称或者其余的字段等在告警外面预制的字段去匹配,对 Pod 状态的异样做匹配,那它会生成告警。 生成告警当前,能够在联系人外面去配置相干联系人,其中包含导入通讯录或配钉钉机器人等等。在通用策略外面,进一步配置,让用户配一个机器人或者实在的人去承受告警。也能够是对工单零碎,比方 Jira 等平台外面去做对接,保障信息能够传递到他们那边。 配完告诉策略当前,一旦产生告警,就能够收到相干的告警了。比拟举荐您应用的是通过钉钉来接管相干的报警。 这里展现一下怎么样通过钉钉来接管相干的告警。比方,这是咱们接管到钉钉相干告警。在接管到这个告警当前,对这条告警音讯,只需有一个钉钉账号,不须要有了解这些相干信息,或者登录到零碎,间接对这个告警进行认领。因为和钉钉零碎深度集成,能够去认领告警,也能够在认领完当前点解决这条告警。 咱们会把过程记录在流动外面。用户就会晓得认领和敞开告警的整个过程。同时,每天会针对状况做统计,比方明天产生告警的数量,是否有解决,哪些没有解决,整体解决状况是怎么样的。如果团队比拟大,有十分多运维同学,而且会有 L1 和 L2 分层运维同学的时候,能够应用排班性能进行线上排班。比方,这一周是某个同学承受告警,下一周是另外的同学。同时,也能够做降级策略的排班治理。重要告警在十分钟内没有人去做认领时,对重要告警做相应降级。 作为运维主管或运维总监,须要理解每天产生的这么多告警,通过一段时间后,它是不是有收敛或均匀 MTTR 用了这些工具当前,有没有晋升。咱们提供了告警大盘,通过这个告警大盘能够理解到每天告警均匀响应工夫以及大家解决状况。MTTx 相干工夫等统计数据会在这个大盘外面给用户进行展现,同时这个大盘是集成在 Grafana 下面,可依据理论需要,把相干数据放 Grafana 上,或者您的 Prometheus 数据源外面做二次的开发。 ...

February 17, 2022 · 1 min · jiezi

关于阿里云:分享你的见解与经验|RocketMQ-Summit-2022-议题征集中

作者:白玙 作为开源及音讯畛域的重要我的项目,Apache RocketMQ 自 2012 年开源以来,已倒退近十年。在这一过程中,Apache RocketMQ 为寰球超过数万家企业提供服务,这其中不仅包含字节跳动、快手、小米、滴滴、同城艺龙等互联网头部企业,还有泛滥银行、券商、保险,基金公司等金融公司。 为了帮忙更多企业、开发者、开源爱好者理解 Apache RocketMQ ,并退出其中,促成 Apache RocketMQ 及其开源生态的凋敝倒退。 由阿里云云原生利用平台以及 RocketMQ 中文社区独特主办的 RocketMQ Summit 2022 正式启动!于此盛会,大家分享实践经验、交换想法、深入探讨 RocketMQ 我的项目以及社区。 作为面向开源及音讯畛域的盛会,RocketMQ Summit 将于 2022 年 3 月 26 日北京金茂万丽酒店召开,数十个优质议题与探讨精心筹备中,演讲征集通道已凋谢! (扫描上图,填写议题征集表单) 议题方向目前演讲征集通道已凋谢,征集范畴包含「场景案例」、「技术摸索」、「运维治理」、「生态倒退」四个方向。 场景案例 如何应用 Apache RocketMQ 解决某些场景难题以及相干计划,是宽广开发者最为关怀的内容,本方向偏重 Apache RocketMQ 端到端利用侧分享。 技术摸索 在十年倒退过程中,围绕 Apache RocketMQ 衍生出十分多组件。本方向偏重分享 Apache RocketMQ 性能个性、背地架构设计及原理机制等内容,帮忙大家深度理解 Apache RocketMQ。 运维治理 分享 Apache RocketMQ 运维治理实际,本方向偏重 Apache RocketMQ 运行、治理及运维过程中的挑战及解决方案,为大家提供 Apache RocketMQ 具备实战意义的最佳实际参考。 生态倒退 目前,Apache RocketMQ 已与泛滥优良开源我的项目实现了集成,为相干场景提供最佳解决方案。本方向侧重点分享 RocketMQ 如何与其余平台、零碎、组件联结为用户解决问题、发明价值。 ...

February 17, 2022 · 1 min · jiezi

关于阿里云:Ubuntu2110配置阿里云DNS方法

 DNS 简介 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 (首先须要关上阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。) Ubuntu 21.10配置办法: 编辑文件 "/etc/resolv.conf",依据状况批改文件内容。 关上终端,在终端输出上面的命令, sudo vi /etc/resolv.conf 增加以下两行: nameserver 223.5.5.5 nameserver 223.6.6.6 保留退出,而后应用 dig 验证: dig alidns.com

February 17, 2022 · 1 min · jiezi

关于阿里云:阿里云EMAS-1月产品动态

内容摘要● iOS构建反对Xcode 13.2.1版本,相应插件也已同时降级● openapi反对模块列表的含糊查问,多构建产物二维码优化● 接入irma wda:晋升iOS真机晦涩度(iOS10预估晋升50%,其余晋升10%)● 优化ios手机键盘输入卡顿● httpdns sdk 2.2.1公布,修复海内region配置更新问题● 云利用打算于2022年12月下线,不再承受新用户开明应用 产品动静 >>欢送退出EMAS开发者钉钉交换群<< 群号:35248489

February 17, 2022 · 1 min · jiezi

关于阿里云:在Centos-7上配置阿里云Pouch-镜像方法

 Pouch 镜像 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 简介 PouchContainer is a highly reliable container engine open sourced by Alibaba. It is an excellent software layer to fill up gap between business applications and underlying infrastructure. The strong-isolation ability and rich container are its representitive features. 下载地址:阿里云开源镜像站资源目录 配置办法 OS反对 pouch 的二进制安装包目前曾经反对在 centos7 和 ubuntu (16.04 和 14.04)上的装置, 您能够参考以下配置手册从 opsx 站点疾速的获取安装包。 Centos 7 增加文件 /etc/yum.repos.d/pouch-centos7.repo 内容如下: [pouch-stable] name=Pouch Stable - $basearch baseurl=http://mirrors.aliyun.com/ops...$basearch/stable enabled=1 gpgcheck=1 gpgkey=http://mirrors.aliyun.com/ops... ...

February 16, 2022 · 1 min · jiezi

关于阿里云:CentOS7-阿里云镜像配置方法

CentOS 镜像 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 简介 CentOS,是基于 Red Hat Linux 提供的可自在应用源代码的企业级 Linux 发行版本;是一个稳固,可预测,可治理和可复制的收费企业级计算平台。 下载地址: 阿里云开源镜像站资源目录\阿里云开源镜像站资源目录 配置办法 备份mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup 下载新的 CentOS-Base.repo 到 /etc/yum.repos.d/CentOS 7 wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/re... 3. 运行 yum makecache 生成缓存

February 16, 2022 · 1 min · jiezi

关于阿里云:服务网格-ASM-年终总结最终用户如何使用服务网格

作者:叶剑宏 背景阿里云服务网格 ASM 于 2020 年 2 月公测,近 2 年的工夫,已有大量用户采纳其作为生产利用的服务治理平台。阿里云服务网格 ASM 基于开源 Istio 构建。同时,Istio 依然年老,2021 年咱们看到 Istio 不少新的停顿,eBPF、Multi-buffer、Proxyless 等,每一次 Istio 的变动都牵动人们的神经——是时候采纳服务网格了吗? 本文不打算回顾 Istio 或是阿里云服务网格 ASM 的变动或趋势,咱们来聊一聊阿里云 ASM 服务网格,它的最终用户是如何应用服务网格的。 为什么采纳服务网格服务网格的理念是将服务治理能力下沉到基础设施,让业务更加专一于业务逻辑。咱们能够很轻松地举出服务网格带来的服务治理能力,比方流量治理、可观测性、服务平安通信、策略加强如限流和访问控制等。然而,最终用户真的须要这些性能吗?Istio 的这些能力真的满足生产要求吗?为了一两个性能引入服务网格是否值得大费周章?  比如说流量治理,最受关注的是 Traffic Splitting,罕用于灰度公布或者 A/B 测试。Istio 的功能设计十分简洁,然而默认无奈实现全链路流量治理。如果没有在所有微服务拓扑节点里透传自定义的 Header 或标签,具备关联性的服务流量切割则齐全不可能。  比方是平安能力,采纳传统伎俩进行大量微服务 TLS 认证简直是 Impossible Mission,而 Envoy 提供的 mTLS 加密则十分轻松地实现了服务间加密通信,或者说零信赖平安。然而,用户是否真的关怀服务间平安,毕竟这些微服务大多运行在云上的一个 VPC 的一个 Kubernetes 集群里。  比方可观测性,Istio 将 Metrics、Logging、Tracing 对立起来,能够很不便地获取微服务拓扑构造,疾速地定位微服务问题。然而,Sidecar 无奈深刻过程级别,相干的 Metrics 和 Tracing 相比经典的 APM 软件切实黯然失色,无奈真正无效地定位代码级别问题。  最初策略加强比方限流能力,Istio 提供 Global Rate Limit 和 Local Rate Limit 限流能力,的确是大量面向 C 端用户利用的强需要。然而它真的能满足简单的生产利用限流降级需要吗? ...

February 16, 2022 · 3 min · jiezi

关于阿里云:创新推出-Serverless-调试大杀器端云联调

作者:西流 背景说起以后最火一个技术, 不可避免地探讨到一个概念:Serverless。作为一种新型的利用架构,Serverless 让咱们解脱了保护基础设施的繁琐,只须要上传代码包或者镜像, 即可失去一个弹性、高可用、免运维、低成本的服务。 听下来很美的 Serverless 在理论落地开发过程中,却确存在一些痛点。比方您在应用 Serverless 的过程中,必定有如下的困扰: 应用函数计算 Custom Runtime/Container 想要一键平迁原有 SpringBoot,Python Flask,ThinkPHP 等各种语言框架的利用,实例启动过程中须要拜访云端环境中的其余服务(如数据库或者注册核心),遇到利用启动不起来时,该怎么排查起因?利用采纳微服务架构,波及到多个服务。是否在本地代码开发实现后疾速进行端对端测试?事件驱动的利用,通过事件源触发函数,环节多,链路长,能不能在本地疾速测试整个链路?……业界的调研报告(hacknoon serverless report [1] )也体现调试是 Serverless 落地最大的阻碍。目前业界已有的 Serverless 利用调试伎俩,次要是在本地模仿云端执行环境进行本地调试;而远端环境中运行的利用则次要靠日志。因为在本地无奈模仿实在的云端环境,因而本地调试无奈解决上述问题,为此咱们推出了业界翻新的端云联调性能,解决 Serverless 利用调试的难题。 端云联调Serverless Devs 的端云联调 [2] 性能,外围思路是要让本地开发环境冲破网络的限度,和云端环境融为一体。开发者通过端云联调能在本地启动实例,和云端环境无缝连通,疾速进行测试和问题调试。端云联调能帮忙开发者: 变更代码,实时查看后果,调试迭代的闭环最短。例如要开发的服务被其余服务依赖,当本地代码开发实现后,最好能发动端对端的测试,看看改变有没有 break 调用方服务。如果采纳传统形式,须要把代码部署到远端,发动测试才能够,流程很简短。可能复用本地丰盛的开发调试工具,效率最高。例如考察远端环境中的测试用例失败,以往只能靠日志。如果能把生产流量导入到本地环境的实例上,应用本地环境上各种 IDE 进行调试,是不是很爽?如下图所示,端云联调在本地开发机和云端利用的 VPC 环境间建设一条平安的隧道连贯。拜访云端利用的流量将主动转发到本地开发机上;同时本地实例对外拜访的网络流量也被主动转发到云端利用的 VPC 环境中。比方在本地实例拜访云端的 RDS 数据库实例,传统形式开发者如果在本地进行调试开发的话, 只能放开 RDS 实例的公网拜访或者购买 VPN 服务实现本地拜访线上 VPC。而应用端云联调,不须要任何配置的扭转,能够间接以内网的形式拜访 RDS 实例。 开启端云联调用户只有在 s.yaml 的目录下, 执行 s proxied setup,这个命令做了如下事件: 依据您 s.yaml 的 vpc 配置等信息创立一个辅助的 Service/Function,  并对辅助函数预留1个实例。该辅助函数的作用是作为代理服务,本地实例所有进出流量都会通过该代理服务。启动本地环境的代理容器实例, 通过通道服务, 和 1 中的 FC 网络代理容器实例建设一条双向通信 TCP 隧道。启动本地的函数容器实例, 比方您是 Custom Runtime 间接跑 SpringBoot 利用, 启动 SpringBoot 的本地函数容器实例和 2 中的代理容器实例共享网络, springboot 利用曾经能内网拜访线上 VPC 资源。本地函数容器实例启动胜利, 即能够开始调试,间接应用 s proxied invoke 或者 curl 自定义域名调用辅助的 Service/Function, 流量会通过代理服务打回到本地函数容器实例, 开启本地 IDE 对实例内的利用进行断点调试。敞开端云联调因为会有一个辅助函数预留1个实例, 所以调试完结后, 您能够手动清理资源, 免得产生不必要的费用。 ...

February 16, 2022 · 2 min · jiezi

关于阿里云:云原生年度技术盘点出炉乘风破浪正当时

2021年,数字产业蓬勃发展,传统云计算产业走向成熟,大数据、物联网、人工智能、区块链各种新兴技术百花齐放。 云原生曾经成为势不可挡的技术趋势。Gartner 预测到 2025 年,95%数字化运维将通过云原生平台进行撑持。为了让更多的开发者、架构师获取云原生技术红利与实践经验,阿里巴巴云原生推出了年度技术盘点,不便大家更好地学习和思考。 云原生架构浅谈云原生架构的 7 个准则 云原生不仅颠覆了技术栈,背地的每个岗位也在悄悄产生扭转 云原生架构应该怎么设计? 云原生推动全云开发与实际 全链路压测体系建设计划的思考与实际 疾速理解云原生架构 容器技术面向 K8s 设计误区 如何专业化监测一个 Kubernetes 集群? 首次!对立调度零碎规模化落地,全面撑持阿里巴巴双 11 全业务 阿里云容器服务全面降级ACK Anywhere,让云的边界拓展至企业须要的每个场景 Service Mesh 从“趋势”走向“无聊” 面对大规模 K8s 集群,如何先于用户发现问题? 云原生下的灰度体系建设 【深度】阿里巴巴万级规模 K8s 集群全局高可用体系之美 Kubernetes 稳定性保障手册 -- 极简版 Kubernetes 稳定性保障手册 -- 日志专题 Kubernetes 稳定性保障手册 -- 可观测性专题 Kubernetes 稳定性保障手册:洞察+预案 基于 KubeVela 与 Kubernetes 打造“有限能力”的凋谢 PaaS 云原生人才打算之 Kubernetes 技术图谱 中间件技术在 Dubbo3.0 上服务治理的实际 年初献礼 | Nacos Star 2W+ 的回顾与瞻望 ...

February 16, 2022 · 1 min · jiezi

关于阿里云:人人都是-Serverless-架构师-弹幕应用开发实战

作者:寒斜|阿里云云原生中间件前端负责人 如何应用 Serverless 架构实现全双工通信的利用,Serverless 架构中数据库是如何应用的,本篇文章将为您揭开答案。Serverless 的理念是即时弹性,用完即走。服务并非长时间运行,这也就意味着像 websocket 这种长链接的申请模式看起来并不适宜 Serverless。 是否有其它的方法即能够满足长连贯模式申请,又可能利用 Serverless 自身个性呢? 答案是必定的,上一篇文章咱们谈及了网关的关键作用,所以这次也是通过网关来解决全双工通信的问题。本次将以弹幕场景为例,为大家开展咱们是怎么应用 Serverless 架构来实现这个场景的。 利用成果预览 弹幕利用的实用场景比拟多,比方经营推广,年会流动等。然而通常实现一套带管控的流程,且部署公布的话,个别会破费比拟长的工夫。本篇实战则能够让你在 2 分钟之内就部署好本人的弹幕利用。同时做到反对炫彩和弹幕内容管控,你能够用它来丰盛公司年会的模式。文末也会贴上源码,能够供大家参考和二次定制。 架构一览 整体架构仍然采纳 dns 解析 -> 网关 -> oss | fc 。不一样的是分了 3 个动态资源的工程,函数局部则采纳事件驱动和 http 相结合,并且 api 局部采纳 tablestore 进行数据的长久化。 流程阐明 弹幕利用总工由大屏幕, 个人用户,管理员三个客户端,以及一个注册设施的服务 & api 服务组成。客户端跟服务端的长链接由网关来承载,每次客户端连贯到网关的时候,网关都会存储设备编号,并且触发一次注册函数,设施编号存储到 tablestore。 当用户发动弹幕的时候经网关到 api 服务,api 服务会做一次查问先判断弹幕是否被管制,如果无管制则间接查找以后的大屏幕设施 id,并且进行网关的上行调用,网关在发到前端页面,显示数据。如果被管制,则查问在线的管理员设施,将弹幕上行告诉到网关,网关发送给管理员前端页面。 数据表设计equipment(设施) barrage(弹幕) interceptor (过滤器) 筹备工作同前篇《人人都是 Serverless 架构师 | 现代化 Web 利用开发实战》文章一样须要提前准备好域名,并装置好 Serverless Devs 开发者工具,以及上面的产品: 云解析 DNSAPI 网关函数计算对象存储 OSSTablestore这次咱们引入了 tablestore 的数据库忘性数据的长久化性能,同样须要创立好数据库实例备用。 ...

February 16, 2022 · 3 min · jiezi

关于阿里云:Apache-RocketMQ-Hudi-快速构建-Lakehouse

本文目录背景常识大数据时代的构架演进RocketMQ Connector&StreamApache Hudi构建Lakehouse实操本文题目蕴含三个关键词:Lakehouse、RocketMQ、Hudi。咱们先从整体Lakehouse架构动手,随后逐渐剖析架构产生的起因、架构组件特点以及构建Lakehouse架构的实操局部。 背景常识1、Lakehouse架构Lakehouse最后由Databrick提出,并对Lakehouse架构特色有如下要求: (1)事务反对 企业外部许多数据管道通常会并发读写数据。对ACID事务的反对确保了多方并发读写数据时的一致性问题; (2)Schema enforcement and governance Lakehouse应该有一种形式能够反对模式执行和演进、反对DW schema的范式(如星星或雪花模型),可能对数据完整性进行推理,并且具备强壮的治理和审计机制; (3)开放性 应用的存储格局是开放式和标准化的(如parquet),并且为各类工具和引擎,包含机器学习和Python/R库,提供API,以便它们能够间接无效地拜访数据; (4)BI反对 Lakehouse能够间接在源数据上应用BI工具。这样能够进步数据新鲜度、缩小提早,并且升高了在数据池和数据仓库中操作两个数据正本的老本; (5)存储与计算拆散 在实践中,这意味着存储和计算应用独自的集群,因而这些零碎可能扩大到反对更大的用户并发和数据量。一些古代数仓也具备此属性; (6)反对从非结构化数据到结构化数据的多种数据类型 Lakehouse可用于存储、优化、剖析和拜访许多数据利用所需的包含image、video、audio、text以及半结构化数据; (7)反对各种工作负载 包含数据迷信、机器学习以及SQL和剖析。可能须要多种工具来反对这些工作负载,但它们底层都依赖同一数据存储库; (8)端到端流 实时报表是许多企业中的规范利用。对流的反对打消了须要构建独自零碎来专门用于服务实时数据利用的需要。 从上述对Lakehouse架构的特点形容咱们能够看出,针对繁多性能,咱们能够利用某些开源产品组合构建出一套解决方案。但对于全副性能的反对,目前如同没有一个通用的解决方案。接下来,咱们先理解大数据时代支流的数据处理架构是怎么的。 大数据时代的架构演进1、大数据时代的开源产品大数据时代的开源产品种类繁多,音讯畛域的RocketMQ、Kafka;计算畛域的flink、spark、storm;存储畛域的HDFS、Hbase、Redis、ElasticSearch、Hudi、DeltaLake等等。 为什么会产生这么多开源产品呢?首先在大数据时代数据量越来越大,而且每个业务的需要也各不相同,因而就产生出各种类型的产品供架构师抉择,用于反对各类场景。然而泛滥的品类产品也给架构师们带来一些困扰,比方选型艰难、试错老本高、学习老本高、架构简单等等。 2、以后支流的多层架构大数据畛域的解决解决场景蕴含数据分析、BI、科学计算、机器学习、指标监控等场景,针对不同场景,业务方会依据业务特点抉择不同的计算引擎和存储引擎;例如交易指标能够采纳binlog + CDC+ RocketMQ + Flink + Hbase + ELK组合,用于BI和Metric可视化。 (1)多层架构的长处:反对宽泛的业务场景; (2)多层架构的毛病: 解决链路长,提早高;数据正本多,老本翻倍;学习老本高;造成多层架构毛病次要起因是存储链路和计算链路太长。 咱们真的须要如此多的解决方案来反对宽泛的业务场景吗?Lakehouse架构是否能够对立解决方案?多层架构的存储层是否能够合并?Hudi产品是否可能反对多种存储需要?多层架构的计算层是否能够合并?RocketMQ stream是否可能交融音讯层和计算层? 以后支流的多层架构 3、Lakehouse架构产生Lakehouse架构是多层架构的降级版本,将存储层复杂度持续升高到一层。再进一步压缩计算层,将音讯层和计算层交融,RocketMQ stream充当计算的角色。咱们失去如下图所示的新架构。新架构中,音讯出入口通过RocketMQ connector实现,音讯计算层由RocketMQ stream实现,在RocketMQ外部实现音讯计算两头态的流转;计算结果通过RocketMQ-Hudi-connector收口落库Hudi,Hudi反对多种索引,并提供对立的API输入给不同产品。 Lakehouse架构 上面咱们剖析下该架构的特点。 (1)Lakehouse架构的长处: 链路更短,更适宜实时场景,数据新鲜感高;老本可控,升高了存储老本;学习成本低,对程序员敌对;运维复杂度大幅升高;(2)Lakehouse架构的毛病 对音讯产品和数据湖产品的稳定性、易用性等要求高,同时音讯产品须要反对计算场景,数据湖产品须要提供弱小的索引性能。 (3)抉择 在Lakehouse架构中咱们抉择音讯产品RocketMQ和数据湖产品Hudi。 同时,能够利用RocketMQ stream在RocketMQ集群上将计算层放在其中集成,这样就将计算层升高到一层,可能满足绝大部分中小型大数据处理场景。 接下来咱们逐渐剖析RocketMQ和Hudi两款产品的特点。 RocketMQ Connector & Stream RocketMQ 倒退历程图 RocketMQ从2017年开始进入Apache孵化,2018年RocketMQ 4.0公布实现云原生化,2021年RocketMQ 5.0公布全面交融音讯、事件、流。 1、业务音讯畛域首选RocketMQ作为一款“让人睡得着觉的音讯产品”成为业务音讯畛域的首选,这次要源于产品的以下特点: (1)金融级高牢靠 ...

February 16, 2022 · 2 min · jiezi

关于阿里云:如何做健康码的性能压测

作者:拂衣、风波 为什么要做压测随着无线设施的遍及和 5G 的鼎力建设,越来越多的线上零碎、小程序成为了人们生存中必不可少的工具。对于这些工具,都会面对一个问题:零碎能接受多少用户同时拜访,面对突发的流量洪峰,是否保证系统无故障稳固运行? 为了答复这个问题,就须要在零碎上线前做多轮压力测试,提前模拟出简单的, 高仿真的线上流量来验证整体零碎的高可用性, 这也是施行零碎高可用计划的关键环节。另外,通过不同阶段的压测,也实现对系统的容量布局、瓶颈探测,对系统整体能力进行验收,确保在突发的流量洪峰降临前,零碎的确可能接受即将来临的实在线上压力。 从某种意义上来说,压测是零碎稳定性的验证者。 如何施行一次精确的性能压测 筹备压测环境压测的执行环境是一个陈词滥调的话题,如果间接在生产环境执行压测,会有2个问题: 1、会影响线上业务,对失常拜访零碎的用户造成影响 2、会净化线上数据,将压测数据写入线上数据库 为了解决这 2 个问题,个别业内采纳如下几种计划: 以上计划各有优缺点,实用场景也不尽相同,能够依据本人我的项目所处的阶段灵便抉择计划。 构建压测脚本业内罕用的压测工具包含 JMeter、Gatling、Locust、k6、Tsung、阿里云 PTS 等。这些工具无一例外,都须要将压测业务的 API,编排为一个压测脚本。 这一步工作的重点在确认压测的 API,不要有脱漏,且 API 编排的程序要合乎用户的操作逻辑。对于衰弱码业务的压测来说,如果脚本中脱漏了登录鉴权 API,那前面的刷新衰弱码、查看核酸报告等 API 都会在权限校验这步就报错,不会执行失常的业务逻辑,也就无奈模仿实在的业务场景。 以上压测工具编排脚本都有 2 个形式: 1、手动输出脚本,这须要脚本的编写人员对业务十分相熟,保障不会脱漏API。 2、主动录制脚本,上述开源压测工具都提供了录制申请的代理性能,开启并配置代理后,只有在页面上模仿用户的操作和点击行为,即可主动录制申请,并生成压测脚本。同时 PTS 还提供了 Chrome 录制插件[1],免代理配置,能够一键生成 JMeter 和 PTS 压测脚本。晋升了脚本编写的效率,也能保障不脱漏 API。 为了防止简单脚本中脱漏 API 的危险,举荐应用录制性能生成脚本。 确认压力模型这一步是在配置压测中模仿的压力峰值、不同 API 的压力散布比例以及压力值递增模型。压力值指的是模仿并发用户数,或每秒发送的申请数。 施压模式在设置之前,须要确认施压模式,业内次要有 2 种施压模式: 1、虚构用户(VU)模式,能够了解为一个线程模仿一个实在用户,压测时线程始终循环执行,模仿用户不停地发送申请。 2、吞吐量模式,即每秒申请数(QPS),能够间接掂量服务端的吞吐量。 在我的项目验收阶段,很重要的一个指标就是零碎的吞吐量,即可反对的QPS。对于这种压测场景,更举荐应用吞吐量模式,能够直观的看到施压机每秒收回的申请数,并和服务端的吞吐量间接对应起来。 各 API 压力散布比例确认了施压模式后,须要配置不同 API 的压力散布比例。比方衰弱码业务,100% 的用户会调用登录 AP 和获取衰弱码 API,但前面并不是所有用户都会调用查问核酸报告 API、查看推送信息等 API。所以每个 API 的精确压力散布比例,也是一次胜利压测中不可获取的因素。 压力值递增模型常见有脉冲模型,阶梯递增,平均递增。 ...

February 16, 2022 · 2 min · jiezi

关于阿里云:SchedulerX-如何帮助用户解决分布式任务调度难题

作者:千习 前言在各类业务零碎场景中,存在着大量定时触发、周期触发运行指定业务工作的需要场景,而分布式任务调度中间件平台存在的意义就是为治理撑持上述场景而存在。在 Linux 中的 crontab、Java 中的 Timer 等等都波及周期性定时调度运行工作来实现一系列自动化解决的业务场景。 周期定时运行是任务调度最为根底的个性,但随着业务扩张和倒退对于任务调度中间件平台的能力将会提出更高要求。在传统业务零碎中 Quartz 以及 Spring scheduling 包以框架集成形式给业务开发定时工作提供了很多便当,但随同各个业务利用分布式和微服务化部署后,大量扩散的定时工作散部在各个业务利用零碎之中很难对全局所有工作的对立可视化监控运维治理,分布式任务调度中间件平台将对各个定时工作进行无效地对立可视化管控。 分布式任务调度平台以高牢靠的定时任务调度为外围根底,以可视化管控为外围价值体现,联合业务发展趋势围绕这两个基本要素进行平台能力拓展。 SchedulerX 概览平台资源管理站在全局面向所有业务利用对立运维管控视角,对团队和部署环境形象了“空间”概念来进行资源管理隔离,对业务利用和机器集群进行了一层形象称为“利用分组”。每一个业务利用可在调度平台上创立对应利用分组与其理论对业务应用程序进行对接,从而实现各个业务团队在对立的平台上互不干涉的别离管控各自业务团队的工作。并且在阿里云上基于 RAM 权限策略,可对立进行正当的资源权限管控隔离。 通过上述资源模型业务平台架构管理者可依据本身团队的组织特点,进行空间和利用的正当布局以及权限策略配置,清晰地实现任务调度资源的访问控制隔离和全局性管控。 平台可视化管控工作是任务调度平台管控调度操作的根本单元,工作运行可视化使本来藏在各个业务利用中默默奔跑的工作得以重见天日,让每一个工作的运行状况和执行后果得以展示和揭示。在没有可视化的状况下,工作运行状态以及运行后果将无从通晓或者是很难被察觉,甚至于通过大量业务迭代倒退之后,利用零碎中存在多少定时工作都无奈进行规范化治理。 分布式分片批处理随着业务体量推动倒退,在一些定时调度工作场景下会随同着大数据量分布式批量解决需要。协调多个机器来定期实现大批量数据处理也成为了任务调度平台重要性能个性,通过分布式批处理模型,用户可简略地实现大批量数据处理效率晋升。 简略使用场景上面将基于任务调度平台,针对性地列举几个简略的业务应用场景,以初步理解在任务调度平台上都能做些什么事件。 基于播送集群运维场景在播送模式下,创立的调度工作会以给定的周期频率将工作运行的指令下发给业务利用集群或装置了 Agent 的 ECS 集群,当新扩容退出的资源也会后随后动静播送到。基于该性能个性,用户能够架构出很多自定义的应用场景,例如: 日志/长期数据定期清理:对业务产生的日志或临时文件进行定期清理。服务器检测:用户可通过播送shell脚本疾速构建简略的服务器磁盘/内存/CPU 等衰弱检测场景。业务缓存刷新:对于存在本地缓存的业务场景,可定期进行缓存刷新以及指定的业务应用服务预热解决。业务服务检测:用户可自定义各种业务类型指标采集判断,基于调度平台灵便构建轻量级的业务监控。 定时业务场景各行业业务场景中,在任务调度平台上进行定时工作解决,是最为宽泛的业务模式,例如: 定期发送音讯揭示:缴款缴费揭示、积分到期揭示、客户员工生日祝愿揭示、交易订单解决告诉等等。定期数据同步解决:员工组织构造信息同步、业务根底信息同步、定时每天业务数据批量清理、交易订单超时解决等等。定期数据生成推送:月/季/年度报表生成推送、流动布告定期推送、生产账单定期生成推送等等。 当上述业务需解决的数据体量逐步扩充后,本来单机解决模式下解决效率瓶颈会缓缓呈现,此时任务调度的分布式集群批处理的能力将能够施展集群协同能力来进行大批量的数据并行处理。 分布式批处理场景基于业务批量解决能力,当实时业务量较大时用户能够配合服务降级策略构建业务定期批量弥补工作,来实现峰值业务解决能力晋升,以确保业务顶峰期间外围业务的吞吐能力。作为业务零碎平台的架构设计者,如果能将定时分布式批处理能力与具体业务进行无效联合将充分发挥零碎整体的业务解决能力和稳定性。上面对相干业务应用场景进行形象总结论述以供参考。 在惯例场景下外围交易服务可能会通过 RPC/MQ 实现上游服务的调用解决。但这种模式下当业务量上涨时会产生一些问题,RPC 上游服务能力会影响外围服务吞吐能力,对 MQ 依赖时须要保障音讯投递失常且生产端正确处理,这些都会成为外围服务解决能力晋升的瓶颈。因而在业务承受范畴内,采取业务服务间彻底解耦的定期批处理弥补的形式将大大晋升解决效率,并且通过幂等性可反复执行将晋升上游服务可靠性保障,同时联合分布式批处理模型可对数据进行批量加载、批量解决以升高 DB 交互压力。同时在架构设计上该弥补模式可与微服务服务降级配套整合应用。 疾速接入 SchedulerX创立利用分组进入任务调度控制台后抉择“公网”region,首先在“利用治理”->创立利用,该利用信息将会成为后续步骤中业务应用程序、Agent 与任务调度平台间接建设对接关系的外围元素。 SpringBoot 工程引入 SchedulerX在本地构建的 SpringBoot 工程中增加如下依赖,并在 Properties 中增加对应控制台创立的利用分组配置信息,启动利用即可实现业务利用与任务调度平台关系建设。 <dependencies> <dependency> <groupId>com.aliyun.schedulerx</groupId> <artifactId>schedulerx2-spring-boot-starter</artifactId> <version>1.3.2</version> </dependency></dependencies># 私有云公网环境spring.schedulerx2.namespace=aad167f6-8bee-41a7-ba41-*********spring.schedulerx2.endpoint=acm.aliyun.comspring.schedulerx2.groupId=qianxi.textspring.schedulerx2.appKey=lYgR6qq**********其余阐明实现上述步骤后,可进行后续利用下具体业务定时工作创立和开发,后续应用详见官网手册,点击此处即可返回! 总结本文别离对任务调度平台的资源定义、可视化管控能力、分布式批处理能力进行了简述,并基于 SchedulerX 的能力结合实际业务场景提供了一些根底参考案例。心愿通过上述内容能让大家不便地相熟任务调度平台接入应用详情,对于现有用户也可联合本身团队特点进行平台资源管控隔离,以及在产品业务量增长后通过分布式批处理能力来晋升解决效率。 ...

February 15, 2022 · 1 min · jiezi

关于阿里云:独家交付秘籍之招式拆解第一回

作者:吕莫、新钰 前情介绍大家好,我是“交付哪里有问题就锤哪里”的王小锤。不晓得大家是否还记得咱们交付铁三角(专一软件交付的我、头发略显稠密的开发老哥铁子以及售前大佬强哥)去年被各种交付问题折磨的故事。好在去年咱们惊喜的发现一本“独家交付秘籍“。通过一段时间的招式学习与理解,咱们发现: 整体交付流程变得分外清晰,交付效率大幅晋升。加重沉重的简单环境适配、自搭组件运维平台等研发工作,交付流程缩短。通过模仿线下环境演练使交付品质失去改善。交付后的问题排查和运维工作也变得分外轻松。交付的提速以及交付品质的进步,也着实惊艳到了客户,第一次让我在客户背后挺直了腰板。 虽说铁子的研发团队着眼于业务本身倒退,但秉持着技术人员的谨严与摸索欲,铁子对这些招式为何能以一敌十,轻松提效到小时级交付,产生了强烈的好奇心。带着这样的疑难,咱们通过云原生利用交付平台 ADP(简称 ADP)的产品交换群(钉钉群号:35138456),分割上 ADP 团队的技术小哥阿莫。上面带大家一起回顾下那天的场景,看看阿莫是如何为咱们拆解秘籍中的招式,以及如何把不胜其烦的软件交付难题一一击破的吧! 与 ADP 团队的第一次握手那时已是寒冬腊月,不过再冷的天也抵拦不住咱们交付铁三角对于常识的渴望,所以咱们趁着年前不是那么忙的时候(绝不是借机划水/滑稽脸)来到了阿里云进行访问。抱着就具体的软件交付难题进行深入探讨,以及理解更多技术细节(绝不是借机偷学招式)的目标,咱们一行人与阿莫相遇了。 见面那天,我一个箭步上前,握住了阿莫的手。以这次握手为开始,咱们一行人与 ADP 结下了不解之缘。握手后我连忙介绍道:“阿莫您好,我是王小锤,次要负责软件应用交付工作,旁边这两位是负责研发的铁子,和咱们的售前强哥,之前用 ADP 产品的时候咱们线上沟通过。明天,咱们次要是抱着学习的心态,想请您更为全面地介绍下 ADP 交付秘籍中的招式。另外,咱们还想求教些理论碰到的交付问题。接下来先向您先介绍下咱们的公司状况吧!” 铁子介绍道:“咱们是一家大数据产品的软件应用供应商。因为咱们的数据产品可用于各行各业,所以咱们当初交付的环境形形色色。而且从开始成单到软件交付部署实现,再到最初的运维保障,在这些阶段咱们各个角色均会遇到些烦心事。” 烦心事 一:产品适配老本高一些金融行业的客户出于数据安全性的思考,会要求将咱们的产品部署在他们本地运行。一些企业进行 IT 转型时甚至还会提出信创要求。一些客户出于节约老本的思考,须要咱们用他们自身已有数据库、云服务。这些状况导致整个研发团队须要投入大量精力,基于不同的运行环境、OS 以及 CPU 架构去做适配。在业务利用革新的同时还需适配利用所依赖的繁多的中间件。这些中间件在不同环境中运行是否可能满足业务,如果出了问题该如何运维,这些问题在咱们进行产品革新时深深的困扰着咱们。” 烦心事 二:部署环境极简单我补充道:“对于咱们交付团队亦是如此,交付环境、资源配置各异,产品非标准化等都可能导致产品交付易出错、效率低、周期长,每次去交付都胆战心惊。如果产品还没成单,售前强哥还需到客户现场先进行 POC,他出差耗时耗力,这些都花了公司很多钱,好在他是售前大佬,这些老本老板才没有和他分外计较。 烦心事 三:运维低效且门槛高“而且客户环境存在较多的不确定性,比方硬件故障,机房忽然停电等都可能造成利用无奈重启、中间件无奈主动复原、数据失落等不可逆影响。如何提前发现、疾速复原、高效运维等问题令咱们头疼已久。好在 ADP 扭转了咱们的交付形式,这些问题有了很大的改善。” 重大扭转 简要形容完咱们的扭转后,我持续道:“对于咱们现有软件交付问题 ADP 根本均可涵盖,但依据强哥当初在谈的一些我的项目状况来看,往年咱们可能会遇到更为简单的软件交付场景,就这些交付痛点咱们看下如何应答可好?”。 软件交付秘籍介绍阿莫听完,面露怒色,冲动得说道:“听到 ADP 真正切切的帮忙你们解决了难题,真替你们快乐。咱们的秘籍招式就是为了解决这些问题而生的,接下来先和大家聊聊什么是 ADP。对于这次的碰面我顺便筹备了很多干货,这也是咱们服务客户的态度,定让你们满载而归! ADP 简介ADP 是一套残缺的“软件产品”私有化交付秘籍,帮忙大家解决软件在私有化部署交付时存在的异构适配难、部署环境杂、云服务依赖重和运维效率低等诸如此类的交付难题。 先和大家解释几个名称,咱们统一口径便于了解: 一张图带你们看懂 ADP, ADP 分为在线化平台和本地运行平台两个模块。 在线化平台:由 ADP-online 和服务目录两局部组成。为软件产品、服务组件提供从接入、集成验证、私有化软件交付的全栈在线化服务。 本地运行平台:由集群镜像 Sealer、利用管控、ADP 底座三局部组成。为保障软件交付一致性和实现异构 IaaS 交付负责。 介绍到这里时,不知是为了让咱们消化下,还是看到了铁子欲言又止的表情。阿莫顿了顿持续道:“咱们有了根本的认知之后,看看接下来你们有什么想要具体理解的模块和问题呀?” 招式一 :全栈式在线化服务借着这个机会,铁子急忙问道:“咱们公司当初有个数据产品,进行革新时发现须要依赖较多中间件。我看过你们服务目录中的服务组件,很丰盛也满足咱们产品要求,但咱们依然放心中间件的稳定性。因为之前咱们用的开源软件,其稳定性让咱们很是头疼,这个局部你们是怎么保障的呢?” 中间件适配阿莫解释道:“中间件的稳固对业务失常运行以及后续运维都至关重要,这点咱们有做深度的保障,均可在线化实现。 首先,咱们服务目录中所提供的中间件、数据库等服务组件是由阿里云一方和咱们的合作伙伴提供的,均通过大规模验证,验证过程如下,通过这一系列验证后,满足条件的服务组件才能够上架服务目录。 将服务组件通过二进制工具 zlink 上传到 ADP 在线化平台。组件验证平台会对组件进行标准校验、镜像校验、镜像平安扫描、可安装性校验、监控告警反对校验等一系列操作,全方位对组件可靠性进行验证。将组件部署到验证环境中利用通用能力核心的能力对组件进行一系列故障注入演练来验证服务组件的稳定性,如:主机断电、磁盘打满、正本重启等。最初还会通过几种代表性配置的环境压力测试给出性能报告。不仅如此,咱们企业的软件产品上传到在线平台后也是走同样的流程来保证质量的。对了,听完下面的介绍是不是释怀些了呢?” ...

February 15, 2022 · 2 min · jiezi

关于阿里云:Spring-Boot-Serverless-实战系列-性能调优

作者:西流|阿里云函数计算专家 导读:Spring Boot 是基于 Java Spring 框架的套件,它预装了 Spring 的一系列组件,让开发者只须要很少的配置就能够创立独立运行的应用程序。在云原生的环境中,有大量的平台能够运行 Spring Boot 利用,例如虚拟机、容器等。但其中最有吸引力的,是以 Serverless 的形式运行 Spring Boot 利用。 我将通过一系列文章,从架构,部署,监控、性能、平安等 5 个方面来剖析 Serverless 平台运行 Spring Boot 利用的优劣。为了让剖析更有代表性,我抉择了 Github 上 star 数超过 50k 的电商利用 mall 作为示例。这是系列文章的第四篇, 本文向大家展现如何对 Serverless 利用进行性能调优。 实例启动速度优化在之前的文章实战教程中,置信大家都感触到 Serverless 的便捷之美,只需上传代码包和镜像就可能轻松上线一个弹性高可用的 Web 利用。 然而它仍存在首次启动“冷启动延时”的问题,Mall 利用实例的启动大概 30 秒左右,用户会感触较长时间的冷启动延时,在这个“即时时代”应用程序响应慢多少会有些瑕不掩瑜。(“冷启动”是指函数服务于特定调用申请时的状态,当一段时间没有申请后,Serverless 平台则会回收函数实例;等到下一次再有申请时,零碎会再次实时拉起实例,该过程称之为冷启动。) 在优化冷启动之前,咱们要先剖析分明冷启动各个阶段的耗时。 首先在函数计算(FC) 控制台的服务配置界面,开启链路追踪性能。 对 mall-admin 服务发动申请,胜利后查看 FC 控制台,咱们可能看到相应的申请信息。留神敞开“仅查看函数谬误”,这样才会显示所有申请。指标监控和调用链路数据收集会存在肯定延时,如果没有显示,请期待一会再刷新。找到冷启动标记的申请,点击 “更多” 下的 “申请详情”。 调用链路会显示冷启动各个环节的耗时。冷启动蕴含以下几个环节: 代码筹备(PrepareCode):次要是下载代码包或者镜像。因为咱们曾经启用了镜像减速性能,不须要下载全副的镜像,因而这一步的延时十分短。运行时初始化(RuntimeInitialization):从启动函数开始,到函数计算(FC)零碎探测到利用端口就绪为止。这两头蕴含了利用启动工夫。在命令行执行 s mall-admin logs 查看相应的日志工夫,咱们也能看到 Spring Boot 利用的启动须要花大量的工夫。利用初始化(Initialization):函数计算提供了 Initializer 接口,用户能够将一些初始化逻辑放在 Initializer 中执行。调用延时(Invocation):解决申请的延时,这个延时十分短。 ...

February 15, 2022 · 1 min · jiezi

关于阿里云:K8s-Ingress-Provider-为什么选择-MSE-云原生网关

作者:如葑 K8s Ingress 简介K8s 集群内的网络与内部是隔离的,即在 K8s 集群内部无奈间接拜访集群外部的服务,如何让将 K8s 集群外部的服务提供给内部用户呢?K8s 社区有三种计划:NodePort、LoadBalancer、Ingress,下图是对这三种计划的比照: 通过比照能够看到 Ingress 是更适宜业务应用的一种形式,能够基于其做更简单的二次路由散发,这也是目前用户支流的抉择。 K8s Ingress 现状套用一句流行语:现实是饱满的、事实是骨感的,这句话放在 K8s Ingress 也同样实用,K8s 心愿通过 Ingress 来标准化集群入口流量的规定定义,但理论业务落地时须要的性能点要远比 Ingress 提供的多,为了满足业务诉求,各 Ingress Provider 也各出招数,总的来说解法分成两类:应用 annotations 扩大与应用新的 CRD。上面应用图示来阐明: K8s Ingress Provider 的发展趋势Ingress Provider 的百花齐放,站在用户角度各有利弊,益处是用户的可选项很多,而害处也恰好是抉择太多,咱们如何去抉择一个适宜本身业务的 Ingress Provider 呢?无妨先看看权威 CNCF 的统计数据: 直观的能够看出对于占据 Ingress Provider 首位的 Nginx 是在预期之内的,细看之下虽 Nginx Ingress 仍占据榜首,但其增长有点乏力,甚至有降落的态势;反观 Envoy 曾经从 2019 年的第三位攀升至 2020 的第二位,其使用率也从 2019 年的有余 20% 攀升至 2020 年的 37%,简直成倍增长。 所谓透过景象看实质,为什么 Envoy 的增长这么快呢?总结起来有以下几点: ...

February 15, 2022 · 1 min · jiezi

关于阿里云:Linux配置阿里云DNS

 Linux 疾速设置 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 1.您必须是管理员root或者具备管理员权限 2.sudo vim /etc/resolv.conf 3.退出:(此处IPv4和IPv6略有不同) IPv4: nameserver 223.5.5.5 nameserver 223.6.6.6 IPv6: nameserver 2400:3200::1 nameserver 2400:3200:baba::1 4.保留退出,而后应用dig验证 5.这一步,IPv4和IPv6略有不同: IPv4: dig www.taobao.com +short   若呈现后果则示意失常。 IPv6: dig alidns.com 若返回后果的server为阿里公共DNS(2400:3200::1或2400:3200:baba::1)则配置胜利。 \

February 15, 2022 · 1 min · jiezi

关于阿里云:在阿里云镜像站下载blender

 blender官方主页链接如下: blender.org - Home of the Blender project - Free and Open 3D Creation Software 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。  Blender(布兰德)是一款永恒开源收费的3D创立套件。反对整个3D创作流程:建模、雕刻、骨骼拆卸、动画、模仿、实时渲染、合成和静止跟踪,甚至可用作视频编辑及游戏创立的全功能工具。 它还具备以下劣势: 投入小:软件收费,用着没心理累赘。Blender够笨重,对硬件要求不高,即使是在10年前的电脑上,也能够疾速启动——先别说动画、渲染和开大模型,老手做不到这些的,做到了就能够换电脑了; 入门快:从2.8版起,Blender够易用,B站、优酷一大批收费教学,还有斑斓中国社区输入的大量热心人为你答疑解难。 作为一款国外的软件,但当初在阿里云镜像站下面就能够轻松下载它了。 首先关上它的下载地址, 下载地址:阿里云开源镜像站资源目录 点击 release/,即可看到历史所有版本。 咱们以3.0版本为例,进入目录依据本人的操作系统抉择对应版本下载即可。

February 15, 2022 · 1 min · jiezi

关于阿里云:平安保险基于-SPI-机制的-RocketMQ-定制化应用

作者:孙园园|安全人寿资深开发 为什么选用 RocketMQ首先跟大家聊聊咱们为什么会选用 RocketMQ,在做技术选型的过程中,利用场景应该是最先思考分明的,只有确定好了利用场景在做技术选型的过程中才有明确的指标和掂量的规范。像异步、解耦、削峰填谷这些消息中间件共有的个性就不一一介绍了,这些个性是决定你的场景需不需要应用消息中间件,这里次要讲述下在确定应用消息中间件后,又是如何去抉择哪款消息中间件的。 同步双写,确保业务数据安全可靠不失落咱们在搭建消息中间件平台时的定位是给业务零碎做业务数据的传输应用,对业务数据的很重要的一个要求就是不容许丢数据,所以选用 RocketMQ 的第一点就是他有同步双写机制,数据在主从服务器上都刷盘胜利才算发送胜利。同步双写条件下,MQ 的写入性能与异步刷盘异步赋值相比必定会有所降落,与异步条件下大概会有 20% 左右的降落,单主从架构下,1K 的音讯写入性能还是能达到 8W+ 的 TPS,对大部分业务场景而言性能是能齐全满足要求的,另外对降落的这部分性能能够通过 broker 的横向扩招来补救,所以在同步双写条件下,性能是能满足业务需要的。 多 topic 利用场景下,性能仍旧强悍第二点,业务零碎的应用场景会特地多,应用场景宽泛带来的问题就是会创立大量的 topic,所以这时候就得去掂量消息中间件在多 topic 场景下性能是否能满足需要。我本人在测试的时候呢,用 1K 的音讯随机往 1 万个 topic 写数据,单 broker 状态下能达到2W左右的 TPS,这一点比 Kafka 要强很多。所以多 topic 利用场景下,性能仍旧强悍是咱们选用 topic 的第二个起因。这点也是由底层文件存储构造决定的,像 Kafka、RocketMQ 这类消息中间件能做到靠近内存的读写能力,次要取决于文件的程序读写和内存映射。RocketMQ 中的所有 topic 的音讯都是写在同一个 commitLog 文件中的,然而 Kafka 中的音讯是以 topic 为根本单位组织的,不同的 topic 之间是互相独立的。在多 topic 场景下就造成了大量的小文件,大量的小文件在读写时存在一个寻址的过程,就有点相似随机读写了,影响整体的性能。 反对事务音讯、程序音讯、提早音讯、音讯生产失败重试等RocketMQ 反对事务音讯、程序音讯、音讯生产失败重试、提早音讯等,性能比拟丰盛,比拟适宜复杂多变的业务场景应用 社区建设沉闷,阿里开源零碎另外,在选用消息中间件时也要思考下社区的活跃度和源码所应用的开发语言,RocketMQ 应用 Java 开发,对 Java 开发人员就比拟敌对,不论是浏览源码排查问题还是在 MQ 的根底上做二次开发都比拟容易一点。社区里同学大都是国内的小伙伴,对大家参加 RocketMQ 开源奉献也是比拟亲热的,这里呢也是心愿更多的小伙伴能参加进来,为国内开源我的项目多做奉献。 SPI 机制简介及利用介绍完为什么选用 RocketMQ 后,接下来给大家介绍下咱们是如何基于 SPI 机制利用 RocketMQ 的。SPI 全称为 (Service Provider Interface) ,是 JDK 内置的一种服务提供发现机制,我集体简略了解就是面向接口编程,留给使用者一个扩大的点,像 springBoot 中的 spring.factories 也是 SPI 机制的一个利用。如图给大家展现的是 RocketMQ 中 SPI 的一个利用。咱们基于 SPI 机制的 RocketMQ 客户端的利用的灵感也是来自于 MQ 中 SPI 机制的利用。RocketMQ 在实现 ACL 权限校验的时候,是通过实现 AccessValidator 接口,PlainAccessValidator 是 MQ 中的默认实现。权限校验这一块,可能因为组织架构的不一样会有不同的实现形式,通过 SPI 机制提供一个接口,为开发者定制化开发提供扩大点。在有定制化需要时只须要从新实现 AccessValidator 接口,不须要对源码大动干戈。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:专访-OpenKruise-负责人现在的云原生应用自动化发展到什么程度了

作者:褚杏娟 采访嘉宾 :王思宇(花名:酒祝) 2021 年 12 月,CNCF 开源我的项目 OpenKruise 正式发表了 v1.0 大版本的公布。 OpenKruise 是一个基于 Kubernetes 的扩大套件,次要聚焦在云原生利用的自动化,例如部署、公布、运维以及可用性防护等。更新到 v1.0 版本后,OpenKruise 目前次要提供利用工作负载、Sidecar 治理、加强运维能力、分区部署弹性策略、利用可用性防护等性能,为云原生利用提供落地能力。 目前,OpenKruise 官网注销的 Adopter 数量达到 35+,阿里巴巴、蚂蚁团体、美团、携程、网易、小米、OPPO、苏宁等都在生产环境应用了 OpenKruise 性能,国外如北美的 Lyft、以色列的 Bringg、面向东南亚市场的 Shopee 等也都应用了 OpenKruise。 为更简单的场景而生OpenKruise 源于阿里巴巴经济体利用过来多年的大规模利用部署、公布与治理的最佳实际。阿里领有超大规模的互联网利用场景,而如此丰盛的业务线和宏大数量的利用实例绝大部分都是以容器的形式运行在阿里云云原生平台保护的容器集群中。 在 2011 年,阿里就开始倒退基于 LXC 的容器技术,随后逐步实现了团体业务部署的全面容器化。近几年,随着云技术倒退和云原生的衰亡,阿里将过来的 T4 容器迁徙到了新的架构零碎 --ASI(Alibaba Serverless Infrastructure)。ASI 在原生 Kubernetes 的根底上,通过标准化扩大的形式提供了更多加强性能和适配阿里团体场景的落地能力,撑持了各种各样的简单场景和需要。 随着越来越多样化的业务迁徙到了 ASI 云原生集群中,阿里开始思考将这些组件性能凋谢给寰球的 Kubernetes 用户,于是便有了 OpenKruise 开源我的项目。2019 年 6 月,OpenKruise 的第一个预览版本公布,并在 KubeCon 云原生技术峰会上发表开源。 在阿里云技术团队看来,开源绝不是仅仅将代码拷贝后凋谢进去。“咱们已经看到一些开源我的项目,仅仅是每隔几个月甚至更久的工夫将外部代码选择性地拿出一部分更新到 GitHub 上。这绝不是一种衰弱、可继续的开源形式,无奈造成社区凝聚力。”阿里云技术专家王思宇说道。 因而,在最后构想到首个开源版本公布的两个多月工夫里,阿里云技术团队次要在解决以下两件事: 设计凋谢的开源与外部合作流程。通过重复斟酌,团队最终决定将 OpenKruise 的根底仓库齐全托管在社区,外部仅保护一个 fork 仓库,并一直从 GitHub 上游同步代码进来。因而,OpenKruise 所有性能的开发都是基于 GitHub 合作、提交和评审,所有过程对社区凋谢,任何人都能够参加。阿里外部的 fork 仓库只保留了大量适配接口,并将内外代码的统一率维持在 95% 以上。制订正当的性能开源门路。ASI 中的扩大性能十分丰盛,但并非所有性能都适配任意的原生 Kubernetes,此外很多性能也不够欠缺,可能存在更好的设计与实现形式。因而,阿里抉择先从一些既足够成熟、易用,又能保障足够通用性和向后兼容性的个性开始,逐渐将其凋谢到社区。2020 年 11 月,阿里将 OpenKruise 捐献给 CNCF 基金会托管,并将于 2022 年初提出 CNCF Incubation 申请。 ...

February 14, 2022 · 2 min · jiezi

关于阿里云:人人都是-Serverless-架构师-现代化-Web-应用开发实战

作者:寒斜|阿里云云原生中间件前端负责人 导读: 本篇实战将介绍如何以超低老本构建动静的 Web 站点,并且实现灵便扩大,限流等成果,最初再跟大家聊一聊“古代利用”的相干概念。置信很多同学都有过想要领有本人的 Web 站点的想法,然而如果想要搭建动静的站点,须要洽购云主机,买带宽并且本人搭建环境,部署运维,整体下来老本会十分高。若如果只是搞动态的站点的话,形式很多也很便宜,然而整体功能性就会比拟弱,且收益成果也会差很多。 上面咱们就应用 Serverless Devs 为大家实操演示一下如何构建 Serverless 架构的现代化 Web 动静站点。 构建现代化 Web 动静站点1、架构一览首先为大家介绍一下本次 Web 利用的架构图: 咱们采纳阿里云网关作为主流量入口,而后将动静申请转发给 阿里云函数计算,动态文件则交给 阿里云对象存储OSS 来解决。并在网关上做一系列的平安解决措施,如限流等。 2、筹备工作如上图所示咱们须要开明几款阿里云的产品 : 云解析DNSAPI 网关函数计算对象存储OSS而后筹备一个本人喜爱的域名,能够去万网申请一个,最便宜的只有几块钱,笔者申请的 serverless-developer.com 顶级域名仅 48 块/年,本次部署将抉择香港 region, 域名须要实名认证,倡议提前进行备案。 (另外说一下 DNS 的域名解析是要花钱的,个人版的话第一个域名大概 40.8块/年,此外每减少一个需额定另加20块钱左右。) 装置好 Serverless devs 开发者工具: npm install -g @serverless-devs/s 3、操作步骤1)秘钥配置对于老手而言,应用 Serverless Devs 的第一步就是将相干云厂商的秘钥信息配置好,这样才可能进行相干的构建部署操作。只须要关上电脑的终端,而后输出 s config add , 即可进入疏导式操作 。 (关上链接查看更具体的阿里云秘钥教程 ) 2)利用初始化秘钥配置好,为了更便捷地检索相干利用模板,咱们能够登录 serverless devs 利用核心, 搜寻 "modern-web-application",而后依据下图所示操作即可。 1.点击复制指令 2.关上命令行终端进行粘贴 3.依据疏导提醒输出提前准备好的域名( 如 demo.serverless-developer.com ) 以及oss bucket 名称( hanxie-serverless-web ) 倡议 oss bucket 提前在控制台创立 ...

February 14, 2022 · 2 min · jiezi

关于阿里云:企业为什么要做应用多活

容灾成为企业上云和用云的根底要求2019 年 IDC 公布的《寰球云计算 IT 基础设施市场预测报告》显示:2019 年寰球云上的IT基础设施占比超过传统数据中心。越来越多企业因为云计算低成本、稳定性而抉择在云端构建零碎,云曾经变成了一个支流 IT 基础设施。近年来,开源技术和云技术保持高速倒退,呈现品种繁多的产品和服务,技术人员决策权变大,架构更迭速度日益放慢。在高速演进的过程中,要谨防人为的不合理故障,同时也要关注自然灾害的影响。一次不失当业务中断,可能带来重大的品牌、客户、经济损失。 所有的上云企业都把容灾零碎能力建设作为最根底指标来要求,并保障投入。只有确保劫难产生时,要害数据不失落,零碎服务尽快恢复运行,企业能力保障短暂、安稳的高速倒退。 常见的劫难故障在企业生产实践中,未免会产生大大小小的故障,影响零碎的稳定性。有些故障在产生后疾速复原,内部用户无感,有些故障长时间无奈复原,造成内部舆情、资金损失等问题,甚至可能导致公司破产,故障个别有如下几类: 人为操作失误,比方常见的有配置谬误、利用公布失败等等;硬件故障,比方常见的就是网络设备出故障,导致机房或者集群内多台服务器受影响等;网络攻击,比方 DDoS 等网络攻击等;断网/断电,比方光缆被挖断等;自然灾害,比方雷击导致机房电力故障等。在这些劫难下,经常面临着公网、接入网关、机房等设施中断,会造成流量上涨、网站打不开、故障报警等业务问题,对于企业而言,须要面临着“业务复原”和“故障复原”两大难题,最好的形式是将这两类问题进行解耦,在产生故障时,疾速切流,优先复原业务。在业务复原的前提下,进行故障定位修复。 故障逃逸能力的成长业界常见的故障定位与复原涵盖 4 个步骤:发现问题-定位问题-修复问题-业务复原。显著无奈满足“业务复原”和“故障复原”解耦解决的需要。更好的应答形式是将这 4 个故障解决步骤升级成"发现问题-切流-业务复原"的 3 个故障解决步骤,通过“切流”保障业务的疾速复原,将业务复原的工夫从“数十分钟甚至数小时不等”缩短到“分钟级甚至秒级”,进步业务的容灾能力。 为了保障疾速切流的实现和在实在场景中“无效”的切流,咱们须要建设更高阶的容灾架构技术,还须要加强“基础设施”、“业务零碎”、“保障工具”、“生产制度”、“应急人员”的协同。通过架构与组织的协同,实现容灾多活的能力保鲜。 这种能力,不是即刻就能够冲破的,是须要不停的优化架构与组织协同,能力促使业务的容灾多活能力螺旋式的回升。 冲破地区限度企业在起步阶段个别抉择单地区部署,但随着业务的规模倒退,单地区机房将无奈满足业务须要。与此同时,单地区的集群化组件随着连接数的爆炸性增长,单集群的容量已无奈持续扩大,亟须进行集群的拆分。 然而在做反对跨地区的集群拆分时,须要满足“路由一致性”、“数据一致性”的准则,从而让业务可能冲破地区限度,做到跨地区的容量程度扩大,灵便调度流量,从而解决单地区下的容量挑战问题,比方: 1、机器容量。多个异地机房对等部署,企业应用可在多地多机房灵便部署业务利用。 2、连贯容量。机房内集群化组件独立,各自机房连贯自有组件,防止连接数有限增长的问题。 灾备容灾的局限性灾备容灾建设在数据级容灾的根底之上,罕用的实现形式是在备份机房构建一套雷同的利用零碎,劫难产生时会在约定的工夫范畴(RTO)内复原运行,尽可能减少劫难带来的损失。在理论施行时,存在以下几个问题: 1、灾备核心平时不提供服务,在切换到灾备核心的关键时刻时无奈确定是否能够胜利切换。 2、灾备核心平时不提供服务,整个灾备资源会处于闲置状态,老本节约比拟高。 3、灾备核心平时不提供服务,所以平时提供服务的机房还停留在单地区,当业务体量大到肯定水平时,这种模式无奈解决单地区资源瓶颈的问题。 利用多活的概念“利用多活”是“利用容灾”技术的一种高级状态,指在同城或异地机房建设一套与本地生产零碎局部或全副对应的生产零碎,所有机房内的利用同时对外提供服务。当劫难产生时,多活零碎能够分钟级内实现业务流量切换,用户甚至感触不到故障产生。 常见的利用多活架构分为同城多活、异地多活、混合云多活,和传统容灾相比,利用多活具备以下 4 个劣势: 分钟级 RTO。 复原工夫快,阿里外部生产级别复原工夫均匀在 30s 以内,内部客户生产零碎复原工夫均匀在 1 分钟。资源充分利用。资源不存在闲置的问题,多机房多资源充分利用,防止资源节约。切换成功率高。依靠于成熟的多活技术架构和可视化运维平台,相较于现有容灾架构,切换成功率高,阿里外部年切流数千次的成功率高达 99.9% 以上。流量精准管制。利用多活反对流量自顶到底关闭,依靠精准引流能力将特定业务流量打入对应机房,企业可基于此劣势能力孵化全域灰度、重点流量保障等个性。 到 2025 年,有超过 50% 企业会应用分布式云。公共云服务能力将延长到边缘计算和 IDC,一朵分布式云实现全场景笼罩。跨云、跨平台、跨地理位置的利用多活场景和技术将开始浮现。无容灾不上云,利用零碎要随时具备对劫难故障的逃逸能力。安稳迁徙上云是每位决策者的要害决策点。 业务继续倒退,架构一直演进,容灾治理解决的是倒退中问题。如何实现利用多活的容灾架构和组织协同,也越来越成为更多企业者关怀的问题。 ----以上节选自《利用多活技术白皮书》,点击此处即可下载!

February 14, 2022 · 1 min · jiezi

关于阿里云:国内唯一阿里云容器服务进入-Forrester-领导者象限

作者:ACK 近日,国内权威咨询机构 Forrester 公布《 The Forrester WaveTM: Public Cloud Container Platforms, Q1 2022 》报告,报告显示,阿里云进入寰球公共云容器平台"领导者"象限,这是中国云计算厂商首次进入该象限。 图1 阿里云进入寰球 Forrester 2022 Q1公共云容器平台"领导者"象限(图片起源:TheForresterWave™:PublicCloudContainerPlatforms,Q12022查看报告全文:https://reurl.cc/3jYNVl) Forrester 是寰球最权威的 IT 征询评测机构之一,针对本次入选的 8 家国内最重要的容器平台服务商,从产品、策略、市场体现三个维度,14 个规范 29 项评估细则进行了深入研究剖析和评分,评测规范审慎严苛。 当先的超大规模容器服务实际,减速千行百业拥抱云原阿里巴巴技术架构的云原生演进已历经 15 年。自 2011 年起,阿里巴巴开始推动团体利用容器化落地,以解决其外围业务老本和运维效率的问题。凭借超过十年的容器技术储备和实战经验,阿里云容器服务领有对超大集群的撑持能力,并在国内率先实现了单集群 1 万节点 1 百万 Pod 的规模冲破,可帮忙企业轻松应答一直减少的规模化需要。 2020 年的双 11,阿里团体就实现 100% 利用云原生化,电商微服务、中间件等利用,以及搜寻、大数据、 AI 业务全副运行在对立的容器平台根底之上,1 小时内扩大超百万容器,任务调度效率达每秒 2 万个,大促成本升高 50%,规模化利用交付效率晋升了 100%。在宽泛撑持团体利用云原生化的同时,阿里云容器服务也为云上上万企业实现现代化利用革新降级提供服务,帮忙包含互联网到批发、金融、制作、交通等在内的越来越多行业,利用云原生技术减速翻新。 图2 阿里云云原实际历程 Forrester 报告评估: “阿里云是中国和亚太地区当先的公共云平台,其容器服务已扩大到寰球。阿里巴巴团体曾经宽泛拥抱云原生,超过 90% 的应用程序在其 Kubernetes 容器服务上运行。阿里云无效地将这种教训转化为宽泛的云原生服务,为客户构建数字业务赋能 。” 全面的云原生开源奉献,继续引领中国云原生翻新倒退目前,阿里云在开源社区 GitHub 奉献排名目前居中国企业榜首,开源我的项目超过 2600 个, Contributor 超过 3 万名, Star 和关注数超过百万。云原生正在重塑整个软件生命周期。为了帮忙企业和开发者更加高效、便捷地利用云原生技术,阿里云依靠自研及社区生态单干投入了全面的云原生开源奉献,涵盖容器、微服务、Serverless、利用交付等要害畛域,并回馈给寰球顶级基金会。已向云原生计算基金会 CNCF 捐献了云原生利用交付和治理平台 KubeVela、云原生利用自动化引擎 OpenKruise、边缘容器平台 OpenYurt 、云原生数据编排和减速零碎 Fluid、多集群治理平台 OCM、秘密计算场景开源容器运行时 Inclavare Containers、分布式高可用畛域混沌工程工具 ChaosBlade 等我的项目,为云、社区和开发者之间建设更好的连贯,助力云原生发明更大的技术价值和商业价值,减速数字经济的倒退。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:云原生落地大爆发企业和开发者如何把握先机

作者:伍杏玲 随着云计算产业走向成熟,云原生改变传统的开发模式,放慢程序利用的开发和运维效率,越来越多的行业基于云原生,通过凋谢的技术标准进行利用落地,以充沛开释云时代的价值。据 IDC 统计,2023 年云原生利用占比将达到 80%。 现在,越来越多开发者退出到云原生开发浪潮中:据《云原生开发现状报告》显示,寰球云原生开发人员达 680 万,与 2020 年 5 月报告的云原生开发者数量 470 万相比,寰球云原生开发人员数量正在极速增长。 在此背景下,阿里云将基于天池平台间断举办 5 年的中间件性能挑战赛降级为云原生编程挑战赛,为寰球开发者提供一个解决世界级问题的舞台。云原生实战峰会暨第二届云原生编程挑战赛决赛颁奖典礼于 1 月 11 日在上海圆满闭幕。 回顾 2021 年,云原生有哪些重大技术冲破?云原生时代下开发模式、技术标准等一直变动,企业应该如何落地云原生?开发者应把握哪些能力? 为此,CSDN 在云原生实战峰会期间采访到阿里云云原生利用平台总经理丁宇,请他具体解读阿里云在云原生畛域的产品矩阵、最新实际与冲破停顿,并探讨将来发展趋势,以期帮忙开发者和企业厘清思路。 阿里云云原生利用平台总经理 丁宇 回顾 2021 年云原生技术倒退与改革现在,云原生正以强劲的倒退之势,剑指云计算的下一个十年。2021 年在云原生畛域巨头动作一直:1 月,红帽公司打算收买容器和 Kubernetes 原生平安畛域公司 StackROX,打算将其能力与红帽 OpenShift 联合;12 月,GitLab公司收买 Opstrace ,用以扩大其 DevOps 平台;提供云基础设施自动化服务的 HashiCorp 公司上市,成为寰球市值最高的开源公司。 在技术上,云原生关键技术如容器、微服务、服务网格等热度继续攀升,据云原生产业联盟《中国云原生用户调查报告》显示,2021 年,云原生技术畛域的建设投入、集群规模继续走高,用户利用及软件公布更加频繁。在用户生产环境中,容器技术驳回率近 70%,Serverless 技术继续升温,利用用户近四成。 回顾 2021 年云原生技术,出现以下发展趋势: 一、容器无处不在。容器可屏蔽异构环境的差别,构建以利用为核心的多环境治理界面,向下治理 IaaS 层基础设施,让应用软件在异构环境中输入、运维、交付;向上撑持各项任务,承接大数据、数据库、AI、中间件等服务,加强存储计算拆散、混合部署、运维自动化等能力。容器突破了云的边界,让云的能力大幅延长扩大,逐步演变成“云原生操作系统”,呈现出“计算无界,承载有限”的发展趋势。 二、Serverless 继续演进。据 SlashData 《云原生开发现状报告》显示,应用容器编排工具的开发者达 460 万,应用 Serverless 平台开发者达 400 万,应用两者占比为 180 万。2021 年Knative 公布,晋升 Serverless 容器利用交付端到端的应用体验和易用性,成为 Kubernetes 上装置宽泛的 Serverless。现在,很多企业服务正全面 Serverless 化,开发者无需关注运维等通用操作,能够更专一在外围业务的研发。 ...

February 14, 2022 · 2 min · jiezi

关于阿里云:独家下载阿里云云原生携-10-技术专家带来云原生与云未来的新可能

关注阿里巴巴云原生公众号,后盾回复「0119电子书」,即可取得收费取得《云原生与云将来的新可能》电子书 寰球经济的运行与人们的生存正在经验扭转,数字化的生产与生存形式成为后疫情时代的新常态。与此同时,云原生曾经成为数字经济技术的翻新基石,并且正在粗浅地扭转企业上云和用云的形式。 阿里云对云原生的定义是应云而生的软件、硬件和架构,帮忙企业最大化取得云价值,更好地应答环境变动,在晋升业务翻新迭代效率的同时,升高计算成本。 2021年12月,阿里云携10+技术专家亮相年度顶级云原生开源技术峰会 KubeCon + CloudNa tiveCon + Open Source Summit China 2021,并带来阿里云云原生专场,不仅汇聚行业倒退方向的精彩主题演讲,在云基础设施、可察看性、存储、定制和扩大 Kubernetes、性能、服务网格、 无服务器、容器运行时、CI/CD、网络等云原生与开源技术等各大专题中,从阿里云实在业务场景中 走进去的云原生技术最佳实际也向寰球开发者一一出现。 如果说云原生代表了云计算的明天,那么云计算的将来会是什么样?咱们将本次阿里云云原生专场 的技术专家们分享内容实录会集本书,心愿与更多的开发者独特摸索“云将来,新可能”。 收费下载地址https://developer.aliyun.com/topic/download?id=8265 精彩内容领先看开篇:云将来,新可能作者:易立,阿里云资深技术专家、容器服务研发负责人 2020 年以来,新冠疫情扭转了寰球经济的运行与人们的生存。数字化的生产与生存形式成为后疫情时代的新常态。明天,云计算曾经成为社会的数字经济基础设施,而云原生技术正在粗浅地扭转企业上云和用云的形式。 阿里云对云原生的定义是应云而生的软件、硬件和架构,帮忙企业最大化取得云价值。具体来说,云原生技术给企业带来 3 个外围的业务价值: 麻利高效 - 更好反对 DevOps 晋升利用研发和交付效率,晋升弹性和资源利用率。帮忙企业能够更好应答环境变动,升高计算成本增强韧性 - 利用容器技术能够简化业务上云,更好撑持微服务利用架构;进一步增强IT企业基础设施和利用架构韧性,保障企业业务连续性。交融翻新 - 5G,AIoT,AR/VR 等新技术疾速倒退,云原生技术让计算无处不在,能够更好地反对的新的交融计算状态如果说云原生代表了云计算的明天,那么云计算的将来会是什么样? 点击此处,即可收费取得《云原生与云将来的新可能》电子书!

February 14, 2022 · 1 min · jiezi

关于阿里云:Spring-Boot-Serverless-实战系列-性能调优

作者:西流(阿里云函数计算专家) 导读:Spring Boot 是基于 Java Spring 框架的套件,它预装了 Spring 的一系列组件,让开发者只须要很少的配置就能够创立独立运行的应用程序。在云原生的环境中,有大量的平台能够运行 Spring Boot 利用,例如虚拟机、容器等。但其中最有吸引力的,是以 Serverless 的形式运行 Spring Boot 利用。 我将通过一系列文章,从架构,部署,监控、性能、平安等 5 个方面来剖析 Serverless 平台运行 Spring Boot 利用的优劣。为了让剖析更有代表性,我抉择了 Github 上 star 数超过 50k 的电商利用 mall 作为示例。这是系列文章的第四篇, 本文向大家展现如何对 Serverless 利用进行性能调优。 实例启动速度优化在之前的文章实战教程中,置信大家都感触到 Serverless 的便捷之美,只需上传代码包和镜像就可能轻松上线一个弹性高可用的 Web 利用。 然而它仍存在首次启动“冷启动延时”的问题,Mall 利用实例的启动大概 30 秒左右,用户会感触较长时间的冷启动延时,在这个“即时时代”应用程序响应慢多少会有些瑕不掩瑜。(“冷启动”是指函数服务于特定调用申请时的状态,当一段时间没有申请后,Serverless 平台则会回收函数实例;等到下一次再有申请时,零碎会再次实时拉起实例,该过程称之为冷启动。) 在优化冷启动之前,咱们要先剖析分明冷启动各个阶段的耗时。 首先在函数计算(FC) 控制台的服务配置界面,开启链路追踪性能。 对 mall-admin 服务发动申请,胜利后查看 FC 控制台,咱们可能看到相应的申请信息。留神敞开“仅查看函数谬误”,这样才会显示所有申请。指标监控和调用链路数据收集会存在肯定延时,如果没有显示,请期待一会再刷新。找到冷启动标记的申请,点击 “更多” 下的 “申请详情”。 调用链路会显示冷启动各个环节的耗时。冷启动蕴含以下几个环节: 代码筹备(PrepareCode):次要是下载代码包或者镜像。因为咱们曾经启用了镜像减速性能,不须要下载全副的镜像,因而这一步的延时十分短。 运行时初始化(RuntimeInitialization):从启动函数开始,到函数计算(FC)零碎探测到利用端口就绪为止。这两头蕴含了利用启动工夫。在命令行执行 s mall-admin logs 查看相应的日志工夫,咱们也能看到 Spring Boot 利用的启动须要花大量的工夫。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:如何快速构建服务发现的高可用能力

作者:十眠 背景注册核心作为承当服务注册发现的外围组件,是微服务架构中必不可少的一环。在 CAP 的模型中,注册核心能够就义一点点数据一致性(C),即同一时刻每一个节点拿到的服务地址容许短暂的不统一,但必须要保障可用性(A)。因为一旦因为某些问题导致注册核心不可用,或者服务连不上注册核心,那么想要连贯他的节点可能会因为无奈获取服务地址而对整个零碎呈现灾难性的打击。 一个实在的案例全篇从一个实在的案例说起,某客户在阿里云上应用 Kubernetes 集群部署了许多本人的微服务,因为某台 ECS 的网卡产生了异样,尽管网卡异样很快复原了,然而却呈现了大面积继续的服务不可用,业务受损。 咱们来看一下这个问题链是如何造成的? ECS 故障节点上运行着 Kubernetes 集群的外围根底组件 CoreDNS 的所有 Pod,且低版本 Kubernetes 集群短少 NodeLocal DNSCache 的个性,导致集群 DNS 解析呈现问题。该客户的服务发现应用了有缺点的客户端版本(Nacos-client 的 1.4.1 版本),这个版本的缺点就是跟 DNS 无关——心跳申请在域名解析失败后,会导致过程后续不会再续约心跳,只有重启能力复原。这个缺点版本实际上是已知问题,阿里云在 5 月份推送了 Nacos-client 1.4.1 存在重大 bug 的布告,但客户研发未收到告诉,进而在生产环境中应用了这个版本。 危险环环相扣,缺一不可。 最终导致故障的起因是服务无奈调用上游,可用性升高,业务受损。下图示意的是客户端缺点导致问题的根因: Provider 客户端在心跳续约时产生 DNS 异样;心跳线程未能正确地解决这个 DNS 异样,导致线程意外退出了;注册核心的失常机制是,心跳不续约,30 秒后主动下线。因为 CoreDNS 影响的是整个 Kubernetes 集群的 DNS 解析,所以 Provider 的所有实例都遇到雷同的问题,整个服务所有实例都被下线;在 Consumer 这一侧,收到推送的空列表后,无奈找到上游,那么调用它的上游(比方网关)就会产生异样。回顾整个案例,每一环每个危险看起来产生概率都很小,然而一旦产生就会造成顽劣的影响。服务发现高可用是微服务体系中很重要的一环,当然也是咱们时常疏忽的点。在阿里外部的故障演练中,这始终是必不可少的一个环节。 面向失败的设计因为网络环境的抖动比方 CoreDns 的异样,或者是因为某些因素导致咱们的注册核心不可用等状况,常常会呈现服务批量闪断的状况,但这种状况其实不是业务服务的不可用,如果咱们的微服务能够辨认到这是一种异常情况(批量闪断或地址变空时),应该采取一种激进的策略,免得误推从而导致全副服务呈现"no provider"的问题,会导致所有的微服务不可用的故障,并且继续较长时间难以复原。 站在微服务角度上思考,咱们如何能够切段以上的问题链呢?以上的案例看起来是 Nacos-client 低版本造成的问题,然而如果咱们用的是 zookeeper、eureka 等注册核心呢?咱们能拍着胸脯说,不会产生以上的问题吗?面向失败的设计准则通知咱们,如果注册核心挂掉了,或者咱们的服务连不上注册核心了,咱们须要有一个形式保障咱们的服务失常调用,线上的业务继续一直。 本文介绍的是服务发现过程中的高可用的机制,从服务框架层面思考如何彻底解决以上的问题。 服务发现过程中的高可用原理解析服务发现高可用-推空爱护面向失败的设计通知咱们,服务并不能齐全置信注册核心的告诉的地址,当注册核心的推送地址为空时候,服务调用必定会出 no provider 谬误,那么咱们就疏忽此次推送的地址变更。 ...

February 14, 2022 · 3 min · jiezi

关于阿里云:阿里云容器服务差异化-SLO-混部技术实践

作者:佑祎 背景介绍阿里巴巴在“差异化 SLO 混合部署”上曾经有了多年的实践经验,目前已达到业界领先水平。所谓“差异化 SLO”,就是将不同类型的工作负载混合运行在同一节点,充分利用工作负载对资源 SLO 需要特色的不同,晋升资源整体应用效率。本文将重点介绍相干技术细节和应用办法,让用户能够充沛享受差异化 SLO 带来的技术红利。 资源模型作为通用的计算资源托管框架,Kubernetes 托管了多种类型的业务负载,包含在线服务、大数据、实时计算、AI 等等。从业务对资源品质需要来看,这些业务能够分为“延时敏感型”(Latency Sensitive,简称 LS)和“资源消耗型”(Best Effort,简称 BE)两类。 对于 LS 类型,为了确保资源的稳定性(可能应答突发的业务流量,可能应答机房容灾后带来的流量增长),一个牢靠的服务通常会申请较大的资源 request 和 limit,这也是 Kubernetes 集群资源分配率很容易做到 80% 以上但利用率却低于 20% 的次要起因,也是 Kubernetes 引入 BestEffort QoS 类型的起因。 为了充分利用这部分已调配但未应用的资源,咱们将上图中的红线定义为 usage,蓝色线到红色先预留局部资源定义为 buffered,绿色笼罩局部定义为 reclaimed,如下图所示: 这部分资源代表了可动静超卖的资源量,也就是 ∑reclaimed(Guaranteed/Burstable)。将这部分闲暇资源分配给 BE 类型的业务,就能够充分利用工作负载对资源运行品质需要不同的特色,晋升集群整体资源利用率。 阿里云容器服务 Kubernetes 版(Alibaba Cloud Container Service for Kubernetes,以下简称 ACK)差异化 SLO 扩大套件提供了将这部分超卖资源量化的能力,动静计算以后的reclaimed资源量,并以规范扩大资源的模式实时更新到 Kubernetes 的 Node 元信息中。 # Nodestatus: allocatable: # milli-core alibabacloud.com/reclaimed-cpu: 50000 # bytes alibabacloud.com/reclaimed-memory: 50000 capacity: alibabacloud.com/reclaimed-cpu: 50000 alibabacloud.com/reclaimed-memory: 100000低优的 BE 工作在应用 reclaimed 资源时,只需在 Pod 减少“qos”和“reclaimed-resource”的表述即可,其中 qos = LS 对应高优先级,qos = BE 对应低优先级;reclaimed-cpu/memory 为 BE Pod 的具体资源需求量。 ...

February 14, 2022 · 3 min · jiezi

关于阿里云:KubeDL-HostNetwork加速分布式训练通信效率

作者:陈裘凯( 求索) 前言KubeDL 是阿里开源的基于 Kubernetes 的 AI 工作负载治理框架,取自"Kubernetes-Deep-Learning"的缩写,心愿可能依靠阿里巴巴的场景,将大规模机器学习作业调度与治理的教训反哺社区。目前 KubeDL 曾经进入 CNCF Sandbox 我的项目孵化,咱们会一直摸索云原生 AI 场景中的最佳实际,助力算法科学家们简略高效地实现翻新落地。 KubeDL 为分布式训练作业带来了 HostNetwork 网络模式,反对计算节点之间通过宿主机网络互相通信以晋升网络性能,同时适应 RDMA/SCC 等新型高性能数据中心架构的网络环境,此外,KubeDL 针对 HostNetwork 模式带来的 FailOver 后新端口相互感知等问题也带来了新的解决思路。 Github 地址:https://github.com/kubedl-io/kubedl 网站:https://kubedl.io/model/intro/ Overlay 不是银弹Kubernetes 原生的容器网络模型定义了一系列不依赖 NAT 的"Pod-Pod"间通信规约,基于 VxLAN 组建的 Overlay 网络很好地实现了这一模型(如经典的 Flannel)并解决了诸多大规模容器编排零碎中的网络管理的痛点: Pod 的无感迁徙:Overlay 网络是基于物理网络构建的虚构二层网络,Pod IP 并不与任何节点绑定,当节点宕机或产生其余硬件异样时,对应的服务 Pod 能够通过雷同的 IP 在其余节点上重新启动,只有底层的物理网络连通不中断就不影响服务的可用性。在大规模的分布式机器学习训练中。KubeDL 也是基于“Pod 可能漂移,但 Service 是固定的”这一前提实现的计算节点故障转移(FailOver);网络节点的规模:经典的 NAT 地址解析通常通过 ARP 播送协定来主动学习邻接节点 IP 与 MAC 地址的映射,但当节点规模宏大时,一次播送很容易造成 ARP 风暴并引起网络拥塞,而基于隧道穿梭的 Overlay 网络只需晓得多数的 VTEP 节点的 MAC 地址即能实现数据包的转发,极大的升高了网络的压力;租户网络隔离:Kubernetes 弱小的网络插件扩展性配合 VxLAN 的协定设计,很容易实现虚构网络的再划分从而实现租户之间的网络隔离;这些都是虚构容器网络带来的益处,但虚拟化的代价是网络性能的损耗:Pod 与主机网络通过一对 Veth 虚构网桥设施连贯来实现网络 namespace 的相互隔离,每一次"Pod-Pod"间通信的数据包都须要通过”封包-路由-以太网-路由-拆包“等流程能力达到对端的 Pod,拖慢网络性能的同时还会减少宿主机内核网络栈的解决压力从而晋升负载。 ...

February 14, 2022 · 2 min · jiezi

关于阿里云:附赠PPT-KubeMeet-成都站回顾让云原生应用交付和管理变得更简单

1 月 15 日,由云原生基金会 CNCF 和阿里云开发者 ACE 独特主办的 「KubeMeet · 云原生利用交付与治理专场」开发者沙龙在成都举办。技术探讨、踊跃互动、开源我的项目近距离接触......5 场开源实际的分享,让开发者们真正感触到了 KubeVela、OpenKruise、OCM、Sealer 、Nacos 等开源技术的魅力。 本场流动,OpenKruise 作者&初创成员之一,阿里云技术专家,赵明山(立衡);KubeVela 开源产品经理,阿里云技术专家,曾庆国(悦达);sealer maintainer,政采云技术专家,汪勋;sealer 我的项目发起人,阿里云技术专家,方海涛(中弈);OCM 维护者,阿里云开发工程师,金敏(左修);以及 Alibaba Nacos PMC,Apache ShardingSphere PMC,杨翊(席翁);独特为大家分享了云原生在企业中落地的挑战,以及开源我的项目如何在企业生产环境下解决云原生利用交付与治理的难题。 上面就让咱们一起回顾本次流动上都有哪些精彩霎时。扫描下方金句海报二维码即可回看本次流动现场直播。 精彩回顾关注【阿里巴巴云原生】公众号,后盾回复 0115,即可取得本次流动讲师 PPT 分享主题:OpenKruise 晋升云原生利用自动化新高度OpenKruise 是阿里巴巴外部百万 Pod 调度场景中积淀进去的最佳实际。 本次演讲围绕 OpenKruise 开源我的项目开展,针对大规模利用场景下,原生的 workloads 无奈满足简单业务部署诉求的问题,从workloads 存在的问题、OpenKruise 带来了哪些新的能力,以及接下来社区倒退的布局等方面进行了具体论述,帮忙开发者更好地理解如何应答利用的部署难题。 分享主题: 古代混合环境云原生利用交付和治理平台本次演讲从一个典型的云原生利用交付流水线开始,和开发者独特探讨了明天 CIOps 中面临的典型问题,并且剖析面对用户对云原生利用继续交付的外围诉求,咱们能够从 Kubernetes 中失去的启发。 围绕 KubeVela 开源我的项目,介绍了在云原生技术的发展趋势朝着“统一的、跨云、跨环境的利用交付”一直迈进的明天,CNCF 沙箱我的项目 KubeVela,作为一个开箱即用、面向古代微服务架构的利用交付与治理平台,是如何面对古代混合云环境的利用交付难题,提出一个开源、规范,又不失灵便度的解法的。 分享主题:集群镜像重塑分布式应用交付“集群镜像”是如何指数级升高分布式软件交付老本的?本次演讲以行业 ISV 为例,介绍了集群镜像如何帮忙企业解决了分布式软件的部署一致性难题、升高了交付出错率,最终指数级升高分布式软件的交付老本。 受 Docker 等容器技术的启发,集群镜像将单机利用封装技术,回升到分布式集群维度,最终实现分布式软件的高效交付(build, share, run)。能够说集群镜像把整个集群看成一台服务器,把 Kubernetes 看成云操作系统,实现了整个集群的镜像化打包和交付,为企业级软件提供一种“开箱即用”的利用封装技术。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:云拨测助力伟东云教育全面提升全球用户体验

作者:白玙 作为寰球出名职业培训平台服务商,伟东云教育以教育利用为外围,提供面向职业教育、高等教育的资源、产品与服务,打造“数字化人才倒退平台”。为寰球 25 个国家及国内 25 个省级行政区的政府、院校、企业、机构提供相干人才培养服务,深耕家政、应急、交通运输、退役军人待业守业培训、人工智能等多个畛域。弥合区域数字鸿沟,助力教育信息化建设,为推动寰球教育事业平衡倒退贡献力量。 作为教育行业独角兽,面对全国乃至寰球不同地区 ToB 客户及泛滥 ToC 终端用户,如何保障终端体验与平台可用性成为要害。在服务过程中,伟东云服务团队遭逢以下问题。 发现问题在为某地建设教育信息化平台过程中,时常呈现当地用户拜访异常现象。为解决这一问题,伟东云服务团队针对网站性能及网络链路的各环节进行逐个排查。确认平台可用性没问题后,伟东云服务团队将关注点聚焦于网络环境。 (图片来自网络,仅作示意) 虽最终与运营商解决上述问题,造成异样的根因是受到当地网络环境的限度,从而造成用户拜访异样。但伟东云服务团队在近程测试时查看失常,导致无奈更疾速定位问题地位,使得故障复原时长被拉长。面对这样的问题,如何确保全国乃至寰球不同地区用户的可用性,全面把握当地实在网络环境以及网站性能各个指标,尽可能压缩故障复原时长,成为伟东云教育服务团队的重要痛点。 在服务东北某地某客户的过程中,伟东云服务团队收到某地区用户上报,在浏览平台网站时会跳转到非法赌博平台,存在造成用户资产损失危险。在进行近程测试及通过 VPN 代理进行相干测试时,伟东云服务团队也无奈复现相干问题。 (图片来自网络,仅作示意) 随着故障排查的深刻,在针对上报异样的用户进行调研访谈时,伟东云服务团队发现上报异样的用户都应用了了当地某个小型网络运营商的宽带。经测试,发现的确是因为该运营商造成了劫持。 解决方案尽管已有各种监控伎俩,但如何更加全面的进行监控去查漏补全。如何保障日常服务的稳定性与安全性,成为伟东云服务团队的重要议题。在理解上述问题之后,阿里云与伟东云服务团队进行沟通,统一认为具备寰球海量监测节点以及非侵入式的「云拨测」解决问题的最佳产品。 重点城市城市可用性被动监控: 通过配置网络监控工作,抉择次要几个重点城市 IDC 监测点,对指标网站的重点页面进行网络连通性监控,同时配置较快的监测频率,一旦呈现可用性问题,告警会及时告诉进去。IDC 监测点绝对应 LastMile 监测点来说更稳固,能够缩小误报的概率。 页面拜访性能剖析: 网页关上速度也是伟东云教育须要重点关注点问题,对于他们的客户来说网页速度间接影响他们的客户在线教育的品质。针对网页关上速度,伟东云抉择了全副次要省份城市的 LastMile 监测点,并配置了浏览工作对网站首页和重点页面进行性能剖析,重点会关注网络连接延时、页面申请元素的总数及 CDN 解析对品质,定位问题根因后会推动相干供应商或外部研发团队进行优化。 最终成果借助云拨测,伟东云教育服务团队进一步欠缺监控体系。利用最低老本全面把握全国乃至寰球不同地区终端用户的理论拜访体验状况。缩短故障复原时长 20% 以上,大幅提高故障响应效率以及用户满意度。 对于云拨测云拨测作为面向业务的非侵入式云原生监测产品,成为最佳的抉择。通过阿里云遍布寰球的服务网络,模仿实在用户行为,全天候继续监测网站及其网络、服务、API 端口可用性与性能。实现页面元素级、网络申请级、网络链路级细颗粒度问题定位。丰盛的监测关联项与分析模型,帮忙企业及时发现与定位性能瓶颈与体验暗点,压降经营危险,晋升服务体验与效力。 寰球监测节点笼罩寰球超过 20 万 LM,500 余个 IDC 终端监测节点,海内外 400+ 运营商以及数十万量级注册会员,确保监测规模满足日益宏大的业务规模。 无需嵌码,开箱即用零侵入式监测,只需输出 URL 并进行简略配置即可,无需研发反对。数分钟即可取得残缺的网站性能数据分析报告。资源包&按量付费多种购买模式,满足运维测试需要。 面向业务,预置多种分析模型监测周期精密至分钟级别,7 大类 20 余项监测关联参数设置、反对多种支流协定,为站点和业务端口等提供 7×24 小时细颗粒度故障实时监测、告警及性能剖析服务。以最终客户视角,通过地区、运营商等多维度组合分析,下钻剖析单样本详情,利用丰盛的指标体系与图表类型,直观定位问题、受影响范畴及其根因,压降剖析工夫,晋升运维效率。真正做到精细化监测。 智能告警,精准定位针对首屏用时、整体性能、可用性实现实时告警,丰盛的告警策略设置,与阿里云告警核心深度集成,无效缩短 MTTR。反对发现页面元素级谬误,问题归因精准定位至单次网络申请过程,晋升问题定位效率。 为了满足更多企业与独立站长的拨测需要,云拨测上线公布不同规格的月资源包,并发展限时优惠活动。点击此处,产看更多优惠!

February 14, 2022 · 1 min · jiezi

关于阿里云:如何利用-AHAS-保障-Web-服务稳如磐石

作者:宿何 微服务的稳定性始终是开发者十分关注的话题。随着业务从单体架构向分布式架构演进以及部署形式的变动,服务之间的依赖关系变得越来越简单,业务零碎也面临着微小的高可用挑战。利用高可用服务 AHAS (Application High Availability Service) 是经阿里巴巴外部多年高可用体系积淀下来的云产品,基于阿里开源流控降级组件 Sentinel,以流量与容错为切入点,从流量管制、不稳固调用隔离、熔断降级、热点流量防护、零碎自适应过载爱护、集群流控、服务防抖动等多个维度来帮忙保障服务和网关的稳定性,同时提供秒级的流量监控剖析性能。AHAS 不仅在阿里外部淘宝、天猫等电商畛域有着宽泛的利用,在互联网金融、在线教育、游戏、直播行业和其余大型政央企行业也有着大量的实际。 在分布式系统架构中,每个申请都会通过很多层解决,比方从入口网关再到 Web Server 再到服务之间的调用,再到服务拜访缓存或 DB 等存储。在高可用流量防护体系中,咱们倡议在流量链路的每一层都进行针对性的流量防护与容错伎俩,来保障服务的稳定性。上一期咱们介绍了如何在 Nginx/Ingress 网关层接入 AHAS Sentinel 来进行前置流量防护,本篇文章咱们来介绍一下在 Web 应用层进行细粒度的高可用流量防护。 Web Server 场景AHAS 利用防护反对 Java/Go 等多语言原生接入,反对支流的 Web 框架与组件: Java 反对 Spring Web/Spring WebFlux/Spring Boot/Spring Cloud/Tomcat/Jetty/Undertow 等支流 Web 框架Go 反对 Gin, echo 等框架每个服务都有一个能承载的最大申请容量,这个容量通常压测进行评估。在突发激增流量的场景下,咱们须要针对外围 Web API 配置流控规定,来保障系统流量处于无效的解决能力之内,防止被打垮。同时,Web 流量通常具备十分多的业务属性与参数,如 IP、用户 ID、商品 ID 等,许多申请都具备肯定的热点个性,比方一大波申请针对某个热点商品。因为流量具备不确定性、不可预测的个性,咱们无奈精确预知流量的量级、散布、热点拜访状况,很难针对性地针对某个突发业务提前预判并配置防护,因而自动识别热点申请能力也是十分重要的。 AHAS Web 场景流控[1]不仅反对 URL path 维度的流控,还反对针对 client IP、host、header、申请参数等进行细粒度热点流量管制。咱们只须要在配置 Web 流控规定时,指定针对哪个申请属性进行热点流控(如 key 为 UserId 的 header),那么 AHAS 就会主动剖析申请中对应申请属性的值(如 header 的 value),主动统计出 top N 热点拜访的参数并别离进行申请量管制。通过这种维度的管制,咱们能够在 Web 服务端实现 IP 防刷、热点商品防刷等一系列的细粒度高可用防护策略,甚至能够实现 每个用户每个 API 每分钟限度拜访 N 次 这种具备业务含意的流量管控策略。 ...

February 14, 2022 · 2 min · jiezi

关于阿里云:Serverless-架构开发手册-人人都是-Serverless-架构师先导篇

作者:寒斜 对于 Serverless 概念性的相干文章网上曾经十分多,本来我也不想再做更多对于 Serverless 概念和价值相干的介绍,次要起因是我感觉以后的这个阶段咱们讲 Serverless 应该到了联合事实生产去聊它的落地细节和理论的成果,而不应该还是用 PPT 给大家灌输相干的理念。但基于本篇是笔者想做的《人人都是 Serverless 架构师》专题系列的开篇,所以也还是须要尽量艰深的先给大家做一个对于 Serverless 架构的开题介绍。 什么是 Serverless 架构Serverless 架构是以 Serverless 服务体系为外围的利用架构设计理念,属于分布式架构的一种。最显著特色是它继承了 Serverless 的外围劣势:及时弹性,可能应答高并发申请并在升高计算服务老本的同时,具备微服务架构的高扩大,疾速迭代等劣势。它是一种更加聚焦于业务开发的架构。 咱们举例介绍一下 Serverless 架构与传统的架构的比照: 某初创的垂直畛域电商公司,须要搭建一个残缺的动静站点服务。从最开始的单体架构开始,须要在阿里云购买一台 2 核 8G 的 ECS 和 200G 的硬盘。通常状况下 5M 带宽一年的破费约为 4000+, 且须要用户本人装置 MySQL 数据库,redis, nginx 等根底软件。还要有业余同学长期运维服务器,解决如避免磁盘变满,服务器启停及备份等工作。 当业务量上来之后,为了放弃高可用和进步拜访性能。须要对基础架构进行降级,要购买阿里云负载平衡、弹性伸缩服务和更多的 ECS 服务器,同时为了避免数据库瓶颈,还须要降级应用云数据库 rds ,此时的整体架构如下: 除了架构层面的筹备,还须要进一步设置 ECS 的平安组、伸缩规定、SlB 转发规定,后续的运维会比单体的更简单,整体价格老本也更高。 然而应用 Serverless 架构的话,不论是在我的项目初创亦或后续业务质变大等期间,整体架构都能够放弃不变。其架构如下图所示: 业务减少只需横向扩大路由配置并增加函数即可。老本上, 阿里云网关 ApiGateway 共享实例访问量 1000w 次,共计 60 块;阿里云对象存储 OSS 依照存储量和拜访流量免费,存储量标准型是 0.12元/GB/月,拜访流量 0.5元/GB,阿里云函数计算有收费流量而且也是按量付费整体费用也非常低。数据库依据需要能够采纳 TableStrore 按量付费的模式,如果更习惯用 MySQL 则能够洽购云数据库。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:SAE-最佳实践范本助力视野数科进入云原生快车道

作者:胡阳(视线数科) 2021 年,云原生的商业价值正在被减速开释。 一个公认的事实是,Serverless 是当下云原生方向内相对的亮点。能够看作,它的呈现,让企业用户真正地罢黜运维累赘,更专一于业务自身。换言之,企业能够基于按需付费的模式降本增效,实现技术的商业价值最大化。 在这场技术与商业互补的浪潮中,视线数科是一个显明的案例。基于阿里云 Serverless 利用引擎(SAE),视线数科未然全面降级为云原生架构,为金融科技全行业利用云原生提供了最佳业务实际范本。 阿里云生态金融科技行业标杆—— 视线数科成立于 2014 年,是国内首个专一服务于一级市场、公司信贷、产业布局招商、面向多层次资本市场的大数据金融信息服务商。和其余 to C 的运作逻辑不同的是,视线数科将数据产品与金融行业应用场景做了深层绑定,推出了一系列业务功能模块。 随同业务一直降级,视线数科从为金融机构提供数据信息服务登程,近年来其客户已逐渐扩大服务政府、产业园区、大型国企团体等,同时笼罩数据范畴也从金融相干数据逐渐延长到产业产品数据、企业经营数据、宏观经济数据、政务数据、政策舆情数据、地理信息数据等,围绕客户数字化转型,为客户提供数据销售、数据整合、数据加工解决、数据中台、零碎开发和大数据模型剖析咨询服务的整体数据服务解决方案,助力中国产业数字化转型。 在金融数据提供商的角色定位之外,现在的视线数科正在迈入多产品线和多类型服务客群的新倒退阶段,成为一个真正的金融产业数据服务计划解决商。 业务痛点当先,优选阿里云 Serverless 计划在金融行业零碎中,大数据的利用场景始终是敏感简单的代名词。 以数据调用为例,大多数金融机构零碎与外网隔离,须要数据服务公司搭建更适宜这样场景下的数据服务体系或能够满足客户需要的嵌入式数据性能。对于客户来说,视线数科不仅提供惯例的数据文件/数据同步/API 的数据服务形式还能够将数据以 SDK + 嵌入式的形式无缝嵌入到客户外部零碎之中。 一方面,这简化了客户的开发成本,另一方面,则大大缩减了客户对大量的内部洽购数据的理论应用投入的开发工夫。 此外,和泛滥的金融科技公司一样,视线数科是自建 IDC + 私有云混合部署的模式。而在上云的摸索中,视线数科始终是行业的先行者。早在 14 年,视线数科基于阿里云 ECS 服务器,应用开源自建+云产品组合应用,搭建了第一代基础设施云:整个架构以数据为外围,包含 SaaS 化数据服务平台、平安接入和防护、数据服务层,数据处理层、云平安等。 视线数科业务架构图 做为一家科技行业的守业公司来说,在守业之初是须要将业务疾速跑起来,最后所有利用都是单体烟囱式架构、手工部署,但基于技术侧的短板,这些架构优化工作始终被耽误。 但近两年这类基于技术架构的问题被日益凸显。能够看作,数据是企业业务的外围资产,数据的平安、稳固和效率是服务大型客户的要害。在固有的模型下,视线数科测试环境无奈获取客户全量实在数据,很多 case 笼罩不到,只能等上线前,在灰度环境(等同预发)频繁发版 & 测试的过程中才裸露了一些问题: 1)开发迭代效率慢:单体烟囱式架构,代码耦合度高,开发效率慢。 2)上线流程简单,老本高:应用 SVN 代码治理+人工部署,短少规范化 DevOps 流程,每次上线前研发、质检、运维三个团队在灰度环境都须要大量的合作,来回折腾 20~30 次数据校验,频繁发版测试,开发和运维幸福感很差。 3)容量预估无奈自动化:每次客户侧有营销流动/重要事件(如新华财经金融排名等),需提前一周告知视线数科备容 ECS,存在备容不准危险和闲置节约问题。 针对以上的问题,视线数科本身的技术架构降级已剑在弦上。据理解,视线数科外部曾探讨过两个计划: 计划一:ECS 自建 Docker+开源微服务,发现能疾速容器化&晋升资源利用率,但底层根底施运维(DockerDaemon 降级、配置管理、镜像仓库治理等)和开发工作量大(微服务组件自研),上线运维危险高。简略 POC 之后,做出个体放弃的决定。 计划二:应用商业化的微服务 PaaS 平台托管利用,发现能升高微服务门槛,能为微服务组件的稳定性兜底,但 ECS 还须要本人运维还是很繁琐,而且整体费用太高超估算。 最终,在一次技术沟通会上理解到 SAE,联合公司过后的技术背景,发现 SAE 和公司的技术升级革新有很高的符合度,不改代码、不扭转利用现有的部署形式,享受到微服务 + Serverless + K8s 的残缺体验,开箱即用,也免去前期的运维。视线数科开启了架构降级的践行之路。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:全链路灰度之-RocketMQ-灰度

作者:亦盏 之前的系列文章中,咱们曾经通过全链路金丝雀公布这个性能来介绍了 MSE 对于全链路流量管制的场景,咱们曾经理解了 Spring Cloud 和 Dubbo 这一类 RPC 调用的全链路灰度应该如何实现,然而没有波及到音讯这类异步场景下的流量管制,明天咱们将以上次介绍过的《如何用 20 分钟就能取得同款企业级全链路灰度能力?》中的场景为根底,来进一步介绍音讯场景的全链路灰度。 尽管绝大多数业务场景下对于音讯的灰度的要求并不像 RPC 的要求得这么严格,然而在以下两个场景下,还是会对音讯的全链路有肯定的诉求的。 1、第一种场景是在音讯生产时,可能会产生新的 RPC 调用,如果没有在音讯这一环去遵循之前设定好的全链路流量管制的规定,会导致通过音讯产生的这部分流量“逃逸”,从而导致全链路灰度的规定受到毁坏,导致呈现不合乎预期的状况。 为了防止出现这个状况,咱们须要在生产时候将音讯里原来的流量标还原,并在 RPC 调用的时候遵循原来的规定。咱们通过架构图来详细描述一下,满足这个逻辑之后,调用链路是怎么的,从下图中咱们能够看到,灰度和基线环境生产进去的音讯,尽管在音讯推送的时候是随机的,然而在生产过程中,产生的新的 RPC 调用,还是可能回到流量原来所属的环境。 2、第二种场景须要更加严格的音讯灰度隔离。比方当音讯的生产逻辑进行了批改时,这时候心愿通过小流量的形式来验证新的音讯生产逻辑的正确性,要严格地要求灰度的音讯只能被推送给灰度的音讯消费者。 明天咱们就来实操一下第二种场景音讯的全链路灰度,目前 MSE 仅反对 RocketMQ 音讯的灰度。若您应用的是开源版 RocketMQ,那么版本须要在 4.5.0 及以上,若您应用的是阿里云商业版 RocketMQ,那么须要应用铂金版,且 Ons Client 版本在 1.8.0.Final 及以上。如果只是想应用第一种场景,只须要给 B 利用开启全链路灰度的性能即可,不须要做额定的音讯灰度相干的配置。 在这次最佳实际的操作中,咱们是将利用部署在阿里云容器服务 Kubernetes 版本,即 ACK 集群来演示,然而事实上,音讯灰度对于利用的部署模式是没有限制性要求的,您能够参考 MSE 帮忙文档,找到本人所应用的部署模式对应的接入形式,也能应用音讯全链路灰度。 前提条件1、开明 MSE 专业版,请参见开明 MSE 微服务治理专业版[1]。 2、创立 ACK 集群,请参见创立 Kubernetes 集群[2]。 操作步骤步骤一:接入 MSE 微服务治理1、装置 mse-ack-pilot a.登录容器服务控制台[3]。 b.在左侧导航栏单击市场 > 利用目录。 c.在利用目录页面点击阿里云利用,抉择微服务,并单击 ack-mse-pilot。 ...

February 14, 2022 · 5 min · jiezi

关于阿里云:724-小时业务不中断菜鸟乡村应用多活落地实践

作者:比扬 从后期调研、计划评估、多活建设到最终外围物流业务的革新上线,仅仅只用了 2 个多月,菜鸟农村就实现了外围业务同城多活容灾的指标,实现业务的 7*24 小时不间断服务,最大水平保障了业务稳定性及连续性。 菜鸟农村作为服务农村的新型物流业务,通过数字化技术,打造县域、乡镇、村三级独特配送服务体系,帮忙农村物流降本提效,晋升农村消费者快递服务体验;此外,还通过建设产地仓,造成产品分级品控、物流运输一体化,带动农村农货上行,帮忙农民增收。截至目前菜鸟农村物流已服务 1000 多个区县,服务站点笼罩 30000 多个农村。 面对高速倒退的业务规模,除了一直迭代业务能力的同时,菜鸟农村也在一直的夯实其技术底座和业务利用的高可用能力。菜鸟农村的业务齐全搭建在大公共云之上,采纳了云原生架构,目标是为了借助成熟的云产品能力实现业务疾速迭代。在调研多活容灾之初,菜鸟的同学就找到了阿里云原生高可用团队负责业务多活容灾 MSHA 的同学来一起探讨针对菜鸟农村业务现状和将来业务布局的多活容灾计划。通过 2 个多月的工夫,菜鸟农村联结阿里云原生高可用团队,打造了智能化、集约化的云化同城多活物流零碎和独特配送平台,实现了相干零碎利用的同城多活容灾架构建设,具备了可用区级流量比例的秒级调控(<10s),以及故障场景的可用区全方位流量(HTTP、RPC、MQ、任务调度)一键切 0 能力,历次演练可用区级故障,一键切 0 失效工夫均小于 20 秒,为菜鸟农村业务提供了无力的容灾保障。 菜鸟农村利用多活的革新实际之路对于一家高速倒退的公司来说,IT 的建设与运维通常跟不上业务的高速倒退与迭代,如何高效、低成本的保障业务稳固成为业务倒退中面临的十分重要的挑战与危险。让咱们一起来体验菜鸟的农村的利用多活的革新实际之路。 后期面临的稳定性挑战及高可用诉求外围业务零碎仅在公共云的繁多可用区部署,存在可用区级的故障危险。保障业务疾速迭代的同时,如何高效且低代价的落地容灾计划。容灾计划的选型问题。指标是劫难产生时尽可能的缩短故障对用户的影响时长,疾速复原业务。从容灾指标维度剖析,在一个分布式系统中,一致性(Consistency)、可用性(Availability)、分区容错性(Partition tolerance)中最多只能同时实现两点,不可能三者兼顾。在容灾场景下,少数零碎抉择 AP 或 CP 模式。 从施行老本维度剖析,稳定性和扩展性效益越高,所带来的施行老本也越大。 为了疾速补全云上基建的单可用区危险,菜鸟农村抉择通过“同城双活”的容灾架构来疾速补齐短板,晋升业务的高可用性。 联合业务现状疾速制订同城利用双活容灾计划 菜鸟农村与阿里云一起针对所面临问题以及将来业务布局进行了深度沟通与研究。联合业务容灾的诉求以及业务技术栈,阿里云制订出了同城利用多活架构的解决方案,计划要点如下: 1、可用区级利用双活。从 1 个可用区拓展到 2 个可用区,2 个可用区部署对等容量的利用。基于多活接入网关产品承接所有业务流量,并依照比例或精准路由规定将流量调度到不同可用区的后端利用,多个可用区部署的利用同时对外提供服务,实现利用多活。2、微服务同可用区优先调用。基于多活产品 Agent 能力,反对开启 Dubbo/SpringCloud 同可用区优先调用性能,从而防止跨可用区调用带来的RT 增长。而当机房内衰弱的 Provider 数量低于配置的阈值时,则优先调用策略主动生效,防止同可用区 Provider 过少撑持不住上游的流量压力。3、疾速容灾复原。当某一可用区产生故障时,基于多活产品的一键切流能力,首先通过多活接入网关将 HTTP 流量切换到另一可用区, 同时基于多活产品 Agent 能力将故障可用区内的 RPC(Dubbo/SpringCloud)、MQ(RocketMQ)、定时工作(SchedulerX/XXL-Job)客户端进行故障隔离,实现全局流量的疾速容灾切换。 上线前屡次的容灾演练与验证同城双活的搭建是否安稳的运行到线上,预发环境的验证和生产环境的容灾演练是尤为要害的环节。 验证工作次要蕴含以下两局部: Agent 启动验证。各类中间件的切 0 强依赖 Agent,必须确保 one Agent 能在所有业务容器失常启动、探针可失常上报至 MSHA 管控服务,且 Agent 启动后未影响到其余关联服务。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:在阿里云镜像站下载KiCad

KiCad官方主页链接如下: KiCad EDA - Schematic Capture & PCB Design Software 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 KiCad EDA 是一款用于印刷电路板设计的开源自由软件,最后由法国人 Jean-Pierre Charras 于 1992 年推出,现由 KiCad 开发团队保护。 软件蕴含原理图设计、线路板绘制、符号库设计、封装库设计、线路板 3D 显示、Gerber 查看、线路板实用计算等工具。 它是一款国外的收费开源的PCB设计工具,但当初在阿里云镜像站下面就能够下载它了。 下载地址如下:阿里云开源镜像站资源目录 首先关上下载链接会看到以下界面, 目录具体阐明可见下表, KiCad 镜像目录应用阐明 目录阐明备注appimage/appimage 安装包chmod +x .AppImage && ./.AppImagearchive/压缩文件旧文件docs/发行版的文档手册蕴含 HTML、PDF、EPUBdoxygen/KiCad 开发配置具体开发手册doxygen-python/KiCad Python 开发配置具体开发手册libraries/封装库和集成库发行版本的封装库和集成库osx/KiCad OSX 版本目录蕴含稳定版、夜间版和测试版windows/KiCad Windows 版本目录蕴含稳定版、夜间版和测试版cleanup.sh清理脚本无favicon.ico图标无list.jsJS 脚本无阿里云镜像站目前提供了2种操作系统KiCad安装包的下载,别离是windows和OS。 咱们只须要抉择对应版本下载即可,以windows为例, 点击windows进入以下界面,抉择stable/,stable/示意发行版本。 进入发行版本页面,抉择所需下载的版本即可。 目录阐明备注nightly/夜间构建版本无stable/发行版本看版本号抉择适合的下载testing/测试版本抉择对应分支下载测试 参考链接如下: https://developer.aliyun.com/mirror/kicad

February 14, 2022 · 1 min · jiezi

关于阿里云:云原生编程挑战赛落幕阿里云推出云原生领域首本应用多活技术白皮书

1 月 11 日,以“原生万物,云上翻新”为主题的云原生实战峰会暨第二届云原生编程挑战赛决赛颁奖典礼在上海圆满闭幕,来自阿里云、毕马威、作业帮、韵达、分众传媒等企业实战派代表分享了最新的实际和极具价值的前沿思考。同时,在云原生实战峰会现场进行第二届云原生编程挑战赛决赛颁奖典礼,以及为首批阿里云云原生 MVP 授牌。 四大方向、五大要害要务,助力企业云上翻新阿里巴巴团体副总裁、阿里云智能中国区副总裁黄海清为本次流动做收场分享:《云原生助力企业云上翻新》。阿里云在上海深度参加本地民生、城市治理、企业数字化转型等畛域的多项成绩,提出业务数据化、决策智能化、应用服务化、组织麻利化四大数字化转型方向,总结了以数据为驱动、以客户为核心、一把手推动、以生态来赋能、打造麻利组织五大要害要务,公布平安与信赖、场景和增长、协同与交融的数字化转型新趋势,致力以云原生技术力量推动城市治理与产业倒退,一直发明新价值。 阿里巴巴团体副总裁、阿里云智能中国区副总裁黄海清 云原生的将来:分布式云协同,云边一体化,平安云原生化和高度自动化来自毕马威云事业部合伙人倪志建分享《浅析企业数字化转型之路》,他提到,采纳云原生技术,充分发挥云计算海量数据、人工智能和丰盛利用场景等劣势,云原生未然成为施展云效力、开释数字化潜能的最无利技术驱动和最佳施行门路。毕马威预测,云原生的倒退将聚焦四大趋势:分布式云协同,云边一体化,平安云原生化和高度自动化。云原生的大门曾经开展,数字化经济正在蓬勃发展。 毕马威云事业部合伙人倪志建 打造企业数字翻新最短门路,阿里云云原生多项重磅公布阿里巴巴研究员、阿里云智能云原生利用平台总经理丁宇分享《云原生,企业数字翻新最短门路》,同时带来云原生多项重磅公布。 阿里巴巴研究员、阿里云智能云原生利用平台总经理丁宇 首先,阿里云公布业内首个多活畛域开源我的项目 AppActive,以及业内首本聚焦多活畛域的《利用多活技术白皮书》,打造云原生畛域容灾新规范。白皮书从多个等维度具体论述利用多活技术与架构,帮忙企业业务适配云基础架构带来的差异性,提供统一的开发和运维体验。 其次,继 2021 年云栖大会公布容器产品全新降级 ACK Anywhere 之后,阿里云公布容器新产品分布式云容器平台 ACK ONE 和 ACK 发行版。ACK ONE 是一个企业级多地区/多集群容器治理平台,帮忙企业在任何地区、任何基础设施、任何场景去拥抱云原生带来的技术赋能,并提供一致性的治理、交付、运维体验;阿里云 ACK 发行版(简称 ACK Distro)是阿里云针对异构 IaaS 环境公布的 Kubernetes 发行版。通过 ACK Distro,企业在决定将业务迁徙至私有云前,就能够在自有基础设施上享受到和阿里云容器服务 ACK 一样的平安、牢靠的企业级 Kubernetes 集群,并通过分布式容器云平台 ACK ONE 体验对立的云原生能力。 ACK Distro 下载链接:https://www.aliyun.com/produc... 最初,阿里云公布云原生技术中台 CNStack 社区版凋谢下载。CNStack 社区版能够让用户疾速试用云原生技术中台,帮忙企业和开发者疾速构建开发测试环境,在单台机器上 10 分钟内就能一键装置 CNStack 平台,满足利用云原生开发和测试的一站式需要。 CNStack 社区版下载链接:https://www.aliyun.com/activi... 云原生编程挑战赛圆满收官,三大赛道冠军诞生第二届云原生编程挑战赛共有 13940 支队伍报名参赛,超过 14200+ 人参加其中,笼罩中国、美国、德国、加拿大、新加坡等 11 个国家和地区,汇聚 420+ 国内外顶尖高校和 260+ 当先企业,企业选手占比达 31%。历时 3 个月的强烈角逐后,最终三大赛道的冠军、亚军、季军战队怀才不遇。 ...

February 14, 2022 · 1 min · jiezi

关于阿里云:Windows10配置阿里云NTP

 NTP 简介 NTP 是网络工夫协定 (Network Time Protocol),它是用来同步网络中各个计算机的工夫的协定。 时区和工夫一致性对于云服务器ECS十分重要,有时会间接影响到工作执行的后果。例如,您在更新数据库或者剖析日志时,工夫程序对后果有很大影响。为防止在ECS实例上运行业务时呈现逻辑凌乱和网络申请谬误等问题,您须要对立相干ECS实例的时区设置。另外,您还能够通过NTP服务同步各网络中ECS实例的本地工夫。 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 上面介绍如何配置Windows NTP服务,保障实例本地工夫准确同步。 批改默认NTP服务器地址 Windows Server操作系统默认配置微软NTP服务器(time.windows.com),然而可能常常同步出错。应用阿里云ECS实例时,您能够将默认NTP服务器更换成阿里云提供的内网NTP服务器。请按以下步骤批改默认NTP服务器地址。 1 关上控制面板,点击时钟和区域。 2 点击日期和工夫。 3 在日期和工夫对话框里,单击Internet 工夫选项卡,并单击更改设置。 在Internet 工夫设置对话框里,抉择与Internet工夫服务器同步,填写一个阿里云内网NTP服务器地址ntp.aliyun.com,并单击立刻更新,确定。

February 14, 2022 · 1 min · jiezi

关于阿里云:centos7配置MongoDB镜像

 MongoDB 是一个基于分布式文件存储的数据库。由 C++ 语言编写。旨在为 WEB 利用提供可扩大的高性能数据存储解决方案。 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 配置办法 装置(应用yum源装置) 在/etc/yum.repos.d 创立一个mongodb-org.repo源文件 vi /etc/yum.repos.d/mongodb-org.repo 增加内容如下:(配置偶数版本,奇数版不适宜生产应用) [mongodb-org] name = MongoDB Repository baseurl = https: //mirrors.aliyun.com/mongodb/yum/redhat/$releasever/mongodb-org/3.6/x86_64/ gpgcheck = 1 enabled = 1 gpgkey = https: //www.mongodb.org/static/pgp/server-3.6.asc 最初执行命令装置MongoDB  yum install mongodb-org Is this OK?输出y

February 13, 2022 · 1 min · jiezi

关于阿里云:Centos7配置Grafana镜像

 Grafana镜像 简介 Grafana是一个跨平台的开源的度量剖析和可视化工具,能够通过将采集的数据查问而后可视化的展现,并及时告诉。 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 下载地址:阿里云开源镜像站资源目录 Centos用户 新建 /etc/yum.repos.d/grafana.repo,内容为 [grafana] name=grafana baseurl=https://mirrors.aliyun.com/gr... repo_gpgcheck=0 enabled=1 gpgcheck=0 再执行 sudo yum makecache sudo yum install grafana

February 13, 2022 · 1 min · jiezi

关于阿里云:Centos-7配置阿里云NTP

 1、什么是NTP服务 NTP是网络工夫协定(Network Time Protocol),它是用来同步网络中各个计算机的工夫的协定。 大家也能够关上阿里云官网镜像站:https://developer.aliyun.com/mirror/查看具体阐明。 []()2、Liunx罕用工夫命令 查看零碎工夫 Date 3、装置配置NTP服务 (1) 查看是否装置NTP服务 rpm -qa|grep ntp (2) 若没有装置,执行如下命令装置NTP服务  yum install -y ntp []()配置阿里云NTP服务 1关上open terminal 2执行命令sudo vi /etc/ntp.conf关上并编辑NTP服务配置文件。 3找到server ntp 服务器 iburst的信息后,输出i开始编辑文件,给临时不须要的NTP服务器句首加上#暗藏起来。 新增加一行NTP服务器信息,格局为:server 须要增加的NTP服务器 iburst。实现编辑后按下Esc键退出输出:wq保留退出。 执行命令sudo service ntpd start启动自定义的NTP服务。 执行命令chkconfig ntpd on设置开机自启动NTP服务。 执行命令ntpstat查看是否启动了NTP服务。 执行命令systemctl status ntpd查看ntp服务是否失常。

February 12, 2022 · 1 min · jiezi

关于阿里云:Centos7中语言如何设置成中文

 Centos零碎作为开源最优良的Linux版本,咱们在阿里云官网镜像站:https://developer.aliyun.com/mirror/ 找到所需Centos版本并下载安装后, 可能未留神指定零碎语言,后果装置实现启动后才发现零碎显示的是英文,怎么切换成中文显示呢? 在桌面菜单中找到“Applications”点击进入菜单列表,找到“System Tools”,点击进入子菜单,找到“Settings”,如图: 点击“Settings”,进入设置界面,找到“Region&Language”,在语言选择对话框中, 找到“汉语(中国)”,抉择,而后点击左上角的“Done”,如图: 把两个选项都抉择“汉语(中国)”,而后点击“Done”,退出,零碎会提醒是否重启电脑失效,咱们抉择是。

February 12, 2022 · 1 min · jiezi

关于阿里云:Centos-7利用安装GNOMEKDE图形界面

 咱们在阿里云官网镜像站:https://developer.aliyun.com/mirror/ 找到所需Centos版本并下载安装后,是没有图形界面的,那该如何装置呢? 1进入 root 模式 因为权限限度,所以咱们须要进入 root 模式,开机应用 root 登陆或者零碎运行中切换为 root 用户均可。 2装置  X 窗口零碎 1、首先装置X(X Window System),命令为 yum groupinstall "X Window System" 留神有引号 而后零碎会主动寻找最近的网络进行相干文件的下载 抉择 y,开始进行装置 当呈现 Complete!阐明这里装置胜利了。 在这里检查一下咱们曾经装置的软件以及能够装置的软件,命令为 yum grouplist 再输出 yum groupinstall "GNOME Desktop" yum groupinstall "Graphical Administration Tools" 当呈现进展时按 y 特地留神!名称必须对应,否则会呈现No packages in any requested group available to install or update 的谬误。这是因为不同版本的CentOS的软件名可能不同(其余 Linux 零碎也是相似的) ...

February 11, 2022 · 1 min · jiezi

关于阿里云:Centos-7配置root权限及网络

 咱们在阿里云官网镜像站:https://developer.aliyun.com/mirror/ 找到所需Centos版本并下载安装后,还须要进行配置root权限及网络。 须要留神,凡是更改配置信息,都必须为root用户操作。普通用户没有权限,须要先获取root权限, 1:登录root用户, 2获取权限后,本机还是无奈连贯外网下载任何文件的。当初须要在root管理员权限下 (1)输出 ip addr 查看网卡名字 如下网卡名字是ens33 (也能够先ping一个公网ip 如114.114.114.114,如果能Ping通则能够连贯外网,如果ping不通会提醒 Unreachable。或者 Network is unreachable)  (2)批改网络信息配置文件 输出\vi /etc/sysconfig/network-scripts/ifcfg-ens33\将ONBOOT=NO改成ONBOOT=yes 按i键呈现Insert 批改,esc退出批改,:wq 保留退出。 3通过上一步你的centos应该就能够连贯外网了。

February 11, 2022 · 1 min · jiezi

关于阿里云:如何从阿里云官方镜像站下载centos并安装

 首先关上 阿里云官网镜像站:https://developer.aliyun.com/mirror/ 找到所需版本并下载。 这里以centos7版本为例,进行介绍。 装置操作系统 抉择第一项,装置间接CentOS 7,回车,进入上面的界面 抉择装置过程中应用的语言,这里抉择英文、键盘抉择美式键盘。点击持续, 抉择装置地位,在这里能够进行磁盘划分。开始装置。 设置ROOT明码。 接下来能够创立用户(此处能够不进行创立,装置实现后进入root也能够从新创立) centos 7装置实现--点击重启应用。

February 10, 2022 · 1 min · jiezi

关于阿里云:这样才是代码管理和-Commit-的正确姿势-研发效能提升36计

专栏策动|雅纯 意愿编辑|张晟 软件交付是以代码为核心的交付过程,其中代码的作用有几点:第一,最终的制品要交付成什么样,须要通过代码形容分明;第二,代码定义了零碎和软件是怎么工作的;第三,代码定义了零碎的运行环境是怎么的。所有这些都是围绕代码。 那咱们的代码治理和软件配置管理应该怎么做呢?咱们先看一个例子。下图是某个团队的代码组织构造,这样的代码组织构造会有什么问题呢? 问题1:代码组的命名形式凌乱 咱们发现在最上层的目录中叫risk-managenment,这是一个零碎,这个零碎是风险管理。然而子目录写的是叫“qinglong”,那“qinglong”是利用还是团队,我不晓得。而后上面还有一个玄武,上面还有一个aTeam,中英文混淆,这样的命名形式是很凌乱的。 问题2:用代码块存储内部二进制文件 在android-sdks外面会寄存很多sdk文件,这些文件是很大的,这个代码库存储很多内部二进制文件,咱们晓得在代码库间接存这样的大文件,对整个代码库的资源耗费是十分大的。 问题3:同一归属的代码保留在不同的代码组 在aTeam目录下有一个data-model,然而其余相干的文件都在玄武下,就是data-console、data-task、data-ui,咱们不晓得它具体是什么,然而咱们晓得这几个大概率是同一个利用或者是同一个产品,所以它在两个不同的层级也是不合理的。 问题4:公共库保留在子代码组里 再下一个是common-lib,通过名字来了解就是公共库,然而这个公共感觉只给玄武这个子代码组应用。 问题5:利用的文档(或测试)与利用离开寄存 最初还有一个docs目录下有risk-docs和data-docs,一个是针对危险管制的零碎,一个是针对数据地零碎。那这个外面文档也是一个代码库,文档代码库和测试代码库,它和利用是离开寄存的,这也是不合理的。 好的代码库组织模式是怎么的?问题:假如所有的代码都保留在一个代码库,且所有人均可拜访,代码库应该怎么组织? 咱们认为代码库是能够分组的,代码组(+子代码组)+代码库=大库。 基于这个逻辑,咱们再看看方才那个例子里正当的代码组的构造应该是怎么的。 如上图所示,整个代码库是一个零碎,这个零碎有两个利用,一个是risk,一个是data。每个利用上面是有很多的服务和文档。它们有一个公共的Model,叫common-lib,这是被所有的利用所依赖的。所以咱们把属于同一个利用的Git仓库放在一起,让common放到该有的中央去。不是依照团队,而是依照利用组划分,这样划分,构造就更加清晰了。这里咱们略微总结了一些实际的倡议。 代码库的内容:-软件的源代码(ProductionCode);-将文档(和测试)的git库放到其相干利用组下;-不要将制品(如零碎二进制包)保留在代码库中,如果的确须要,以LFS或相似形式寄存;(小编举荐:云效代码治理Codeup为企业提供收费不限容量的LFS存储) 代码库的组织构造:-依照零碎、利用和模块的档次来组织代码库;-同一个零碎/利用层级的所有内容位于同一个代码组下; 代码库的可见性:-通用代码库放在其通用级别都能够拜访的地位;-除外围算法等多数代码库外,倡议对代码库的拜访在同一零碎/利用下对所有相干人员公开; 代码组织完了当前,开发者就能够围绕代码库来进行合作。整个代码库的合作过程就是:所有皆Commit。无论是rebase还是merge,都是Commit。 那对于Commit,咱们有什么要留神的呢? 什么是好的Commit咱们总结了3点倡议给到大家: 1.Samll Git库要尽可能地小。尤其是目前的基础设施现状下,尽管你的一个仓库里能够放多个利用,然而保护起来的老本会很大的。还有治理方面,不要在Git上存储构建产物和其余二进制文件。把构建产物放在构建仓库上,尽管给他人不便了,却很难晓得这个构建产物是当初的代码产生进去的还是之前产生进去的,这是很难去追溯的。对于二进制文件,如果确有必要(例如游戏的素材),倡议应用LFS的形式来保留。 2.Linear 防止无意义的merge,尽量用rebase操作。其次是防止有效commit,有很多代码库commit记录很长,然而外面80%都是有效的,例如都是fix1、fix2这样的commit,都却不晓得它具体做了些什么,这种显然是不合理的,对于这种简短的commit列表,有时候能够在merge的时候squash一下。 3.Atomic 原子性,指操作的原子化。原子性有什么益处呢?一个Commit解决一个特定的问题,比如说我就是修复一个UTcase,或者是加一个UT或者是加一个性能,或者是加一个API,这些明确的问题对应到一个commit,很容易追溯。解决的问题不能很大,不能写了2000行代码解决了一个feature,一起提交,这是十分危险的。作为开发者,做的好的应该是疾速有阶段性的成绩,并且继续地有反馈,继续地贴近指标。反之,开发者的体验不好,相干协作者的体验也不好,因为他人不晓得你做了多少了,很有可能跟你产生mergeconflict。 上面列举一些Commit的反模式: 1.有效的commit 如Mergebranch'develop'of https://codeup.aliyun.com/abc...第一个问题,在简直所有公司外面都是轻易拉开一个代码,本地和近程都有这种状况,原本一个rebase搞定的事件,这样做会导致很多有效的commit,甚至对commit追溯能力会产生很大地影响。 2.巨型commit 一个commit外面蕴含了大量的代码变动,且属于多个实现目标,就像codereview,有些人提的mergerequest,一下子过去3000多行代码,作为reviewer,你齐全不晓得他做了什么,这是十分危险的。 3.半成品的commit 如蕴含有根本语法问题或实现谬误的代码的commit半成品的commit。例如,到饭点了,不论了,先提交一把。这样的代码连编译都过不了,这个显然是不好的,没有任何意义。 4.分支间的相互merge 最初一个是分支间的相互merge。从develop合到master,又从master合到develop,相互合来合去,一旦这种合并多了当前,commit就会很难追溯,因为不晓得源头在哪。咱们倡议代码库应该有一个惟一的骨干,单向往骨干merge,尽量避免反向merge的状况。 (小编举荐:云效代码治理Codeup的骨干开发模式,就提倡轻量的commit评审 和骨干研发,帮忙企业防止分支间的简单合并~)软件配置管理问题:软件配置常常被批改,被公布,它属于代码吗? 软件配置其实是另外一种模式的代码。有可能大家在理论工作中配置不是存在Git仓库外面的,可能是在一个配置核心或者其余相似零碎外面,但无论在哪里,实质上,咱们能够把配置等同于某种类型的代码。 下图是大家常见的动态配置和动静配置,或者说启动相干的配置和运行相干的配置。 启动相干配置 启动相干配置是构建到镜像中或者作为启动参数传进去的。启动之后不再批改了,不须要去动静监听它的变动。对这类配置的批改,个别须要从新创立或者重启容器。以此类推,哪些配置是启动相干的呢?比方DB连贯串、容器CPU规格、启动模式等(比方有的压测利用启动的时候辨别master模式和worker模式)。其它像DNS服务地址等,诸如此类的咱们都认为是启动相干的配置。 运行相干配置 通常是通过监听某个服务或文件来获取和更新的。比如说我要看一下我的白名单是什么,我去读一下白名单。配置的更新是不须要批改容器和Pod。运行中的容器须要继续监听配置的变动,当有变动后主动失效、无需重启。咱们举一下场景实例阐明一下: 大促期间调整日志级别,只记录ERROR级别的日志。服务的黑白名单,为了限度某些IP的拜访,将其列入黑名单。个性开关,通过开关关上或敞开某个feature。监控采样频率,由每分钟采样一次调整为每5分钟采样一次。这些配置不须要也不应该每次批改都重新部署利用,他们都属于运行相干的配置。 咱们再来看一个demo示例外面哪些是启动相干的,哪些是运行相干的。咱们列举一下: 这是启动的时候就会须要的一个参数。 咱们将secret文件注入到Deployment中,利用主动从文件感知secret的值,无需重启,因而它是运行时的配置。越内层的配置,批改老本越高。 从另外的角度看一下配置,它有不同的档次,代码、镜像、Pod和零碎。代码中的配置位于最内层,批改老本是最高的。因而,如果是编码级别的批改,要通过所有的阶段能力上线。如果运行阶段的话,我是不须要动后面的局部。 最初,留一个问题给大家:运行环境相干的配置是属于哪一种?欢送大家在评论区留言互动。 软件交付的终态是提供稳固可预期的零碎,要做到这点,须要确保:1.运行环境的一致性;2.软件制品的一致性。所以下篇,咱们将开始分享如何保障运行环境的一致性,以及环境中大家常见的痛点和应答计划。敬请期待! 浏览上篇:构建制品不统一,后续工作都是徒劳 点击下方链接收费应用云效代码治理Codeup https://www.aliyun.com/product/yunxiao/codeup?channel=yy_rccb_36

February 10, 2022 · 1 min · jiezi

关于阿里云:Firefox配置阿里云DNS方法

 DNS 简介 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 (首先须要关上阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。) Firefox配置办法: 第一步:从 Firefox 菜单栏中点击设置。 第二步:搜寻框中输出“DNS”,点击【网络设置】中的【设置】按钮。 第三步:在设置页面的底部,找到并勾选“启用基于HTTPS的DNS”,抉择“自定义”的提供商,并输出接口地址: https://dns.alidns.com/dns-query ,点击【确定】。

February 8, 2022 · 1 min · jiezi

关于阿里云:如何帮助金融客户用好云

“我一秒钟几千万高低,会跟你们吃杂碎面?” 这句出自星爷电影台词的话许多人都听过,不过对于大多数人来说这只是一句玩笑话,毕竟大家都是打工人。那是不是真有这样的人呢?当然,在证券交易中,每秒钟交易量都以亿元计,要是因为系统故障导致宕机,造成的损失就太大了。为此,所有证券乃至金融公司的管理者都将IT零碎的高效、稳固、平安运行视为重中之重,尤其保障数字化转型的尽早实现。 许多人可能感觉金融行业“财大气粗”,有短缺的估算,天然就有弱小的技术作为撑持。但其实,正因为行业的特殊性,金融数字化远比其余行业要求的更具体、更粗疏。早在2019年,中国人民银行就印发了《金融科技(FinTech) 倒退布局(2019—2021年)》,其中明确提出我国金融科技倒退的指标是“推动金融转型降级”、“服务实体经济”、“促成普惠金融倒退”和“防备化解金融风险”。依照这一指标,证券行业数字化转型仍然任重道远。 绝对于银行业来说,证券行业在金融科技方面人力资源和费用等投入有余,不少证券公司的科技化程度仍然较低,在利用上还处于初级阶段,甚至不能排除意外的产生。与此同时,随同着互联网利用的晋升与客户群的年轻化,现在越来越多的客户都是通过手机、电脑等网络平台进行证券交易,这无疑对于后盾的数据交易和系统管理带来了微小的考验,而随同着智能化、个性化的遍及,券商如何开掘存量用户价值,如何保障“老客户”的利用体验,都成为摆在行业背后的突出问题。 最外围的还是刹时峰值压力与系统安全的考验。“证券交易的高峰期个别是上午9点30到9点40,这个时间段的TPS、业务容量是其余工夫点的数10倍甚至百倍以上,对系统稳定性有着很大挑战危险”。这个正是华泰证券信息技术部运行保障核心、运维平台凋谢团队负责人在云栖大会上所说。这也体现出了券商交易的特点,而对于这种需要,显然云利用更为合乎,但同时平安也是华泰放心的外围问题——“咱们整个证券交易也就是4个小时左右工夫,其实每一分钟波及到的流水都很高。任何一笔的交易如果呈现故障,损失都靠近100%,所以对咱们及时处理、及时止损的要求十分高”。 所有行业中,金融对于性能和稳固的要求堪称是达到了“极致”,如何保障业务高效、稳固的运行?这个问题对于任何服务商来说都会倍感压力。不过侥幸的是,在通过认真的寻找和业余评估之后,华泰找到了值得“托付”的合作伙伴——阿里云混合云(Apsara Stack)。 业内应该都晓得阿里云,即使你不晓得你必定也用过它——每次你在淘宝买货色、你关上支付宝显示衰弱码,这背地都是阿里云在撑持。而每年阿里云栖大会也被视为阿里云尖端技术的全方位展现。 也就是在往年的云栖大会上,阿里云混合云正式公布了全新降级的Apsara Stack 2.0,产品将本来的面向繁多公有云场景扩大到服务于大型团体云和行业云场景。这其中,如何“用好云”是现阶段摆在所有企业管理者背后突出的问题,也是这次降级的核心内容之一。 “咱们把云计算解剖开来,先把本人白盒化,这样能够帮忙客户进行更好的了解”,阿里云混合云平台总经理刘国华介绍说。具体说来,阿里云将过来十余年的最佳实际总结起来,帮忙客户实现端到端的运维能力晋升。阿里云还提供了定向开源,用户能够基于本身业务对于原有利用进行二次开发,并能够实现双敏研发能力,帮忙客户更好的应用云原生。即通过技术白盒化、利用+云平台一体化运维、双敏研发效力实现客户明明白白的“用好云”。 将来5年,随着数字化企业规模、技术、组织变大变复杂化,解决数字化云上业务牢靠倒退成为企业倒退的刚需,阿里云混合云构建了“利用+云平台”一体化运维能力,以利用为核心、业务全生命周期为视角、云平台为底座,提供以全栈对立运维、全景可观测、全周期安全工程为外围产品能力的数字化云上业务运维系统工程,即针对从业务、利用到云平台的全栈运维对象实现数字化治理、全景可观测可度量、可审计可防护,这对用户来说,从根本上解决了客户数字化业务稳固和高效问题。咱们是始终是围绕1-5-10技术危险保障体系理念来设计咱们用好云产品的,说到这里的时候,阿里云混合云平台总经理刘国华显得信念满满。 针对用好云,阿里云继续与不同行业不同客户进行深度摸索与践行,场景简单并要求高金融行业,是阿里云深耕畛域之一。面向以智能运维、深度治理、危险控制系统运维为外围诉求的证券行业,又一个践行案例诞生——即在2021年5月24日华泰&阿里云混合云共建“数字华泰经营指挥核心“启动典礼圆满完成,至此,华泰证券具备业界技术更先进、运维更智能的指挥中枢,实现技术危险预防更全面,业务运行态势更通明,调度指挥更迅速,也正是阿里云混合云在用好云畛域的又一深度实际。 始终以来,业务平安稳固都是金融行业倒退的首要条件。尤其是在面临从单点故障危险、性能缺点危险、性能容量危险、数据失落损坏危险、运维操作危险到合规风控危险六大危险挑战时,如何具备疾速发现问题、解决问题、解决问题的能力,成为摆在金融行业运维管理者背后外围问题。 以往华泰证券都是基于运维视角定义经营指挥核心,对业务倒退不足零碎意识与撑持;而现在基于阿里云混合云共建“数字华泰”经营指挥核心,实现了以业务为视角,从新梳理业务和场景,建设业务、技术团队协同流程与机制,通过业务与信息流交融与共享,使管理者全面掌握业务运行态势;通过监测预警、经营剖析、指挥调度,实现超过14个业务场景构建与撑持、6条业务链路梳理与落地,1000+外围业务指标采集与剖析。 这样一来,首先保障了华泰证券的业务运行平安,保障云网基础设施运行状况的全面监控;与此同时通过灵便的实时调度指挥,在现有组织架构下实现跨部门、团队的对立调度,大大晋升了效率;最初,“数字华泰”经营指挥核心还可能提供实时、全域、平面经营剖析对立视图,实现经营的穿透式治理,帮忙企业管理者和决策者实现技术危险“看得见、摸得着、管得了、控的住”。 ps:上述视频详情地址:如何帮忙金融客户“用好云”? 现在,阿里云混合云的金融行业解决方案曾经在业内多点开花,目前已服务数百家头部银行和金融机构。在银行零碎,基于专有云撑持全行贷记卡外围业务全面上云,开启了大型国有商业银行外围零碎去IOE的时代;同时继续推动外围零碎大机下移,创始地方性金融机构全面上云步调。在保险与证券零碎,更是创始了头部机构构建行业云,为体系内其余机构提供云服务的新模式。 从政府到企业,从证券、银行到保险,这些畛域都关乎国计民生,堪称是牵一发而动全身。也正是在这样要害的行业,就愈发须要精准的运维、疾速的响应和智能化的预警,这也解释了为什么泛滥机构都抉择阿里云混合云的解决方案,正如华泰证券所保持的指标那样——用当先的理念和技术,提供优质的服务和极致的用户体验。 做「政企数智翻新的同行者」,这对于阿里云混合云来说不仅仅是一句口号,更是在千行百业践行的行动指南。 更多混合云最佳实际,点击下方链接返回【混合云体验营】 https://apsara-stack.aliyun.com/experience-camp/index 原文链接:如何帮忙金融客户“用好云”?

February 8, 2022 · 1 min · jiezi

关于阿里云:Chrome浏览器配置阿里云DNS方法

 DNS 简介 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 (首先须要关上阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。) Chrome浏览器配置办法: 第一步:关上Chrome浏览器,从菜单栏中点击【设置】选项。 第二步:在搜寻框中输出“DNS”,在下方的检索后果中,点击【平安】右侧的开展箭头。 第三步:页面下拉到最下方,在【高级】选项中,开明“应用平安DNS”性能,并在【应用】-【自定义】框中输出“ https://dns.alidns.com/dns-query ”即可实现配置。

February 7, 2022 · 1 min · jiezi

关于阿里云:Ubuntu2110配置阿里云DNS

 DNS 简介 域名零碎(服务)协定(DNS)是一种分布式网络目录服务,次要用于域名与 IP 地址的互相转换,以及管制因特网的电子邮件的发送。 (首先须要关上阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。) Ubuntu配置办法: 编辑文件 "/etc/resolv.conf",依据状况批改文件内容。 关上终端,在终端输出上面的命令, sudo vi /etc/resolv.conf 增加以下两行: nameserver 223.5.5.5 nameserver 223.6.6.6 保留退出,而后应用 dig 验证: dig alidns.com

February 6, 2022 · 1 min · jiezi

关于阿里云:Windows-10配置阿里云DNS

 Windows 10配置阿里云DNS 首先须要关上阿里云官网镜像站:https://developer.aliyun.com/mirror/找到DNS服务器地址,再进行后续操作。 1.关上Windows 10零碎控制面板,点击右上角的以图标形式显示,点击“网络和共享核心”选项。 2.点击网络和共享核心左侧的“更改适配器设置”链接,如下图: 3.选中正在联网的网络连接,我这里是WIFI连贯,鼠标右键菜单里抉择“属性” 4.针对IPv4的操作如下, IPv4——在网络连接属性窗口中选中“Internet 协定版本 4 (TCP/IPv4)”,而后点击“属性”。 在DNS服务器地址中输出223.5.5.5 和 223.6.6.6,输出后确定退出即设置实现。 验证,关上CMD命令提示符,通过nslookup alidns.com 命令进行验证,若最终解析后果是配置的IPV4公共DNS(223.5.5.5或223.6.6.6)返回的,则阐明配置胜利。 \

February 5, 2022 · 1 min · jiezi

关于阿里云:Ubuntu操作系统配置阿里云镜像方法二

 Ubuntu,是一款基于 Debian Linux 的以桌面利用为主的操作系统,内容涵盖文字处理、电子邮件、软件开发工具和 Web 服务等,可供用户收费下载、应用和分享。 阿里云官网镜像站:https://developer.aliyun.com/mirror/ 下载地址: 阿里云开源镜像站资源目录 配置办法 域名阐明 对于阿里云ECS用户,能够间接应用外部域名拜访,而对于非云用户则须要应用公网域名 mirrors.aliyun.com 来拜访。 手动更改 用你相熟的编辑器关上: /etc/apt/sources.list 替换默认的 http://archive.ubuntu.com/ 为 mirrors.aliyun.com 这里以ubuntu 21.10版本为例,最初的成果如下: sudo vi /etc/apt/sources.list

February 4, 2022 · 1 min · jiezi

关于阿里云:Ubuntu操作系统配置阿里云镜像方法一

 Ubuntu,是一款基于 Debian Linux 的以桌面利用为主的操作系统,内容涵盖文字处理、电子邮件、软件开发工具和 Web 服务等,可供用户收费下载、应用和分享。 阿里云官网镜像站:https://developer.aliyun.com/mirror/ 下载地址: 阿里云开源镜像站资源目录 配置办法 域名阐明 对于阿里云ECS用户,能够间接应用外部域名拜访,而对于非云用户则须要应用公网域名 mirrors.aliyun.com 来拜访。 图形界面配置 老手举荐应用图形界面配置: 零碎设置 -> 软件和更新 抉择下载服务器 -> "mirrors.aliyun.com" 这里以ubuntu 21.10版本为例 \

February 3, 2022 · 1 min · jiezi

关于阿里云:如何从阿里云官方镜像站下载ubuntu并安装

 首先关上 阿里云官网镜像站:https://developer.aliyun.com/mirror/ 找到所需版本并下载。 这里以ubuntu 21.10版本为例,进行介绍。 抉择「装置 Ubuntu」。右边的语言选择,是指零碎语言,抉择中文(简体)。 接下来这步抉择的是键盘布局。咱们应用的布局是美国规范的,所以都抉择English(US)。 接下来这一步间接默认。 在「装置类型」里也是默认即可,间接点击「当初装置」,之后的弹出窗口里点击「持续」。 在「您在什么中央?」依据理论抉择即可,而后点击「持续」。 在「您是谁?」填入集体根本信息,而后点击 「持续」,接下来就进入了下载安装的过程,整个过程大略须要20分钟。 装置结束之后抉择「旋转重启」,至此,零碎均曾经装置实现。

February 2, 2022 · 1 min · jiezi