关于阿里云:阿里云微服务引擎-MSE-全新升级实用能力更普惠最高降幅-75

微服务,曾经成为一种普惠技术。开源抉择趋势集中,商业产品趋势体验统一,开源和商业在造就客户应用习惯的过程中,逐渐成为了事实上的应用规范。5 月 17 日,阿里云峰会·常州站发表微服务引擎 MSE 三大普惠降级,进一步升高客户享受微服务技术红利的老本。 普惠一:Higress 云原生网关公布 GA 版本,官网举荐生产可用Higress 源自阿里巴巴外部电商、交易等外围生产场景的实际积淀,遵循 Ingress/Gateway API 规范,将流量网关、微服务网关、平安网关三合一,并在此基础上扩大了服务治理插件、安全类插件和自定义插件,高度集成 K8s 和微服务生态,包含 Nacos 注册和配置、Sentinel 限流降级等能力,并反对规定变更毫秒级失效等热更新能力。Higress 的倒退经验了三个阶段: 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1215923%20?utm_content=g... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 8, 2023 · 1 min · jiezi

关于阿里云:RocketMQ-学习社区重磅上线AI-互动一秒了解-RocketMQ-功能源码

作者:RocketMQ学习社区 RocketMQ 背景Apache RocketMQ 诞生至今,始终服务于 100% 阿里团体外部业务、阿里云以及开源社区数以万计的企业客户。 历经十多年双十一严苛流量验证的 RocketMQ,承载了超过万亿级音讯规模的洪峰压力。2021 年 Apache RocketMQ 更是进入全新 5.0 时代。 立足于企业业务集成的外围场景,RocketMQ 在高牢靠低提早方面重点优化,构建了全新的低提早存储引擎和多场景容灾解决方案;面向业务集成过程中链路逻辑的多样性,RocketMQ 提供了丰盛的业务音讯类型,这些个性的积攒使得 RocketMQ 成为金融级业务音讯的首选计划。 RocketMQ 学习社区公布随着 RocketMQ 进入 5.0 时代,引入了泛滥新的能力,你是否不晓得怎么开始上手学习 RocketMQ 5.0?不分明从哪里找示例代码?是不是也常常找不到原理文档? 为了进一步帮忙你全方位的理解 RocketMQ 相干的常识,同时能够更好的在理论生产环境中应用 RocketMQ,RocketMQ 学习社区重磅上线。RocketMQ 学习社区具备以下四大亮点: 亮点 1:AIGC “文生文”收费体验 AI 交互,“文生文”智能问答,征询 RocketMQ 相干的问题,帮忙您疾速学习 RocketMQ; 亮点 2:全方位学习本学习社区涵盖 RocketMQ 最新相干的文章、视频和直播,帮忙您全方面理解 RocketMQ 相干的常识; 亮点 3:边学边用本学习社区连贯生态厂商,在学习过程中,您能够一键收费支付 RocketMQ 5.0 收费 1 个月试用,边学边用; 亮点 4:边学边练本学习社区不仅帮您理解 RocketMQ、还可领先收费体验 RocketMQ 相干的流动和入手实操,边学边练。 疾速理解 RocketMQ 学习社区 ...

June 7, 2023 · 1 min · jiezi

关于阿里云:阿里云-Serverless-容器服务全面升级新增组件全托管AI-镜像秒级拉取能力

6 月 1 日在阿里云峰会·粤港澳大湾区上,阿里云智能云原生利用平台总经理丁宇发表,Serverless 容器服务 ASK 全面降级,进一步帮忙企业和开发者降本提效。 Gartner 曾预测,2023 年 70% 的 AI 利用将基于容器和 Serverless 技术开发。作为云原生的重要技术组成,K8s 曾经被开发者和企业宽泛认可,然而其本身复杂性和平缓的学习曲线仍然让人望而却步。 阿里云在 2018 年公布了首个 Serverless 容器服务 ASK,其本质是将容器的运行时和具体的节点运行环境解耦,让用户无需治理 K8s 节点和服务器,即可间接部署利用,大幅升高容器服务的应用门槛。目前,ASK 在容器化利用、在线业务弹性、AI/大数据计算类工作等场景中被宽泛应用。 本次公布,ASK 进一步整合了阿里云基础设施的能力,在应用老本、创立效率、异构资源兼容、弹性供应保障等方面带来显著晋升,解决开发者在应用 K8s 的复杂性挑战,也适应了 AI 场景暴发下催生的新需要。 丁宇介绍,本次 ASK 降级涵盖了多个维度,包含对组件的全托管反对、AI 镜像的秒级拉取能力,还升高了客户的应用老本。具体来说: 组件全托管,零 K8s 运维老本: ASK 新增对 CoreDNS、Metrics Server 等十多个 K8s 外围组件的托管反对,提供动静容量布局能力,客户无需自行部署保护,最大化升高运维复杂度。同时,ASK 也新增了智能化危险辨认能力,反对自动化降级 K8s 版本,防止降级导致的利用故障或异样危险。 极致弹性,准确率晋升 80%: ASK 提供首界独创基于容器镜像缓存的 AI 大镜像秒级拉取能力,AI 利用启动工夫升高 90%。并且提供端到端的弹性减速,面向AI/大数据工作负载容器化进行全栈优化,通过数据集减速晋升 30% 拜访性能; 此外,本次 ASK 还加强了智能弹性预测  AHPA 能力,相比人工配置,弹性准确率晋升 80%;同时新增对于 GPU 的反对。 ...

June 7, 2023 · 1 min · jiezi

关于阿里云:活动回顾丨云原生技术实践营深圳站回放-PPT-下载

5 月 28 日,飞天 Club x 云原生技术实际营 - EDAS 和容器实际专场在深圳顺利开展。阿里云一线工程师潘俊峰、黄晓萌,行云翻新 CEO 马洪喜,远光软件人工智能事业部 RPA 产品经理刘玲围绕《节俭资源老本,光有弹性是否足够?》、《云原生 IDE,定义开发新常态》、《RPA 云平台在数字化转型中的价值与利用》、《K8S Job 提效的新模式》4 个当下热门议题与现场的百余位开发者开展交换。 关注公众号,后盾回复:0528 收费取得深圳站讲师 PPT 合辑 云上开发、资源节俭、运维提效成为本场流动开发者关注的焦点。现场氛围也在实际分享+互动发问+手动实操中逐步走向低潮,此外“阿里文化行”也让开发者们进一步理解了阿里的企业文化、倒退历程与社会责任。 0528 云原生实际营深圳站流动现场 上面就让咱们一起回顾本次流动上都有哪些精彩霎时,扫描下方金句海报二维码即可回看本次流动现场直播。 精彩回顾01 分享主题丨节约资源老本,光有弹性是否足够企业在云资源老本治理的外围方向之一是资源碎片的整顿。本次分享,阿里云研发工程师,潘俊峰围绕着环境级别、机器级别、过程级别的资源碎片,剖析其存在的起因,联合相应的技术手段来缩小资源碎片,从而升高企业资源老本。同时与现场的开发者们独特探讨了在微服务场景下,如何利用弹性技术在保障服务质量的前提下,更好地实现资源按需应用。 02 分享主题丨云原生 IDE,定义开发新常态开发者在发明璀璨的数字化文化的同时,本人的生产力工具几十年未曾产生根本性扭转。云原生 IDE 的倒退将有机会带来颠覆性扭转,这也是其被 CNCF 预测为十大技术趋势之首的起因。在流动现场,行云翻新 CEO,马洪喜从“技术架构倒退要求、新兴业务场景要求、数字资产平安要求”三个方面论述了云原生 IDE 的利用偶然性,同时为咱们介绍了云原生 IDE 和 AIGC, ServiceMesh 等新兴技术互相联合的场景和价值。 03 分享主题丨RPA 云平台在数字化转型中的价值与利用RPA 作为企业数字化转型的无力推手,不仅能帮忙企业降本增效、优化老本构造。随着企业规模化利用 RPA 机器人,对 RPA 平台集中管控、近程运维提出更高要求。RPA 上云成为企业实现资源弹性伸缩、升高运维老本的最佳选项。本场分享中,远光软件人工智能事业部 RPA 产品经理,刘玲从数字化转型对 RPA 技术利用的影响、远光RPA 云端能力介绍、以及云平台利用案例三个方面进行了具体论述。让咱们理解到远光 RPA 云平台是如何从 0 到 1 验证了 RPA 机器人从本地运行到云端规模治理的能力,以及如何实现企业级数字机器人全生命周期治理的。 04 分享主题丨K8s Job 提效的新模式定时工作利用场景宽泛,传统企业在应用定时工作时遇到不少痛点,云原生时代对定时工作有了新的定义,帮忙企业降本增效。本次流动,阿里云研发工程师,黄晓萌从云原生定时工作技术趋势谈起,率领大家剖析了现阶段应用上遇到的问题,同时也带来了阿里云原生团队在 K8s Job 上的提效计划。 ...

June 7, 2023 · 1 min · jiezi

关于阿里云:热点追踪从价值到架构走近全新升级的阿里云-Serverless-容器服务-ASK

在明天阿里云粤港澳大湾区云峰会上,阿里云智能云原生利用平台总经理丁宇发表 ,Serverless 容器服务 ASK 全新降级,进一步帮忙企业和开发者降本提效。 ASK 是阿里云在 2018 年 5 月推出的 Serverless 容器服务,其本质是将容器的运行时和具体的节点运行环境解耦,让用户无需治理 K8s 节点和服务器,即可间接部署利用,这极大地升高了容器服务的应用门槛。目前,ASK 在容器化利用、在线业务弹性、AI 大数据计算类工作等场景中被宽泛应用。 6 月 2 日 15:00,阿里云 Serverless 容器服务 ASK 全新降级发布会将在线上举办,阿里云容器产品研发负责人易立、产品专家罗晶、高级技术专家牛秋霖,将从产品到架构,平面解读新一代 ASK 的翻新点及为企业带来的价值降级。 扫描下方图片二维码或点击文末“浏览原文” ,立刻预约 ASK 降级发布会。 同时本次发布会将在【阿里云云原生】视频号同步进行线上直播,欢送收看。 进入直播间,即可收费支付 ASK 试用资源、参加 ASK 产品评测、体验 ASK 简略乏味的利用场景,还有多重精美好礼等你互动赢取! 查看海报 理解议会详情 点击此处,预约 ASK 降级发布会

June 7, 2023 · 1 min · jiezi

关于阿里云:阿里云丁宇云上开发成为主流Serverless-定义新范式

明天,阿里云峰会·粤港澳大湾区在广州揭幕,阿里巴巴研究员、阿里云智能云原生利用平台总经理丁宇在论坛发言,他示意: Serverless 引领云上开发新范式,通过丰盛的原子化服务,全托管、高弹性、免运维的劣势,以开箱即用的场景化能力,老本更优的按用付费模式,帮忙企业逾越技术鸿沟,让翻新触手可及。 过来十年,上云成为确定性的趋势。在上云阶段,企业关注点在于如何实现平滑上云,因而云厂商将云托管作为外围策略。随着越来越多的企业上云,甚至很多企业零碎第一天就是在云上构建,企业的外围关注点转变为如何更好地利用云的能力,将产品疾速推向市场,从而实现业务胜利。 然而,如果算力的出现模式依然是服务器这样的资源状态,它的应用门槛仍然很高。算力和业务相隔太远,企业须要有一整套撑持利用的基础设施来用好算力。让算力像电力一样的遍及,云计算须要新的状态,就是 Serverless。 随着用好云成为要害,开发范式也将被从新定义。 通过产品服务化、全托管的形式,让企业和开发者能够专一于业务逻辑开发;并且云服务具备可编排、可复用的劣势,让企业做得更少而播种更多;基于 Serverless 能够轻松构建高弹性利用,让企业从容应对流量稳定。在 Serverless 开发范式下,企业新性能交付周期大幅缩短,进一步减速业务迭代,博得市场先机。 阿里云 Serverless 容器服务 ASK 全新降级作为云原生的重要技术组成,K8s 曾经被开发者和企业宽泛认可,然而其本身复杂性和平缓的学习曲线仍然让人望而却步。 阿里云在 2018 年公布了首个 Serverless 容器服务 ASK,其本质是将容器的运行时和具体的节点运行环境解耦,让用户无需治理 K8s 节点和服务器,即可间接部署利用,大幅升高容器服务的应用门槛。 此次 ASK 的全新降级,进一步整合了阿里云基础设施的能力,在应用老本、创立效率、异构资源兼容、弹性供应保障等方面带来显著晋升,解决开发者在应用 K8s 的复杂性挑战,也适应了 AI 场景暴发下催生的新需要。 组件全托管,零 K8s 运维老本: ASK 新增对 CoreDNS、Metrics Server 等十多个 K8s 外围组件的托管反对,提供动静容量布局能力,客户无需自行部署保护,最大化升高运维复杂度。同时,ASK 也新增了智能化危险辨认能力,反对自动化降级 K8s 版本,防止降级导致的利用故障或异样危险。 极致弹性,准确率晋升 80%: ASK 提供首界独创基于容器镜像缓存的 AI 大镜像秒级拉取能力,AI 利用启动工夫升高 90%。并且提供端到端的弹性减速,面向AI/大数据工作负载容器化进行全栈优化,通过数据集减速晋升 30% 拜访性能;此外,本次 ASK 还加强了智能弹性预测 AHPA能力,相比人工配置,弹性准确率晋升 80%;同时新增对于 GPU 的反对。 普惠算力,提价 40%: 为了给客户提供更好的服务,开释技术红利,让算力更普惠,ASK 新增 U 实例规格反对,对立反对多款处理器,相比上一代主售实例提价高达 40%。 新增 SavingPlan 弹性版本,面向利用非固定波峰波谷场景,额定老本优化 10% 以上。为进一步让价格更通明,新增老本套件反对,清晰洞察弹性资源老本,让老本治理更便捷。 ...

June 7, 2023 · 2 min · jiezi

关于阿里云:体验有奖玩转-AIGC函数计算-x-通义千问预体验一键部署-AI-应用赢-Airpods

玩转 AIGC,基于函数计算 FC 部署通义千问预体验从文字生成到图片生成,AIGC 的创造力让人惊叹,更多的人开始摸索如何应用 AI 进步生产效率,激发更多创作潜能,然而在理论利用中,AI 技术的高门槛让很多人望而生畏,一般开发者和零编程教训的人是否也能简略疾速地部署一个 AI 模型利用,享受到科技倒退带来的红利呢? 函数计算团队全新上线函数计算 FC 一键部署通义千问预体验、文生图、图生图、图生文、文生文 5 大经典 AI 场景,让您取得通义千问 30 次对话预体验机会,同时简略、高效实现一键部署图像生成、文字生成服务,速成 AIGC 创作家。 通义千问预体验环境倡议在 PC 端部署进行。 体验地址: *https://developer.aliyun.com/adc/scenario/aed6fb72b0644a40a83... 流动工夫:2023年5月25日 - 6月25日  流动奖项:双重奖品设置,实现体验场景即可支付阿里云开发者社区 400 积分兑换奖品,还可加入 AI 生成图像较量,有机会赢取 Airpods、阿里云定制蓝牙音箱、阿里云定制清雅杯! 只需 3 步骤就能够实现部署并赢走大奖 点击此处,开始通义千问预体验吧!

June 7, 2023 · 1 min · jiezi

关于阿里云:进阶篇丨链路追踪Tracing很简单链路成本指南

狭义上的链路老本,既蕴含应用链路追踪产生的数据生成、采集、计算、存储、查问等额定资源开销,也蕴含链路零碎接入、变更、保护、合作等人力运维老本。为了便于了解,本大节将聚焦在广义上的链路追踪机器资源老本,人力老本将在下一大节(效率)进行介绍。 链路追踪机器老本的组成构造链路追踪机器老本次要分为客户端和服务端两大类。 链路追踪客户端(SDK/Agent)通常运行在业务过程外部,与业务程序共享 CPU、内存、网络、磁盘等系统资源。链路追踪的客户端开销次要包含链路埋点拦挡、链路数据生成与透传、简略的预聚合或压缩/编码等数据处理、数据缓存与上报等。客户端开销通常属于一种隐性开销,短期内不会间接导致资源账单的增长,而是利用业务过程闲置局部的资源。然而,当业务持续增长或者进入峰值周期(如大促),链路追踪耗费的这部分资源最终会引发理论账单的增长。因而,这部分的开销要严格控制在一个正当的水位之内,比方不超过 10%,否则会显著影响业务的失常运行。 链路追踪的服务端机器老本是一种显性的、即时投入的资源老本,也是在评估链路追踪选型计划时(自建、托管)的重要考量因素。 链路追踪的服务端通常由网关、音讯缓冲、流计算、存储与查问端组成,最为人们所熟知与关注的是链路存储模块,许多热点文章探讨的链路尾部采样(Tail-based Sampling)次要影响的就是链路追踪服务端存储老本。然而,在短周期存储(如 3\~7 天)场景下,链路数据接管、缓冲与解决的资源老本占比甚至会超过存储,也是不容忽视的重要组成部分。 此外,还有一块容易疏忽的老本就是客户端与服务端之间的网络传输费用。 特地是在跨公网传输场景下,岂但带宽老本高,而且传输流量会受限,常常须要开启头部采样(Head-based Sampling)来升高链路数据上报量。 近年来,支流开源社区或商业化产品陆续推出了边缘集群解决方案,即在用户网络(VPC)下,部署一套可观测数据对立采集与解决集群,反对多源异构数据标准化、链路数据无损统计、错慢全采等个性,能够进一步升高链路数据上报与长久化存储老本。整体架构如下图所示。 链路追踪机器老本优化清晰了链路追踪机器老本的组成构造,咱们接下来剖析如何进行针对性优化。在这里,先提出三个问题:“每一条链路数据的价值都相等吗?”、“对链路数据的加工解决是越早越好,还是越晚越好?”、“链路数据的存储时长是越久越好,还是越短越好?”。 为了解答上述疑难,咱们要搞清楚链路数据的用法和价值到底是什么?链路数据次要有三种用法,一是依据特定条件筛选并查问单条调用链明细轨迹,用于具体问题的诊断与定位;二是基于固定的维度进行链路预聚合,提供服务接口等通用粒度的监控与告警;三是基于链路明细进行自定义后聚合,满足个性化的链路剖析需要,如 VIP 客户大于 3S 的慢申请接口散布。 因而,蕴含不同特色的链路数据价值并不相等,错慢链路或含有特定业务特色的链路(统称为要害链路),往往比一般链路的价值更高,被查问的概率更大。 咱们应该记录更多的要害链路,并进步其存储时长;一般链路应该更少记录,并升高存储时长。此外,为了保障统计数据的精确度,咱们应该尽早实现链路数据的预聚合,这样就能够更早的进行链路采样,升高明细数据的整体上报与存储老本。 综上所述,咱们能够从 “链路歪斜采样”、“链路计算左移”、“冷热存储拆散” 等方面进行摸索,尝试以最低的老本,按需记录最有价值的链路数据,实现老本与体验的动态平衡与优化,如下图所示。 链路歪斜采样,记录更有价值的数据链路数据的价值散布是不平均的。据不齐全统计,调用链的理论查问率通常小于百万分之一,也就是说,每一百万条调用链,只会有一条被理论查问命中,其余链路简直都是有效存储。全量存储调用链不仅会造成微小的老本节约,也会显著影响整条数据链路的性能及稳定性。 因而,链路采样(Trace Samplling)的理念随之诞生。早在 Google Dapper 论文问世的时候,就提出了基于固定比例进行链路采样的办法,并在 Google 外部生产零碎失去了实际测验。比方每 1024 条链路采样记录其中一条,采样比例为 1/1024。然而,固定比例采样仅仅解决了管制链路开销的问题,而漠视了链路价值散布的不平均性,要害链路与一般链路被采样的概率都是雷同的,这就导致许多针对要害链路的查问后果呈现未命中,极大影响了问题排查的效率。 那么,咱们是否提前预测用户行为,只记录会被查问的链路呢?100% 精准预测十分艰难,简直难以实现,然而依据历史行为和畛域教训进行揣测,优先记录查问概率更大的链路是比拟可行的一种降本计划,这就是链路歪斜采样。 链路歪斜采样通常是针对特定的链路特色(如错、慢、外围接口或自定义业务特色)设置较高的采样比例(如 100%)或流量阈值(如前 N 条/分钟),不合乎要害特色的链路以极低的比例采样(如 1%)甚至不采样。如下图所示的阿里云链路追踪自定义采样配置页面,用户能够依据本身须要自在定制特色采样策略,在保障较高的查问命中率(如 50%+)的前提下,链路数据理论存储量能够达到原始数据量的 5% 左右,极大的节俭了服务端长久化存储的老本。 更多链路采样策略将在实战篇进行具体介绍,比方动静采样。 延长一下思路,咱们在做问题诊断时,除了调用链之外,通常还须要联合日志、异样堆栈、本地办法耗时、内存快照等关联信息进行综合判断。如果每一次申请的关联信息全都记录下来,大概率会造成零碎的解体。因而,借鉴“链路歪斜采样”的理念,抛弃无用或低价值数据,保留异样现场或满足特定条件的高价值数据,精细化的按需存储能力应该成为掂量 Tracing 乃至可观测产品优劣的重要规范之一。如下图所示,阿里云 ARMS 产品提供了慢调用场景下主动保留残缺本地办法栈的能力,能够实现慢调用的行级代码定位。 链路计算左移,提炼数据价值除了筛选记录更有价值的数据之外,还能够将数据加工计算从服务端“左移”至客户端或边缘集群,提前完成数据价值提炼,如预聚合或压缩编码,这样就能够在满足用户查问需要的前提下,无效节俭数据传输与存储老本。 预聚合统计:在客户端进行预聚合的最大益处, 就是在不损失数据精度的同时大幅缩小数据上报量。比方,对调用链进行 1% 采样后,依然能够提供精准的服务概览/上下游等监控告警能力。数据压缩:对反复呈现的长文本(如异样堆栈,SQL 语句)进行压缩编码,也能够无效升高网络开销。联合非关键字段模糊化解决成果更佳。冷热存储拆散,低成本满足个性化剖析需要链路采样和计算左移的思路都是尽可能减少链路明细数据的上报与存储,从而达到降老本的目标。这两种做法能够比拟好的满足单链路查问与通用场景下的预聚合监控告警,但却无奈满足多样化的后聚合剖析需要,比方某个业务须要统计耗时大于 3 秒的接口及起源散布,这种个性化的后聚合剖析规定是无奈穷举的。而当咱们无奈事后定义剖析规定时,貌似就只能采纳老本极高的全量原始数据存储。难道就没有优化的空间么?答案也是有的,接下来咱们就介绍一种低成本解决后聚合剖析问题的计划——冷热存储拆散。 冷热存储拆散的根底在于用户的查问行为满足工夫上的局部性原理。 简略了解就是,工夫越近的热数据查问概率越大,工夫越久的冷数据查问概率越小。例如,因为问题诊断的时效性,50% 以上的链路查问剖析产生在 30 分钟内,7 天之后的链路查问通常集中在错慢调用链。实践根底成立,接下来探讨如何实现冷热存储拆散。 ...

June 7, 2023 · 1 min · jiezi

关于阿里云:进阶篇丨链路追踪Tracing很简单常见问题排查

通过后面多篇内容的学习,想必大部分同学都曾经熟练掌握分布式链路追踪的根底用法,比方回溯链路申请轨迹,定位耗时瓶颈点;配置外围接口黄金三指标告警,第一工夫发现流量异样;大促前梳理利用上下游要害依赖,分割相干方协同备战等等。随着深刻应用链路追踪技术,问题发现与诊断方面的能力想必都有大幅晋升。但理论生产过程中的问题可能更加辣手:比方接口偶发性超时,调用链只能看到超时接口名称,看不到外部办法,无奈定位根因,也难以复现,怎么办?比方接口调用胜利,然而业务状态异样,导致后果不合乎预期,如何排查?比方大促压测时或公布变更后,发现 CPU 水位十分高,如何剖析利用性能瓶颈点,针对性优化?比方同一份代码,本地调试都失常,然而公布到线上环境就报错,如何定位代码行为不统一的起因? 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1209814%20?utm_content=g... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 7, 2023 · 1 min · jiezi

关于阿里云:OpenYurt-即将亮相-EdgeXOpenVINO-开发者生态大会

备受期待的 EdgeX+OpenVINO 生态搭档大会行将于 6 月 10 日盛大举行!本次大会将汇聚来自阿里云、英特尔、VMware 等边缘计算和视觉推理两大畛域的顶尖专家和翻新企业,独特摸索智能边缘的将来倒退。 EdgeX+OpenVINO 生态搭档大会是以后边缘计算和人工智能畛域的一次重要盛会。边缘计算技术的疾速倒退为实现智能边缘利用提供了弱小的反对,而 OpenYurt 则提供了云端管控、边缘自治的云边协同计算能力。OpenYurt 是阿里云边缘容器服务 ACK@Edge 的外围框架,现为 CNCF Sandbox 我的项目。OpenYurt 是一个基于原生 K8s 的边缘计算云原生智能平台,100% 兼容 K8s API。通过与社区摸索云原生物模型标准化,可扩大反对 EdgeX,LinkEdge 等物联网框架,反对多种物联网协定,实现设施孪生能力。 本次 EdgeX+OpenVINO 开发者生态大会,来自阿里云智能的技术专家、OpenYurt 社区负责人何淋波,将为大家介绍 OpenYurt+EdgeX 如何通过社区单干,独特推动云边端一体化协同倒退。 大会信息: ⏰ 大会工夫 2023.06.10 13:00 - 18:00 大会地点 上海长荣桂冠酒店二楼曼格纳3厅 上海市浦东新区祖冲之路1136号 (地铁2号线金科路站步行200米可达) ✨ 晚宴工夫 2023.06.10 18:30 - 21:00 ⚡️ 晚宴地点 湖畔草坪 大会场地左近步行可达 扫描二维码即刻报名 席位无限,先到先得 咱们期待这次大会为参会者带来新的启发和单干机会。通过共同努力和翻新,咱们置信智能边缘的将来将变得更加智能、高效和可继续倒退。 如果您对边缘计算、视觉推理和智能边缘利用感兴趣,那么这将是一个不容错过的盛会!咱们诚挚邀请您加入 6 月 10 日的 EdgeX+OpenVINO 生态搭档大会,与业界顶尖专家一起摸索智能边缘的有限可能!

June 6, 2023 · 1 min · jiezi

关于阿里云:阿里云李钟弹性计算控制系统团队提效之路

2023年3月25日,“城市领航之夜第一期”流动在上海举办,阿里云弹性计算控制系统技术架构负责人李钟缺席了本次流动并带来了《弹性计算控制系统团队提效之路》的主题演讲,为大家具体分享了阿里云弹性计算控制系统团队所面临的挑战、如何通过技术架构提效,以及工程师文化建设等一系列内容。 本文依据他的演讲内容整顿而成: 我从2011年开始就入职了阿里巴巴,前阶段次要负责IM服务端的工作,在2015年退出阿里云,期间始终负责业务开发,直到2019年负责弹性计算控制系统的技术架构负责人,次要实现了阿里云弹性计算单元化架构的降级。明天的分享,我将从问题、技术架构、标准流程和工程师文化四个维度,通过弹性计算的教训,以技术和架构的角度来分享弹性计算控制系统团队的提效之路,首先来看一下第一局部,问题和挑战: 一、从问题登程,看以后的挑战阿里云弹性计算管控零碎是一个大型的分布式系统,反对高并发和高可用,除此之外,也有本人独特的复杂度。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1209624%20?utm_content=g... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

June 6, 2023 · 1 min · jiezi

关于阿里云:多层网关已成过去网关多合一成潮流网关改造正当时丨Higress-正式发布-10-版本

作者:Higress 团队 01 前言K8s 通过 Ingress / Gateway API 将网关标准化,逐渐将平安网关、流量网关、微服务网关内聚,解决从单体到微服务到云原生多层网关的复杂度,合久必分,分久必合,多层网关已成过来,网关多合一成潮流,成为 K8s 开发者和微服务开发者独特关怀的话题。 02 Higress 1.0 正式公布,即官网举荐生产可用Higress 是阿里云开源的下一代网关,从 2022 年 11 月在云栖大会上发表开源,走过大半年工夫,公布了 GA 版本 1.0.0,即官网举荐生产可用。回顾 Higress 的倒退历程,经验了三个阶段: Higress 的技术选型和首次业务落地(2020.05~2020.11)Higress 的创立源于阿里外部的“本地生存战斗”,核心技术指标是实现阿里巴巴业务域与蚂蚁业务域之间 RPC 间接调用,但因阿里巴巴与蚂蚁业务域网络是隔离的,即网络是不通的,很天然想到利用网关来解决此问题。利用网关来解决阿里巴巴与蚂蚁跨业务域 RPC 互通问题,首先要对网关做技术选型。选型期,除了关注技术计划是否完满反对 HTTP/gRPC 协定、反对丰盛路由策略以及是否业内支流技术,还关注是否反对热更新。 热更新是咱们的外围关注点。 Tengine/Nginx 的配置更新须要 reload,reload 须要重启 worker 过程,重启时会引起流量抖动,对长连贯影响尤为显著。在网关的集群规模十分大时,更是不能随便的做 reload,这时就会引发一个矛盾点:业务向网关提交配置后,心愿能疾速验证,但受限于 reload 机制和稳定性要求,无奈满足业务疾速验证与疾速试错的诉求。 如何解决这点呢? 一是采纳两层网关,即流量网关 + 业务网关;二是实现网关原生反对配置热更新。除了比照不同计划的优劣势,咱们也调研了 Envoy 作为网关在业界的趋势,论断是目前 Envoy 作为 K8s 中的 Ingress Provider 增长最快的事实(Ingress Provider 指 K8s Ingress 标准具体实现,因 K8s Ingress 本身只是标准定义,是 K8s 下内部流量进入集群外部的网关标准定义),咱们最终抉择了 Envoy 来实现两层网关,并完满撑持双11大促每秒数十万的申请流量。 ...

June 2, 2023 · 3 min · jiezi

关于阿里云:通义千问预体验如何让-AI-模型应用奔跑在函数计算上

立刻体验基于函数计算部署通义千问预体验: https://developer.aliyun.com/topic/aigc_fc AIGC 浪潮已来,从文字生成到图片生成,AIGC 的创造力让人惊叹,更多人开始摸索如何应用 AI 进步生产效率,激发更多创作潜能,然而在理论利用中,AI 技术的高门槛依然让很多人望而生畏,一般开发者或者没有太多编程教训的人是否也能简略、疾速部署一个 AI 模型利用,享受到科技倒退带来的红利呢? 阿里云函数计算团队全新上线“Serverless 一键部署通义千问预体验、文生图、图生图、图生文、文生文 5 个经典 AI 场景,简直 0 技术门槛部署 AI 模型利用,让创意更快产生。 明天咱们将应用阿里云函数计算 FC 来部署通义千问预体验, 给大家展现一下这项技术的魅力。 对于通义千问,大家能够进入以下网址理解更多信息。 https://tongyi.aliyun.com/通义千问预体验界面 部署胜利后,每个账号有 30 次与通义千问自在对话的额度。 函数计算的劣势开箱即用,通过利用核心一键部署疾速体验,无需进行简单的环境配置按需付费,通过 Serverless 弹性策略在您启动服务的才开始计费反对 GPU 渲染,出图快,破费低筹备项开明阿里云函数计算 [ 1]**开明阿里云内容审核增强版 [ 2]依据相干部门的规定,企业和开发者应用生成式人工智能服务需装备相应的内容危险管理机制,默认集成了阿里云内容平安检测服务。疾速开始抉择通义千问预体验利用在函数计算页面单击左侧“利用”搜寻“通义千问预体验”单击“立刻创立 间接部署利用创立利用页面,抉择间接部署首次应用须要依据提醒进行角色名称受权利用可抉择北京、杭州、上海、深圳 任一地区点击“创立并部署默认环境” 函数计算首次启动要花费 3-4 分钟,须要实现镜像拉取,冷启动等操作。最初画面如下: 您能够抉择咱们预置的问题,或者输入您本人的问题,与通义千问进行对话。每个阿里云账号将有 30 次对话额度。 总结及扩大函数计算部署通义千问预体验,一键部署即可实现。理论应用中,AI 模型能够辅助咱们进行更多文字和图像的翻新,函数计算+Serverless 利用核心最新上线五个经典场景: 通义千问预体验——基于通义千问大模型文生图 ——基于 Stable Diffusion 模型(可换模型)图生图——基于 3D 卡通格调模型图生文——基于 mPLUG 图像形容模型文生文——基于 ChatYuan 元语功能型对话大模型在接下来实际篇会别离跟大家探讨交换~ 有奖体验阿里云将提供 Serverless 函数计算产品试用资源,邀请您体验:Serverless 一键部署通义千问预体验、文生图、图生图、图生文、文生文 5 大经典 AI 场景,让您取得通义千问 30 次对话预体验机会,同时简略、高效实现一键部署图像生成、文字生成服务,速成 AIGC 创作家。双重奖品设置,实现任意一个体验场景可得社区 400 积分兑换奖品,还可加入 AI 生成图像较量赢 取 Airpods、阿里云定制蓝牙音箱及阿里云定制清雅杯! ...

June 1, 2023 · 1 min · jiezi

关于阿里云:活动回顾丨首期阿里云-Serverless-技术创新实战营上海开讲含-PPT-下载

5 月 27 日“阿里云 Serverless 技术实战与翻新”上海站圆满闭幕。流动现场邀请了来自阿里云 一线技术专家,分享以后 Serverless 趋势和落地实际过程中的挑战和时机;带来 数据库 Serverless 技术架构及利用实际;浅析云原生时代开发者须要的 Serverless 能力,为开发者日常利用,待业、晋升提出倡议;应用 EventBridge 构建下一代 Serverless 事件驱动型架构。 关注公众号,后盾回复:0527 收费下载上海站讲师 PPT 合集 6 月 5 日(周一)13:30,咱们将在【阿里云云原生】视频号对本场流动进行线上直播回放。 精彩回顾 分享主题|Serverless 的起源、倒退和落地实际 以后 Serverless 架构从概念曾经进入到大规模生产落地阶段。本议题讲由浅入深探讨企业在 All on Serverless 过程中的挑战和教训,为给更多落地 Serverless 的企业提供参考和借鉴。 本次主题由阿里云智能高级技术专家拓山,从 Serverless 概念解读、函数计算 FC、Serverelss Devs 三个大方面进行讲述了 Serverless 倒退历程,更是表明了阿里云从2022年开始就外围产品全面 Serverless 化,由此可见 Serverless 在产品中资源到服务已是无足轻重的作用,函数计算+阿里云=Serverless 新生态。 分享主题|RDS 云数据库 Serverless 技术架构及利用实际 Serverless 概念自 19 年提出至今,应用层的尝试与翻新川流不息,而数据库畛域的 Serverless 摸索则方兴未艾。传统云托管数据库,立足于 Serverless,依靠 IaaS 层的资源反对,如何为应用层带来极致的弹性、为运维带来智能化便当的体验,从而帮忙客户实现真正的降本增效?本次分享,将介绍阿里云数据库 RDS 的 Serverless 技术架构和细节,并从应用层接入的角度,介绍 RDS Serverless 数据库的具体实际。 ...

June 1, 2023 · 1 min · jiezi

关于阿里云:累计下载破-10-万阿里云-ACR-制品中心-5-月最受欢迎镜像排行榜

将业务进行容器化革新并打包成容器镜像是云原生化实际的第一步,为了使企业开发者更简便地打造云原生利用交付流程,2023 年 1 月,阿里云容器镜像服务 ACR 正式推出“云原生制品核心”, 为容器开发者收费提供了来源于阿里云官网、龙蜥等奉献方的平安可信容器根底镜像。 ACR 制品核心上架镜像蕴含利用容器化根底 OS 镜像、根底语言镜像、AI/大数据相干镜像类别,笼罩 ARM、ARM 64、x64、x86-64 多种零碎架构,让您业务容器化过程更加便捷高效、更加平安可信。 上面让咱们一起看看,5 月最受开发者欢送的 ACR 制品都有哪些吧~ 扫描下方海报中的二维码,参加问卷调研流动,通知咱们你心愿在制品核心减少的镜像,即有机会取得阿里云精美周边纪念品! 点击此处,登录阿里云容器镜像服务 ACR 产品详情页,理解如何应用制品核心能力

June 1, 2023 · 1 min · jiezi

关于阿里云:波司登云原生微服务治理探索

作者:曾孟琪(山猎) 背景波司登开创于1976年,专一于羽绒服的研发、设计、制作,是寰球出名的羽绒服生产商。波司登用一系列世人注目的辉煌问题证实了本人的实力:间断26年全国销量当先,间断22年代表中国向世界公布防寒服风行趋势,产品滞销美国、法国、意大利等72个国家,寰球超过2亿用户。作为羽绒服反动的旗手,波司登引领了行业内的“三次反动”。 在产品力和销售成绩单背地,波司登在生产、仓储、物流、销售各环节已实现数字化转型和翻新革新。除生产端的智能生产工厂,波司登对仓储和物流环节也进行智能化革新,晋升小单快反、拉式补货的比重,最大限度缩小困扰服装企业多时的“库存”问题;为了精准散发销售端产品,波司登建设数据中台,买通全渠道数据,赋能消费者钻研、商品企划、渠道匹配等。当初,波司登每件羽绒服从生产到到达消费者,背地都是一段数字之旅。 云原生技术倒退随着波司登数字业务的飞速发展,背地的 IT 技术也在不断更新迭代。波司登极为器重客户对服务的体验,并将零碎稳定性、业务性能的迭代效率、问题的疾速定位和解决视为构建外围竞争力的基石。服饰行业会积极参与各大电商平台的促销流动,业务流量的波峰波谷景象显著,如果因为资源分配不合理导致顶峰期间订单溢出、运力有余,会极大影响顾客和商家的体验。此外,波司登自研了用户经营平台(用户洞察零碎、内容管理系统、用户治理 CRM 零碎及用户小程序)、批发经营平台(线上平台订单治理 OMS 零碎、线下渠道管理系统、门店收银 POS 零碎)、商品经营平台(订单解决核心 OPC、库存计算中心 ICC、商品订货零碎、商品经营 iMOS 零碎、洽购制作 GiMS 零碎、物流治理 EWM 零碎、机器人调度 WCS 零碎) 等诸多垂直业务性能,在市场需求的疾速变动下,产品性能翻新和迭代效率问题也是对技术架构的一大挑战。这些现状的解法和云原生架构带来的外围能力不约而同,在波司登零碎革新上云的过程中,CIO 戴建国亲自带队,围绕着云原生技术体系,推动波司登的各条业务线进行技术升级革新,放慢数智化发展过程。在技术选型上,波司登始终遵循着2条准则: 全面拥抱开源凋谢的支流技术标准。 应用开源凋谢的支流技术标准能够确保技术计划的成熟度,更便捷的从开发者社区获取技术资源和最佳实际,也可能帮忙企业更好的招募技术人才。此外,这样的策略也防止了被关闭技术体系和特定云厂商所捆绑。 尽可能利用云计算的价值。 将稳定性保障、底层技术实现、技术组件保护、弹性伸缩等非功能性需要尽可能交给云厂商解决,让技术团队将更多的精力投入到业务翻新上。 这2个准则并不矛盾,相同,它们之前能够十分好的交融,是所有应用云计算的企业用户都值得借鉴的架构选型规范。比方 Kubernetes 就是典型的满足开源凋谢规范的技术标准,阿里云提供的 Kubernetes 产品能够简化用户的搭建老本,更好的与云计算资源进行集成。同时用户仍然能够基于开源 Kuberntes 的标准协议与 API 应用云产品,这就是2条选型准则互相交融的最好体现。 容器化革新云原生趋势下,Kubernetes 毫无疑问曾经成为了企业新一代云 IT 架构的基础设施。从2021年开始,波司登就开启了微服务和容器化革新打算,将 IT 零碎的底座逐渐从虚拟机迁徙到 Kubernetes。 在 Kubernetes 平台的抉择上,基于技术选型的2条准则,波司登抉择了阿里云容器服务 ACK 。ACK 以阿里云牢靠稳固的 IaaS 平台为底座,向下封装了 30+ 款云产品,造成了自动化运维和云平台交互的新界面,从而晋升企业业务零碎的弹性和自动化运维能力。 基于容器服务 ACK 的易用性以及集成能力,波司登IT零碎容器化革新工作比料想中的要顺利得多。对于每一个业务零碎而言,从虚拟机迁徙到 Kubernetes ,仅仅是底层的承载产生了变动,不会波及到太多的革新老本。在要害的容器网络实现上,容器服务 ACK 通过云原生 Terway 网络模式,间接基于阿里云的虚拟化网络中的弹性网卡资源来构建的容器网络,将容器和虚拟机纳入同一层网络中,便于业务云原生化迁徙。这样齐全能够对传统架构实现渐近式容器化革新,在不中断业务的前提下一点一点的从虚拟机往 Kuberntes 上搬。在容器化革新的过程中,当波司登技术团队遇到疑难问题的时候,能够第一工夫从阿里云获得最佳实际领导,包含集群布局、平台运维、利用适配、平安防护、可观测等多个方面,这也更进一步的晋升了容器化革新的速度。 目前,波司登的自研零碎曾经 100% 基于 Kubernetes。相比传统的基于虚拟机部署形式,容器化帮忙波司登在资源利用率上晋升了30%,在运维效率上晋升了40%。 波司登的技术团队也在容器化革新的过程中,把握了治理超大规模Kubernetes集群的能力,并促成了更多云原生新技术的使用。 ...

June 1, 2023 · 2 min · jiezi

关于阿里云:当-Serverless-遇上-AI锁定年度最佳-CP这场论坛满足你的好奇心

2023 阿里云峰会·粤港澳大湾区将于 6 月 1 日在广州如期举行,Serverless 减速翻新分论坛作为其重要组成部分,诚挚邀请各位开发者们参会,与阿里云一起为翻新提速! 本次分论坛将一览 Serverless 业界最新发展趋势,不仅有阿里云 Serverless 计算、存储、数据库能力公布及核心技术揭秘,更有标杆客户现场分享全栈 Serverless 硬核实战经验,带您领略 Serverless 为企业减速翻新注入的新动力。 扫描文末海报图片或点击浏览原文即可报名参会。 本次流动将进行线上直播,欢送点击下方链接预约。https://developer.aliyun.com/live/251924 议程安顿① 14: 00 - 14: 30 分享主题:从上云到用云,Serverless 引领下一代利用架构 分享嘉宾:丁宇|阿里云智能云原生利用平台总经理 ② 14: 30 - 15: 00分享主题:面向 Serverless 的存储能力翻新 分享嘉宾:罗明|阿里云智能高级产品专家 ③ 15: 00 - 15: 30分享主题:All in Serverless,下一代云原生数据库 分享嘉宾:冯程|阿里云智能数据库产品事业部资深解决方案总监 ④ 15: 30 - 15: 50客户案例:欢聚 Serverless 最佳实际分享 分享嘉宾:孔祥发|欢聚团体高级研发经理 ⑤ 15: 50 - 16: 10入手试验舒适提醒:请自带电脑加入入手环节 查看海报理解 本次流动详情

May 31, 2023 · 1 min · jiezi

关于阿里云:探索-Web-管理之路OpenYurt-社区-UICLI-SIG-正式启动

作者:陈璐、邓梁 背景OpenYurt 是业界首个依靠云原生技术体系、“零”侵入实现的智能边缘计算平台。它具备“云、边、端一体化”的全方位能力,能够帮忙用户疾速实现大规模边缘计算业务和异构算力的高效交付、运维及治理。 在前几个迭代的大版本中,OpenYurt 我的项目曾经获得了许多停顿,如 1.1 版本中 OTA 降级能力的退出,1.2 版本里节点池治理能力的加强,OpenYurt 的根底性能曾经愈发欠缺。同时,在最新的 1.3 版本中,OpenYurt 把次要的 controller 都对立收敛在 yurt-manager 组件中,整体架构也趋简洁。只管在差异化技术竞争力方面曾经获得了诸多停顿,在与社区用户和开发者的交换中,咱们发现 OpenYurt 的应用门槛依然绝对较高,须要更加易用的工具和文档来升高这个门槛。因而,易用性会是 OpenYurt 社区接下来重点解决的问题之一。 指标为了更好地服务社区用户,OpenYurt 社区推出了 UI/CLI SIG (特地兴趣小组)。一个简略直观的用户界面能够极大地改善用户体验, 减少 OpenYurt 的易用性和敌对性。UI/CLI SIG 的次要指标是通过提供易用的用户界面和命令行工具,升高 OpenYurt 的应用门槛,使更多的开发者可能疾速上手并应用 OpenYurt 的性能。 具体来说,UI/CLI SIG 的工作将聚焦于以下几个方面: 提供能力弱小的命令行工具,使用户能够通过简洁的命令行界面来治理 OpenYurt 集群。CLI 工具将笼罩 OpenYurt 的全副能力,并聚焦在提供弱小的性能和灵便的配置选项上,以便让用户更便捷地应用 OpenYurt。提供简略易用的图形化界面,使用户能够通过交互式的体验来治理 OpenYurt 集群。UI 工具将提供 OpenYurt 的次要性能(如自治,节点池治理等),并聚焦在提供简略易用的界面和操作形式上,以便让用户更快地上手和应用 OpenYurt。提供具体的文档和教程,帮忙用户了解 OpenYurt 的性能个性,疾速上手。这包含装置、配置和应用 UI/CLI 工具的步骤和示例,以及常见问题的解答等。这些文档和教程将为用户提供便捷的学习和应用 OpenYurt 的渠道,帮忙他们更快地把握 OpenYurt 的性能个性和应用办法。收集和反馈用户反馈和需要,不断改进和欠缺 UI/CLI 工具。UI/CLI SIG 将定期收集用户反馈和需要,以便及时优化和改良 UI/CLI 工具的性能和性能。同时,UI/CLI SIG 也将继续更新和保护 UI/CLI 工具,确保其与 OpenYurt 的最新版本兼容。RoadmapUI/CLI SIG 目前蕴含两个次要我的项目:dashboard 和 yurtadm,负责人为陈璐和邓梁。我的项目布局如下: ...

May 31, 2023 · 1 min · jiezi

关于阿里云:极氪汽车-APP-系统云原生架构转型实践

作者:极氪汽车 前言新能源汽车曾经成为我国汽车市场再次崛起的要害支柱,随着新能源汽车市场的疾速倒退,不同类型的品牌造车厂商呈现出百花齐放的态势。极氪汽车是吉利控股集团旗下高端纯电汽车新品牌,2021 年 4 月极氪公布首款高端智能电动车型--极氪 001,大获市场好评,截至 2022 年 12 月,001 车型累计交付量冲破 7 万台。间断 3 个月问鼎自主品牌 30 万以上奢华纯电车型销量冠军。 极氪保持不止于车的服务体验,除了为客户提供卓越产品的同时,还通过极氪 APP 与用户建设连贯。极氪 APP 推出线上社区、订阅出行、好物商城、极氪生存等多元翻新动作,实现了极氪产品的全生命周期治理以及用户旅程的全场景笼罩。从用户想要理解相干车型,到有动向进行购买、提车应用、分享感触以及售后问题迅捷解决方案等各种环节的应用场景,都被集成到了这款 APP 之上。 “我之前对极氪汽车并不是很理解,极氪这款软件对我的帮忙十分大,我感觉这是很好的,同时也在极氪软件外面看到了本人想要买的车,关注极氪曾经一年了,不仅能够理解极氪汽车常识~还能得极分~换商品~心愿极氪多多上新实用商品~” 这是摘自 Apple App Store 的用户评估。极氪 APP 既是用户智能控车随时随地把握车况的车主服务好帮手,又能提供购买用车好物、共享社区活动的极致出行用车体验,便于用户获取触手可得的用车信息,让出行变得更加便捷乏味。 云原生架构摸索的实际历程云原生技术倒退随着极氪数字业务的飞速发展,背地的 IT 技术也在不断更新迭代。极氪极为器重客户对服务的体验,并将零碎稳定性、业务性能的迭代效率、问题的疾速定位和解决视为构建外围竞争力的基石。 公司副总裁刘昊示意,为疾速响应用户的需要,例如缩短一辆车的制作周期、便捷平滑地降级汽车操作系统等,企业从产品到用户体验到商业模式都须要翻新。然而生产互联网和传统产业倒退的教训不足以齐全满足产业互联网对老本、效率、品质等方面的高要求。云原生是一个确定性的技术发展趋势,能无效推动产业倒退,驱动企业踊跃变革。极氪将继续投入,将云原生能力赋能到企业内的研、产、供、销、三电等更宽泛的业务畛域。 这些业务现状和云原生架构带来的外围能力不约而同。 在极氪零碎革新上云的过程中,围绕着云原生技术体系,推动极氪的各条业务线进行技术升级革新,放慢数智化发展过程。在技术选型上,极氪始终遵循着2条准则: 一是全面拥抱开源凋谢的支流技术标准: 应用开源凋谢的支流技术标准,能够确保技术计划的成熟度,更便捷地从开发者社区获取技术资源和最佳实际,也可能帮忙企业更好的招募技术人才。此外,这样的策略也防止了被关闭技术体系和特定云厂商所捆绑。软件技术的国产化以及自主可控,也是须要思考的点。 二是尽可能利用云的价值: 将稳定性保障、底层技术实现、技术组件保护、弹性伸缩等非功能性需要尽可能交给云厂商解决,让技术团队将更多的精力投入到业务翻新上。 这 2 个准则并不矛盾,相同,它们之间能够十分好的交融,这也是所有应用云计算的企业用户都值得借鉴的架构选型规范。比方 Kubernetes 是典型的满足开源凋谢规范的技术标准,阿里云提供的 Kubernetes 产品能够简化用户的搭建老本,更好地与云计算资源进行集成。同时用户仍然能够基于开源 Kubernetes 的标准协议与 API 应用云产品,这就是 2 条选型准则互相交融的最好体现。 业务容器化云原生趋势下,Kubernetes 毫无疑问曾经成为了企业新一代云 IT 架构的基础设施。从 2021 年开始,极氪就开启了微服务和容器化革新打算,将 IT 零碎的底座逐渐从虚拟机迁徙到 Kubernetes。 在 Kubernetes 平台的抉择上,基于技术选型的 2 条准则,极氪抉择了阿里云容器服务 ACK 。ACK 以阿里云牢靠稳固的 IaaS 平台为底座,向下封装了 30+ 款云产品,造成了自动化运维和云平台交互的新界面,从而晋升企业业务零碎的弹性和自动化运维能力。 ...

May 31, 2023 · 2 min · jiezi

关于阿里云:阿里云容器服务-ACK-产品技术动态202304

May 31, 2023 · 0 min · jiezi

关于阿里云:RocketMQ-多级存储设计与实现

作者:张森泽 随着 RocketMQ 5.1.0 的正式公布,多级存储作为 RocketMQ 一个新的独立模块达到了 Technical Preview 里程碑:容许用户将音讯从本地磁盘卸载到其余更便宜的存储介质,能够用较低的老本缩短音讯保留工夫。本文具体介绍 RocketMQ 多级存储设计与实现。 设计总览RocketMQ 多级存储旨在不影响热数据读写的前提下将数据卸载到其余存储介质中,实用于两种场景: 冷热数据拆散:RocketMQ 早先产生的音讯会缓存在 page cache 中,咱们称之为热数据;当缓存超过了内存的容量就会有热数据被换出成为冷数据。如果有少许消费者尝试生产冷数据就会从硬盘中从新加载冷数据到 page cache,这会导致读写 IO 竞争并挤压 page cache 的空间。而将冷数据的读取链路切换为多级存储就能够防止这个问题;缩短音讯保留工夫:将音讯卸载到更大更便宜的存储介质中,能够用较低的老本实现更长的音讯保留工夫。同时多级存储反对为 topic 指定不同的音讯保留工夫,能够依据业务须要灵便配置音讯 TTL。RocketMQ 多级存储比照 Kafka 和 Pulsar 的实现最大的不同是咱们应用准实时的形式上传音讯,而不是等一个 CommitLog 写满后再上传,次要基于以下几点思考: 均摊老本:RocketMQ 多级存储须要将全局 CommitLog 转换为 topic 维度并从新构建音讯索引,一次性解决整个 CommitLog 文件会带来性能毛刺;对小规格实例更敌对:小规格实例往往配置较小的内存,这意味着热数据会更快换出成为冷数据,期待 CommitLog 写满再上传自身就有冷读危险。采取准实时上传的形式既能躲避音讯上传时的冷读危险,又能尽快使得冷数据能够从多级存储读取。Quick Start多级存储在设计上心愿升高用户心智累赘:用户无需变更客户端就能实现无感切换冷热数据读写链路,通过简略的批改服务端配置即可具备多级存储的能力,只需以下两步: 批改 Broker 配置,指定应用 org.apache.rocketmq.tieredstore.TieredMessageStore 作为 messageStorePlugIn配置你想应用的贮存介质,以卸载音讯到其余硬盘为例:配置 tieredBackendServiceProvider 为 org.apache.rocketmq.tieredstore.provider.posix.PosixFileSegment,同时指定新贮存的文件门路:tieredStoreFilepath可选项:反对批改 tieredMetadataServiceProvider 切换元数据存储的实现,默认是基于 json 的文件存储更多应用阐明和配置项能够在 GitHub 上查看多级存储的 README [ 1]** 技术架构architecture 接入层:TieredMessageStore/TieredDispatcher/TieredMessageFetcher接入层实现 MessageStore 中的局部读写接口,并为他们减少了异步语意。TieredDispatcher 和 TieredMessageFetcher 别离实现了多级存储的上传/下载逻辑,相比于底层接口这里做了较多的性能优化:包含应用独立的线程池,防止慢 IO 阻塞拜访热数据;应用预读缓存优化性能等。容器层:TieredCommitLog/TieredConsumeQueue/TieredIndexFile/TieredFileQueue容器层实现了和 DefaultMessageStore 相似的逻辑文件形象,同样将文件划分为 CommitLog、ConsumeQueue、IndexFile,并且每种逻辑文件类型都通过 FileQueue 持有底层物理文件的援用。有所不同的是多级存储的 CommitLog 改为 queue 维度。驱动层:TieredFileSegment ...

May 30, 2023 · 2 min · jiezi

关于阿里云:阿里云Elasticsearch智能存储引擎能力再升级索引存储大小降低超40

在Elastic中国开发者大会2023上,阿里云首次对外公开Elasticsearch全面Serverless化背地的产品技术架构,阿里云Elasticsearch依附云原生底座技术升级,继续进行内核优化,并在日志场景大幅晋升应用性价比,向用户提供更简略、更稳固、更弹性的搜寻云服务。  技术冲破带来产品继续翻新阿里云Elasticsearch为用户提供了一套云原生的运管平台,反对弹性伸缩、智能巡检等,帮忙用户轻松应答日常治理运维。通过底层架构降级,进行运管平台云原生化降级,带来更加灵便的集群变更体验,推出的基于全新管控的7.16和8.5版本,集群创立工夫最快可达5分钟。  残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1191291?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 29, 2023 · 1 min · jiezi

关于阿里云:阿里云Elasticsearch-让搜索上云像使用水电一样简单

让搜寻上云像应用“水电”一样简略阿里云Elasticsearch 为用户提供了一套云原生的运管平台,反对弹性伸缩、智能巡检等,帮忙用户轻松应答日常治理运维。基于云原生的读写拆散、存算拆散架构,集群写入性能可晋升60%,索引存储大小升高40%以上,查问性能晋升至多30%。企查查作为搜寻上云的代表性企业,利用阿里云Elasticsearch 的 QoS 限流插件,对集群外部进行限流,同时优化索引查问性能,通过父子查问、内嵌查问等形式,集群性能晋升了3~10倍。 阿里云Elasticsearch 全面 Serverless 化,IaaS 层资源利用效率大幅晋升。让用户真正按需取用,像应用水电一样简略便当。对于流量稳定的业务场景,可能无效防止高峰期资源有余,低峰期资源闲置的景象。对集体开发者用户,学校教学、学生试验等场景,也能达到开箱即用的成果。 作为阿里云Elasticsearch 的合作伙伴,观测将来的创始人兼CEO蒋烁淼提到,为了构建业务的全面可观测性,他们在搭建观测云可观测平台时消耗了很多精力,阿里云Elasticsearch 为其夯实了存储数据的根底,稳固牢靠、老本可控、剖析能力弱小、运维成本低,用户每个 Elasticsearch 利用资源能追随业务负载、流量和数据量大小动静伸缩,真正做到降本增效。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1177221?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 26, 2023 · 1 min · jiezi

关于阿里云:全景剖析阿里云容器网络数据链路四Terway-IPVLANEBPF

近几年,企业基础设施云原生化的趋势越来越强烈,从最开始的IaaS化到当初的微服务化,客户的颗粒度精细化和可观测性的需要更加强烈。容器网络为了满足客户更高性能和更高的密度,也始终在高速的倒退和演进中,这必然对云原生网络的可观测性带来了极高的门槛和挑战。为了进步云原生网络的可观测性,同时便于客户和前后线同学减少对业务链路的可读性,ACK产研和AES联结共建,合作开发ack net-exporter和云原生网络数据面可观测性系列,帮忙客户和前后线同学理解云原生网络架构体系,简化对云原生网络的可观测性的门槛,优化客户运维和售后同学解决疑难问题的体验 ,进步云原生网络的链路的稳定性。 鸟瞰容器网络,整个容器网络能够分为三个局部:Pod网段,Service网段和Node网段。这三个网络要实现互联互通和访问控制,那么实现的技术原理是什么?整个链路又是什么,限度又是什么呢?Flannel, Terway有啥区别?不同模式下网络性能如何?这些,须要客户在下搭建容器之前,就要根据本人的业务场景进行抉择,而搭建结束后,相干的架构又是无奈转变,所以客户须要对每种架构特点要有充沛理解。比方下图是个简图,Pod网络既要实现同一个ECS的Pod间的网络互通和管制,又要实现不同ECS Pod间的拜访, Pod拜访SVC 的后端可能在同一个ECS 也可能是其余ECS,这些在不同模式下,数据链转发模式是不同的,从业务侧体现后果也是不一样的。 本文是[全景分析容器网络数据链路]第四局部局部,次要介绍Kubernetes Terway EBPF+IPVLAN模式下,数据面链路的转转发链路,一是通过理解不同场景下的数据面转发链路,从而探知客户在不同的场景下拜访后果体现的起因,帮忙客户进一步优化业务架构;另一方面,通过深刻理解转发链路,从而在遇到容器网络抖动时候,客户运维以及阿里云同学能够晓得在哪些链路点进行部署观测手动,从而进一步定界问题方向和起因。• 系列一:全景分析阿里云容器网络数据链路(一)—— Flannel• 系列二:全景分析阿里云容器网络数据链路(二)—— Terway ENI• 系列三:全景分析阿里云容器网络数据链路(三)—— Terway ENIIP• 系列五:全景分析阿里云容器网络数据链路(五)—— Terway ENI-Trunking• 系列六:全景分析阿里云容器网络数据链路(六)—— ASM Istio 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1155525?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 25, 2023 · 1 min · jiezi

关于阿里云:如何轻松应对偶发异常

在之前的文章中,咱们曾经介绍了如何通过 MSE 提供的无损高低线和全链路灰度这两个性能来打消变更态的危险,置信您曾经可能在变更时得心应手。然而在利用运行过程中忽然遇到流量洪峰、黑产刷单、内部依赖故障、慢 SQL 等偶发异样时,您如何可能持续轻松应答呢? 本文将通过介绍 MSE 微服务治理在三月的最新性能来告诉您答案。文章次要分为三局部,首先是 MSE 微服务治理的简介,而后是 MSE 全面打消变更态危险的回顾 ,最初是如何借助 MSE 微服务治理轻松应答线上偶发异样。 MSE 微服务治理简介首先看一下微服架构的总览,置信读者敌人们对微服务都不生疏。在 JAVA 中比拟支流的微服务框架就是 Dubbo 和 Spring Cloud,同时当初也有很多公司采纳 Go、Rust 这些语言去构建本人的微服务。下图中浅绿色的这一部分都是纯开源的内容,除了微服务框架自身外,还蕴含了服务注册发现、服务配置核心、负载平衡等一系列的组件。大家也发现,在微服务施行的过程中,随着微服务的增多、调用链路的复杂化,出问题和故障的可能性都在减少,问题定位的难度也成倍回升。比如说在可观测畛域,须要应用到利用监控、链路追踪、日志治理等性能,能力释怀地将利用部署到线上,免得呈现问题无奈定位。 更进一步,微服务自身更须要引入微服务治理。在开发态,须要通过服务 mock、服务测试、服务元数据等治理性能去保障微服务的疾速迭代;在变更态,须要借助无损高低线和全链路灰度性能去保障公布时的稳定性,以及业务的连续性;在运行态,微服务可能遇到各式各样的偶发异样,须要借助治理性能去实现流量的自愈,保障咱们的业务稳固、流畅地运行。很难设想一个线上的微服务利用没有治理是个什么场景,能够说是无治理、不生产。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1180830?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 25, 2023 · 1 min · jiezi

关于阿里云:通过-HTTP2-协议案例学习-Java-Netty-性能调优工具技巧与方法论

作者:梁倍宁 Apache Dubbo Contributor、陈有为 Apache Dubbo PMC 摘要Dubbo3 Triple 协定是参考 gRPC、gRPC-Web、Dubbo2 等协定特点设计而来,它汲取各自协定特点,齐全兼容 gRPC、Streaming 通信、且无缝反对 HTTP/1 和浏览器。 当你在 Dubbo 框架中应用 Triple 协定,而后你就能够间接应用 Dubbo 客户端、gRPC 客户端、curl、浏览器等拜访你公布的服务,不须要任何额定组件与配置。 除易用性以外,Dubbo3 Triple 在性能调优方面做了大量工作,本文将偏重对 Triple 协定背地的高性能机密进行深刻解说,波及一些有价值的性能调优工具、技巧及代码实现;在下一篇文章中,咱们将具体开展 Triple 协定在易用性方面的一些具体应用场景。 为什么要优化 Triple 协定的性能?自 2021 年开始 Dubbo3 就曾经作为下一代服务框架逐渐开始取代阿里外部宽泛应用的 HSF 框架,截止目前,阿里以淘宝、天猫等电商为代表的绝大多数外围利用曾经胜利降级到 Dubbo3。作为过来两年撑持阿里双十一万亿级服务调用的要害框架,Triple 通信协议的性能间接影响整个零碎的运行效率。 前置常识1. Triple 协定简介Triple 协定是参考 gRPC 与 gRPC-Web 两个协定设计而来,它汲取了两个协定各自的个性和长处,将它们整合在一起,成为一个齐全兼容 gRPC 且反对 Streaming 通信的协定,同时 Triple 还反对 HTTP/1、HTTP/2。 Triple 协定的设计指标如下: Triple 设计为对人类敌对、开发调试敌对的一款基于 HTTP 的协定,尤其是对 unary 类型的 RPC 申请。齐全兼容基于 HTTP/2 的 gRPC 协定,因而 Dubbo Triple 协定实现能够 100% 与 gRPC 体系互调互通。当你在 Dubbo 框架中应用 Triple 协定,而后你就能够间接应用 Dubbo 客户端、gRPC 客户端、curl、浏览器等拜访你公布的服务。 ...

May 23, 2023 · 6 min · jiezi

关于阿里云:RocketMQ-在小米的多场景灾备实践案例

作者:邓志文、王帆 01 为什么要容灾?在小米外部,咱们应用 RocketMQ 来为各种在线业务提供音讯队列服务,比方商城订单、短信告诉甚至用来收集 IoT 设施的上报数据,能够说 RocketMQ 的可用性就是这些在线服务的生命线。作为软件开发者,咱们通常心愿服务能够依照现实状态去运行:在没有Bug的前提下,零碎能够提供失常的服务能力。 但事实的运维教训通知咱们这是不可能的,硬件故障是十分常见的问题,比方内存故障、磁盘故障等,甚至是机房相干的故障(专线故障、机房拉闸等)。因而咱们须要对数据进行备份,应用多正本的形式来保障服务的高可用。Apache RocketMQ 设计上就反对多正本、多节点容灾,比方 Master-Slave 架构、DLedger 部署模式。 在小米外部,因为是面向在线业务,服务的复原速度至关重要,而基于 Raft 协定的 DLedger 模式能够实现秒级 RTO,因而咱们在 2020 年初选用了 DLedger 架构作为根本的部署模式(在 5.0 中,主从模式也能够做到主动 failover)。反对机房灾备须要减少额定的老本,上面我将用三个灾备部署的实际案例,解说小米如何在老本和可用性的取舍下来反对灾备。 02 怎么去做容灾?单机房高可用理论在应用中,有许多业务是不须要机房级别容灾的,只有可能做到单机房高可用即可。Apache RocketMQ 自身就是分布式的音讯队列服务,能够很好的做到同机房多节点高可用,上面次要分享下小米在衡量老本、可用性的前提下,如何去做部署架构的降级优化。 咱们晓得在 Raft 协定中,个别配置三个节点,利用机器冗余 + 主动选主切换来实现高可用的指标。因而在小米引入 RocketMQ 之初,单 Broker 组均部署三个 Broker 节点。同时为了保障集群中始终存在 Master 节点,咱们个别会至多部署两个 Broker 组,一个简略的部署架构图如下: 能够说是一个很根本的部署架构,在单个机房中,通过多正本、多Broker组做到了单机房容灾。但不难发现,这样做有一个很重大的问题:资源节约。RocketMQ 的从节点只有在客户端读取较旧的数据时才会起到从读的作用,其余时候都只是单纯地作为正本运行,机器利用率只有33%,这是让人无法忍受的。 出于老本上的思考,咱们须要从新思考现有的部署架构,如何能力利用起来从节点呢?一个很简略的思路便是节点混布:在从节点也部署 Broker 过程,让其能够作为 Master 来提供服务。比拟偶合的是,社区过后也提出了 Broker Container 的概念,计划的原理是在 RocketMQ Broker 之上形象一个 Container 角色,Container 用来治理 Broker 的增删改查,以此来达到单台服务主机上运行多个 Broker 的目标,具体架构图如下所示: ...

May 23, 2023 · 1 min · jiezi

关于阿里云:进阶篇丨链路追踪Tracing很简单常见问题排查

作者:涯海 通过后面多篇内容的学习,想必大部分同学都曾经熟练掌握分布式链路追踪的根底用法,比方回溯链路申请轨迹,定位耗时瓶颈点;配置外围接口黄金三指标告警,第一工夫发现流量异样;大促前梳理利用上下游要害依赖,分割相干方协同备战等等。随着深刻应用链路追踪技术,问题发现与诊断方面的能力想必都有大幅晋升。 但理论生产过程中的问题可能更加辣手: 比方接口偶发性超时,调用链只能看到超时接口名称,看不到外部办法,无奈定位根因,也难以复现,怎么办? 比方接口调用胜利,然而业务状态异样,导致后果不合乎预期,如何排查? 比方大促压测时或公布变更后,发现 CPU 水位十分高,如何剖析利用性能瓶颈点,针对性优化? 比方同一份代码,本地调试都失常,然而公布到线上环境就报错,如何定位代码行为不统一的起因? 诸如此类的难题它们如同不属于链路追踪的领域,却又与链路追踪有着千头万绪的分割。 链路追踪是可观测不可分割的一部分,咱们不应该人为的划分边界,而是要突破数据孤岛,紧密结合其余可观测技术,以进步零碎稳定性为指标,最大化的施展链路追踪的关联价值。 本大节通过对经典案例的解读,大家将把握链路追踪与其余可观测技术联合利用的诀窍,突破对链路追踪固有的认知,深刻了解链路追踪在可观测畛域的关联价值。 01 利用日志关联:一次订单领取失败行为的全息排查【问题形容】 某天,收到了来自火线小二反馈的客户投诉,订单领取始终失败,客户情绪十分烦躁,须要尽快给予回复,投诉工单记录了领取失败的订单号 213589741238xxxx。 【难点剖析】 订单领取接口依赖了多个上游服务,接口调用自身是胜利的,然而业务报错导致领取失败。而且只有订单核心的利用日志记录了订单号,上游利用日志没有订单号信息,无奈间接通过订单号进行全利用扫描。 【解决思路】 利用链路追踪的上下游追溯能力进行信息串联。 a. 通过失败订单号检索订单核心的利用日志,并找到日志中关联的 TraceId。 b. 通过 TraceId 查问全链路调用轨迹,找到当次申请依赖的上下游调用。 c. 通过查问上下游利用跟当次申请相干的利用日志,定位到订单领取失败起因,原来是优惠券生效导致的。 【延长思考】 通过上述案例,能够发现全息排查的前提是实现 TraceId 与利用日志的双向绑定,目前业界的支流做法是将 TraceId 增加到利用日志中实现关联。在链路多维筛选大节中,咱们介绍了两种在日志输入中增加 TraceId 的形式:基于 SDK 手动埋点与基于日志模板主动埋点,感兴趣的同学能够具体浏览相干章节的介绍。 02 慢调用办法栈主动分析:偶发性慢调用,如何定位导致问题的那一行代码?【问题形容】 负责稳定性的同学对这种场景应该不生疏:零碎在夜间或整点促销时会呈现偶发性的接口超时,等到发现问题再去排查时,曾经失落了异样现场,并且难以复现,最初只能不了了之。上述场景反复演出直至酿成故障,最终遭受微小的业务损失。 【难点剖析】 开源的链路追踪实现通常只能记录超时的接口,无奈细化到具体的办法栈,开发同学不晓得该如何修复。而偶发性异样没有法则,又难以复现,很难通过手动 jstack 或者 Arthas 等在线诊断工具去精准定位根因。 【解决思路】 为链路追踪埋点增加回调函数,自动记录慢申请的本地办法栈,实在还原代码执行的第一现场。如下图所示,当接口调用超过肯定阈值(比方2秒),会启动对该次慢申请所在线程的监听,直至该次申请完结后立刻进行监听,精准保留该次申请生命周期内所在线程的快照集,并还原残缺的办法栈及耗时,最终定位耗时次要耗费在申请数据库连贯 getConnection 办法上,通过减少数据库连接数能够解决响应慢的问题。 【延长思考】 目前支流的开源链路实现并不反对慢调用办法栈主动分析,只有多数商业化产品(如阿里云 ARMS)反对了该个性。为了可能获取残缺的办法栈信息,传统的链路插桩(Instrument)并不适宜获取办法栈监听,只能利用采样法(Sampling)进行堆栈聚合,但全局采样的高开销很难实现常态化主动监听,必须联合链路追踪埋点,精准定位慢调用所在线程与生命周期,低成本实现精准、轻量级的采样监听。 03 CPU利用率高“三步排查法”:大促前夕压测发现CPU水位十分高,如何剖析利用性能瓶颈点,针对性优化?【问题形容】 双十一大促前夕,部门组织了外围利用全链路压测,然而小玉负责的订单核心在第一波压测流量脉冲下 CPU 利用率霎时飙升到 90% 以上,接口调用大量超时,成为了全链路性能瓶颈,导致压测流动草草完结,主管责令她在一周内限期完成优化。 【难点剖析】 CPU 利用率高可能是单纯的机器资源有余,也可能是不合理的代码导致的。根底的 CPU 监控只能反映问题,无奈定位根因,不足资源到代码的映射关系,导致很多同学无奈简略间接的进行代码优化,只能自觉扩容。 ...

May 23, 2023 · 2 min · jiezi

关于阿里云:MSE-自治服务帮你快速定位解决-Dubbo-重复订阅导致-RPC-服务注册失败问题

作者:子葵 背景Dubbo 是一款 RPC 服务开发框架,用于解决微服务架构下的服务治理与通信问题,具备易用、超大规模微服务实际、云原生基础设施适配、安全性等特点。然而不正确的 Dubbo 应用姿态可能会导致 Dubbo 利用以及 ZooKeeper 注册核心呈现稳定性问题。近期,一线上客户公布时,因为 Dubbo Reference 反复初始化,导致 ZooKeeper 呈现不可用,服务注册订阅失败,造成业务大面积故障。 ZooKeeper 出现异常日志↓ 并且 ZooKeeper 集群继续不可用,无奈自愈。 起因剖析Dubbo Reference 是 Dubbo 框架中服务提供者在调用者中的代理实现,在初始化 Dubbo Reference 的时候会将 consumer 自身注册在订阅的服务的 consumer 列表中,如果在一个利用中实例化了多个同一个接口的 Dubbo Reference,那么 ZooKeeper 中对应的被订阅的服务 consumer 列表中也会存在多个因为此利用订阅产生的 Znode 节点,这些 Znode 节点的 Path 除了 timestamp 字段都是统一的。 Dubbo 自身通过这种形式示意实在的订阅关系,然而在客户端不正确的应用的状况下,就可能导致 Dubbo 利用自身以及 ZooKeeper 的稳定性问题。 https://github.com/apache/dubbo/issues/4587例如在 Dubbo 2.7.9 之前的版本中在利用中初始化多个雷同接口的 Dubbo Reference, 可能会导致内存溢出的问题。 对于 ZooKeeper 集群,在之前 jute.maxbuffer 调优文章中剖析过在 ZooKeeper Server 之间数据同步的时候会严格依据 jute.maxbuffer 的限度进行 Server 之间用于同步的数据包大小的校验,如果数据包超过限度会导致 Follower 和 Leader 之间断连。对于因为谬误应用,利用一直初始化同一个接口的 Dubbo Reference,在利用解体之后,利用创立的大量的长期节点会导致 ZooKeeper 集群继续解体。 ...

May 23, 2023 · 1 min · jiezi

关于阿里云:广州-智在粤港澳Serverless-为创新提速

风从海上来,潮涌大湾区。粤港澳大湾区建设再减速,云计算、人工智能等前沿科技继续激发产业潜能,催生产业全面迈向智能化。阿里云峰会·粤港澳大湾区,将为您出现一幅科技翻新新图景。云 Serverless 减速云上开发,用 AI 新范式见证数智化改革,激发想象力。本次峰会分为一场主论坛、13 场分论坛、一场企业路演、以及 500 平米的超大翻新体验区,让开发者充沛感触先进技术的魅力,与咱们携手为翻新提速。 ⏰ 会议工夫:2023 年 6 月 1 日 会议地点:广州·保利洲际酒店在此,特地向您举荐 Serverless 减速翻新分论坛。当初乃至将来,市场环境充斥了各种不确定性。而 Serverless 是帮忙企业应答不确定性无效的技术手段。Serverless 助力企业在不确定性中寻找并抓住机遇,以更优异的弹性和敏捷性,帮忙企业卸下沉重的低价值工作负载,聚焦发明业务价值,用更麻利、更低成本来实现业务的疾速翻新,应答不可预测。 在本分论坛,咱们邀请到 Serverless 畛域多位重磅嘉宾分享最新的产品能力与技术实际,还有多项重磅公布,期待大家扫码报名! 查看海报理解 本次流动详情 点击此处,报名参会

May 22, 2023 · 1 min · jiezi

关于阿里云:云原生产品免费试用领取攻略看看有哪些新玩法

往年 4 月,阿里云对外发表产品提价和外围云产品收费试用以来,开发者反响强烈,已有超过 100 万人次拜访阿里云官网的收费试用。目前收费试用新增了云原生、AI、平安、开发工具、迁徙和运维治理等多个品类。同时,官网上还提供了各种教程,心愿帮忙大家疾速把握云产品应用形式,晋升云上开发能力。 热门云原生产品收费试用支付 领完收费试用产品,有哪些新玩法?玩法一玩转 AIGC,基于函数计算部署 Stable Diffusion 服务人工智能生成内容(AIGC)是当下最火的概念之一。AI 生成内容的模式相当丰盛,除了文字外,还能够进行绘画、作曲、演唱、编剧、设计等。最近热度十分高的 Text to Image 就是 AI 加持下十分时尚的一种图片发明形式。看看上面这些图片,你肯定很难设想它们都是 AI 生成的吧。 本试验教你如何在函数计算 FC 上从零开始部署 Stable Diffusion 来进行 AI 绘画创作,开启 AIGC 盲盒。 支付函数计算收费试用,疾速体验 AIGC。 这是一项靠近零根底的教程,其中并不会蕴含简单的概念或者深奥的算法。换句话说,只有你稍有计算机根底,理解如何敲入命令,晓得怎么应用浏览器关上网页,你就能很轻松的实现这个试验。 试验地址: https://developer.aliyun.com/adc/scenario/e71ae1062a4f405e8ed... 截至目前,体验上线后有 6000 多开发者参加,并给出超高评估! 玩法二可观测实验班:用最简略的形式获取网站性能和用户体验 随着技术开发门槛越来越低,集体开发者规模越来越大,传统运维模式产生天翻地覆的变动,可观测应运而生,并被 Gartner 认定为“2023 年十大策略技术趋势”。那么,抛开数据埋点等传统运维工作,是否有更简略的形式,比方只需输出一个网址URL,咱们就全面理解网站性能与网络品质呢? 本次试验,通过支付云拨测收费试用资源,教会大家如何借助ARMS-云拨测进行网页性能监测与用户体验剖析。 学习地址: https://developer.aliyun.com/adc/series/activity/ARMS 玩法三阿里云容器 K8s 训练营炽热开启,带你速成 K8s 专家 阿里云容器 K8s 训练营旨在帮忙用户疾速学习和把握 Kubernetes 技术,从而成为 Kubernetes 专家。训练营提供了一系列实战案例和训练课程,帮忙大家深刻理解 Kubernetes 的架构、组件、部署、运维等方面,实现容器化利用的高效治理和经营。 学习完课程,并实现参营工作,您能够失去:① 前 100 名可取得阿里云保温杯,前 101-300 名可取得阿里云小宝公仔;② 取得电子结营证书一张。 训练营地址:https://developer.aliyun.com/trainingcamp/83262c78375b422d90d... 玩法四上收费公开课,深度学习 RocketMQ ...

May 22, 2023 · 1 min · jiezi

关于阿里云:北京站丨云原生技术实践营邀请您参加

流动简介云原生(Cloud Native)作为云计算的再降级,曾经成为新的倒退热点。随着新的技术倒退,云原生的概念在一直的演变,各行各业的 IT 架构转型历程也是随同云原生技术倒退逐渐演进,从摸索云计算、分布式等新技术的规模化使用,到减速云原生布局,全面落地云原生技术,构建云原生生态。本期阿里云云原生实际训练营,邀请了重磅阿里云原生布道师,全面介绍在利用容器化、Serverless、微服务治理、可观测体系、音讯等畛域的最佳实际,并通过入手试验环节助力大家相熟相干产品,更疾速的找到适宜本人的云上最优解。 流动信息流动日期:2023年5月26日(周五)09:30-17:00 流动地址:北京阿里核心.望京A座-20F-02 九华山庄 名额有限,立刻报名!还可取得丰盛的小礼品! 报名链接: https://hd.aliyun.com/form/2976?hid=33349&channelId=2308&empId= 舒适提醒: 如加入入手环节,请自带笔记本电脑。 流动议题及分享嘉宾① 09:30-09:50 分享主题:云原生减速企业应用构建 分享嘉宾:孙杰|阿里云高级产品解决方案构造师 ② 09:50-10:30 分享主题:深入浅出了解 Kubernetes 分享嘉宾:陈晓斌|阿里云产品解决架构师 ③ 10:30-11:10 分享主题:Serverless 助力业务提效降本 分享嘉宾:赵庆杰|阿里云智能高级技术专家 ④ 11:10-11:50 分享主题:基于阿里云容器服务 ASK 搭建生产级 Stable Diffusion 服务 分享嘉宾:牛秋霖|阿里云高级技术专家 ⑤ 11:50-13:30 ——午休&交换—— ⑥ 13:30-14:10 分享主题:云原生微服务治理和网关最佳实际 分享嘉宾:董振华|阿里云高级产品专家 ⑦ 14:10-14:50 分享主题:面向容器与 Serverless ,如何构建全链路可观测体系 分享嘉宾:李华|阿里云产品解决方案架构师 ⑧ 14:50-15:30 分享主题:音讯队列 RocketMQ 5.0最佳实际 分享嘉宾:李浩正|阿里云产品解决方案架构师 ⑨ 15:30-16:40 入手1:阿里云容器服务 Serverless Kubernetes 疾速入门。 ...

May 22, 2023 · 1 min · jiezi

关于阿里云:10-个开源项目47-个课题可选丨欢迎报名阿里云云原生开源之夏

开源之夏开源之夏是由中科院软件所“开源软件供应链点亮打算”发动并长期反对的一项暑期开源流动,旨在激励在校学生积极参与开源软件的开发保护,造就和挖掘更多优良的开发者,促成优良开源软件社区的蓬勃发展,助力开源软件供应链建设。 参加学生通过近程线上合作形式,配有资深导师领导,参加到开源社区各组织我的项目开发中并播种奖金、礼品与证书。这些播种,不仅仅是将来毕业简历上浓墨重彩的一笔,更是迈向顶尖开发者的闪亮终点,能够说十分值得一试。每个我的项目难度分为根底和进阶两档,对应学生结项奖金别离为税前人民币 8000 元和税前人民币 12000 元。 阿里云云原生利用平台团队凋谢了包含 Apache Dubbo/Apache RocketMQ/Koordinator/Higress/Nacos/OpenYurt/OpenSergo/Seata/Sentinel/Spring Could Alibaba 在内,波及容器、微服务、音讯三大技术畛域的 10 个开源我的项目。 Apache Dubbo 社区开源之夏 2023 我的项目课题汇总  Apache Dubbo 是一款易用、高性能的 WEB 和 RPC 框架,同时为构建企业级微服务提供服务发现、流量治理、可观测、认证鉴权等能力、工具与最佳实际。本次开源之夏提供 9 个我的项目: IDL 治理平台,我的项目社区导师陈有为基于 Kubernetes 的集成测试平台,导师江河清API 治理平台,导师刘军服务 JSON 序列化兼容性校验,导师华钟明将 Dubbo 工程构造重构为 Gradle 我的项目,导师庄旻轩自动化性能测试计划,导师陈景明移除对 jprotoc 的依赖,导师郭浩Node.js HTTP/2 协定实现,导师胡锋实现 Dubbo Rust 的路由模块,导师鲁严波 Apache RocketMQ 社区开源之夏 2023 我的项目课题汇总  作为支流的分布式消息中间件,RocketMQ 于 2012 年开源,并在 2017 年正式成为 Apache 顶级我的项目,继续迸发出旺盛的生命力。随同着云原生时代的到来以及实时计算的衰亡, 生于云、长于云的 RocketMQ 5.0 应运而生,全新降级为云原生音讯、事件、流交融解决平台,帮忙用户更容易地构建下一代事件驱动和流解决利用。RocketMQ 5.0 专一于音讯基础架构的云原生化演进,聚焦在音讯畛域的后处理场景,反对音讯的流式解决和轻计算,帮忙用户实现音讯的就近计算和剖析,并全面拥抱 Serverless 和 EDA。本次开源之夏提供 6 个我的项目: ...

May 22, 2023 · 2 min · jiezi

关于阿里云:Seatago-TCC-设计与实现

作者:刘月财 本文次要介绍 seata-go 中 TCC 的设计思路、异样解决以及在实战中的应用。 Seata 是一款开源的分布式事务解决方案,致力于为现代化微服务架构下的分布式事务提供高性能和简略易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 等多种事务模式,帮忙用户解决不同场景下的业务问题。同时,Seata 还反对多语言编程,并且提供了繁难的 API 接口、丰盛的文档以及疾速上手的 samples 示例我的项目,也能疾速帮忙开发者入门并上手 Seata 的应用。 Seata-go 是 Seata 多语言生态中 golang 语言的实现计划,它致力于帮忙 golang 开发者也能应用 Seata 的能力来解决分布式事务场景的问题。 Seata-go 复用了 Seata TC 的能力,client 的性能和 Seata 保持一致。目前 Seata-go 曾经反对了 TCC 和 AT 模式,XA 模式正在测试中,预计会在 5 月份发版。Saga 模式正在设计和布局中,前面也会和 Seata 的 Saga 性能保持一致。 本文次要从以下几个角度,介绍 Seata-go 中的 TCC 模式的设计与应用: Seata-go TCC 实现原理Sata-go TCC 异样解决Seata-go 的瞻望Seata-go TCC 实现原理Seata-go 采纳了 getty 做 TCP 网络通信,齐全实现了 Seata 的通信协议。上层实现了配置核心和注册核心,也反对了很多的第三方框架的接入,比方 dubbo、grpc、gorm 等等,目前也正在踊跃和各个社区沟通,以反对更多框架的接入。Seata-go 繁难的零碎架构图如下: ...

May 22, 2023 · 2 min · jiezi

关于阿里云:Seata-的可观测实践

作者:察溯 Seata 简介Seata 的前身是阿里巴巴团体内大规模应用保障分布式事务一致性的中间件,Seata 是其开源产品,由社区保护。在介绍 Seata 前,先与大家探讨下咱们业务倒退过程中常常遇到的一些问题场景。 业务场景咱们业务在倒退的过程中,基本上都是从一个简略的利用,逐步过渡到规模宏大、业务简单的利用。这些简单的场景不免遇到分布式事务管理问题,Seata 的呈现正是解决这些分布式场景下的事务管理问题。介绍下其中几个经典的场景: 场景一:分库分表场景下的分布式事务 起初咱们的业务规模小、轻量化,繁多数据库就能保障咱们的数据链路。但随着业务规模不断扩大、业务一直复杂化,通常繁多数据库在容量、性能上会遭逢瓶颈。通常的解决方案是向分库、分表的架构演进。此时,即引入了分库分表场景下的分布式事务场景。 场景二:跨服务场景下的分布式事务 升高单体利用复杂度的计划:利用微服务化拆分。拆分后,咱们的产品由多个性能各异的微服务组件形成,每个微服务都应用独立的数据库资源。在波及到跨服务调用的数据一致性场景时,就引入了跨服务场景下的分布式事务。 Seata 架构 Transaction Coordinator(TC) 事务协调器,保护全局事务的运行状态,负责协调并驱动全局事务的提交或回滚。Transaction Manager(TM) 管制全局事务的边界,负责开启一个全局事务,并最终发动全局提交或全局回滚的决定,TM 定义全局事务的边界。Resource Manager(RM) 管制分支事务,负责分支注册、状态汇报,并接管事务协调器的指令,驱动分支(本地)事务的提交和回滚。RM 负责定义分支事务的边界和行为。Seata 的可观测实际为什么须要可观测?分布式事务音讯链路较简单Seata 在解决了用户易用性和分布式事务一致性这些问题的同时,须要屡次 TC 与 TM、RM 之间的交互,尤其当微服务的链路变简单时,Seata 的交互链路也会呈正相关性减少。这种状况下,其实咱们就须要引入可观测的能力来察看、剖析事物链路。异样链路、故障排查难定位,性能优化无从下手在排查 Seata 的异样事务链路时,传统的办法须要看日志,这样检索起来比拟麻烦。在引入可观测能力后,帮忙咱们直观的剖析链路,疾速定位问题;为优化耗时的事务链路提供根据。可视化、数据可量化可视化能力可让用户对事务执行状况有直观的感触;借助可量化的数据,可帮忙用户评估资源耗费、布局估算。可观测能力概览 Metrics 维度设计思路Seata 作为一个被集成的数据一致性框架,Metrics 模块将尽可能少的应用第三方依赖以升高发生冲突的危险Metrics 模块将极力争取更高的度量性能和更低的资源开销,尽可能升高开启后带来的副作用配置时,Metrics 是否激活、数据如何公布,取决于对应的配置;开启配置则主动启用,并默认将度量数据通过 prometheusexporter 的模式公布不应用 Spring,应用 SPI(Service Provider Interface) 加载扩大模块设计 seata-metrics-core:Metrics 外围模块,依据配置组织(加载)1 个 Registry 和 N 个 Exporterseata-metrics-api:定义了 Meter 指标接口,Registry 指标注册核心接口seata-metrics-exporter-prometheus:内置的 prometheus-exporter 实现seata-metrics-registry-compact:内置的 Registry 实现,并轻量级实现了 Gauge、Counter、Summay、Timer 指标metrics 模块工作流 上图是 metrics 模块的工作流,其工作流程如下: 利用 SPI 机制,依据配置加载 Exporter 和 Registry 的实现类基于音讯订阅与告诉机制,监听所有全局事务的状态变更事件,并 publish 到EventBus事件订阅者生产事件,并将生成的 metrics 写入 Registry监控零碎(如 prometheus)从 Exporter 中拉取数据TC 外围指标 ...

May 22, 2023 · 1 min · jiezi

关于阿里云:上海丨阿里云-Serverless-技术实战营邀你来玩

流动简介本次沙龙深度探讨 “Serverless 在中国企业的落地和开发者实操” 主题,咱们特地邀请了来自阿里云一线技术专家,分享以后 Serverless 趋势和落地实际过程中的挑战和时机;带来数据库 Serverless 技术架构及利用实际;浅析云原生时代开发者须要的 Serverless 能力,为开发者日常利用,待业、晋升提出倡议和全视角解析;应用 EventBridge 构建下一代 Serverless 事件驱动型架构。更有 Serverless Workshop 等你来玩,手把手带你玩转 AIGC, 一步部署 Stable Diffusion,感触 Severless 之美。 流动信息流动日期:2023 年 5 月 27 日(周六)13:30-17:20 流动地址:上海·金陵紫金山大酒店 名额有限,立刻报名! 还有超多周边礼品! 报名链接:https://www.huodongxing.com/event/6702653672111?td=3304156735350 流动议题及分享嘉宾① 13:30 - 14:05 Serverless 的起源、倒退和落地实际 拓山|阿里云智能高级技术专家 议题简介: 以后 Serverless 架构从概念曾经进入到大规模生产落地阶段。本议题讲由浅入深探讨企业在 All on Serverless 过程中的挑战和教训,为给更多落地 Serverless 的企业提供参考和借鉴。 ② 14:05 - 14:40 RDS 云数据库 Serverless 技术架构及利用实际 自升|阿里云数据高级研发工程师 议题简介: Serverless 概念自 2019 年提出至今,应用层的尝试与翻新川流不息,而数据库畛域的 Serverless 摸索则方兴未艾。传统云托管数据库,立足于 Serverless,依靠 IaaS 层的资源反对,如何为应用层带来极致的弹性、为运维带来智能化便当的体验,从而帮忙客户实现真正的降本增效?本次分享,将介绍阿里云数据库 RDS 的 Serverless 技术架构和细节,并从应用层接入的角度,介绍 RDS Serverless 数据库的具体实际。 ...

May 19, 2023 · 1 min · jiezi

关于阿里云:全景剖析阿里云容器网络数据链路三Terway-ENIIP

前言近几年,企业基础设施云原生化的趋势越来越强烈,从最开始的 IaaS 化到当初的微服务化,客户的颗粒度精细化和可观测性的需要更加强烈。容器网络为了满足客户更高性能和更高的密度,也始终在高速的倒退和演进中,这必然对客户对云原生网络的可观测性带来了极高的门槛和挑战。为了进步云原生网络的可观测性,同时便于客户和前后线同学减少对业务链路的可读性,ACK 产研和 AES 联结共建,合作开发 ack net-exporter 和云原生网络数据面可观测性系列,帮忙客户和前后线同学理解云原生网络架构体系,简化对云原生网络的可观测性的门槛,优化客户运维和售后同学解决疑难问题的体验 ,进步云原生网络的链路的稳定性。鸟瞰容器网络,整个容器网络能够分为三个局部:Pod 网段,Service 网段和Node 网段。这三个网络要实现互联互通和访问控制,那么实现的技术原理是什么?整个链路又是什么,限度又是什么呢?Flannel, Terway 有啥区别? 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1153097?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 19, 2023 · 1 min · jiezi

关于阿里云:阿里云微服务引擎-MSE-全新升级实用能力更普惠最高降幅-75

微服务,曾经成为一种普惠技术。开源抉择趋势集中,商业产品趋势体验统一,开源和商业在造就客户应用习惯的过程中,逐渐成为了事实上的应用规范。 5 月 17 日,阿里云峰会·常州站发表微服务引擎 MSE 三大普惠降级,进一步升高客户享受微服务技术红利的老本。 普惠一:Higress 云原生网关公布 GA 版本,官网举荐生产可用Higress 源自阿里巴巴外部电商、交易等外围生产场景的实际积淀,遵循 Ingress/Gateway API 规范,将流量网关、微服务网关、平安网关三合一,并在此基础上扩大了服务治理插件、安全类插件和自定义插件,高度集成 K8s 和微服务生态,包含 Nacos 注册和配置、Sentinel 限流降级等能力,并反对规定变更毫秒级失效等热更新能力。Higress 的倒退经验了三个阶段: 阿里巴巴外部应用(2020.05~2020.11): 作为阿里巴巴与蚂蚁流量互通的外围链路,撑持双11大促每秒数十万的申请流量。云产品孵化(2020.12~2021.10): 将孵化成熟的 Higress 技术积淀为云产品,即目前阿里云上提供的 MSE 云原生网关,一方面面向宽广的私有云用户提供托管的网关服务,另一方面也对内服务。云产品成熟并开源(2021.11~至今): 在云原生的浪潮下,开源曾经成为软件倒退的必然趋势与疾速门路,因为社区的力量是十分弱小的。因而咱们将这套通过外部实际积淀和商业化产品考验的网关计划 Higress 正式对外开源。历时 6 个多月,Higress 将在 5 月 22 号推出了首个开源 GA 版本,开发者能够通过简略易用的控制台,开箱即用地应用云原生网关,升高接入门槛。 普惠二:无损高低线、金丝雀公布等实用能力提价75%MSE 微服务治理分为根底版、专业版和企业版,价格别离为每个实例每小时 0.01 元、每个实例每小时 0.04 元、每个实例每小时 0.125 元。此次降级,将专业版中的实用能力,例如无损高低线、金丝雀公布、服务治理可观测等下沉到根底版,相当于这三大能力的老本升高 75%。 降级后,开发者可按以下分类来抉择版本规格: 根底版: 面向单利用变更稳定性(单链路治理),可解决 60% 以上的稳定性危险。专业版: 面向全链路变更稳定性,全面打消变更态危险(全链路治理),可解决80% 以上的稳定性危险。企业版: 面向全链路全生命周期稳定性,全面打消稳定性危险和平安问题,可解决90% 以上的稳定性危险。普惠三:注册配置、微服务治理、云原生网关上线收费试用MSE 蕴含 3 个子产品,包含注册配置、微服务治理和云原生网关,将全面提供收费试用,并提供实用的体验场景,帮忙客户高效评测产品能力。收费额度如下: 注册配置: 开发版,1C2G,1 节点,1 个月收费微服务治理: 专业版,1 个月收费云原生网关: 2C4G,2 节点,1 个月收费收费额度将于 6 月 1 日起失效。 ...

May 18, 2023 · 1 min · jiezi

关于阿里云:全景剖析阿里云容器网络数据链路五Terway-ENITrunking

近几年,企业基础设施云原生化的趋势越来越强烈,从最开始的IaaS化到当初的微服务化,客户的颗粒度精细化和可观测性的需要更加强烈。容器网络为了满足客户更高性能和更高的密度,也始终在高速的倒退和演进中,这必然对客户对云原生网络的可观测性带来了极高的门槛和挑战。为了进步云原生网络的可观测性,同时便于客户和前后线同学减少对业务链路的可读性,ACK产研和AES联结共建,合作开发ack net-exporter和云原生网络数据面可观测性系列,帮忙客户和前后线同学理解云原生网络架构体系,简化对云原生网络的可观测性的门槛,优化客户运维和售后同学解决疑难问题的体验 ,进步云原生网络的链路的稳定性。 鸟瞰容器网络,整个容器网络能够分为三个局部:Pod网段,Service网段和Node网段。这三个网络要实现互联互通和访问控制,那么实现的技术原理是什么?整个链路又是什么,限度又是什么呢?Flannel, Terway有啥区别?不同模式下网络性能如何?这些,须要客户在下搭建容器之前,就要根据本人的业务场景进行抉择,而搭建结束后,相干的架构又是无奈转变,所以客户须要对每种架构特点要有充沛理解。比方下图是个简图,Pod网络既要实现同一个ECS的Pod间的网络互通和管制,又要实现不同ECS Pod间的拜访, Pod拜访SVC 的后端可能在同一个ECS 也可能是其余ECS,这些在不同模式下,数据链转发模式是不同的,从业务侧体现后果也是不一样的。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1156093?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 17, 2023 · 1 min · jiezi

关于阿里云:maxcompute湖仓适合什么场景呀

MaxCompute湖仓适宜以下场景:1、大数据存储和计算:MaxCompute湖仓可能提供大规模的数据存储和计算能力,能够反对TB到PB级别的数据规模,并提供疾速的计算和查问能力,可能满足数据量大、解决简单的大数据计算场景。2、数据仓库和数据分析:MaxCompute湖仓提供了残缺的数据仓库性能,可能不便地进行数据模型设计、数据集成和数据查问剖析,反对各种数据导入和导出形式,并提供了高效的SQL计算引擎和数据可视化工具。3、机器学习和数据挖掘:MaxCompute湖仓集成了弱小的机器学习和数据挖掘框架,可能反对各种常见的机器学习和数据挖掘算法,提供了自动化模型训练和部署性能,可能满足各种机器学习和数据挖掘场景。 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/496267?utm_content=g_1000371990 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 17, 2023 · 1 min · jiezi

关于阿里云:从-Nginx-Ingress-窥探云原生网关选型

现今有越来越多的企业开始驳回云原生理念进行利用架构转型。而 K8s 和微服务是云原生的两大支柱,随着云原生浪潮而被广泛应用。 对少数利用而言,提供对外服务的使命并不会扭转,相比于原来的单体利用,微服务架构下的利用的服务进口更多,治理更繁琐,微服务网关也应运而生;而 K8s 也提供了多种形式来裸露利用的服务,各种 Ingress 实现百花齐放。面对泛滥技术计划,咱们如何做出正当的抉择,躲避潜在危险,本文将给出一些选型倡议,供大家参考。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1127601?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 16, 2023 · 1 min · jiezi

关于阿里云:换模型更简单如何用-Serverless-一键部署-Stable-Diffusion

作者:寒斜 本篇章是阿里云函数计算部署 Stable Diffusion 系列的第三篇,如果说第一篇是尝试应用云服务来解决用户本地部署 Stable Diffusion 的问题(显卡老本,部署技术简单),第二篇是面向技术同学解决云服务 Stable Diffusion 的实用性问题(自定义模型,扩大),那么本篇则是以更公众的形式实现本地电脑的平替,使得人人皆可领有一套实用的 Stable Diffusion 服务,不论你是普通用户,或者是技术同学,皆可实用。 前置条件1. 注册并登录阿里云账号 [ 1] 2. 开明函数计算 [ 2] 3. 开明文件存储 NAS 服务 [ 3] 函数计算和文件存储 NAS 都是应用的时候才去计费,目前,函数计算和文件存储 NAS 都有新用户收费额度,能够去阿里云官网支付。 疾速开始首先进入利用核心:https://account.aliyun.com/login/login.htm?oauth_callback=https%3A%2F%2Ffcnext.console.aliyun.com%2Fapplications&lang=zh 通过模版创立利用-> 人工智能选项卡-> AI 数字绘画 Stable-Diffusion 自定义模板->立刻创立。 填写表单项抉择间接部署-> 杭州地区 -> 复制开发者筹备好的容器镜像点击创立并部署默认环境。 利用部署接下来什么都不须要操作,期待利用部署即可,约破费 5-10 分钟, 如果你是技术同学,能够开展看看咱们提供的部署日志,察看部署过程。 配置管理后盾部署胜利后失去两个域名。 其中 Stable Diffusion 结尾的是主服务,目前因为没镜像还不能拜访,admin 结尾的是咱们的治理后盾,接下来咱们须要先配置一下治理后盾,而后把咱们的模型上传上去。 治理后盾应用的是可道云提供的 kod-box,对于你而言一路点点点,就能够。 等初始化好之后,设置本人的登录账号和明码: 之后进行登录: 登录后在门路输出 /mnt/auto/sd。 如果你相熟 sd-webui 的目录的话,你能够看到对应的目录: 接下来咱们关上 /mnt/auto/sd/models/Stable-diffusion/,而后点击上传->离线下载。 在这里咱们输出 sd1.5 的模型地址:https://huggingface.co/runwayml/stable-diffusion-inpainting/r... ...

May 15, 2023 · 2 min · jiezi

关于阿里云:阿里云-ACK-One-多集群管理再升级GitOps-多集群持续集成统一报警管理

ACK One概述ACK One 是阿里云面向混合云、多集群、分布式计算等场景推出的分布式云容器平台,可能对立治理阿里云上、边缘、部署在客户数据中心以及其余云上的 Kubernetes 集群,并简化集群治理界面。通过 ACK One 多集群治理,能够关联并治理各种状态的 Kubernetes 集群,提供对立的集群管制面,实现多集群对立的利用散发,流量治理,运维治理,平安治理。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1125218?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 15, 2023 · 1 min · jiezi

关于阿里云:PolarDBX-数据节点备库重搭

本文次要介绍PolarDB-X中DN(数据节点)备库重搭的背景,以及polardbx-operator上是如何实现DN备库重搭的。 背景在一个一主多从的高可用零碎中,往往存在一个主节点负责对外提供服务,另外一个或者多个备节点,向主节点实时同步数据,当主节点产生异样时,会有一个备节点立马切换为主节点,持续对外提供服务,此时对业务来说,仅仅是产生一次连贯闪断,重试便能复原。备节点越多,则这个零碎变得齐全不可服务的几率就越小,因而咱们须要有足够多的备节点来保障高可用性,当备节点产生异样时,咱们须要及时进行重建,上述重建操作,咱们称之为备库重搭。 一个残缺的PolarDB-X实例,由计算节点、存储节点、元数据节点、日志节点组成,其中计算节点和日志节点为无状态部署,当迁徙节点的时候不须要迁徙数据,只须要给配置、给资源便能失常拉起,而存储节点和元数据服务节点是有状态部署,当备节点不可用时,咱们须要迁徙数据来复原节点(在本文咱们统称为DN备库重搭)。 存储节点和元数据服务节点是XDB实例(基于mysql进行了革新和降级),其架构如下图所示: 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1173876?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2023 · 1 min · jiezi

关于阿里云:大普微DapuStor完成阿里云PolarDB数据库产品生态集成认证

近日,深圳大普微电子科技有限公司(以下简称大普微)与阿里云PolarDB 开源数据库社区开展产品集成认证。测试结果表明,大普微旗下DapuStor PCle4.0 嵘神系列 企业级SSD与阿里云以下产品:阿里云PolarDB数据库管理软件、阿里云PolarDB-X云原生分布式数据库管理软件,齐全满足产品兼容认证要求,兼容性良好,零碎运行稳固。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1191217?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2023 · 1 min · jiezi

关于阿里云:版本更新PolarDBX-v221-生产级关键能力开源升级

在往年阿里云瑶池数据库峰会上,PolarDB 分布式版 (PolarDB for Xscale,简称“PolarDB-X”) 正式公布2.2.1 版本。PolarDB 分布式版是阿里巴巴自主设计研发的高性能云原生分布式数据库产品,为用户提供高吞吐、大存储、低延时、易扩大和超高可用的云时代数据库服务。从 2009 年开始服务于阿里巴巴电商外围零碎, 2015 年开始对外提供商业化服务,并于 2021 年正式开源。本次新版本公布,是在分布式数据库金融规范能力根底上,重点增强了生产级要害能力,全面晋升PolarDB 分布式版面向数据库生产环境的易用性和安全性,比方:提供数据疾速导入、性能测试验证、生产部署倡议等。 架构简介PolarDB-X 采纳 Shared-nothing 与存储拆散计算架构进行设计,零碎由5个外围组件组成。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1180139?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2023 · 1 min · jiezi

关于阿里云:Journal-文件是什么

Journal 文件是固定大小的空间,其中head lsn 为以后事务提交到的最新位点。因 为日志是循环笼罩写的过程,如果日志提交后空间不够,须要做checkpoint 操作, 将日志trim 到磁盘上,变更也将反映到磁盘的共享存储上。checkpoint 操作可将位 点不停地推动,将块空间进行开释,用于提交新的log。 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/469073?utm_content=g_1000371620 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2023 · 1 min · jiezi

关于阿里云:混合云备份HBR如何将VMware虚拟机迁云

客户能够将本地机房VMware虚拟机无代理迁徙上云,提供增量迁徙形式,简略、易用、快捷。 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/469245?utm_content=g_1000371619 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2023 · 1 min · jiezi

关于阿里云:流控验证太麻烦不敢上生产MSE-有办法

作者:涯客 影响服务稳定性的因素有很多,其中比拟常见但又往往容易被忽视的就是面向流量的稳定性,流控是保障服务稳定性的重要伎俩。然而,咱们发现大量客户仅仅在开发环境和预发环境中测试流控,却在生产环境中鲜有应用。依据深刻的交换,发现问题次要在二方面: 第一:对于首次公布的服务,因为无奈准确预测实在流量的大小,往往无奈给出正当的限流条件,这给流控的施行带来了很大的挑战。第二:对于曾经上线的服务,间接对正在运行的业务进行流控可能会导致业务宕机或申请谬误,进而影响用户体验。局部领有能力的客户,会在测试环境中模仿生产环境中流量,从而验证流控的正确性,进而在生产环境中施行。这最大的问题是验证老本较高,验证流程较长,而且测试环境无奈齐全还原生产环境中流量状况。咱们能够演绎以上的问题为一点:如何在不影响生产业务的状况下,小老本验证流控能力,进而在生产环境中施行流控。 在不验证的状况下,间接在生产环境中失效流控规定,很有可能让解决劫难的方法成为劫难自身,例如流控规定配置谬误、流控没有达到预期、流控无端失效导致业务宕机等等,这些问题在生产环境中是齐全无奈承受的。 那么有什么方法可能在生产环境中小老本、疾速地验证流控能力?可能在生产环境中确定配置的流量防护策略是否正当?一个简略的思路就是只对线上一部分的流量进行流控验证,即在可控范畴内做流控验证。 基于这一想法,咱们应用微服务引擎(MSE)中热点参数防护的性能,提出了一种正当的解决方案:首先在生产环境中进行可控范畴内的流控能力验证、确定流控合理配置,进而在生产环境中启用流控。 MSE微服务治理简介:微服务治理核心无侵入加强支流Spring Cloud、Apache Dubbo和Istio等开源微服务框架,提供丰盛的服务治理和流量防护性能,将中间件与业务解耦,领有如下性能:无损上线、无损下线、全链路灰度、流量管制、离群实例摘除等。 验证思路咱们将会依照以下程序验证所提出计划的可行性: 搭建根底场景用于模仿生产环境。配置相应的流控规定,用于能力验证。流量测试。 根底场景搭建咱们应用MSE服务治理中热点参数防护性能来实现生产环境可控的流控能力验证。 本文以常见的长链路调用场景为例,介绍生产环境下进行可控范畴内的流控能力验证的过程,搭建的具体流程不再介绍,可详见MSE产品help文档 [ 1] 。 模仿场景应用如下后端场景,后端共有3个服务:利用A、利用B、利用C。这3个服务之间通过MSE Nacos注册核心实现服务发现。客户能够通过客户端后者HTML来拜访后端服务。客户的申请达到网关后,调用链路为 :用户>MSE云原生网关>A>B>C。 阐明:咱们的要求是对于指定带标签的流量,任何配置相应流控规定的利用都应起到流控作用。对于从网关到利用A的流量,因携带标签,热点参数防护性能能够失效。然而对于利用A至利用B的流量,会失落流量中的标签,咱们须要额定标签透传的性能,能力保障利用B失去携带标签的流量,从而使得热点参数防护性能能够失效。 名词解释: MSE云原生网关:MSE云原生网关是兼容K8s Ingress规范的下一代网关产品,反对ACK容器和Nacos等多种服务发现形式,反对多种认证登录形式疾速构建平安防线。更多信息,请参见云原生网关概述 [ 2]带标签申请:申请中的header带指定kv标签透传申请:失常的RPC申请,即利用A到利用B的申请是不会携带前置申请的header信息。如果是标签透传,前置申请中指定header将会携带后续的申请中流控配置咱们心愿仅仅对线上可控范畴内的流量进行流控验证,比方用户等级比拟低的申请流量,或者是外部用户的测试流量,从而在不会对线上的服务造成影响的前提下足够地验证流控能力。 咱们模仿如上场景,标识特定的流量申请header中退出key为limit,value为true的参数值,特定的流量会被流控规定所管制最大申请范畴,并且保障失常的申请流量不会受到任何影响。 而后咱们对利用A、利用B退出热点参数防护,用于后续计划可行性验证。该操作对header含有limit:true的申请进行流控,为了成果显著,设定流控失效的qps阈值为20(即qps超过20时,申请将会被回绝)。 在MSE服务治理中,为利用配置热点参数防护的具体过程如下。 3.1 利用A流控规定配置咱们只需在mse服务治理页面配置如下热点参数防护能力,就能实现针对特定流量的流控配置。在利用a中顺次抉择 抉择流量 > 流量防护 > 热点参数防护(HTTP申请) > 新增热点参数防护。 2.为接口/a退出如下配置防护规定。 针对指定的申请配置流控规定,比方下图所示header值为limit且value为true的流量会被以后配置的流控规定管制最大的QPS阈值20。 3.2 利用B流控规定配置利用B依照利用A一样配置。 在利用b中顺次抉择 抉择流量 > 流量防护 > 热点参数防护(HTTP申请) > 新增热点参数防护。为接口/b退出如下配置防护规定。 针对指定的申请配置流控规定,比方下图所示header值为limit且value为true的流量会被以后配置的流控规定管制最大的QPS阈值20。 流量测试在配置实现后,为了模仿生产环境,咱们将会顺次发送失常申请、被标记申请,测验流控对失常申请和被标记申请是否失效。 咱们首先依据如下步骤,获取入口地址: 登录MSE网关治理控制台,并在顶部菜单栏抉择地区。在左侧导航栏,抉择云原生网关 > 网关列表,单击指标网关名称。在左侧导航栏,单击根本概览。在网关入口页签,查看SLB的入口地址(ip)。在获取入口地址之后,咱们将会对/a接口顺次进行如下流量测试。 4.1 失常申请无流控向/a接口继续发送无标签的申请。可在输入中发现申请没有任何限度,均是失常返回,返回如下。A[192.168.0.98] -> B[192.168.0.57] -> C[192.168.0.56]4.2 被标记申请利用A流控失效向/a接口继续发送含标签申请(header含有limit:true)。当qps超过20时,申请呈现限流信息,限流信息如下。Blocked by Sentinel (flow limiting)4.3 被标记申请利用B无流控敞开A服务的流控限度。向/a接口继续发送含标签申请(header含有limit:true)。可在输入中发现申请没有任何限度,均是失常返回,返回如下。A[192.168.0.98] -> B[192.168.0.57] -> C[192.168.0.56]阐明:如果没有开启标签透传,利用A调利用B的申请无奈将header透传。从而无奈满足对于指定带标签的流量,任何配置相应流控规定的利用都应起到流控作用的成果。 ...

May 11, 2023 · 1 min · jiezi

关于阿里云:让开发者成为创新主体-阿里云云原生4月动态

作者:云原生内容小组 云原生月度动静 ✦ 云原生是企业数字翻新的最短门路。 《阿里云云原生每月动静》,从趋势热点、产品新性能、服务客户、开源与开发者动静等方面,为企业提供数字化的门路与指南。 本栏目每月更新。 01 趋势热点 让算力普惠、开释技术红利,让开发者成为翻新主体4 月 11 日,在 2023 阿里云峰会上,阿里巴巴团体董事会主席兼 CEO、阿里云智能团体 CEO 张勇示意,让计算成为公共服务是阿里云始终不变的谋求,让算力更普惠,推动自研技术和规模化经营的正循环,继续开释技术红利:从 IaaS、PaaS、MaaS,阿里云领有残缺的产品体系。特地是在 PaaS 层,阿里云实现了多款产品升级 Serverless,在函数计算、容器、数据库、大数据、机器学习等方面陆续推出 Serverless 服务,升高云的应用门槛,让开发者像用电一样应用云平台来解决理论问题。 相干文章:让算力普惠、开释技术红利,阿里云让开发者成为翻新主体  阿里云云原生合作伙伴打算全新降级:加码外围权利,与搭档共赢新将来2023 阿里云合作伙伴大会上,阿里云智能云原生利用平台经营&生态业务负责人王荣刚发表:“阿里云云原生合作伙伴打算”全新降级。本次降级针对生态搭档痛点量身定制,加码以下四大外围权利:提供当先产品试用权利。提供搭档 Co-marketing 联结营销反对。降级商机反对和销售激励打算。公布云原生雷达口头和瘠田培养打算。同时,在合作伙伴大会的现场,为了表彰上个财年为云原生业绩做出重大贡献的搭档,特地颁发两大年度奖项:云原生最佳合作伙伴奖、云原生光荣新星奖。 相干文章:重磅!阿里云云原生合作伙伴打算全新降级:加码外围权利,与搭档共赢新将来  云原生助力数字原生企业业务疾速迭代在2023 阿里云峰会上,阿里云智能云原生利用平台产品负责人李国强分享云原生如何服务数字原生企业,使初创公司也可能享受到与阿里云成熟技术团队等同的技术红利。在银行分论坛上,阿里云智能资深解决方案架构师阎帆介绍银行业如何基于云原生实现架构降级、落地数字化转型。 相干文章:云原生助力数字原生企业业务疾速迭代|阿里云峰会精彩回顾 ️《2023 云原生实战案例集》电子书公布云原生曾经变成十分风行的技术趋势,从上云到用云,云原生通过全面容器化、核心技术互联网化和利用 Serverless 化三大范式,帮忙企业解决利用构建的一系列问题,让利用更麻利,助力企业业务疾速倒退。通过这本案例集,心愿大家理解到云原生在汽车/制作、批发/电商/本地生存、交通/物流、互联网、金融服务等各个行业的实战经验和胜利案例,助力企业云上翻新。 关注公众号,后盾回复: “2023云原生” 即可收费下载电子书全本 02 产品新性能服务网格 ASM 反对 Istio 1.16 及之前版本的降级反对 gRPC-JSON 转码器插件网格拓扑反对应用 RAM 形式登录容器服务 ACK Terway 组件参数反对交换机配置ACK 反对定位 NAS 或 CPFS 客户端 IO 问题云原生 AI 套件 ack-fluid 公布 v0.9.7 版本Gang scheduling 调度策略反对 GangGroup 等高级性能分布式云容器平台 ACK One ...

May 11, 2023 · 2 min · jiezi

关于阿里云:灵活轻量弹性无限|阿里云RDS-PostgreSQL-Serverless助您轻松应对业务波动

随着云计算的迅速倒退,越来越多的企业开始将本人的业务迁徙到云端。云服务除了帮忙客户实现更高效、更平安、更灵便的经营模式,也在一直地通过技术革新帮忙企业客户升高资源老本。阿里云瑶池旗下的云数据库RDS PostgreSQL Serverless商业化上线是其全面拥抱云原生2.0的开始,但不是起点。RDS PostgreSQL Serverless是一种全托管型的云数据库服务,它能够帮忙用户疾速搭建高牢靠、高性能的PostgreSQL数据库环境,无需用户自行治理和保护底层的服务器。相比传统的云数据库服务,RDS PostgreSQL Serverless的最大特点是用户不须要预付费、不须要抉择规格,只需依照理论业务负载所需资源使用量付费即可。这种按需分配资源的模式能够让企业更加灵便地应答业务的变动,无需用户提前预置规格,防止因为预估过高造成的节约以及预估过低造成的业务受损。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1200796?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 11, 2023 · 1 min · jiezi

关于阿里云:客户说|承载日均亿级请求PolarDB点亮手游迷失蔚蓝上云之路

引言北京原力棱镜科技有限公司是国内出名的“出海”游戏研运商(以下简称“原力棱镜”),领有《迷失蔚蓝》等系列产品,并致力于打造新鲜的游戏体验,为寰球玩家提供极致服务。《迷失蔚蓝》是原力棱镜自主研发的高自由度海岛生存MMO手游。随着游戏经营时长及用户量的增长,原有自建数据库存储和运维老本日益回升,通过阿里云瑶池旗下的云原生数据库PolarDB多主集群技术劣势,进步存储利用率,缩减运维老本。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1199546?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 11, 2023 · 1 min · jiezi

关于阿里云:阿里云机器学习PAI发布基于HLO的全自动分布式系统-TePDist并宣布开源

导读始终以来,大模型在模型成果上被证实具备显著劣势。而ChatGPT的呈现,证实了其在工业生产工具方面具备微小后劲。毫无疑问,大模型的训练须要微小的算力,这对分布式并行框架是一项考验。现如今,业界越来越多的团队纷纷转向分布式框架的钻研与开发之中,既有针对特定场景特定模型的极致手工优化,也包含面向通用模型通用场景的主动分布式工作。然而,它们在理论生产场景依然有一些挑战。一方面,对于手工优化的框架,尽管其特定状况下的性能较为极致,但通用性存在限度。另一方面,现有的主动分布式框架可能在通用性和性能方面体现较好,但通常须要忍耐较长的策略搜寻工夫,进而对业务落地产生肯定的影响。为了应答以上问题,PAI 团队推出并开源了TePDist(Tensor Program Distributed System),它通过在HLO上做分布式策略搜寻,实现与用户模型语言解耦。并且在放弃通用性的同时,在可承受的策略搜寻工夫内,谋求高性能分布式策略。 TePDist背地的技术框架如何设计?将来有哪些布局?明天一起来深刻理解。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1196049?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 11, 2023 · 1 min · jiezi

关于阿里云:为什么看不见AHAS应用

查看接入形式是否正确,SDK 接入请查看jar包与依赖引入的状况,留神不要与开源版本依赖混用; 确保启动参数配置正确。若要配置 ahas.namespace,须要先到对应 region 管制台上创立相应的 namespace; 确保接口有访问量,SDK 形式只有触发接口拜访才会看到利用;确保控制台左上角 region 抉择正确。 SDK/starter 形式接入,查看 ~/logs/csp/ 门路下 sentinel-record.log 文件与 metric log 文件; 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/505606?utm_content=g_1000371541 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 11, 2023 · 1 min · jiezi

关于阿里云:阿里云蔡英华Landing-Zone助力生态伙伴成为企业云治理服务专家

4月26日,2023阿里云合作伙伴大会在南京召开,阿里云智能首席商业官蔡英华在大会上提到,“这几年通过标杆客户的服务,咱们总结了一套Landing Zone云治理的解决方案,为客户在上云的顶层设计,和管云各个流程的综合治理提供服务。阿里云将面向搭档全面凋谢解决方案资料库,使得搭档可能持续性地为客户做长期陪伴,让客户感觉到咱们的价值,帮忙搭档从云的销售成为真正的云服务商。欢送更多的搭档成为Landing Zone的合作伙伴!”  始终以来阿里云致力于服务客户上好云、管好云,积淀、打磨相应解决方案。面对上云阶段的客户,阿里云打造Landing Zone企业上云框架,领导企业布局和落地云上资源构造、拜访平安、财务管理、网络架构、平安合规体系,为企业在上云初期搭建平安、高效、可继续治理的云环境。同时为了存量的云上企业客户可继续高效地管好云,阿里云通过「云治理成熟度模型」,在危险管制、老本治理、效率晋升三个方向进一步做场景深挖,为企业在业务稳固用云期提供精细化、全方位的云上治理计划。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1202436?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。援用

May 10, 2023 · 1 min · jiezi

关于阿里云:最高等级Apache-RocketMQ-入选可信开源项目星云象限领导型象限

2023 年 4 月 21 日,由中国信通院主办的 OSCAR 开源生态建设论坛在北京胜利召开。本次论坛,中国信通院公布了可信开源我的项目星云象限。星云象限依靠于可信开源我的项目指数中风行度、参与度、响应度、平安能力和法律合规五个指标,从我的项目可持续性与可信性两个维度,将可信开源共同体我的项目分为四个阶段,别离为孵化型、成长型、挑战型、领导型,选取人工智能、数据库、中间件、操作系统、大数据、云原生平台6个热门技术畛域中的 16 个我的项目进行测评。其中,Apache RocketMQ 凭借团队在开源畛域的继续投入与卓越的产品力,入选星云象限领导型象限。 此次能胜利入选,离不开整体社区成员的共同努力,作为支流的分布式消息中间件,RocketMQ 于 2012 年开源,并在 2017 年正式成为 Apache 顶级我的项目,继续迸发出旺盛的生命力。随同着云原生时代的到来以及实时计算的衰亡, 生于云、长于云的 RocketMQ 5.0 已降级为云原生音讯、事件、流交融解决平台,帮忙用户更容易地构建下一代事件驱动和流解决利用。RocketMQ 5.0 专一于音讯基础架构的云原生化演进,聚焦在音讯畛域的后处理场景,反对音讯的流式解决和轻计算,帮忙用户实现音讯的就近计算和剖析,并全面拥抱 Serverless 和 EDA。 回顾 Apache RocketMQ 社区这些年的成长历程,目前,寰球 Apache RocketMQ Contributors 800+,是大家的共同努力促成了整个社区长期的衰弱倒退。同时,为了帮忙社区开发者更好地找到感兴趣的技术方向,疾速参加到社区并推动相干个性优化的疾速演进,RocketMQ 还成立内核、批处理、多语言客户端、Connect、Streaming、Operator、Exporter 等不同 SIG 兴趣小组。 此前,在中国科协召开 2023 “科创中国”年度会议中,Apache RocketMQ 社区也入选科创中国开源翻新榜开源社区榜单。 除此之外,RocketMQ 还非常重视社区间的单干,先后与 Apache DolphinScheduler,Apache Hudi 等社区组织多场联结开发者流动,在打造 RocketMQ 上下游生态的同时,也为不同社区开发者近距离探讨提供了平台。 在社区成员以及泛滥的开发者独特推动下,寰球超过数万家企业在应用 Apache RocketMQ,这其中不仅有字节跳动、快手、小米、滴滴、同城艺龙等互联网头部企业,还有泛滥银行、券商、保险,基金公司等金融公司。通过多年倒退,RocketMQ 已成为微服务畛域业务音讯首选。 将来,Apache RocketMQ 将不断创新,坚持不懈地促成我的项目和社区的倒退,为开源生态奉献应有的力量。 更多内容,请点击此处进入云原生技术社区查看

May 9, 2023 · 1 min · jiezi

关于阿里云:自己更换模型如何用-Serverless-一键部署-Stable-Diffusion

作者:寒斜 上一篇讲了如何应用 Serverless Devs 和函数计算疾速体验部署 Stable Diffusion,本篇持续聊聊如何解决动静模型加载的问题,从玩起来到用起来。 思路其实很简略, 咱们只须要将镜像外面的动静门路映射到 NAS [ 1] 文件存储外面即可,利用 NAS 独立存储文件模型,扩大,语言包等,并且咱们能够为治理 NAS 独自配置一个可视化的后盾,用简略的文件上传删除的形式治理咱们的文件,为此咱们须要开展打镜像的脚本,为了实现全套的流程咱们接下来盘一下整体的筹备项。 筹备项开明阿里云函数计算 [ 2]文件存储 NAS(能够依据状况本人创立性能更好的实例)开明阿里云容器镜像服务 ACR [ 3]装置 Serverless Devs [ 4]$ npm install @serverless-devs/s -g应用 Serverless Devs 配置阿里云密钥信息 [ 5]疾速开始初始化利用模板s init fc-stable-diffusion-plus抉择 region:cn-hangzhou 输出镜像:registry.cn-hangzhou.aliyuncs.com/serverlessdevshanxie/sd-auto-nas:v1 部署利用模板cd fc-stable-diffusion-plus && s deploy部署须要破费一些工夫(预估 5 分钟),之后你会收到两个域名返回。 fc-nas-init: region: cn-hangzhou service: name: fc-stable-diffusion-plus function: name: nas-init runtime: python3.9 handler: index.handler memorySize: 3072 timeout: 1200 cpu: 2 diskSize: 512fc-nas-filemgr: region: cn-hangzhou service: name: fc-stable-diffusion-plus function: name: admin runtime: custom handler: index.handler memorySize: 3072 timeout: 7200 cpu: 2 diskSize: 512 url: system_url: https://xxx.cn-hangzhou.fcapp.run system_intranet_url: https://xxx.cn-hangzhou-vpc.fcapp.run custom_domain: - domain: http://admin.fc-stable-diffusion-plus.xxxx.cn-hangzhou.fc.devsapp.net triggers: - type: http name: httpTriggerkeep-warm: region: cn-hangzhou service: name: fc-stable-diffusion-plus function: name: keep-warm runtime: python3 handler: index.handler memorySize: 128 timeout: 120 cpu: 0.1 diskSize: 512 triggers: - type: timer name: timerTriggerstable-diffusion-sd-server: region: cn-hangzhou service: name: fc-stable-diffusion-plus function: name: sd runtime: custom-container handler: index.handler memorySize: 32768 timeout: 600 cpu: 8 diskSize: 10240 url: system_url: https://xxx.cn-hangzhou.fcapp.run system_intranet_url: https://xxx.cn-hangzhou-vpc.fcapp.run custom_domain: - domain: http://sd.fc-stable-diffusion-plus.xxxxx.cn-hangzhou.fc.devsapp.net triggers: - type: http name: defaultTrigger其中: ...

May 9, 2023 · 2 min · jiezi

关于阿里云:Spring-Boot-单体应用一键升级成-Spring-Cloud-Alibaba

作者:十眠 背景随着 Apache Dubbo、Nacos 以及 Spring Cloud 等服务框架的风行,越来越多的企业开始采纳微服务架构来构建其应用程序。微服务架构使企业可能将其应用程序拆分成多个小型服务,这些服务能够独立部署和扩大。这种架构模式也使企业更容易实现麻利开发和继续交付,从而进步了其业务效率和响应能力。 微服务四大件:注册核心、服务提供者、服务消费者、服务治理 现在,随着服务提供者、服务消费者、服务注册核心以及服务治理等微服务几大件的呈现和成熟,使得咱们应用微服务开发,不仅能够做到疾速开发,更可能谋求微服务的高效和稳固。 单体 or 微服务? 从上图咱们能够看到,随着业务规模的增大,抉择单体架构与微服务架构的抉择趋势,他们之间存在一个交点。在交点之后,抉择微服务架构,业务规模越大越能够享受到微服务架构带来的效率的晋升。咱们能够察看到,这个交点在继续地向左挪动。数字化过程的疾速倒退广泛让企业的 IT 零碎更简单,开源以及云计算推动的技术标准化,正在大幅度地升高微服务架构的技术门槛,在云上小公司也能够很好地玩转微服务。随着这个趋势的到来,还在应用单体架构的企业也逐步思考向微服务转型。咱们发现在云上大部分 Java 利用依然是基于 SpringBoot 的,Spring Boot 利用因为其架构实现的简略性,客户端只需通过 http 和域名就能实现服务调用。因而,许多中小型公司依然采纳该形式进行利用开发。从技术角度上看,咱们如何降级 SpringBoot 利用至微服务架构,享受到微服务治理带来的技术红利,咱们须要减少 SpringCloud 的 maven 依赖?须要业务进行代码革新?本文能够答复你,不须要一行代码改变。 本计划能够通过 MSE 无侵入实现 Java 利用的注册、发现与治理能力。 以后 MSE 提供的注册核心产品能力次要集中在非长久化服务发现,即服务的状态保护在 client,须要业务方依赖 SDK 被动注册服务,并维持心跳;本计划提供了一种的长久化服务发现能力。解决跨平台服务发现问题,如跨 K8s 服务发现、非 K8s 服务和 K8s 服务相互发现等。无侵入实现基于 Spring Boot 利用的服务治理能力,如全链路灰度、限流降级、平安可信等。计划实际与摸索为了验证该场景,咱们提供了一个略微比较复杂的Demo,通过该 Demo 来别离演示如何通过 MSE 无侵入实现 Spring Boot 利用的服务注册与服务治理。Demo 是依据 K8s Service 进行服务发现并且通过简略的 HttpClient 进行申请调用,具体申请如下: ➜ ~ curl http://47.97.117.48/A/spring_boot A[10.0.3.238] -> B[10.0.3.227] -> C[10.0.3.230]%架构如下所示: ...

May 9, 2023 · 1 min · jiezi

关于阿里云:重磅阿里云云原生合作伙伴计划全新升级加码核心权益与伙伴共赢新未来

在明天的 2023 阿里云合作伙伴大会上,阿里云智能云原生利用平台经营&生态业务负责人王荣刚发表:“阿里云云原生合作伙伴打算”全新降级。他示意: 云原生致力于帮忙企业客户最大限度的加重运维工作,更好的实现麻利翻新,全面开释生产力,实现数字化翻新降级。本次云原生合作伙伴打算全新降级,将与搭档共拓市场空间,做大云市场,做深行业数字化。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1202008?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 9, 2023 · 1 min · jiezi

关于阿里云:阿里云-EMAS-魔笔4月产品动态

简介: 阿里云挪动研发平台EMAS & 低代码开发平台魔笔 4月产品动静已更新:挪动测试iOS开启辅助触控,反对多指划屏体验;挪动推送公布官网开源ReactNative插件;魔笔新增多种组件物料和功能模块,上线更多套餐选购版本,优化多种用户体验板块!内容摘要挪动测试 iOS开启辅助触控,反对多指划屏体验EMAS Serverless客户端文件上传反对更多文件类型挪动推送公布官网开源ReactNative插件移动用户反馈公布Android SDK 3.4.2版本魔笔新增多种组件物料和功能模块,新增多种套餐版本魔笔优化多种用户体验板块, 使其更便捷易用产品动静 体验EMASEMAS提供音讯推送、挪动测试、挪动监控、热修复、域名解析等收费应用阈值,点击“立刻开明”即可体验EMAS!EMAS帮忙文档:https://help.aliyun.com/product/434086.html 技术交换欢送退出开发者技术交换钉钉群:EMAS技术交换群:35248489 魔笔技术支持群:32946835

May 8, 2023 · 1 min · jiezi

关于阿里云:使用篇丨链路追踪Tracing很简单链路拓扑

作者:涯海 最近一年,小玉所在的业务部门发动了轰轰烈烈的微服务化静止,大量业务中台利用被拆分成更细粒度的微服务利用。为了迎接行将到来的双十一大促重保流动,小玉的主管让她在一周内梳理出订单核心的全局要害上下游依赖,提前拉通各方对齐重保计划。这个工作可愁坏了小玉,平时她只与间接上下游业务方打交道,当初要梳理出订单核心残缺的依赖门路,头发愁掉了一大把依然不晓得该如何下手。无奈之下,小玉再次求助于万能的小明。 针对小玉的问题,小明提出了一个想法,首先调用链能够追踪一次申请的残缺调用门路,然而单条调用链无奈反映出所有的调用分支,也无奈通过流量大小体现出依赖的强弱,而逐条剖析调用链的老本又太高。那么,是否能够通过程序将一批具备雷同特色(比方通过某个利用,或者调用了某个接口)的调用链聚合成一颗树,通过剖析这棵树的状态与流量,就能够疾速梳理出要害节点与依赖门路,而这就是链路拓扑性能的雏形。 如上图所示,入口利用 A 依赖了多个不同深度的上游利用,并且每次调用的门路并不相同。为了梳理出利用 A 的残缺调用依赖,能够将多条调用链聚合成一棵树,从根节点到叶子节点的每条门路都代表着一种流量流转门路,而节点的状态反映了流量的特色,比方次数、耗时、错误率等。通过调用链聚合,综合剖析端到端流量门路与状态的办法就是链路拓扑。 链路拓扑与调用链的关系就好比样本集与离散样本点,前者反映了整体的散布状况,能够无效防止单个样本随机性对评估后果的影响。 01 链路拓扑的经典利用场景链路拓扑最外围的价值,就是通过剖析节点间依赖门路与状态,提供强弱依赖梳理、瓶颈点剖析、影响面剖析、故障流传链分析等能力,上面咱们来深刻理解下这些经典用法。 (一)强弱依赖梳理链路拓扑最典型、最被人熟知的利用场景就是依赖梳理,特地是在一个大型分布式系统中,数以万计的利用间依赖关系简单到令运维同学狐疑人生。下图展现了 2012 年的淘宝外围链路利用拓扑,稀稀拉拉如蛛网般的依赖关系曾经远远超出了人工梳理的领域,而这种状况在微服务迅猛发展的当下并不少见。 在简单业务环境中,不仅须要梳理出依赖关系图,还须要辨认哪些是影响外围业务的强依赖,哪些是“无伤大雅”的弱依赖。针对强依赖要投入更多的人力与资源,建设更加欠缺的保障体系,比方电话告警,联结压测等。针对弱依赖,能够思考是否可能移除,或者建设次一级的保障措施。 辨别强弱依赖的形式次要有以下几种: 依据流量大小进行辨别。这是一种简略粗犷的辨别形式,大于肯定流量阈值或比例的就辨认为强依赖,否则视为弱依赖。这种判断形式的益处是简略清晰,能够由链路追踪平台自动识别,无需人力干涉。毛病是不够精确,一些非凡的要害依赖尽管流量不大,然而却会间接影响业务的稳定性。依据同步/异步调用类型进行辨别。这种辨别形式的益处也是简略、易操作,缩小了异步非阻塞(如音讯)调用的烦扰。毛病是在同步调用为主的业务中筛选成果不佳,而在异步调用为主的业务(红包、热点推送)可能造成误判。人工标注。鉴于业务的差异性,由业务 Owner 对本身依赖的间接上游的强弱性进行人工标注辨认,可靠性会更高。然而这种形式对于人员教训和工夫老本要求很高,并且无奈自适应业务的变动。半人工标注。首先由链路追踪平台依据流量大小、同步/异步进行初步的强弱依赖辨认,再通过有教训的同学进行人工标注修改。这样既节俭了人力老本,也能有限度的自适应将来的业务变动。 强弱依赖梳理是绝对低频的工作,通常产生在在大促或重保流动筹备阶段、新利用上线或老利用下线、上云搬站等场景。比方阿里在每年双十一大促前,都会梳理外围业务的强弱依赖,并与今年进行比照,以便更好的进行针对性保障。 (二)瓶颈点/影响面剖析链路拓扑在问题诊断畛域最常见的用法就是瓶颈点剖析与影响面剖析。前者是从以后节点向上游寻找导致问题产生的起因,次要用于问题定位;而后者是从问题节点向上游剖析被影响的范畴,次要用于业务危险定级。 接下来,咱们通过一个数据库异样的案例,比照下这两种用法与视角的区别,如下图所示。 某天上午,利用 A 的管理员收到用户反馈服务响应超时,通过查看链路拓扑状态,发现 A 利用依赖的 D 利用接口变慢,而 D 利用调用数据库接口也出现异常。因而,小 A 告诉小 D 即刻排查数据库连贯等状态,尽快恢复可用性。这就是一个瓶颈点剖析的过程。因为小 D 业务不纯熟,半小时过来了还没有实现无效的复原动作,并且触发了数据库服务端异样。负责 DB 运维的同学收到数据库服务端告警后,通过链路拓扑向上回溯业务影响面,发现间接依赖的 D、E 两个利用均呈现了大量慢 SQL,并导致间接依赖的利用 A、B 呈现不同水平的服务响应超时。果决执行了数据库扩容,最终复原了全副利用的失常拜访。这就是通过影响面剖析,辅助运维决策的过程。 瓶颈点与影响面剖析次要是基于一段时间内的动态拓扑数据,并没有体现工夫变动对拓扑节点状态的影响,无奈回溯故障流传的过程。如上图右侧所示,如果只看这一张拓扑,咱们难以判断出导致数据库服务端异样的利用到底是 D 还是 E。那么,是否可能动静回放链路拓扑的变动,更直观的剖析问题源与流传趋势?答案无疑是必定的,请看下文介绍。 (三)故障流传链分析抛开工夫的维度,问题源与影响面的边界并不是很清晰。一个被影响方可能会成为新的问题源,引发更大的故障。因而,为了可能更加实在的还原故障演变过程,咱们须要察看并比照一组工夫线间断的动态链路拓扑快照集,通过不同快照之间节点状态的变动还原故障流传链。这就好比通过监控视频还原凶案产生过程,要比独自的一张照片更加牢靠。 以上一大节的数据库故障为例,一开始利用 D 因为申请缓存未命中,从而大量申请数据库导致慢 SQL,进而影响上游利用也呈现响应超时。随着状况持续好转,数据库服务端也开始过载,进而影响了利用 E 的失常调用。最初,利用 A、B 均呈现大量响应超时,API 网关因为连贯有余开始回绝拜访,引发更大面积的服务不可用。 在实在生产环境中,拓扑依赖与故障流传的过程可能会更加简单,为了简化剖析过程,能够依据肯定规定将节点状态提取为各类异样事件,察看不同时刻的异样事件数量也能够辅助判断故障产生、流传与复原的过程,如下图所示。 02 链路拓扑聚合维度链路拓扑的聚合维度决定着拓扑节点的类型,面向不同的用户角色,提供了差异化的剖析视角。在理论利用中,最典型的三种链路拓扑聚合维度别离是利用、接口与自定义维度,别离对应着利用拓扑、接口拓扑和业务拓扑。 利用拓扑, 顾名思义就是依据利用名称进行链路聚合,反映了利用间的依赖关系与总体流量状态。因为数据聚合粒度较粗,部分异样会被平均值覆盖,不适宜精细化的问题诊断,更适宜全局依赖梳理与重大故障定界,用户角色偏差于 PE 运维或 SRE 稳定性负责人。接口拓扑, 是在服务接口这一维度进行的链路聚合,相比于利用拓扑更贴近研发视角,因为日常迭代的对象通常是某个具体的服务接口,无论是新接口上线、老接口下线或外围接口重保,接口粒度的链路拓扑更合乎研发测试流程与职责划分习惯。利用与接口都是链路追踪畛域的根底对象,对应的拓扑能够由链路追踪平台主动生成,无需过多的人工干预,应用起来较为不便。业务拓扑, 是依据自定义维度聚合生成的偏业务视角的链路拓扑,通常比接口维度要更深一级,比方某个下单接口能够依据商品类目维度进一步细分为女装或家电,如下图所示。业务拓扑个别无奈由链路追踪平台主动生成,须要用户联合业务个性定制聚合规定。此外,自定义维度的起源比拟宽泛,能够是手动增加的 Attributes 自定义标签,也能够是 HTTP 申请出入参,或者是所在机器的环境标签。在这方面,开源社区不足相应的规范,而各大厂商的商业化实现差别也比拟大。 ...

May 4, 2023 · 1 min · jiezi

关于阿里云:如何降低-Flink-开发和运维成本阿里云实时计算平台建设实践

一、业务背景在阿里团体外部,实时业务的场景次要分为四大类。 第一个场景是实时 ETL,这是目前应用最宽泛的场景,比方在团体的实时数据公共层业务中会对数据做对立的实时荡涤、转换,为其余部门提供加工好的公共数据,便于业务部门进行二次剖析。第二个场景是实时监控,比方安全部门须要实时监测和剖析用户行为或事件,基于风控规定进行预警。第三个场景是实时在线零碎,它在淘宝的搜寻和广告零碎中应用很宽泛,次要是给用户实时举荐个性化的商品和服务。残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1174836?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 4, 2023 · 1 min · jiezi

关于阿里云:与伙伴同行Serverless-让创新触手可及

明天 Serverless 的形式真正意义上做到了云产品、云技术的开箱即用,企业和开发者不须要再关注底层的资源配置,更多地把精力放在业务零碎的开发中。 4 月 26 日,在 2023 阿里云合作伙伴大会现场,阿里云智能 CTO 周靖人发表主题演讲《与搭档同行,让翻新触手可及》,他在分享中具体介绍了阿里云在 Serverless 畛域的产品布局、技术创新以及服务搭档和客户的教训。 他提到: 阿里云通过丰盛的 Serverless 产品,进一步升高企业上云用云的门槛。目前阿里云曾经提供近 30 款 Serverless 产品,笼罩容器、函数计算、数据库、大数据、机器学习、存储、微服务等畛域。Serverless 也在帮忙越来越多的生态搭档充沛享受云计算的红利,服务客户、发明更大的社会价值。Serverless 在肯定水平上真正把云的能力释放出来,从资源的弹性到业务的弹性,企业不须要再为资源付费,而是为业务和体验付费,企业和开发者把日常繁琐的运维工作留给了云,让云的价值施展到了极致。 “国民级”利用摸索新技术 以高德为例, 高德的投放业务和用户生存场景严密相干,性能多变;举荐的上游业务品类快速增长,投放的业务策略多变;而且整个业务和用户出行严密相干,有显著的峰谷属性。 随着业务的增长,投放平台原有的架构面临一些显著的痛点: 重客户端。卡片解决、导航布局、页面展现等逻辑都放在 Web 或者挪动设施上,导致客户端发版迟缓、代码臃肿。业务性能紧耦合,跟不上业务迭代要求。投放策略多变,每次公布影响面大。负载有显著的峰谷,常驻实例,资源利用率低。Serverless 架构能很好地解决上述痛点。首先为客户端瘦身,将端上的逻辑大量的移到 BFF 层(Backends for frontend)。因为 Serverless 计算零运维,只须要开发业务逻辑,齐全由客户端人员公布,防止了团队合作问题。借助平台内置的利用平滑公布的能力,客户端人员能够疾速迭代,安心公布。 投放策略等后端服务也解耦为函数的模式,包含规定过滤函数、疲劳揭示函数、内容组装函数等等。这些函数作为独立的后端服务开发迭代,每次公布影响面不大,管制了爆炸半径。 通过认真梳理热点逻辑以及上下游依赖,实现了全链路弹性以及接口级流控能力。弹性伸缩岂但疾速,而且平安,资源用量和负载峰谷匹配,效率高。目前基于 Serverless 架构和组装式研发的高德业务投放平台曾经承载了 100% 的生产流量,业务规模达到百万 QPS,性能交付从原来的数天升高到数小时,整体老本升高了 38%。 让生态搭档充沛用好 Serverless 在 Serverless 化的策略打法之下,阿里云正在大踏步向前。与此同时,越来越多的生态搭档都在应用 Serverless 给客户提供更好的服务。 钛铂数据(Tapdata) 是一个以低提早数据挪动为外围劣势构建的古代数据平台。基于云原生架构,钛铂数据 Tapdata在国内率先推出“实时数据集成和服务 SaaS 平台”——Tapdata Cloud,将异构数据库实时同步以及实时数据服务平台能力公布在云上。Tapdata 以 0 代码、可视化的操作体验,解决企业跨零碎之间的数据实时同步/备份、集成等问题,反对企业内建数据库、内部 SaaS、文件的企业外围数据的一键买通,帮忙企业开释数据筹备阶段的精力,更加专一数据业务的开发与翻新。 基于阿里云 Serverless利用引擎 SAE、PolarDB 数据库等产品,钛铂数据实现研发效率晋升 80%,利用部署工夫节约 40%,上云老本升高50%,业务取得微小冲破。累计已有 10000+ 家企业用户在测试和应用 Tapdata Cloud。 ...

May 3, 2023 · 1 min · jiezi

关于阿里云:云原生底座之上这些企业领跑行业的秘密

随着人工智能、云计算、大数据等技术的倒退突飞猛进 ,各种数字技术曾经成为翻新的支柱。底层技术的倒退与行业之间的碰撞,正在成为颠覆性改革的巨大力量。 一些数字先行者,正在通过云原生技术实现全面的翻新。数字化转型不是把技术武装到牙齿,而是把技术融入企业的基因。云原生是阿里云的 DNA,置信在阿里云云原生的助推下,越来越多的企业将实现业务“生于云,长于云”,全面迈向数字化新阶段。 更多行业案例,点击《云原生架构:容器&微服务案例集》下载。

May 3, 2023 · 1 min · jiezi

关于阿里云:KubeVela-稳定性及可扩展性评估

作者:殷达 背景随着 v1.8 的公布,基于 OAM 的应用程序交付我的项目 KubeVela 曾经继续倒退了 3 年多。目前已被各种组织采纳并部署在生产环境中。无论是与托管定义一起应用还是在多个集群上进行治理,在单个 KubeVela 管制立体上运行数千个应用程序的状况并不少见。用户常常问的一个关键问题是 KubeVela 是否承载肯定数量的应用程序。 为了答复这个问题,KubeVela 进行了负载测试试验,制订了性能调优策略,并为关怀 KubeVela 稳定性和可扩展性的用户总结了本指南,以供各位参考。 概述若须要寻求一个基准,如下简要的表格仅供参考。 只管以上数据可能因各种因素(如应用程序大小)而有所不同,但此基准实用于大多数常见场景。 历史 KubeVela 负载测试历史 KubeVela 过来进行了屡次负载测试: 1. 2021 年 8 月对简略利用进行了负载测试。这次负载测试验证了节点数量不影响 KubeVela v1.0 的性能。它在一个领有 1 千个虚构节点和 1.2 万个应用程序的单个集群上进行了测试。这表明 Kubernetes apiserver 的速率限度是 KubeVela 外围控制器的瓶颈之一。目前为止,负载测试数据被视为规范基准。参考文献 [ 1] 。 它有以下几个限度: a.不包含在 v1.1 中公布的多集群和工作流。 b.仅测试应用程序的创立和状态放弃,疏忽应用程序的继续更新。 2. 2022 年 2 月 v1.2 版本对基于工作流的应用程序(workflow-based application)进行的负载测试。此次负载测试次要侧重于如何在特定场景中微调应用程序控制器的性能,例如不须要 ApplicationRevision 的状况。开发几个可选的优化标记,并证实去掉某些性能以将性能进步 250% 以上。 3. 2022 年 8 月 v1.6 版本对工作流引 擎(workflow engine)进行的负载测试。这次负载测试是在 KubeVela 将 cue 引擎从 v0.2 降级到 v0.4 时实现的。它次要发现了一些不必要的 cue 值初始化操作,这将导致额定的 CPU 应用老本。通过缩小 75% 的 CPU 使用量进行修复。 ...

May 3, 2023 · 5 min · jiezi

关于阿里云:AI-作画火了如何用-Serverless-函数计算部署-Stable-Diffusion

作者:寒斜 立刻体验基于函数计算部署 Stable Diffusion: https://developer.aliyun.com/topic/aigc AIGC 畛域目前大火, 除了 Chatgpt,在文生图畛域 Stable Diffusion 大放异彩,粗浅的地影响着绘画、视频制作等相干畛域。利用这项技术,普通人也能够制作出令人惊叹的艺术作品。明天咱们将应用阿里云函数计算来部署一套 Stable Diffusion WebUi,给大家展现一下这项技术的魅力。 在进入技术教程之前,咱们先看一下笔者生成的相干图片内容。 Stable Diffusion WebUi: https://github.com/AUTOMATIC1111/stable-diffusion-webui 画廊sd+ mdjrny/ChilloutMix Cheese Daddy 国风 daclefo_painting 函数计算的劣势开箱即用,通过利用核心或者 Serverless Devs 一键部署疾速体验,无需进行简单的环境配置用时生产,通过 Serverless 弹性策略在您启动服务的才开始计费反对 GPU 渲染,出图快,破费低筹备项开明阿里云函数计算 [ 1]**开明阿里云容器镜像服务 ACR [ 2]**下载 Serverless Devs [ 3]**应用 Serverless Devs 配置阿里云秘钥信息 [ 4]**疾速开始一行指令部署创立一个本地文件目录如 stable-diffusion在 stable-diffusion 目录下创立一个 s.yaml 文件,内容如下edition: 1.0.0name: fc-stable-diffusionaccess: defaultservices: cn-shanghai-stable-diffusion-sd: component: devsapp/fc props: region: cn-shanghai service: description: stable-diffusion部署到函数计算 internetAccess: true name: stable-diffusion function: handler: index.handler timeout: 600 diskSize: 10240 caPort: 7860 instanceType: fc.gpu.tesla.1 runtime: custom-container cpu: 8 customContainerConfig: args: '' accelerationType: Default image: registry.cn-shanghai.aliyuncs.com/vipas/stable-diffusion-web:v2 accelerationInfo: status: Preparing command: '' webServerMode: true instanceConcurrency: 1 memorySize: 32768 environmentVariables: {} gpuMemorySize: 16384 name: sd asyncConfiguration: {} triggers: - name: defaultTrigger description: '' type: http qualifier: LATEST config: methods: - GET - POST - PUT - DELETE authType: anonymous disableURLInternet: false customDomains: - domainName: auto protocol: HTTP routeConfigs: - path: /*执行部署指令s deploy成果预览及操作执行完部署指令后,很快就能拿到拜访地址,如上面↓ ...

May 3, 2023 · 2 min · jiezi

关于阿里云:ZooKeeper-避坑指南-ZooKeeper-364-版本-BUG-导致的数据不一致问题

作者:子葵 背景ZooKeeper 作为分布式系统的元数据中心,对外服务的数据一致性须要失去很好的保障,然而一些老版本的 ZooKeeper 在一些状况下可能无奈保证数据的一致性,导致依赖 ZooKeeper 的零碎出现异常。 某用户应用 3.4.6 版本 ZooKeeper 做任务调度,ZooKeeper 实例的 tps 和 qps 都比拟高,事务日志产生的速率很快,即便此用户配置了主动清理的参数,然而主动清理的最小距离还是赶不上数据产生的速度,导致磁盘爆满。 在此用户清理了旧日志之后,重启节点,局部业务机器就报出 NodeExist,NoNode 的异样,并且报错只集中在局部机器,此次异样导致用户任务调度零碎呈现工作反复调度以及工作失落问题,产生重大损失。 起因剖析仔细检查了这些客户端发现这些客户端都连贯在同一台 ZooKeeper 节点上,通过 zkCli 手动排查节点上的数据,比照其余未清理磁盘的 ZooKeeper 节点,清理了磁盘的 ZooKeeper 节点中的数据和其余节点具备差别,此时确定此节点因为一些起因呈现了数据不统一问题,导致连贯到此节点的客户端读到了脏数据。 然而排查日志,没有发现异常日志。因为此节点之前清理过日志,并且重启过,磁盘上的数据被从新加载过,因而狐疑是 ZooKeeper 在启动加载数据的过程中呈现了一些异常情况。通过剖析 ZooKeeper 启动中加载数据的代码,持续排查具体起因。 public long restore(DataTree dt, Map<Long, Integer> sessions, PlayBackListener listener) throws IOException { snapLog.deserialize(dt, sessions); FileTxnLog txnLog = new FileTxnLog(dataDir); TxnIterator itr = txnLog.read(dt.lastProcessedZxid+1); long highestZxid = dt.lastProcessedZxid; TxnHeader hdr; try { while (true) { ... try { processTransaction(hdr,dt,sessions, itr.getTxn()); } catch(KeeperException.NoNodeException e) { throw new IOException("Failed to process transaction type: " + hdr.getType() + " error: " + e.getMessage(), e); ... return highestZxid; }此处是 ZooKeeper 加载磁盘数据的代码,此办法的次要作用是,首先将磁盘中的 snapshot 文件加载进内存,初始化 ZooKeeper 内存中的数据结构,之后将加载事务日志利用日志中对数据的批改,最终还原磁盘中数据的状态。 ...

May 3, 2023 · 1 min · jiezi

关于阿里云:蜀道集团发布国内首个车路协同高精度导航阿里云提供技术支持

2月24日,蜀道团体联结阿里云、高德、四川数字交通科技股份有限公司公布蜀道·高德行业版APP,这是国内首个将智慧高速车路协同技术与车机导航交融的利用,目前用户可在157公里的成宜高速体验,将来将向全国公路推广。近年来,主动驾驶的倒退引起了新一轮的智慧交通产业革命。不同于国外主导的单车智能,车路协同则是在单车智能的根底上,交融了我国在云计算、大数据、人工智能等畛域的劣势,让车、路、云实现互联互通,全局协调所有交通因素,是更具中国特色的倒退门路。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1170728?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 28, 2023 · 1 min · jiezi

关于阿里云:5月7日飞天Club-×-云原生技术实践营飞天免费计划实践专场开启报名

点击此处或扫描文末二维码收费报名加入 流动福利: 1、云谷游园,开发者面对面 2、云原生产品收费试用,Apsara Clouder 函数计算收费考据 3、实现入手体验并通过考据即可现场取得精美礼品一份! 4、现场多轮抽奖,精美好礼送不停! 工夫: 2023.5.7(周日) 14:00-17:00 地点:阿里巴巴云谷园区2号楼 访客核心232培训室 舒适提醒:现场有入手试验及考试认证环节,请您自带笔记本电脑加入

April 28, 2023 · 1 min · jiezi

关于阿里云:函数计算|如何使用层解决依赖包问题

在应用阿里云函数计算平台时,如果您已经遇到过以下问题,本文应该会对您有所帮忙: 第三方依赖包太大,每次更新代码都十分耗时,甚至会呈现超过代码包限度的状况,我该怎么办?装置第三方依赖包后,能够在本地运行胜利,上传到阿里云函数计算平台上就会报错,这是什么状况?有很多罕用的依赖包,很多用户应该都会用到,阿里云函数计算官网不能间接内置到运行时环境中么?我在多个函数中有雷同的依赖包,我该如何治理这些雷同的依赖包?层提供了集中管理,跨多个性能且可能共享代码和数据的办法。2021年1月,阿里云函数计算公布了 “自定义层”性能,让用户能够自定义层,并反对跨函数共享。2022年8月,阿里云函数计算公布“公共层”性能,提供了官网公共层,供用户间接应用,进一步晋升了用户体验。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1149906?groupCode=server... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 27, 2023 · 1 min · jiezi

关于阿里云:重磅阿里云云原生合作伙伴计划全新升级加码核心权益与伙伴共赢新未来

在明天的 2023 阿里云合作伙伴大会上,阿里云智能云原生利用平台经营&生态业务负责人王荣刚发表: “阿里云云原生合作伙伴打算”全新降级。他示意: 云原生致力于帮忙企业客户最大限度的加重运维工作,更好的实现麻利翻新,全面开释生产力,实现数字化翻新降级。本次云原生合作伙伴打算全新降级,将与搭档共拓市场空间,做大云市场,做深行业数字化。 01 单干降级,加码外围权利云原生始终以来都是阿里云十分重要的产品线。在上一个财年,云原生生态业务保持高速增长,年同比增长 60% ,是阿里云增速最快的产品线之一! 明天,云原生曾经成为利用开发新范式,越来越多的企业和开发者将基于容器和 Serverless 来构建利用。面对新的机会窗,云原生合作伙伴打算全新降级! 本次降级针对生态搭档痛点量身定制,加码以下四大外围权利: 1. 提供当先产品试用权利。 包含容器服务 Serverless 版 ASK、函数计算 FC、微服务引擎 MSE、容器镜像服务 ACR、云原生可观测产品等,让企业上云用云更简略,让生态搭档也能充分利用好云原生的技术红利。 2. 提供搭档 Co-marketing 联结营销反对。 让外围搭档疾速拓展市场,晋升品牌曝光和市场影响力,独特实现市场和品牌双增值。 3. 降级商机反对和销售激励打算 。 为搭档继续提供高质量的商机反对,同时制订不同的销售激励政策,实现倒退和单干的可持续性。 4. 公布云原生雷达口头和瘠田培养打算。 引入阿里云对行业和市场的洞察,以及智能化工具和技术,帮忙搭档更好地发现市场机会、辨认重点行业和客户,聚焦劣势资源,全面提效。 02 生态搭档分级体系阿里云依照贡献度对搭档进行分级,不同级别对应不同的要求,享受不同的权利,让优良的搭档能够取得更优质的服务和资源。依据搭档贡献度,咱们将云原生合作伙伴分为三个级别:外围合作伙伴、授牌合作伙伴以及规范合作伙伴。具体如下: 外围合作伙伴: 云原生公共云年销售额超过500万元;云原生商务专职人员对接不少于2人;云原生售前技术投入不少于2人;联结搭档 Co-marketing 沙龙不少于2次;APE-X 云原生认证通过人数不少于5人。授牌合作伙伴: 云原生公共云年销售额超过100万元;云原生商务专职人员对接不少于1人;云原生售前技术投入不少于1人;联结搭档 Co-marketing 沙龙可帮助举办;APE-X 云原生认证通过人数不少于2人。规范合作伙伴: 云原生公共云年销售额超过10万元;云原生商务专职人员对接不少于1人;云原生售前技术投入不少于1人。 03 全面助力搭档倒退为了给搭档提供更好的技术支持,帮忙搭档一直晋升业余能力和销售技巧,阿里云云原生建设了全面的技术培训与搭档反对体系,新推出沙盘推演式销售培训,还原客户售卖实在场景,帮忙生态搭档更好地适应市场变动和客户需要,进步本身竞争力。 同时,在合作伙伴大会的现场,为了表彰上个财年为云原生业绩做出重大贡献的搭档,特地颁发两大年度奖项:云原生最佳合作伙伴奖、云原生光荣新星奖。 “感激各位搭档在过来几年对云原生生态业务的大力支持,你们是云原生得以疾速开拓市场、发明价值的能源引擎。将来期待与搭档持续携手,推动云原生时代全面到来,助力中国更多企业翻新提速。”王荣刚说。 点击此处,查看更多云原生产品收费试用。

April 26, 2023 · 1 min · jiezi

关于阿里云:张勇阿里云核心两件事让算力更普惠让AI更普及

4月11日,阿里巴巴团体董事会主席兼CEO、阿里云智能团体CEO张勇示意,让计算成为公共服务是阿里云始终不变的谋求,将来外围要做好两件事件:第一,让算力更普惠,推动自研技术和规模化经营的正循环,继续开释技术红利;第二,让AI更遍及,让每家企业的产品都能接入大模型降级革新,并有能力打造本人的专属大模型。张勇回顾阿里云的倒退历程,过来十年阿里云自研核心技术,全面服务数字化过程。中国移动互联网的倒退根本在阿里云上产生,企业从买计算机到按需购买算力就能开始守业,带来了微小的效率晋升。随后更多企业沉睡,各行各业在云上对全生产因素的数字化,造成了风起云涌的数字化时代。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1191384 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 26, 2023 · 1 min · jiezi

关于阿里云:阿里云蒋林泉aliyuncom全面升级飞天免费试用计划发布全栈Serverless化

2013 年,飞天操作系统寰球范畴内首次冲破繁多集群 5000 台服务器规模(飞天 5K),并率先对外提供这一能力。尔后十年,飞天操作系统屡次胜利撑持阿里双 11 和 12306 春运购票等极限并发场景。飞天为阿里云打造了松软的技术根底,广为开发者所知。 为了让更多开发者理解和应用飞天,4 月 11 号,阿里云峰会上正式对外公布“飞天收费试用打算”,面向国内千万云上开发者,提供包含 ECS、数据库 PolarDB、机器学习 PAI 等在内 50 款全栈云产品的收费试用,全面反对 Serverless 的开发模式。因而,极客邦科技创始人兼 CEO 霍太稳第一工夫对话 阿里云智能研究员,aliyun.com负责人蒋林泉,揭秘“飞天收费试用打算”公布的初衷和对开发者的价值。 以下是对话内容,经编辑整理有所删改。1、为什么阿里云往年分外强调“面向开发者”? 霍太稳:我刚从主会场进去,感觉往年面向开发者的公布比今年多很多,所以首先请谈一谈,开发者对于云意味着什么? 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1191375 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 26, 2023 · 1 min · jiezi

关于阿里云:一种新的流为-Java-加入生成器Generator特性

作者:文镭(依来) 前言这篇文章不是工具举荐,也不是利用案例分享。其主题思想,是介绍一种全新的设计模式。它既领有形象的数学美感,仅仅从一个简略接口登程,就能推演出宏大的个性汇合,引出许多全新概念。同时也有扎实的工程实用价值,由其实现的工具,性能均可显著超过同类的头部开源产品。 这一设计模式并非因Java而生,而是诞生于一个非常简陋的脚本语言。它对语言个性的要求十分之低,因此其价值对泛滥古代编程语言都是普适的。 对于Stream首先大略回顾下Java里传统的流式API。自Java8引入lambda表达式和Stream以来,Java的开发便捷性有了质的飞跃,Stream在简单业务逻辑的解决上让人效率倍增,是每一位Java开发者都应该把握的根底技能。但排除掉parallelStream也即并发流之外,它其实并不是一个好的设计。 第一、封装过重,实现过于简单,源码极其难读。我能了解这或者是为了兼容并发流所做的斗争,但毕竟耦合太深,显得艰深晦涩。每一位初学者被源码吓到之后,想必都会产生流是一种非常高级且实现简单的个性的印象。实际上并不是这样,流其实能够用非常简单的形式构建。 第二、API过于简短。简短体现在stream.collect这一部分。作为比照,Kotlin提供的toList/toSet/associate(toMap)等等丰盛操作是能够间接作用在流上的。Java直到16才抠抠索索加进来一个Stream能够间接调用的toList,他们甚至不肯把toSet/toMap一起加上。 第三、API性能简陋。对于链式操作,在最后的Java8里只有map/filter/skip/limit/peek/distinct/sorted这七个,Java9又加上了takeWhile/dropWhile。然而在Kotlin中,除了这几个之外人还有许多额定的实用功能。 例如: mapIndexed,mapNotNull,filterIndexed,filterNotNull,onEachIndexed,distinctBy, sortedBy,sortedWith,zip,zipWithNext等等,翻倍了不止。这些货色实现起来并不简单,就是个棘手的事,但对于用户而言有和没有的体验差别堪称微小。 在这篇文章里,我将提出一种全新的机制用于构建流。这个机制极其简略,任何能看懂lambda表达式(闭包)的同学都能亲手实现,任何反对闭包的编程语言都能利用该机制实现本人的流。也正是因为这个机制足够简略,所以开发者能够以相当低的老本撸出大量的实用API,应用体验甩开Stream两条街,不是问题。 对于生成器生成器(Generator)[1]是许多古代编程语言里一个广受好评的重要个性,在Python/Kotlin/C#/Javascript等等语言中均有间接反对。它的外围API就是一个yield关键字(或者办法)。 有了生成器之后,无论是iterable/iterator,还是一段乌七八糟的闭包,都能够间接映射为一个流。举个例子,假如你想实现一个下划线字符串转驼峰的办法,在Python里你能够利用生成器这么玩 def underscore_to_camelcase(s): def camelcase(): yield str.lower while True: yield str.capitalize return ''.join(f(sub) for sub, f in zip(s.split('_'), camelcase()))这短短几行代码能够说处处体现出了Python生成器的奇妙。首先,camelcase办法里呈现了yield关键字,解释器就会将其看作是一个生成器,这个生成器会首先提供一个lower函数,而后提供有数的capitalize函数。因为生成器的执行始终是lazy的,所以用while true的形式生成有限流是非常常见的伎俩,不会有性能或者内存上的节约。其次,Python里的流是能够和list一起进行zip的,无限的list和有限的流zip到一起,list完结了流天然也会完结。 这段代码中,开端那行join()括号里的货色,Python称之为生成器推导(Generator Comprehension)[2],其本质上仍然是一个流,一个zip流被map之后的string流,最终通过join办法聚合为一个string。 以上代码里的操作, 在任何反对生成器的语言里都能够轻易实现,然而在Java里你恐怕连想都不敢想。Java有史以来,无论是历久弥新的Java8,还是最新的引入了Project Loom[3]的OpenJDK19,连协程都有了,仍然没有间接反对生成器。 实质上,生成器的实现要依赖于continuation[4]的挂起和复原,所谓continuation能够直观了解为程序执行到指定地位后的断点,协程就是指在这个函数的断点挂起后跳到另一个函数的某个断点继续执行,而不会阻塞线程,生成器亦如是。 Python通过栈帧的保留与复原实现函数重入以及生成器[5],Kotlin在编译阶段利用CPS(Continuation Passing Style)[6]技术对字节码进行了变换,从而在JVM上模仿了协程[7]。其余的语言要么大体如此,要么有更间接的反对。 那么,有没有一种方法,能够在没有协程的Java里,实现或者至多模拟出一个yield关键字,从而动静且高性能地创立流呢。答案是,有。 注释Java里的流叫Stream,Kotlin里的流叫Sequence。我切实想不出更好的名字了,想叫Flow又被用了,简略起见权且叫Seq。 概念定义首先给出Seq的接口定义 public interface Seq<T> { void consume(Consumer<T> consumer);}它实质上就是一个consumer of consumer,其实在含意我后边会讲。这个接口看似形象,实则十分常见,java.lang.Iterable人造自带了这个接口,那就是大家耳熟能详的forEach。利用办法推导,咱们能够写出第一个Seq的实例 List<Integer> list = Arrays.asList(1, 2, 3);Seq<Integer> seq = list::forEach;能够看到,在这个例子里consume和forEach是齐全等价的,事实上这个接口我最早就是用forEach命名的,几轮迭代之后才改成含意更精确的consume。 利用单办法接口在Java里会自动识别为FunctionalInteraface这一平凡个性,咱们也能够用一个简略的lambda表达式来结构流,比方只有一个元素的流。 static <T> Seq<T> unit(T t) { return c -> c.accept(t);}这个办法在数学上很重要(实操上其实用的不多),它定义了Seq这个泛型类型的单位元操作,即T -> Seq<T>的映射。 ...

April 25, 2023 · 7 min · jiezi

关于阿里云:编程中最难的就是命名这几招教你快速上手

作者:陈立(勤仁) 你可不能像给狗狗取名字那样给类、办法、变量命名。仅仅因为它很可恶或者听下来不错。 在写代码的时候,你要常常想着,那个最终保护你代码的人可能将是一个有暴力偏向的疯子,并且他还晓得你住在哪里。 01 为什么命名很重要?在我的项目中,从我的项目的创立到办法的实现,每一步都以命名为终点,咱们须要给变量、办法、参数、类命名,这些名字呈现在代码的每个角落,随处可见,凌乱或谬误的命名不仅让咱们对代码难以了解,更蹩脚的是,会误导咱们的思维,导致对代码的了解齐全谬误。如果整个我的项目始终贯通着好的命名,就能给阅读者一个神清气爽的开始,也能给阅读者一个好的指引。 要晓得,代码的浏览次数远远多于编写的次数。请确保你所取的名字更侧重于浏览不便而不是编写不便。 02 为什么很难正确命名?有人称编程中最难的事件就是命名。我同样深认为然,中国有句古话叫做万事开头难。抛开环境搭建,真正到了编码阶段第一件事就是命名,而最常见的一种状况,就是毫无目标、仅凭集体的爱好的去决定了一个名字。但因为没有想分明指标和具体实施步骤,所以进行过程中往往会面临无数次的小重构甚至是推倒重来。 1、不足志愿胆怯在抉择名字上花工夫,对做好命名的志愿有余,得心应手,甚至忽视团队对命名的根本标准,感觉编译器能编译通过,代码能失常运行就成。 其实对发现的命名问题进行重构和推倒重来并不可怕,最可怕的是当下程序员不具备发现问题后肯回过头来纠偏的志愿。这终将演变成为一场劫难。 2、不足思考没想分明被命名的事物是什么,事物应该承当什么职责,是否会对其他人造成误会。 老手程序员总会花很多工夫学习一门编程语言、代码语法、技术和工具。他们感觉如果把握了这些货色,就能成为一个好程序员。然而事实并不是这样,事实上,编程不仅仅关乎把握技能和工具,更重要的是在特定领域内解决问题的能力,还有和其余程序员单干的能力。因而,能在代码中精确的表白本人的想法就变得异样重要,代码中最直观的表达方式是命名,其次是正文。 3、不足技巧选一个好的名字真很难,你可能得有较高的形容能力和独特的文化背景。并且通晓一些常见且应该防止的命名问题。 如果最终还是没法找到适合的名字,还请增加精确的正文辅助别人了解,等想到适合的名字后再进行替换,不过往往可能通过正文(母语)形容分明的事物,命名应该问题不大,问题大的是连正文都无奈精确表白,那阐明可能以后类、函数、变量承当的职责太多太杂。 03 如何正确的命名?这里不探讨具体语言的命名规定,起因是不同编程语言命名规定各不相同,甚至不同团队间雷同语言的命名规定也有出入。这里次要从进步可读性登程,联合我所在的客户端团队日常开发状况,以Java作为演示语言,给一些对于命名的倡议。 1、货真价实无论是变量、办法、或者类,在看到他名称的时候应该以及回答了所有的大问题,它应该通知你,它为什么会存在,他做什么事,应该怎么做。如果在看到名称时,还须要去查找正文来确认本人的了解,那就不算货真价实。而且在发现有更好的命名时,记得果决替换。 Case1:到底怎么算End?代码示例: public interface OnRequestListener {/** * 申请完结 只有胜利点才认为是真正的完结 * @param ... */void onRequestEnd(....);/** * 申请开始 * @param ... */void onRequestStart(...);}大脑流动: onRequestEnd是申请的什么阶段?申请胜利和失败任一状况都算 “end”吗?喔,原来正文有写:“只有胜利点才认为是真正的完结”。 批改倡议: // 省略正文public interface OnRequestListener { void onStart(....); void onSuccess(....); void onFailure(...);}2、防止误导在每种语言中都有内置的标识符,他们都有特定的含意,如果和他们没有关联就不要在命名中加上他们。 2.1 防止应用令人误会的名字Case1:命错名的汇合代码示例: private List<SectionModel> dataSet;大脑流动: “dataSet” 在最后肯定是为了元素去重抉择了Set类型,必定起初某一个历史时刻发现有bug被偷偷改成了List类型,然而变量名没变。 代码跟读: 跟踪提交记录,呃,在18年被刚定义时就是 List<*> dataSet; 批改倡议: private List<SectionModel> dataList;或者private List<SectionModel> sections;Case2:不是View的View类代码示例: /** 作者+日期 */public class RItemOverlayView {}/** 作者+日期 */public class NRItemOverlayView {}大脑流动: ...

April 24, 2023 · 3 min · jiezi

关于阿里云:瓴羊隐私计算的产品分为哪两大部分

产品分为两大部分:CSCC和LSCC,即产品在应用时须要先在阿里云开明服务,并且在客户机房部 署 LSCC。 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/469797 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 24, 2023 · 1 min · jiezi

关于阿里云:上线控制台降低使用门槛|Higress-100-RC-版本发布

作者:澄潭 前言历时 5 个多月,Higress 推出了首个 RC (Release Candidate,即正式公布的候选)版本 1.0.0-rc,用户能够通过控制台,开箱即用地应用云原生网关。 选用 Higress 作为云原生网关的外围劣势如下: 易用性“云原生”曾经不再是一个陈腐词,但企业对云原生技术的学习应用老本仍有许多顾虑,对云原生新规范的追赶又有很多焦虑; Higress 同时提供了本地装置/生产部署的 quickstart [ 1] ,能够一键部署,并通过控制台操作疾速上手;基于简略易用的控制台,Higress 能够封装 Ingress/Gateway API 的规范细节,根治技术追赶焦虑。 标准化K8s 带来了云原生的路由规范 Ingress/Gateway API,如同 POSIX 定义 Unix 可移植操作系统规范,历时 35 年经久不衰,云原生的路由规范的生命周期肯定会远超过 K8s 自身; Higress 联合阿里外部实际以及阿里云产品积淀,积攒了基于 Ingress API 的丰盛的路由策略扩大能力,同时还兼容大部分 Nginx Ingress 能力,这些能力后续也将在 Gateway API 上反对。 高集成企业内有大量传统架构部署的服务,会成为向云原生架构演进的技术累赘,要求云原生网关具备对接异构服务架构的能力; 基于 Higress 提供的多种服务发现机制,网关路由不仅能够转发到 K8s 服务,也能够间接配置 IP 转发到到物理机上的服务;基于 Nacos/ZooKeeper 等注册核心对接,还能够轻松实现 Spring Cloud [ 2] 和 Dubbo [ 3] 微服务的路由,无论其是否部署在 K8s 内。 易扩大基于扩大机制进行二次开发的能力,是云原生网关在不同业务场景下都能适配落地的要害; Higress提供了灵便的插件扩大机制,目前插件市场曾经推出多个官网插件,并反对用户通过控制台间接上传本人开发的插件,同时开源社区的插件市场生态也在一直建设中。 ...

April 24, 2023 · 1 min · jiezi

关于阿里云:极客时间大师课深度剖析-RocketMQ50上线啦欢迎免费领取

作者:阿里云音讯队列 从初代开源音讯队列崛起,到 PC 互联网、挪动互联网爆发式倒退,再现在 IoT、云计算、云原生引领了新的技术趋势,消息中间件的倒退曾经走过了 30 多个年头。 目前,消息中间件在国内许多行业的要害利用中扮演着至关重要的角色。随着数字化转型的深刻,客户在应用音讯技术的过程中往往同时波及穿插场景,比方同时进行物联网音讯、微服务音讯的解决,同时进行利用集成、数据集成、实时剖析等,企业须要为此保护多套音讯零碎,付出更多的资源老本和学习老本。 在这样的背景下,2022 年,RocketMQ 5.0 的正式版正式公布,绝对于 RocketMQ 4.0,架构走向云原生化,并且笼罩了更多的业务场景。想要把握最新版本 RocketMQ 的利用,就须要进行更加体系化的深刻理解。 基于此,阿里云音讯产品线负责人、Apache RocketMQ PMC Member 林清山老师(花名:隆基) 为你深刻分析 RocketMQ 5.0 的外围原理,分享不同场景下的最佳实际。课程分为两个模块。 第一模块:外围探索 回顾 RocketMQ 的诞生背景和倒退历程,带你理解 RocketMQ 5.0 诞生背地云原生、IoT、实时数据等等的场景诉求,从整体技术架构上学习 RocketMQ 5.0 的云原生架构、一体化架构,把握音讯服务背地的外围原理。 第二模块:场景拆分 从业务场景切入,具体介绍 RocketMQ5.0 在不同的业务场景提供的能力和关键技术原理,包含业务音讯、流解决、物联网以及面向云时代的事件驱动场景。 课程会构建你对 RocketMQ5.0 的全新认知,更对以后时代背景下的音讯诉求有更粗浅的了解。课程可收费支付,欢送大家报名学习。课程信息 讲师介绍: 林清山(花名:隆基),Apache RocketMQ 联结创始人,阿里云资深技术专家,阿里云音讯产品线负责人。国内音讯领域专家,致力于音讯、实时计算、事件驱动等方向的钻研与摸索,推动 RocketMQ 云原生架构、超交融架构的演进。 适宜人群: 1-5 年后端开发人员 极客工夫地址: https://time.geekbang.org/opencourse/videointro/100546401 阿里云开发者社区地址: https://developer.aliyun.com/learning/course/1257 点击此处,即可收费领课

April 24, 2023 · 1 min · jiezi

关于阿里云:精进云原生-Dubbo-32-正式发布

作者:Dubbo 社区 咱们非常高兴地发表,Dubbo 3.2 曾经正式公布了!这个版本带来了许多新性能和改良,这也是 Dubbo 在面对云原生化的当下的一次重要的尝试。 背景介绍Apache Dubbo 是一款 RPC 服务开发框架,用于解决微服务架构下的服务治理与通信问题,官网提供了 Java、Golang 等多语言 SDK 实现。应用 Dubbo 开发的微服务原生具备相互之间的近程地址发现与通信能力, 利用 Dubbo 提供的丰盛服务治理个性,能够实现诸如服务发现、负载平衡、流量调度等服务治理诉求。Dubbo 被设计为高度可扩大,用户能够不便的实现流量拦挡、选址的各种定制逻辑。 01 Rest 协定反对1.1 Why Rest?随着挪动互联网的遍及,越来越多的应用程序须要与不同的零碎进行集成。而这些零碎可能应用不同的通信协议,这就须要应用程序可能灵便地适应各种协定。Rest 协定正是一种非常灵活的协定,它应用 HTTP 进行通信,能够与简直任何零碎进行集成。 在过来,RPC 框架通常应用二进制协定进行通信,这种协定十分高效,但不够灵便。相比之下,Rest 协定应用 HTTP 进行通信,更不便与其余系统集成,也更容易与现代化的Web和挪动应用程序集成。 除了灵活性,Rest 协定还具备易读性和易用性。应用 Rest 协定,开发人员能够应用通用的 HTTP 工具(例如 cURL 或 Postman)测试和调试服务,而不须要特定的工具。此外,因为 Rest 协定应用规范的 HTTP 办法(例如 GET、POST、PUT 和 DELETE),因而开发人员能够更容易地了解和应用服务。 1.2 How To?在之前的 Dubbo 版本中,也提供了 Rest 协定的反对,但存在以下问题: 仅反对 JAX-RS 注解域,相较于采纳度更高的 Spring Web 注解,复杂度更高须要依赖泛滥内部组件,如 Resteasy、tomcat、jetty 等,能力失常工作,极大地减少了应用老本。因而,在 Dubbo 3.2 版本中,咱们引入了 Spring Web 注解域的反对以及 Rest 协定的原生反对,无需依赖任何内部组件。 ...

April 23, 2023 · 3 min · jiezi

关于阿里云:阿里云容器服务-ACK-产品技术动态202303

April 23, 2023 · 0 min · jiezi

关于阿里云:Koordinator-一周年新版本-v120-支持节点资源预留兼容社区重调度策略

作者:佑祎、吕风 背景Koordinator 是一个开源我的项目,基于阿里巴巴在容器调度畛域多年累积的教训孵化诞生,能够晋升容器性能,升高集群资源老本。通过混部、资源画像、调度优化等技术能力,可能进步提早敏感的工作负载和批处理作业的运行效率和可靠性,优化集群资源应用效率。 从 2022 年 4 月公布以来,Koordinator 迄今一共迭代公布了 10 个版本,吸引了了包含阿里巴巴、小米、小红书、爱奇艺、360、有赞等在内的大量优良工程师参加奉献。随着 2023 年春天的降临,Koordinator 也迎来了它的一周年,在此咱们很快乐的向大家发表,Koordinator v1.2 版本正式公布。新版本中 Koordinator 反对了节点资源预留性能,并兼容了 K8s 社区的重调度策略,同时在单机侧减少了对 AMD 环境 L3 Cache 和内存带宽隔离的反对。 在新版本中,共有 12 位新退出的开发者参加到了 Koordiantor 社区的建设,他们是 @Re-Grh,@chengweiv5,@kingeasternsun,@shelwinnn,@yuexian1234,@Syulin7,@tzzcfrank,@Dengerwei,@complone,@AlbeeSo,@xigang,@leason00,感激以上开发者的奉献和参加。 新个性早晓得节点资源预留混部场景中蕴含的利用状态多种多样,除了曾经实现云原生化的容器,还蕴含很多尚未实现容器化的利用,这部分利用会以过程的模式在宿主机上与 K8s 容器独特运行。为了缩小 K8s 利用和其余类型利用在节点侧的资源竞争,Koordinator 反对将一部分资源预留,使其既不参加调度器的资源调度,也不参加节点侧的资源分配,达到资源分隔应用的成果。在 v1.2 版本中,Koordiantor 曾经反对 CPU 和内存资源维度的预留,并容许间接指定预留的 CPU 编号,具体如下。 节点资源预留申明在 Node 上能够配置须要预留的资源量或具体的 CPU 编号,举例如下: apiVersion: v1kind: Nodemetadata: name: fake-node annotations: # specific 5 cores will be calculated, e.g. 0, 1, 2, 3, 4, and then those core will be reserved. node.koordinator.sh/reservation: '{"resources":{"cpu":"5"}}'---apiVersion: v1kind: Nodemetadata: name: fake-node annotations: # the cores 0, 1, 2, 3 will be reserved. node.koordinator.sh/reservation: '{"reservedCPUs":"0-3"}'单机组件 Koordlet 在上报节点资源拓扑信息时,会将具体预留的 CPU 编号更新到 NodeResourceTopology 对象的 Annotation 中。 ...

April 23, 2023 · 3 min · jiezi

关于阿里云:已结束直播预告|传统-PvE-游戏-∕-开房间-PvP-游戏的云原生架构升级

OpenKruiseGame(OKG) 是阿里云和国内多家一线游戏头部公司一起孵化的云原生游戏开源我的项目,旨在将云原生的能力通过 OpenKruiseGame 更好的传播给游戏服,升高学习老本,进步应用效率,助力游戏基础架构云原生转型。 OpenKruiseGame 在社区开源半年以来,失去了游戏行业的宽泛关注,其游戏服以序号为标识的个性、以及游戏服原地降级、状态感知、主动伸缩、网络接入等能力吸引着游戏开发运维者。越来越多的用户在相熟 OKG 基本功能当前,心愿通过实在案例领导本身业务的革新。 2023 年 4 月 20 日(周四),阿里云容器云原生游戏负责人,刘秋阳(秋阳) 将通过直播为大家分享两类游戏案例:传统 PvE 游戏与开房间 PvP 游戏,心愿能为大家设计游戏服云原生化计划提供革新思路。 直播主题 游戏云原生化案例解析(一) 传统PvE游戏 / 开房间PvP游戏云原生化案例分享 直播工夫 2023 年 04 月 20 日(周四)15:00 —16:00 直播嘉宾 刘秋阳(秋阳), 阿里云容器云原生游戏负责人 精彩速递 ▷▶︎ 传统PvE游戏案例 ▷▶︎ 开房间PvP游戏案例 扫描海报二维码 或点击“浏览原文” 锁定本场直播 本次直播还将在阿里云云原生视频号、阿里云云栖直播间、阿里云原生 B 站直播间播出,敬请关注~阿里云云栖直播间地址:https://yqh.aliyun.com/live/detail/30397 点击此处锁定本场直播

April 23, 2023 · 1 min · jiezi

关于阿里云:活动回顾|微服务x容器开源开发者-Meetup-成都站回放-PPT-下载

4 月 15 日,“微服务x容器开源开发者 Meetup”成都站圆满闭幕。流动现场,Dubbo、OpenSergo 、OpenYurt、Seata、Higress、OpenKruiseGame 等云原生畛域传统&新锐开源我的项目的外围维护者与来自互联网、IT 服务商 、在线金融、智慧交通、智能制作、医疗数字化、游戏/互娱、信息安全等行业的近百位开发者进行了深度交换,与大家共话云原生架构降级,一起构筑开源凋谢的社区气氛,帮忙企业借助云原生开源技术实现增效降本。 关注「阿里云云原生」公众号,后盾回复: “0415” 收费下载成都站讲师 PPT 合辑 精彩回顾 分享主题丨精进云原生 - Dubbo 3.2 正式公布 Dubbo 是一款易用的、提供高性能 RPC 通信及服务治理能力的微服务开发框架。在社区同学激情的开发合作下,通过半年的致力,Dubbo 3.2.0 版本终于正式公布。在流动现场,Apache Dubbo PMC、阿里云研发工程师,江河清(远云) ,针对 Dubbo 3.2 带来几个新性能、开展了具体介绍,包含原生 JDK17、Spring Boot 3、Native Image、Rest 协定反对;RPC 性能大幅晋升;服务粒度线程池隔离;同时对于可观测体系全面降级等新个性进行全面分析、解说。  分享主题丨OpenSergo & Sentinel 2.0 服务治理体系揭秘 为什么须要服务治理?古代微服务架构遇到哪些挑战?微服务治理范畴是什么?4月15日,成都,OpenSergo Maintainer、零碎架构设计师,苏宇(流士) ,为大家带来了具体解答。同时介绍了 Sentinel 2.0 服务治理的自愈体系,包含自适应流量防护,微服务线上运行阶段的稳定性保障实际及通用的流量治理能力。 分享主题丨Seata 的可观测实际 微服务架构是现今比拟风行的一种思维,随着接入 Seata 的微服务利用的规模不断扩大,全局事务的执行链路不透明性问题日益凸显。本次分享,阿里云研发工程师,刘戎(察溯) 向大家介绍了 Seata 在全局事务可观测性方面的一些摸索和实际,心愿可能带给大家新思考。 分享主题丨下一代云原生网关:Higress 的诞生背景与倒退历程 2022 云栖大会上阿里正式开源了基于外部实际孵化的下一代云原生网关:Higress ,在开源后收到了社区小伙伴的积极支持与响应。流动现场,Higress & MSE 云原生网关创始人、阿里云技术专家,耿蕾蕾(如葑) 从 Higress 的诞生背景 、倒退历程 、落地实际、及将来瞻望四个方面进行了具体介绍 ,让大家对 Higress 有了更多的理解。 分享主题丨游戏云原生化实际与案例解析 ...

April 23, 2023 · 1 min · jiezi

关于阿里云:基于容器平台-ACK-快速搭建-Stable-Diffusion

作者:子白 本文介绍如何在阿里云容器平台 ACK 上疾速搭建一套可对外提供服务的 Stable Diffusion。 CPU 版本前提条件已创立 Kubernetes 托管版集群。具体操作,请参见创立 Kubernetes 托管版集群[1]。无需 GPU,节点须要 8c16g 以上 已通过 kubectl 连贯 kubernetes 集群。具体操作,请参见通过 Kubectl 连贯 Kubernetes 集群 [ 2] 。应用控制台创立登录容器服务治理控制台[3],在左侧导航栏抉择集群。在集群列表页面中,单击指标集群名称或者指标集群右侧操作列下的详情。在集群治理页左侧导航栏中,抉择工作负载 > 无状态。在无状态页面中,单击应用镜像创立。在利用根本信息配置向导页面中,设置利用的根本信息。 zibai-registry.cn-hangzhou.cr.aliyuncs.com/gpt/stable-diffusion:v1.cpu ["python3", "launch.py"]["--listen", "--skip-torch-cuda-test", "--no-half"]期待 pod ready 镜像大小为 12.7GB,内网下载约 10min 在集群治理页左侧导航栏中,抉择网络 > 服务。新建服务,抉择负载平衡类型。 期待约 1min 后,刷新页面能够看到 External IP 列有具体 IP 在浏览器中拜访上一步获取到的 http://xxx.xxx.xxx.xxx:7860,即可看到如下页面。 Prompt:Black and white photo of a beautiful city Sampling method:DPM++ SDE 应用 kubectl 创立stable-diffusion.yaml ...

April 23, 2023 · 2 min · jiezi

关于阿里云:连续3天3场分享KubeVelaKubeCon-EU-2023-抢鲜看

自从 2019 年 Open Application Model 诞生以来,KubeVela 曾经经验了几十个版本的变动,并向古代应用程序交付先进性能的方向一直倒退。最近,KubeVela 实现了向 CNCF 孵化我的项目的降职,标记着社区的倒退来到一个新的里程碑。明天,KubeVela 社区内沉闷着大量来自寰球的开发者,独特推动 KubeVela 我的项目的落地和倒退。 在行将揭幕的 KubeCon+CloudNatvieCon Europe 2023 上,咱们惊喜地发现,间断 3 天,KubeVela 我的项目的贡献者、企业用户和来自阿里云的外围维护者,将从不同角度展对 KubeVela 我的项目的分享。让咱们先睹为快! ️ Building a Platform Engineering Fabric with the Kube API at AutodeskWednesday April 19, 2023 15:25 - 16:00 CEST 北京工夫:2023年4月19日(周三)21:25-22:00 议题简介: Autodesk 的指标是倒退为一家平台公司。为实现这一指标,咱们建设了一个通用的部署平台,以减速咱们的云产品交付。然而,最后作为通用部署模式的编排必然会带来一堆边缘大型单体零碎。侥幸的是,运营商模式和 Kube API 的可扩展性为咱们提供了反对从新设计的必要工具。KubeVela 的价值在于可能使平台团队应用申明式 API 设计框架构建价值,使寰球散布的团队构建涣散耦合的能力原语。在本次演讲中,Jesse 和 Greg 将具体介绍 Autodesk 与 KubeVela 和 Crossplane 的单干,以及这些工具如何使平台团队在不从新创造轮子的状况下构建价值,并展现如何通过提供申明式 API 设计框架开释平台工程师的后劲。此外,他们将展现这些工具所提供的标准如何使平台的客户可能平安地通过外部源奉献代码。 议程原文: https://kccnceu2023.sched.com/event/1HyXP/building-a-platform... ️ Tutorial: Deploying Cloud-Native Applications Using Kubevela and OAMThursday April 20, 2023 16:30 - 18:00 CEST ...

April 20, 2023 · 1 min · jiezi

关于阿里云:OpenKruise-V14-版本解读新增-Job-Sidecar-Terminator-能力

作者:立衡 前言OpenKruise 是阿里云开源的云原生利用自动化治理套件,也是以后托管在 Cloud Native Computing Foundation (CNCF) 下的孵化我的项目。它来自阿里巴巴多年来容器化、云原生的技术积淀,是阿里外部生产环境大规模利用的基于 Kubernetes 之上的规范扩大组件,也是紧贴上游社区规范、适应互联网规模化场景的技术理念与最佳实际。 OpenKruise: https://github.com/openkruise/kruise OpenKruise 在 2023.3.31 公布了最新的 v1.4 版本(ChangeLog [ 1] ),新增 Job Sidecar Terminator 重磅性能,本文将对新版本做整体的概览介绍。 01 重要更新为了不便大家应用 Kruise 加强能力,默认关上了一些稳固的能力,如下:ResourcesDeletionProtection,WorkloadSpread,PodUnavailableBudgetDeleteGate,InPlaceUpdateEnvFromMetadata, StatefulSetAutoDeletePVC,PodProbeMarkerGate。上述能力大部分是须要特地配置才会失效的,所以默认关上个别不会对存量集群造成影响,如果有一些个性不想应用,能够在降级时敞开。Kruise-Manager leader 选举形式从 configmaps 迁徙为 configmapsleases,为前面迁徙到 leases 形式做筹备,另外,这是官网提供的平滑降级的形式,不会对存量的集群造成影响。02 Sidecar 容器治理能力:Job Sidecar Terminator在 Kubernetes 中对于 Job 类型 Workload,人们通常心愿当主容器实现工作并退出后,Pod 进入已实现状态。然而,当这些 Pod 领有 Long-Running Sidecar 容器时,因为 Sidecar 容器在主容器退出后无奈自行退出,导致 Pod 始终无奈进入已实现状态。 面对这个问题,社区的常见解决方案个别都须要对 Main 和 Sidecar 进行革新,两者通过 Volume 共享来实现 Main 容器退出之后,Sidecar 容器实现退出的成果。 社区的解决方案能够解决这个问题,然而须要对容器进行革新,尤其对于社区通用的 Sidecar 容器,革新和保护的老本太高了。 ...

April 20, 2023 · 2 min · jiezi

关于阿里云:汇量科技使用倚天710云实例-高效处理大流量广告请求

案例速览行业:互联网广告服务 挑战:撑持业务疾速倒退、广告模型构造降级,晋升技术需要的同时,实现降本增效 解决方案与产品:基于倚天710芯片的g8y倚天云实例、ESS弹性伸缩服务、Spot抢占式实例 成绩:通过应用阿里云解决方案,汇量科技顺利承接了大流量接入广告业务申请。性能晋升的同时,单机老本升高15-20%,综合性价比晋升30%以上。 背景汇量科技成立于2013 年,是寰球当先的第三方技术平台,提供包含用户获取、成果掂量、创意自动化、广告变现等全方位能力的Saas服务矩阵。其中,Mintegral、Nativex、热力引擎等品牌及旗下产品,造成了丰盛且互为补充的产品状态。目前已累计服务112个国家的7000多家互联网企业,笼罩247个国家及地区。 随着汇量科技广告业务一直倒退的同时,客户重点方向转向晋升客户满意度、加强客户忠诚度,从而进步企业的市场竞争力,另外也要通过降本增效进步企业的经营效率,缩小企业经营老本,进步经济效益等。 业务挑战降本&技术需要:广告投放业务每日所需的用云资源量稳定微小,为满足各地业务所需波峰与波谷,心愿实现灵便、稳固、老本优化。 广告推理和流量染指性能需求:广告推理服务精排模块,随广告模型构造一直降级,在线推理模型申请参数变多,客户对ECS实例的性能及内网带宽需要更高,局部AI业务算力存在性能有余状况。具体而言,大量用户对成果广告进行点击时,业务零碎须要对海量流量进行推理剖析等操作,如此大流量染指场景下,原来应用的第六代企业级实例g6的网络带宽等性能无奈承载如此大流量,同时性价比不如预期。汇量科技心愿在实现业务诉求的基本上实现老本优化。 产品&解决方案在通用计算方面,晚期g6系列整体内网带宽等性能指标不满足需要,通过应用第八代ECS云实例g8y,即倚天云实例,实现了同时晋升CPU性能和内网带宽,与g6系列比照单机老本升高15-20%,综合性价比晋升30%以上。 搭载倚天710芯片的倚天云实例自设计初就是一款云原生产品,倚天710是平头哥半导体公布的首颗为云而生的 CPU 芯片,单芯片包容高达600亿晶体管;在芯片架构上,基于ARMv9架构,内含128核CPU,主频2.75GHz,能同时兼顾性能和功耗。在内存和接口方面,集成DDR5、PCIe5.0等技术,能无效晋升芯片的传输速率,并且可适配云的不同利用场景。阿里云提供丰盛的生态工具,反对全利用生态适配,0代码批改即可实现支流业务迁徙。性能方面,倚天710绝对于传统CPU架构有三大劣势,第一,外部128核为独享物理核,防止了超线程核性能争抢问题;第二,低功耗设计,高规格实例能够实现线性性能增长,防止功耗过高导致降频问题;第三,大Cache设计,晋升云场景访存性能。因而,倚天云实例在广告在线推理业务上有很大的性能劣势。 随着业务倒退与广告模型构造一直降级,在线推理模型申请参数增长速度越来越快,内网带宽要求越来越高,为了适应业务一直增长带宽需要,阿里云推出基于CIPU(Cloud infrastructure Processing Units,云基础设施处理器)与倚天硬件架构的ECS实例,通过将虚拟化与IO转发等工作卸载到专用硬件上进行减速,并在VPC环境下反对弹性RDMA减速能力,相比TCP时延升高70%以上,满足了广告推理业务对带宽和时延的要求。 通过联合ESS弹性伸缩服务与Spot抢占式实例等产品,并采纳了按量付费的节俭打算计费模式,在线的非数据库依赖模块全采纳动静伸缩的模式进行资源调控,在高峰期时及时凋谢资源,低谷期时缩减资源,保障资源利用率始终在一个正当的程度,从而确保了老本的最优化。 弹性伸缩是阿里云的一种资源管理服务,能够依据用户的业务运行状况和弹性策略,主动创立和开释资源。而抢占式实例是阿里云推出的一种低成本竞价实例,相似于广告竞价模式。企业须要在创立抢占式实例时指定出价价格,当指定实例的市场价格低于企业出价且库存短缺时,用户即可依照出价购买并应用该实例1小时。而1小时后,当市场价格高于企业指定价格,实例会主动开释。 对于局部AI业务性能有余的问题,通过降级最新算力晋升性价比,基于神龙计算架构的异构计算云实例,同时具备了IO低延时和计算低延时,进一步升高了广告申请的延时,进步了业务效率。 客户收益通过应用阿里云倚天实例,汇量科技顺利承接了大流量接入广告业务申请。性能晋升的同时,单机老本升高15-20%,综合性价比晋升30%以上。 汇量科技的在线计算广告平台和大数据平台,总体有72% Spot资源运行,达到老本极致优化的同时,线上稳定性放弃在高水平,并通过一系列老本优化伎俩,老本优化率大幅晋升。 应用阿里云各种API和服务,总体效率也失去了极大的晋升,综合运维操作和治理的日常效率进步了超过90%。 汇量科技首席人工智能官朱小强示意:“广告推理服务精排模块,随广告模型构造一直降级,在线推理模型申请参数变多,对ECS实例的CPU性能及内网带宽需要更高。晚期g6系列整体内网带宽等性能指标不满足需要,通过应用g8y倚天云实例同时晋升CPU性能和内网带宽,和g6系列比照单机老本升高15-20%,综合性价比晋升30%以上。” 原文链接 本文为阿里云原创内容,未经容许不得转载。

April 17, 2023 · 1 min · jiezi

关于阿里云:研究思考丨关于软件复杂度的困局

作者:王洋(古训) 前言大型零碎的实质问题是复杂性问题。互联网软件,是典型的大型零碎,如下图所示,数百个甚至更多的微服务互相调用/依赖,组成一个组件数量大、行为简单、时刻在变动(公布、配置变更)当中的动静的、简单的零碎。而且,软件工程师们经常自嘲,“when things work, nobody knows why”。本文将重点围绕软件复杂度进行分析,心愿可能帮忙读者对软件复杂度成因和度量形式有所理解,同时,联合本身的实践经验谈谈咱们在理论的开发工作中如何尽力防止软件复杂性问题。 导致软件复杂度的起因导致软件复杂度的起因是多种多样的。 宏观层面讲,软件简单是随同着需要的一直迭代与日俱增的必然产物,次要起因可能是: 1.对代码腐化的让步与始终让步。 2.不足欠缺的代码品质保障机制。如严格的 CodeReview、性能评审等等。 3.不足常识传递的机制。如无无效的设计文档等作为常识传递。 4.需要的复杂性导致系统的复杂度一直叠加。比方:业务要求明天 A 这类用户权利一个图标展现为✳️,过了一段时间,从 A 中切分了一部分客户要展现。 对于前三点我感觉能够通过日常的工程师文化建设来尽量避免,然而随着业务的一直演变以及人员的流动、常识传递的缺失,长期的叠加之下必然会使得零碎越发的简单。此时,我感觉还须要进行零碎的重构。 从软件开发宏观层面讲,导致软件简单的起因概括起来次要是两个:依赖(dependencies) 和费解(obscurity)。 依赖会使得批改过程牵一发而动全身,当你批改模块一的时候,也会牵扯到模块二、模块三等等的批改,进而容易导致系统 bug。而费解会让零碎难于保护和了解,甚至于在呈现问题时难于定位问题的根因,要花费大量的工夫在了解和浏览历史代码下面。 软件的复杂性往往随同着如下几种表现形式: 批改扩散批改时有连锁反应,通常是因为模块之间耦合过重,相互依赖太多导致的。比方,在咱们认证零碎中已经有一个判断权利的接口,在零碎中被援用的到处都是,这种状况会导致一个重大问题,往年这个接口正好面临降级,如果过后没有抽取到一个适配器中去,那整个零碎会有很多中央面临批改扩散的问题,而这样的变更比拟抽取到适配器的批改老本是更高更危险的。 @Overridepublic boolean isAllowed(Long accountId, Long personId, String featureName) { boolean isPrivilegeCheckedPass = privilegeCheckService.isAllowed( accountId, personId, featureName); return isPrivilegeCheckedPass;}认知累赘当咱们说一个模块费解、难以了解时,它就有过重的认知累赘,开发人员须要较长的工夫来了解功能模块。比方,提供一个没有正文的计算接口,传入两个整数失去一个计算结果。从函数自身咱们很难判断这个接口是什么性能,所以此时就不得不去浏览外部的实现以了解其接口的性能。 int calculate(int v1, int v2);不可知(Unknown Unknowns)相比于前两种症状,不可知危险更大,在开发需要时,不可知的改变点往往是导致重大问题的次要起因,经常是因为一些费解的依赖导致的,在开发完一个需要之后感觉心里很没谱,隐约感觉本人的代码哪里有问题,但又不分明问题在哪,只能祷告在测试阶段可能裸露进去。 软件复杂度度量Manny Lehman 传授在软件演进法令中首次系统性提出了软件复杂度: 软件(程序)复杂度是软件的一组特色,它由软件外部的互相关联引起。随着软件的实体(模块)的减少,软件外部的互相关联会指数式增长,直至无奈被全副把握和了解。 软件的高复杂度,会导致在批改软件时引入非主观用意的变更的概率回升,最终在做变更的时候更容易引入缺点。在更极其的状况下,软件简单到简直无奈批改。 在软件的演化过程中,不断涌现了诸多实践用于对软件复杂度进行度量,比方,Halstead 复杂度、圈复杂度、John Ousterhout 复杂度等等。 Halstead 复杂度Halstead 复杂度(霍尔斯特德简单度量测) (Maurice H. Halstead, 1977) 是软件迷信提出的第一个计算机软件的剖析“定律”,用以确定计算机软件开发中的一些定量法则。Halstead 复杂度依据程序中语句行的操作符和操作数的数量计算程序复杂性。针对特定的演算法,首先需计算以下的数值: 上述的运算子包含传统的运算子及保留字,运算元包含变数及常数。 ...

April 17, 2023 · 3 min · jiezi

关于阿里云:RocketMQ-多级存储设计与实现

作者:张森泽 随着 RocketMQ 5.1.0 的正式公布,多级存储作为 RocketMQ 一个新的独立模块达到了 Technical Preview 里程碑:容许用户将音讯从本地磁盘卸载到其余更便宜的存储介质,能够用较低的老本缩短音讯保留工夫。本文具体介绍 RocketMQ 多级存储设计与实现。 设计总览RocketMQ 多级存储旨在不影响热数据读写的前提下将数据卸载到其余存储介质中,实用于两种场景: 冷热数据拆散:RocketMQ 早先产生的音讯会缓存在 page cache 中,咱们称之为热数据;当缓存超过了内存的容量就会有热数据被换出成为冷数据。如果有少许消费者尝试生产冷数据就会从硬盘中从新加载冷数据到 page cache,这会导致读写 IO 竞争并挤压 page cache 的空间。而将冷数据的读取链路切换为多级存储就能够防止这个问题;缩短音讯保留工夫:将音讯卸载到更大更便宜的存储介质中,能够用较低的老本实现更长的音讯保留工夫。同时多级存储反对为 topic 指定不同的音讯保留工夫,能够依据业务须要灵便配置音讯 TTL。RocketMQ 多级存储比照 Kafka 和 Pulsar 的实现最大的不同是咱们应用准实时的形式上传音讯,而不是等一个 CommitLog 写满后再上传,次要基于以下几点思考: 均摊老本:RocketMQ 多级存储须要将全局 CommitLog 转换为 topic 维度并从新构建音讯索引,一次性解决整个 CommitLog 文件会带来性能毛刺;对小规格实例更敌对:小规格实例往往配置较小的内存,这意味着热数据会更快换出成为冷数据,期待 CommitLog 写满再上传自身就有冷读危险。采取准实时上传的形式既能躲避音讯上传时的冷读危险,又能尽快使得冷数据能够从多级存储读取。Quick Start多级存储在设计上心愿升高用户心智累赘:用户无需变更客户端就能实现无感切换冷热数据读写链路,通过简略的批改服务端配置即可具备多级存储的能力,只需以下两步: 批改 Broker 配置,指定应用 org.apache.rocketmq.tieredstore.TieredMessageStore 作为 messageStorePlugIn配置你想应用的贮存介质,以卸载音讯到其余硬盘为例:配置 tieredBackendServiceProvider 为 org.apache.rocketmq.tieredstore.provider.posix.PosixFileSegment,同时指定新贮存的文件门路:tieredStoreFilepath可选项:反对批改 tieredMetadataServiceProvider 切换元数据存储的实现,默认是基于 json 的文件存储更多应用阐明和配置项能够在 GitHub 上查看多级存储的 README [ 1]** 技术架构 architecture 接入层:TieredMessageStore/TieredDispatcher/TieredMessageFetcher 接入层实现 MessageStore 中的局部读写接口,并为他们减少了异步语意。TieredDispatcher 和 TieredMessageFetcher 别离实现了多级存储的上传/下载逻辑,相比于底层接口这里做了较多的性能优化:包含应用独立的线程池,防止慢 IO 阻塞拜访热数据;应用预读缓存优化性能等。 ...

April 17, 2023 · 2 min · jiezi

关于阿里云:Seata连接数据与应用

作者:季敏(清铭)Seata 开源社区创始人,分布式事务团队负责人。 本文次要介绍分布式事务从外部到商业化和开源的演进历程,Seata 社区以后停顿和将来布局。 Seata 是一款开源的分布式事务解决方案,旨在为现代化微服务架构下的分布式事务提供解决方案。Seata 提供了残缺的分布式事务解决方案,包含 AT、TCC、Saga 和 XA 事务模式,可反对多种编程语言和数据存储计划。Seata 还提供了简便易用的 API,以及丰盛的文档和示例,不便企业在利用 Seata 时进行疾速开发和部署。 Seata 的劣势在于具备高可用性、高性能、高扩展性等特点,同时在进行横向扩大时也无需做额定的简单操作。 目前 Seata 已在阿里云上几千家客户业务零碎中应用,其可靠性失去了业内各大厂商的认可和利用。 作为一个开源我的项目,Seata 的社区也在不断扩大,现已成为开发者交换、分享和学习的重要平台,也失去了越来越多企业的反对和关注。 明天我次要针对以下三个小议题对 Seata 进行分享: 从 TXC/GTS 到 SeataSeata 社区最新进展Seata 社区将来布局从 TXC/GTS 到 Seata分布式事务的缘起 Seata 在阿里外部的产品代号叫 TXC(taobao transaction constructor),这个名字有十分浓重的组织架构色调。TXC 起源于阿里五彩石我的项目,五彩石是上古神话中女娲补天所用的石子,我的项目名喻意为突破要害技术壁垒,象征着阿里在从单体架构向分布式架构的演进过程中的重要里程碑。在这个我的项目的过程中演进出一批划时代的互联网中间件,包含咱们常说的三大件: HSF 服务调用框架,解决单体利用到服务化后的服务通信调用问题。TDDL 分库分表框架,解决规模化后单库存储容量和连接数问题。MetaQ 音讯框架,解决异步调用问题。三大件的诞生满足了微服务化业务开发的根本需要,然而微服务化后的数据一致性问题并未失去妥善解决,短少对立的解决方案。利用微服务化后呈现数据一致性问题概率远大于单体利用,从过程内调用到网络调用这种简单的环境加剧了异样场景的产生,服务跳数的增多使得在呈现业务解决异样时无奈协同上下游服务同时进行数据回滚。TXC 的诞生正是为了解决利用架构层数据一致性的痛点问题,TXC 外围要解决的数据一致性场景包含: 跨服务的一致性。应答零碎异样如调用超时和业务异样时协调上下游服务节点回滚。分库分表的数据一致性。应答业务层逻辑 SQL 操作的数据在不同数据分片上,保障其分库分表操作的内部事务。音讯发送的数据一致性。应答数据操作和音讯发送胜利的不一致性问题。为了克服以上通用场景遇到的问题,TXC 与三大件做了无缝集成。业务应用三大件开发时,齐全感知不到背地 TXC 的存在,业务不须要思考数据一致性的设计问题,数据一致性保障交给了框架托管,业务更加聚焦于业务自身的开发,极大的晋升了开发的效率。 TXC 已在阿里团体外部广泛应用多年,通过双 11 等大型流动的洪荒流量洗礼,TXC 极大进步了业务的开发效率,保障了数据的正确性,打消了数据不统一导致的资损和商誉问题。随着架构的一直演进,规范的三节点集群已能够承载靠近 10W TPS 的峰值和毫秒级事务处理。在可用性和性能方面都达到了 4 个 9 的 SLA 保障,即便在无值守状态下也能保障全年无故障。 分布式事务的演进新事物的诞生总是会随同着质疑的声音。中间件层来保证数据一致性到底牢靠吗?TXC 最后的诞生只是一种含糊的实践,不足实践模型和工程实际。在咱们进行 MVP(最小可行产品)模型测试并推广业务上线后,经常出现故障,经常须要在深夜起床解决问题,睡觉时要佩戴手环来应答紧急响应,这也是我接管这个团队在技术上过的最苦楚的几年。 ...

April 17, 2023 · 2 min · jiezi

关于阿里云:云原生助力数字原生企业业务快速迭代|阿里云峰会精彩回顾

导语: 4月11日,2023 阿里云峰会如期举行。始终以来,阿里云都踊跃融入企业数字原生翻新倒退的新浪潮,是中小企业走向数字原生松软的支持者。阿里云保持以数据和智能驱动,与合作伙伴、企业客户一起专一于技术创新,独特成长,一起迎接数字化云上翻新倒退的新机遇和新将来。 咱们深信产业数字化的广大将来,云计算将始终作为数字经济基础设施服务实体经济,服务行业倒退,服务企业翻新。 阿里云智能云原生利用平台产品负责人李国强在本次峰会上就云原生服务数字原生企业的相干问题做了精彩演讲,本文是演讲内容整顿。 各位下午好,十分荣幸能有这个机会和大家分享云原生畛域相干话题,我是来自阿里云云原生团队的李国强。 首先我会和大家 分享什么是云原生及其外围趋势,其次会分享利用云原生化到底应该怎么去做?以及对企业有哪些价值。 云原生及其外围趋势 云原生这个词置信大家曾经很相熟了,最早提出云原生概念的是 Pivotal 这家公司,而真正把云原生发扬光大、并且被大家所认可的是云原生计算基金会 CNCF,它的官网外面别离用中文、英文给出了云原生的定义,这也是业界比拟认可的一个定义。 首先,云原生技术帮忙企业在私有云、公有云和混合云等多种云状态下构建和运行可弹性扩大的利用, 这也是明天企业用云最重要的需要:利用弹性。其次,云原生的代表技术包含容器、服务网格、微服务、不可变基础设施和申明式API。 云原生给企业带来的外围价值就是构建了容错性好、易于治理和便于观测的松耦合零碎。联合牢靠的自动化伎俩,使工程师可能轻松对系统做出的频繁和可预测的重大变更。实质上,云原生是帮忙用户构建了一个强壮的零碎,这个零碎在业务须要的时候,能够随时公布上线,且对稳定性没有任何影响。 这也是明天当咱们面对市场疾速变动的时候,心愿可能达到的指标。从趋势来看,曾经有 68% 的机构在生产环境中应用容器,80% 的用户曾经应用或者打算应用微服务。 容器和微服务作为云原生技术的典型代表,在明天曾经比拟成熟了,并且被大量企业所采纳。还有一个趋势,到 2025 年,50% 的企业会应用无服务器架构,也就是 Serverless。Serverless 趋势增长得十分快,越来越多的企业构建了 Serverless 架构。 总结来看,云原生为企业带来的外围价值有:1、云原生可能帮忙企业进步利用麻利交付能力,这外面包含通过微服务化进步整个利用开发效率,以及以容器为外围的标准化交付链路,进步利用交付效率。2、云原生核心技术,可能进步零碎稳定性。 面向终态设计会进步零碎自愈能力,弹性架构也会让零碎面对不可预测的申请时,变得更加强壮。3、云原生技术进步资源供应效率。一是容器和 K8s 可能大幅晋升资源利用率,让部署能力变得更高。二是弹性用云的形式也会升高资源获取老本。 除了以上三点,还有很重要的一点是,云原生是齐全基于开源标准化的形式构建,标准化技术可能大幅升高企业做 IT 治理的老本,包含人才和技术获取方面的老本。  利用云原生化 如何把云原生技术真正用到企业外部,让利用实现云原生化?明天,利用云原生化是一个 Re-Platform 模式。 云上 Serverless 基础设施蕴含了零碎运行方方面面的能力,比方利用运行时,阿里云提供像 Serverless 利用引擎 SAE、Serverless 容器服务 ASK、函数计算 FC 等,帮忙企业业务疾速运行。当然过程中会依赖后端各种各样的服务,比如说中间件、数据库、存储、可观测等能力,明天云上这些基础设施也实现了 Serverless 化。 那么 Serverless 状态什么益处? 在我看来,次要有三个方面:一是按使用量付费,用户不须要为闲置资源付钱。闲置资源是一种节约,Serverless 让用户依照真正使用量付费。二是自适应弹性,对于很多守业创新型企业来讲,开发和运维人员较少,布局弹性容量面临的挑战十分大。采纳了 Serverless 架构之后,能够齐全实现自适应弹性,用户不须要做容量布局。最初是开箱即用免运维, 这也是整个 Serverless 产品体系给大家更直观的感触。传统类型利用能够间接跑在 SAE 下面;函数类型的新型运维架构,能够跑在函数计算 FC 里;如果想要更加拥抱容器生态,业务能够跑在 Serverless 容器服务 ASK 上。围绕整个利用,进一步集成微服务、大数据、存储、人工智能等,升高客户构建基础设施的门槛。 ...

April 17, 2023 · 1 min · jiezi

关于阿里云:Nacos-222-发布优化启动体验和鉴权提示

Nacos 社区近期公布了 2.2.0.1 和 2.2.1 版本,对默认鉴权插件做出了较大的改变,详情查看危险阐明 [ 1] 及 2.2.1 公布 [ 2] 。因为 Nacos 默认控制台 ui 中默认依赖了 token.secret.key,所以在移除了 token.secret.key 的默认值后,许多新部署或默认应用latest版本镜像的用户呈现大量启动失败的状况,对用户的易用性造成了较大影响。因而 2.2.2 版本次要针对该问题进行了优化。 新版本公布Nacos 2.2.2Nacos 于 2.2.0.1 和 2.2.1 版本时移除了 3 个和鉴权无关的默认值,以防止用户部署时因各种起因未修改而引入的撞库危险。但其中 token.secret.key 在 Nacos 默认控制台 ui 的登陆页中被强制依赖,因而使得很多应用默认配置或对安全性要求不那么高的环境无奈间接启动运行,给大量用户造成了应用困扰。 所以 2.2.2 版本的次要改变就是在未开启鉴权的状况下,通过勾销默认控制台ui中的登录要求,从而移除对 token.secret.key 的强制依赖;在开启鉴权的状况下,用户依然须要设置自定义的 token.secret.key、nacos.core.auth.server.identity.key 和  nacos.core.auth.server.identity.value。否则将导致节点无奈启动、登录失败、鉴权无奈通过。 2.2.2 版本更多具体变更内容可参考变更日志: ## Enhancement&Refactor[#10153] Close console login page when auth.enabled is false.[#10276] Default close openssl for client.## BugFix[#10208] Remove DefaultSettingPropertySource.java.Nacos-Go-SDK 2.2.1Nacos-Go-SDK 2.2.1 次要修复了 2.2.0 中一个谬误的内存应用问题,同时也修复了其余的一些应用问题,更加稳固,欢送应用。 ...

April 15, 2023 · 2 min · jiezi

关于阿里云:体验有奖-玩转-AIGCServerless-一键部署-AI-图像生成服务

玩转 AIGC,5 分钟 Serverless 部署 Stable Diffustion 服务AI 模型展现出的图像生成能力曾经远超人们的预期,只须要给出文字描述就能发明出具备惊人视觉效果的图像,人人都是艺术家的时代即将来临。 阿里云 Serverless 团队全新上线体验 “基于函数计算 FC+Serverless 利用部署 Stable Diffusion v1.5 ” 体验流动,让您简略、高效实现一键部署 AI 图像生成服务!本试验教你如何在函数计算 FC 上从零开始部署 Stable Diffusion 来进行 AI 绘画创作,开启 AIGC 盲盒。这是一项靠近零根底的教程,其中并不会蕴含简单的概念或者深奥的算法。函数计算 FC 将提供肯定的收费额度供用户应用。 流动地址:https://developer.aliyun.com/topic/aigc 流动工夫:2023 年 4 月 11 日-5 月 18 日 流动奖项:双重奖品设置,实现体验场景即可支付阿里云开发者社区 1000 积分兑换奖品,还可加入 AI 生成图像较量,有机会赢取 Airpods、500 元猫超卡及社区定制抱枕! 只需3步即可实现你的创意绘画 流动步骤及详情 若您在体验中有任何问题,可通过【答疑钉钉群:29290019867】分割咱们。 点击此处立刻体验!

April 15, 2023 · 1 min · jiezi

关于阿里云:Meetup-直播预告|助力企业数字化转型8-大微服务容器开源实践亮点抢先看

随着数字化、智能化发展趋势一直放慢,大中小型企业纷纷将企业“上云”提上日程,推动企业数字化转型。云时代下,企业须要新技术架构,使之更好地利用云计算劣势,让业务更麻利、老本更低、可伸缩性更强,云原生正逐渐成为企业数字化转型的“最短门路”。 2023 年 4 月 15 日,由阿里云云原生利用平台容器&微服务团队独特打造的「云原生架构与利用实际」专场开发者沙龙将在成都举办。 流动现场,Apache Dubbo PMC、阿里云研发工程师,江河清(远云);KubeVela 社区 Maintainer & 招商银行云原生利用平台产品负责人,徐佳航;OpenSergo Maintainer、阿里云研发工程师,苏宇(流士);OpenKruiseGame 次要发起人 & 阿里云智能高级技术专家,刘中巍(莫源);阿里云研发工程师,刘戎(察溯);阿里云互联网行业解决方案架构师,罗建龙(声东);Higress & MSE 云原生网关创始人、阿里云技术专家,耿蕾蕾(如葑);OpenYurt Maintainer & 阿里云智能技术专家,张杰(冰羽)以及阿里云智能产品专家,罗晶(瑶靖)将围绕微服务架构、服务治理、云原生利用平台工程、云边协同、容器化上云等问题,分享 Dubbo、KubeVela、OpenSergo 、OpenYurt、Seata、Higress、OpenKruiseGame 等开源技术的应答思路和企业级利用实际,与大家共话云原生架构降级,构筑开源凋谢的社区气氛,帮忙企业借助云原生开源技术实现增效降本。 流动信息流动日期: 2023年04月15日(周六) 09:00—16:30 流动地址: 成都·阿里核心天府长岛 1-B-14 青城山 线下席位行将约满 点击此处即可观看直播 本次流动将于 4 月 15 日在【阿里云云原生视频号】及阿里云开发者社区同步直播,欢送关注【阿里云云原生】微信公众号。 本期亮点速递01. 将来微服务架构该如何演进?微服务全景图如何构建?微服务平安和高可用体系如何构建? 02. OpenSergo & Sentinel 2.0 服务治理体系具体揭秘 03. Seata 在全局事务可观测性方面的我摸索和实际分享 04. Higress 的诞生背景及倒退历程是怎么的? 05. 从招商银行云原生利用治理平台工程实际,细说云原生利用是如何帮忙组织转型的? 06. OpenKruiseGame 如何帮忙企业升高学习老本,进步应用效率,助力游戏基础架构云原生转型? 07. OpenYurt 整体架构,新个性,以及在主动驾驶等畛域的利用场景、劣势和挑战以及将来倒退方向 08. 如何全面落地云原生技术,构建云原生架构体系以及阿里云容器化上云的最佳实践经验 现场互动精彩一直流动现场,你不仅能理解当下最受开发者欢送的开源我的项目最新进展、企业应用实际,结交酷爱开源的开发者搭档,还有大量社区精美周边派发,同时咱们将在现场抽取侥幸开发者,送出惊喜礼品。现场席位无限,先到先得,赶快报名吧! 残缺议程 阿里云开发者社区直播间地址: https://developer.aliyun.com/live/251646 扫描海报二维码或点击此处,立刻报名

April 15, 2023 · 1 min · jiezi

关于阿里云:基于-RocketMQ-Connect-构建数据流转处理平台

作者:周波,阿里云智能高级开发工程师, Apache RocketMQ Committer 01 从问题中来的 RocketMQ Connect在电商零碎、金融零碎及物流零碎,咱们常常能够看到 RocketMQ 的身影。起因不难理解,随着数字化转型范畴的扩充及过程的放慢,业务零碎的数据也在每日暴增,此时为了保证系统的稳固运行,就须要把运行压力分担进来。RocketMQ 就负责着这样的角色,它的异步音讯解决与高并发读写能力,决定了零碎底层的重构不会影响下层利用的性能。而 RocketMQ 的另一个劣势——可伸缩能力,使零碎在面临流量的不确定性时,实现对流量的缓冲解决。此外,RocketMQ 的程序设计个性使其成为一个人造的排队引擎,例如,三个利用同时对一个后盾引擎发动申请,确保不引起“撞车”事变。因而,RocketMQ 被用在异步解耦、削峰填谷以及事务音讯等场景中。 然而,数字化转型浪潮也带来了更多用户对数据价值的关注——如何让数据产生更大利用价值?RocketMQ 本身不具备数据分析能力,然而有不少用户心愿从 RocketMQ Topic 中获取数据并进行在线或离线的数据分析。然而,应用市面上的数据集成或数据同步工具,将 RocketMQ Topic 数据同步到一些剖析零碎中尽管是一种可行计划,却会引入新的组件,造成数据同步的链路较长,时延绝对较高,用户体验不佳。 举个例子,假如业务场景中应用 OceanBase 作为数据存储,同时心愿将这些数据同步到 Elasticsearch 进行全文搜寻,有两种可行的数据同步计划。 计划一: 从 OceanBase 中获取数据,写入 Elasticsearch 组件并进行数据同步,在数据源较少时此计划没什么问题,一旦数据增多,开发和保护都非常复杂,此时就要用到第二种计划。 计划二: 引入消息中间件对上下游进行解藕,这能解决第一种计划的问题,然而一些较为简单的问题还没有齐全解决。比方,如何将数据从源数据同步到指标零碎并保障高性能,如果保障同步工作的局部节点挂掉,数据同步仍然失常进行,节点复原仍然能够断点续传,同时随着数据管道的增多,如何治理数据管道也变得十分困难。 总的来说,数据集成过程中的挑战次要有五个。 挑战一: 数据源多,市面上可能有上百个数据源,且各数据源的零碎差别较大,实现任意数据源之间的数据同步工作量较大,研发周期很长。 挑战二: 高性能问题,如何高效地从源数据系统同步到目标数据系统,并保障其性能。 挑战三: 高可用问题,即 Failover 能力,当一个节点挂掉是否这个节点的工作就进行了,工作重新启动是否还能够断点续传。 挑战四: 弹性扩缩容能力,依据零碎流量动静减少或缩小节点数量,既能通过扩容满足高峰期业务,也能在低峰期缩减节点,节省成本。 挑战五: 数据管道的治理运维,随着数据管道的增多,运维监控的数据管道也会变得越来越简单,如何高效治理监控泛滥的同步工作。 面对上述挑战 RocketMQ 如何解决? 第一,标准化数据集成 API (Open Messaging Connect API)。在 RocketMQ 生态中减少 Connect 组件,一方面对数据集成过程形象,形象规范的数据格式以及形容数据的 Schema,另一方面对同步工作进行形象,工作的创立、分片都形象成一套标准化的流程。 第二,基于规范的 API 实现 Connect Runtime。Runtime 提供了集群治理、配置管理、位点治理、负载平衡相干的能力,领有了这些能力,开发者或者用户就只须要关注数据如何获取或如何写入,从而疾速构建数据生态,如与OceanBase、MySQL、Elasticsearc 等疾速建设连贯,搭建数据集成平台。整个数据集成平台的构建也非常简单,通过 Runtime 提供的 RESTFull API 进行简略调用即可。 ...

April 15, 2023 · 3 min · jiezi

关于阿里云:让算力普惠释放技术红利阿里云让开发者成为创新主体

4 月 11 日,在 2023 阿里云峰会上,阿里巴巴团体董事会主席兼 CEO、阿里云智能团体 CEO 张勇示意,让计算成为公共服务是阿里云始终不变的谋求,将来外围要做好两件事件:第一,让算力更普惠,推动自研技术和规模化经营的正循环,继续开释技术红利;第二,让 AI 更遍及,让每家企业的产品都能接入大模型降级革新,并有能力打造本人的专属大模型。 张勇认为,过来十年阿里云自研核心技术,全面服务数字化过程。智能化时代带来算力的暴发,同时也提出了更高的要求。张勇说,他在最晚期是作为云的客户呈现,2009~2010年最早做双十一时,其最奢侈的想法是技术零碎能不能撑持巨量、实时的交易,顶住双十一的洪峰,同时放弃老本投入可继续。“14年后,咱们再也不必为洪峰零碎而发愁,实时交易、高并发、顶峰值是云计算能扛过的根本底线,保障服务丝滑顺畅,很多对将来的畅想都变成了事实。”张勇说。 面向未来,阿里云也在继续布局并推动底层技术的不断创新。 全栈云产品 Serverless 化,升高用云门槛 过来一段时间,云上业务开发失去突飞猛进的倒退,越来越多的开发者从线下开发转到云上开发,再到云原生开发,让所有的开发环节都在云上。能够说,云上开发范式曾经成为支流并在减速倒退。 从 IaaS、PaaS、MaaS,阿里云领有残缺的产品体系。特地是在 PaaS 层,阿里云实现了多款产品升级 Serverless,在函数计算、容器、数据库、大数据、机器学习等方面陆续推出 Serverless 服务,升高云的应用门槛,让开发者像用电一样应用云平台来解决理论问题。 阿里云在 Serverless 畛域布局多年,也是国内最早提供 Serverless 计算服务的云厂商。2017 年推出的函数计算 FC 是一款 FaaS 产品,是以事件驱动为外围的全托管计算服务,用户只需编写代码并上传,函数计算就会主动筹备好计算资源,以弹性、牢靠的形式运行代码,并提供残缺的可观测能力,大幅简化开发运维过程。函数计算 FC 自公布至今曾经帮忙上万家国内外企业在 Web、挪动后端、音视频、AI 推理、批工作解决等宽泛场景落地现代化利用。 目前,阿里云曾经领有超过 20 款 Serverless 产品,包含函数计算 FC、Serverless 利用引擎 SAE、Serverless 容器服务 ASK 等。 除了产品状态的扭转之外, Serverless 同样带来了软件开发范式的扭转。 随着阿里云提供越来越全面的 Serverless 产品当前,很多云产品都变成模块化、API 化、服务化,能够进行组装,这就颠覆了原有的软件开发形式,大幅晋升研发效率,让企业能够灵便应答业务挑战。 同时,本次峰会重磅发表,阿里云全面凋谢云产品的收费试用,并推出“飞天收费试用打算” ,将全面凋谢包含 ECS、函数计算 FC、容器镜像服务 ACR、数据库 PolarDB、机器学习 PAI 等在内 50 款云产品的收费试用,时长最多可达 3 个月,可反对开发者构建包含在线、大数据类、AI 等不同类型利用,并且反对 Serverless 的开发模式。 ...

April 15, 2023 · 1 min · jiezi

关于阿里云:CNStack-云服务云组件打造丰富的云原生技术中台生态

作者:刘裕惺 CNStack 相干浏览: CNStack 多集群服务:基于OCM 打造欠缺的集群治理能力 CNStack 虚拟化服务:实现虚拟机和容器资源的共池治理 CNStack 云边协同平台:实现原生边缘竟能如此简略 01 前言CNStack 2.0(以下简称 CNStack) 作为阿里云云原生最佳实际的输入载体,其指标是提供一个凋谢、共享、标准化的云原生生态系统,使企业可能更加轻松地构建和治理云原生利用。其中,在平台侧能力扩大方面,CNStack 基于“云服务” 及 “云组件”标准规范及相应工具链,提供了凋谢、规范、易用的能力。 目前,CNStack 已公布的云服务包含:多集群治理,分布式应用治理、分布式存储、虚拟化服务、云边协同、服务网格等,后面几篇文章中,也已陆陆续续的专文介绍了多集群、虚拟化、云边协同等云服务。后续也会有更多的云服务&云组件上架 CNStack 并专文介绍。 本文将针对云服务&云组件本身及其相干工具链进行一个零碎的分享。 02 云服务&云组件简介在具体介绍云服务&云组件之前,首先咱们须要论述一下云服务&云组件的定位以及其存在的意义。 在 CNStack 体系内,咱们心愿每个面向用户提供的服务既互相解耦又可无缝合作,同时还能够简略疾速复用CNStack 平台提供的根底能力。针对此指标与冀望,咱们提出了云服务的概念,通过云服务: 基于 CNStack 平台,可在其上一直的增长新的云服务,以实现能力的扩大。各云服务之间的生命周期与公布可齐全解耦,包含与 CNStack 平台之间(实际上 CNStack 本身也是一个云服务)。基于 CNStack 平台,可疾速简略应用平台提供的用户、租户、鉴权、审计、许可证、多集群部署、UI 框架等根底能力,以及与平台既有能力或其余云服务无缝的合作能力。云服务作为一个整体提供特定的服务,而其背地真正的实体还是由云组件组成。同时思考到组件维度更细粒度的应用场景,在 CNStack 体系内,将云组件辨别为如下几种类型: 云服务组件,作为云服务中组件的一员,其生命周期和云服务统一;云服务下的组件依据其部署个性又辨别为管制面和数据面,其中:<!----> 管制面组件,即管控类组件,仅在主集群上部署。数据面组件,即非管控类组件,能够在主集群/客用集群部署,其生命周期和健康状况,在集群之间互相独立。<!----> 集群组件,由集群管理员独自保护,生命周期由集群管理员负责,其往往集群维度内全局惟一。我的项目组件,由我的项目管理员在我的项目命名空间中部署,其可与用户自研软件一起编排实现业务流程,其生命周期由具体使用者负责。 非凡申明:云服务&云组件本身与社区已存在的 Helm Chart、OAM(Open Application Model)等利用定义并不抵触,而是将这些利用定义做为云服务&云组件的其中一种反对形式(以后云服务&云组件仅反对 Helm Chart)。03 基于 cn-app-operator,实现云服务&云组件的残缺生命周期治理针对云服务&云组件的生命周期治理,CNStack 基于 cn-app-operator 组件以 Kubernetes CRD 模式进行治理,对于云服务方来说,只需将云服务/云组件的定义丢到集群里,接下来就交给 cn-app-operator 组件即可。 上述是 cn-app-operator 在用户提交一个云服务/云组件后,其针对云服务/云组件的生命周期的治理 (注:所有云服务&云组件的申明都是在主集群中) : 依据云服务&云组件申明主动达到终态<!----> 依据云服务+云服务配置申明,主动创立出对应的云组件(注:也可独自提交云组件)针对云服务,容许提供独自的云服务配置,针对云组件局部参数进行笼罩(云组件默认参数与笼罩参数的 merge 由 cn-app-operator 主动实现),以实现定义和配置的解耦针对集群组件(即集群范畴内惟一的云组件),其生命周期独立于云服务。其部署行为为:如果集群内未部署该组件,则进行部署;如果集群内已部署该组件,则仅在更高版本被申明时,进行降级;否则不做任何行为扭转依据云组件申明,通过 helm install/upgrade/rollback 等形式,使其达到云组件定义的冀望状态具体 action 会执行 helm install/helm upgrade / helm rollback, 由 cn-app-operator 主动判断监听云服务配置,多集群信息等触发上述行为的主动变更<!----> ...

April 15, 2023 · 2 min · jiezi

关于阿里云:阿里云-EMAS-魔笔3月产品动态

简介: 阿里云挪动研发平台EMAS & 低代码开发平台魔笔(Mobi)3月产品动静已更新:云公布反对公布单版本校验规定动静配置;挪动测试反对录制脚本应用appium 2.0框架;挪动推送反对vivo和华为的音讯/告诉类型参数;魔笔公布 v1.6 版本,新增并优化多种性能、组件、模块,同时欠缺了魔笔教学体系,让用户领有更好的体验!内容摘要• 云公布反对公布单版本校验规定动静配置• 挪动测试反对录制脚本应用appium 2.0框架• 挪动推送反对vivo和华为的音讯/告诉类型参数• 魔笔公布 v1.6 版本,新增三方登录、数据库连贯等 产品动静 体验EMASEMAS提供云构建、音讯推送、挪动测试、挪动监控、热修复、域名解析等收费应用阈值,点击“立刻开明”即可体验EMAS!EMAS帮忙文档:https://help.aliyun.com/product/434086.html 技术交换欢送退出开发者技术交换钉钉群:EMAS技术交换群:35248489 ;Mobi技术支持群:32946835

April 11, 2023 · 1 min · jiezi

关于阿里云:Go-语言体系下的微服务框架选型Dubbogo

作者简介:牛学蔚(GitHub: @justxuewei):Apache Dubbo PMC,对云原生、中间件、容器等畛域有浓厚兴趣,沉闷在 Dubbo 和 Kata containers 两个开源我的项目中。 01 Go 微服务体系倒退与选型随着微服务技术的疾速倒退,其在各个领域都造成了一系列事实标准,在 Kubernetes 和容器技术加持下,云原生微服务曾经成为了支流解决方案。而 Go 语言作为云原生畛域最受欢迎的开发语言,正被越来越多的企业作为微服务开发的首选语言,其中比拟风行的包含 Go-micro、Go-zero、Dubbo-go 等。作为 Dubbo 微服务体系中多语言实现的一员,在 2022 年 Dubbo-go 以微服务领跑者的角色踊跃拥抱云原生规范,摸索了 Proxyless Mesh 状态,配合适配 Pixiu 云原生网关,造成了欠缺的 Dubbo-go 微服务生态矩阵。 以 Dubbo-go 为核心的微服务体系在多个知名企业中胜利落地和实际,框架的稳定性在理论场景下禁受住了考验。截止往年已有 60+ 家企业在咱们的用户列表中注销,其中较为典型案例请参考文章《小米电商 Apache Dubbo-go 微服务实际》。小米电商选用了 Dubbo-go + Nacos + sidecar + etcd + mirpc 为外围的微服务体系,除了看中了 Dubbo-go 的互联互通和服务治理能力外,也认可 Dubbo-go 在微服务方向的积淀和积攒。 02 Dubbo-go 简介2.1 什么是 Dubbo-goApache Dubbo 是一款易用、高性能的 WEB 和 RPC 框架,同时为构建企业级微服务提供服务发现、流量治理、可观测、认证鉴权等能力、工具与最佳实际。Dubbo3 从设计上不绑定编程语言,社区目前提供了 Java、Go、Rust、Node.js 等多语言实现,在将来,咱们打算为所有支流语言提供对等的微服务开发体验。 Dubbo 框架作为国内最具影响力的开源微服务开发框架之一,领有十分高的关注度和活跃度,在 GitHub 上领有 3.8 万+ stars。Dubbo 我的项目于 2017 年捐献给 Apache 基金会,在经验了短短 15 个月孵化后顺利毕业,在 Apache 基金会治理的全副我的项目中关注度排名第三(前两名别离是 echarts 和 superset),Dubbo-go 作为 Dubbo 多语言生态的重要一员,很好的兼容 Dubbo 生态的同时提供面向 Go 语言体系的微服务开发体验。 ...

April 11, 2023 · 3 min · jiezi

关于阿里云:使用篇丨链路追踪Tracing很简单链路实时分析监控与告警

作者:涯海 前文回顾: 根底篇|链路追踪(Tracing)其实很简略 应用篇|链路追踪(Tracing)其实很简略:申请轨迹回溯与多维链路筛选 在后面文章外面,咱们介绍了单链路的筛选与轨迹回溯,是从单次申请的视角来剖析问题,相似查问某个快递订单的物流轨迹。但单次申请无奈直观反映利用或接口整体服务状态,常常会因为网络抖动、宿主机 GC 等起因呈现偶发性、不可控的随机离群点。当一个问题产生时,利用负责人或稳定性负责人须要首先判断问题的理论影响面,从而决定下一步应急解决动作。因而,咱们须要综合一段时间内所有链路进行统计分析,这就好比咱们评估某个物流中转站点效率是否正当,不能只看某一个订单,而要看一段时间内所有订单均匀直达工夫与出错率。 统计分析是咱们察看、利用分布式链路追踪技术的重要伎俩。咱们既能够依据不同场景要求进行实时的后聚合剖析,也能够将罕用的剖析语句固化成规定生成预聚合指标,实现常态化监控与告警。绝对于链路多维筛选,统计分析须要明确剖析对象与聚合维度。其中,剖析对象决定了咱们对哪些指标进行聚合操作,比方申请量、耗时或错误率。而聚合维度决定了咱们对哪些特色进行统计比照,比方不同利用、接口、IP、用户类型的统计量比照。接下来,咱们先理解下剖析对象和聚合维度的具体概念,再介绍实时剖析与监控告警的具体用法。 01 剖析对象剖析对象,又称为度量值(Measure),决定了咱们对哪些指标进行聚合操作。常见的度量值包含“黄金三指标”——申请量、谬误和耗时。 除此之外,音讯提早、缓存命中率或自定义度量值也是高频利用的剖析对象,咱们来逐个理解下。 (一)申请量申请量能够说是咱们最相熟的度量值之一。这个接口被调用了多少次?这一分钟的申请量与上一分钟相比有什么变动,与前一天相比有什么变动?这些问题都是咱们在日常运维过程中最相熟的对话。 申请量通常依照一个固定的工夫距离进行统计,比方按秒统计的申请量通常称之为 QPS(Queries Per Second),有些场景也会称之为 TPS(Transactions Per Second)。两者有一些细微差别,但含意基本相同,常常被混用。咱们能够应用 QPS 来掂量零碎的单位工夫吞吐能力,用以领导系统资源的调配调度;或者观测用户行为的变动,判断零碎是否出现异常。 如下图所示,创立订单接口每天上午 10 点和 12 点的申请量都会有一个周期性的突增,这种状况大概率是整点促销流动的失常体现,咱们在做资源容量评估时须要参考整点的峰值申请量,而不是零碎均匀申请量,否则每当流量突增时零碎可用性就可能大幅降落,影响用户体验。 上面第二张图的创立订单接口在 10 月 8 号凌晨 00:39 分有一个非常明显的上涨,并且前一天的曲线是比拟平滑的,这种景象大概率是接口异样导致的,曾经影响了用户的下单体验,须要深刻排查定位起因。 申请 QPS 的变化趋势反映了零碎吞吐能力的变动,是申请量最罕用的一种形式。但在某些离线计算场景,对短时间内的吞吐变动不敏感,更须要一个比拟大的工夫距离内的吞吐总量统计,比方一天或一周的申请解决总量。以便灵便调配离线计算资源。 谬误每一次链路申请都会对应着一个状态:胜利,或失败。一次失败的申请通常称之为谬误申请。单条谬误申请可能因为各种各样的偶发性起因不予关注。然而当谬误数累积到肯定水平,超过肯定阈值时,就必须要进行解决,否则会引发大面积的系统故障。 谬误指标除了像申请量一样,分为谬误 QPS 和谬误总量之外,还有一种比拟非凡的统计形式,就是错误率。错误率是指在单位工夫距离内谬误数占申请总数的比例。 比方 A 接口一分钟内被调用了 10000 次,其中有 120 次是谬误调用,那么 A 接口这一分钟的谬误比率就是 120 / 10000 = 0.012,也就是 1.2%。 错误率是掂量零碎衰弱水平的要害指标,针对它的衰弱阈值设置不会受申请量的周期性变动影响。比方下单接口的申请量在白天达到峰值的 10000 QPS,在夜间的谷值只有 100 QPS,全天的申请量变动范畴在 100 ~ 10000 QPS 之间。相应的谬误量变动范畴在 0.2 ~ 20 QPS 之间,而错误率根本固定在 0.2% 左右。无论是应用固定阈值或同环比的形式,谬误数都很难准确反映零碎理论的衰弱水平,而错误率应用起来就简略、无效的多。比方设置错误率超过 1% 时就发送告警短信,超过 5% 就电话告诉稳定性负责人立刻排查。 ...

April 10, 2023 · 2 min · jiezi