关于云原生:走向云原生数据库-使用-Babelfish-加速迁移-SQL-Server-的代码实践

1.前言只管毫无疑问,传统商业许可数据库领有丰盛的性能和欠缺的反对,但其严格的定价模式、繁琐的许可条款以及较高的总体领有老本(TCO)使得企业心愿采纳老本更低的开源解决方案。某些方面,开源数据库以更低的老本提供了雷同甚至更好的性能。从商业数据库迁徙到开源数据库可为企业在许可和反对方面节俭大量老本。 PostgreSQL是企业级的,功能丰富的开源数据库系统,它高度牢靠且性能卓越,非常适合实时和工作要害型应用程序。Amazon Aurora 是一种关系数据库服务,既有高端商用数据库的高速度和可用性,也有开源数据库的简略性和老本效益。Aurora 与 MySQL 和 PostgreSQL 齐全兼容,使现有应用程序和工具无需批改即可运行。与典型的PostgreSQL 数据库相比,它将性能进步了三倍,并且减少了可扩展性、持久性和安全性。 从传统的 SQL Server 数据库迁徙可能十分耗时且需消耗大量资源,任何迁徙都波及三个次要步骤:挪动架构、迁徙数据和批改客户端应用程序。正如下图中咱们所见:迁徙数据库时,您能够应用 AWS Schema Conversion Tool(SCT)配合AWS Database Migration Service (DMS) 主动迁徙数据库架构和数据,但迁徙应用程序自身时,通常须要实现更多的工作,包含重写与数据库交互的利用程序代码,将 T-SQL 代码迁徙到 PL/pgSQL 中,这是简单、耗时且有危险的。 Babelfish for Aurora PostgreSQL 是 Amazon Aurora PostgreSQL 兼容版本的一项新性能,能够了解 Microsoft SQL Server 专有的 SQL 语言 T-SQL,并反对雷同的通信协议,因而,批改 SQL Server 上运行的应用程序并将其挪动到 Aurora 所需的工作量将缩小,从而可实现更快、危险更低且更具老本效益的迁徙。 Babelfish 通过反对 Aurora PostgreSQL 的 Microsoft SQL Server 数据类型、语法和函数来反对 T-SQL 和 SQL Server 行为。但请留神,Babelfish 并不提供对 T-SQL 的100%残缺反对,依然有一些差别和限度,某些状况下须要做手工的代码转换。 本文将列举并演示一些高频及常见的典型代码转换案例,帮忙您更高效疾速地实现迁徙工作。 2.环境筹备在开始咱们的演示之前,假如在您的工作环境,已有一个筹备迁徙的 SQL Server 源库,那么除此之外,您还须要设置好以下相干的组件: ...

September 13, 2022 · 6 min · jiezi

关于云原生:得物云原生全链路追踪Trace20架构实践

导读: 分布式链路追踪作为解决分布式应用可观测问题的重要技术,得物全链路追踪(简称Trace2.0)基于OpenTelemetry提供的可观测规范计划实现新一代的一站式全链路观测诊断平台,并通过全量采集Trace帮忙业务进步故障诊断、性能优化、架构治理的效率。 全量采集Trace数据(日增数百TB 、数千亿条Span数据)并以较低的老本保证数据的实时处理与高效查问,对Trace2.0后端整体的可观测性解决方案提出了极高的要求。本文将具体介绍Trace2.0背地的架构设计、尾部采样和冷热存储计划,以及咱们是如何通过自建存储实现进一步的降本增效(存储老本降落66%)。 1. 整体架构设计 全链路追踪Trace2.0从数据接入侧、计算、存储到查问整体模块架构如上图所示。这里说一下各组件的外围能力: 客户端&数据采集:集成并定制OpenTelemetry提供的多语言SDK(Agent),生成对立格局的可观测数据。管制立体Control Plane:对立的配置核心向数据采集侧下发各类动静配置发并实时失效;反对向各采集器下发动静配置并实时失效,反对利用按实例数灰度接入,并提供出入参收集动静开关、性能分析动静开关、流量染色动静配置、客户端版本治理等。数据收集服务OTel Server:数据收集器OTel Server兼容OpenTelemetry Protocol(OTLP)协定,提供gRPC和HTTP两种形式接管采集器发送的可观测数据。剖析计算&存储OTel Storage:计算侧除了根底的实时检索能力外,还提供了场景化的数据分析计算次要包含: 存储Trace数据:数据分为两段,一段是索引字段,包含TraceID、ServiceName、SpanName、StatusCode、Duration和起止工夫等根本信息,用于高级检索;另一段是明细数据(源数据,蕴含所有的Span数据)计算SpanMetrics数据:聚合计算Service、SpanName、Host、StatusCode、Env、Region等维度的执行总次数、总耗时、最大耗时、最小耗时、分位线等数据;业务单号关联Trace:电商场景下局部研发多以订单号、履约单号、汇金单号作为排障的输出,因而和业务研发约定非凡埋点规定后--在Span的Tag里增加一个非凡字段"bizOrderId={理论单号}"--便将这个Tag作为ClickHouse的索引字段;从而实现业务链路到全链路Trace造成一个残缺的排障链路;Redis热点数据统计:在客户端侧扩大调用Redis时入参和出参SpanTag埋点,以便统Redis命中率、大Key、高频写、慢调用等指标数据;MySQL热点数据统计:依照SQL指纹统计调用次数、慢SQL次数以及关联的接口名。2. 尾部采样&冷热存储得物晚期的全链路追踪计划出于对存储老本的思考,在客户端设置了1%的采样率,导致研发排查问题时常常查问不到想看的Trace链路。那么Trace2.0为了解决这个问题,就不能仅仅只是简略地将客户端的采样率调整为100%,而是须要在客户端全量采集Trace数据的同时,正当地管制Trace存储老本。且从实践经验来看,Trace数据的价值散布是不平均的,随着工夫的推移Trace的数据价值是急速升高的。 全量存储Trace数据不仅会造成微小的老本节约,还会显著地影响整条数据处理链路的性能以及稳定性。所以,如果咱们可能只保留那些有价值、大概率会被用户理论查问的Trace,就能获得老本与收益的均衡。那什么是有价值的Trace呢?依据日常排查教训,咱们发现业务研发次要关怀以下四类优先级高场景: 在调用链上呈现了异样ERROR;在调用链上呈现了大于「200ms」的数据库调用;整个调用链耗时超过「1s」;业务场景的调用链,比方通过订单号关联的调用链。在这个背景下,并联合业界的实践经验,落地Trace2.0的过程中设计了尾部采样&冷热分层存储计划,计划如下: 「3天」内的Trace数据全量保留,定义为热数据。基于Kafka提早生产+Bloom Filter尾部采样的数据(错、慢、自定义采样规定、以及默认惯例0.1%采样数据)保留「30天」,定义为冷数据。 整体解决流程如下: OTel Server数据收集&采样规定:将客户端采集器上报的全量Trace数据实时写入Kafka中,并把满足采样规定(上述定义的场景)的Span数据对应的TraceID记录到Bloom Filter中;OTel Storage长久化热数据:实时生产Kafka中数据,并全量长久化到ClickHouse热集群中;OTel Storage长久化冷数据:订阅上游OTel Server的Bloom Filter,提早生产Kafka中的数据,将TraceID在Bloom Filter中可能存在的Span数据长久化到ClickHouse冷集群中;延迟时间配置的30分钟,尽量保障一个Trace下的Span残缺保留。TraceID点查: Trace2.0自定义了TraceID的生成规定;在生成TraceID时,会把以后工夫戳秒数的16进制编码后果(占8个字节)作为TraceID的一部分。查问时只须要解码TraceId中的工夫戳,即可晓得应该查问热集群还是冷集群。接下来再介绍一下尾部采样中Bloom Filter的设计细节,如下图所示: 整体解决流程如下: OTel Server会将满足采样规定的Span数据对应的TraceID,依据TraceID中的工夫戳写入到对应工夫戳的Bloom Filter中;Bloom Filter会按十分钟粒度(可依据理论的数据量并联合BloomFilter的误算率和样本大小计算内存耗费并调整)进行分片,十分钟过后将Bloom Filter进行序列化并写入到ClickHouse存储中;OTel Storage生产侧拉取Bloom Filter数据(留神:同一个工夫窗口,每一个OTel Server节点都会生成一个BloomFilter)并进行合并Merge(缩小Bloom Filter的内存占用并进步Bloom Filter的查问效率)。综上所述,Trace2.0仅应用了较少的资源就实现了尾部采样和冷热分层存储。既为公司节约了老本,又保留了简直所有「有价值」Trace,解决了业务研发日常排查时查问不到想看的Trace的问题。 3. 自建存储&降本增效3.1 基于SLS-Trace的解决方案Trace2.0建设初期采纳了SLS专为OpenTelemetry定制的Trace计划 【1】,提供了Trace查问、调用剖析、拓扑剖析等性能,如下图所示: SLS-Trace次要解决流程如下: 利用OpenTelemetry Collector aliyunlogserverexporter【2】将Trace数据写入到SLS-Trace Logstore中;SLS-Trace通过默认提供的Scheduled SQL工作定时聚合Trace数据并生成相应的Span指标与利用、接口粒度的拓扑指标等数据。随着Trace2.0在公司外部全面铺开,SLS的存储老本压力变得越来越大,为了响应公司“利用技术手段实现降本提效”的号召,咱们决定自建存储。 3.2 基于ClickHouse的解决方案目前业内比拟风行的全链路追踪开源我的项目(SkyWalking、Pinpoint、Jaeger等)采纳的存储大都是基于ES或者HBase实现的。而近几年新兴的开源全链路追踪开源我的项目(Uptrace【3】、Signoz【4】等)采纳的存储大都是基于ClickHouse实现的,同时将Span数据荡涤进去的指标数据也存储在ClickHouse中。且ClickHouse的物化视图(很好用)也很好地解决了指标数据降采样(DownSampling)的问题。最终通过一番调研,咱们决定基于ClickHouse来自建新的存储解决方案。整体架构图如下: 整体解决流程如下: Trace索引&明细数据:OTel Storage会将基于Span原始数据构建的索引数据写入到SpanIndex表中,将Span原始明细数据写入到SpanData表中(相干表设计能够参考Uptrace【5】);计算&长久化SpanMetrics数据:OTel Storage会依据Span的Service、SpanName、Host、StatusCode等属性统计并生成「30秒」粒度的总调用次数、总耗时、最大耗时、最小耗时、分位线等指标数据,并写入到SpanMetrics表; 指标DownSampling性能:利用ClickHouse的物化视图将「秒级」指标聚合成「分钟级」指标,再将「分钟级」指标聚合成「小时级」指标;从而实现多精度的指标以满足不同工夫范畴的查问需要;-- span_metrics_10m_mvCREATE MATERIALIZED VIEW IF NOT EXISTS '{database}'.span_metrics_10m_mv_local on cluster '{cluster}' TO '{database}'.span_metrics_10m_localASSELECT a.serviceName as serviceName, a.spanName as spanName, a.kind as kind, a.statusCode as statusCode, toStartOfTenMinutes(a.timeBucket) as timeBucket, sum(a.count) as count, sum(a.timeSum) as timeSum, max(a.timeMax) as timeMax, min(a.timeMin) as timeMinFROM '{database}'.span_metrics_30s_local as aGROUP BY a.serviceName, a.spanName, a.kind, a.statusCode, toStartOfTenMinutes(a.timeBucket);元数据(上下游拓扑数据):OTel Storage依据Span属性中的上下游关系(须要在客户端埋相干属性),将拓扑依赖关系写入到图数据库Nebula中。ClickHouse写入细节 ...

September 8, 2022 · 1 min · jiezi

关于云原生:ebook下载-企业高管IT战略指南搭建微服务架构

“ 微服务架构可能以‘现代化的迭代速度’实现利用翻新开发,是企业应答业务复杂性,反对大规模继续翻新卓有成效的架构伎俩,它已被泛滥处在技术前沿的头部企业所验证。本书将介绍企业高管必备的微服务概念,并提供微服务转型业务和流程决策思路。” 微服务:你能够不必,但必须会!在过来的几年里,以微服务来构建应用程序仿佛成了IT行业的技术标准。微服务这样的“火爆",很多企业萌发出这样的疑难——“不必微服务难道就落后了吗?” 先说论断:企业能够依据现阶段状况临时不上微服务,但继续翻新的企业管理者必须理解微服务! 包含容器和Kubernetes、继续集成和继续交付(CI/CD)、DevOps和微服务在内的云原生技术,曾经成为古代利用交付不可短少的主导力量。当企业的IT架构足够简单,无论撑持的是敏态业务还是稳态业务,要想具备疾速迭代疾速交付能力,都须要进行微服务架构拆分和革新。 尽管微服务是趋势,但并不是惟一选项。 微服务架构曾经在很多技术走在前沿的传统行业头部企业和互联网公司中失去实际验证,但同时,对于一些开发规模较小的公司非但不实用,还会成为累赘。 对于企业高管来说,应该基于业务、技术、团队资源、老本等多个维度来综合思考到底应该在什么时候用什么的技术架构最合适。兴许公司目前不适宜微服务,但你必须提前理解微服务,把握微服务革新的Timing和决策思路。因为只有微服务架构,才可能升高零碎复杂度,实现松耦合,独立部署,实现DevOps驱动的疾速麻利迭代。 企业高管必须理解的微服务概念和决策思路微服务自身是一种颠覆性的架构演进,特地是在构建、部署和治理简单的分布式应用方面。 然而,围绕微服务的大部分探讨都间接指向技术,如继续集成/继续交付、容器、API等。尽管技术施行很重要,但实际上,团队流程和组织的重要性与技术并驾齐驱。 微服务革新是一件时机与挑战并存的事,企业高管应该把精力更加聚焦在“企业微服务革新的决策思路”上,防止指标不清与资源的节约。 · 你的企业是否曾经筹备好打消孤岛,领有团队来构建和经营服务?· 你想做微服务革新的利用是否为要害业务性能服务?· 你是否有估算来反对微服务革新?· 在你的团队,要让几十个微服务放弃最新的利用配置,会不会很艰难?…… 本书将介绍企业高管必备的微服务概念,并提供微服务转型业务和流程决策思路。冲破技术语言屏障,全面梳理云原生技术架构与利用价值,为企业数字化转型及利用现代化提供无效的实践参考、实际工具。 所有心愿数字化转型的企业,都逃不开的“黄金三角”家喻户晓,容器、DevOps、微服务形成了云原生技术黄金三角,这是所有心愿数字化转型的企业都逃不开的“黄金三角”,三大核心技术的一直成熟促成了云原生理念的昌盛。 灵雀云与云原生技术实际社区联合推出《企业高管IT策略指南》系列ebook,别离从容器与Kubernetes,DevOps,与微服务架构三个框架登程,阐述云原生技术架构与利用效力,解读国内外行业数据及最新落地实际案例,帮忙企业领导者/IT高管疾速理解麻利迭代、降本增效等云原生技术红利! 理解更多企业级微服务治理与开发内容为继续推动企业应用现代化转型过程,灵雀云还特地推出了微服务治理与开发专项技能培训课程,点击此处立刻试听。 上一篇:ebook下载 | 灵雀云公布《 企业高管IT策略指南——为何抉择容器与Kubernetes》下一篇:ebook下载 | 《 企业高管IT策略指南——企业为何要落地DevOps》

September 7, 2022 · 1 min · jiezi

关于云原生:定了这场9月网易必看大会重磅来袭报名通道正式开启

【点击报名,支付流动更多热点资讯】刚刚,网易数帆正式发表2022网易数字+大会,定档9月!23日再聚杭城,线上线下精彩同步开启!网易数字+大会已间断举办5年,是网易重磅打造的数字化及数字新基建畛域年度主题盛会。2022年度的炽热回归,将以“数智新机,增效共赢”为主题,携手泛滥业内当先技术践行者,独特探讨如何以先进的数智力量驱动企业提质增效,共赢业务的可继续倒退。这一次,围绕技术与行业的深度碰撞,咱们谈趋势也要谈实际,论办法更要论价值,邀您独特解锁行业数字化浪潮下的翻新增效之道。9月23日(周五),期待往年的再次相聚! 不逆行,摸透行业趋势数字化转型要如何转得灵?行业数字化倒退的下限又在何处?9月23日全天精彩一直,网易数帆将邀请到蕴含中国信通院、波士顿征询、微软等不同畛域的重磅大咖,围绕行业数字化将从多视角深入探讨行业现状与将来趋势。波士顿征询董事总经理、业内出名数字化专家陈果作为重磅收场嘉宾,将在本次大会上带来行业最新洞察,分析各行业数字化背地之殇与将来倒退。网易数帆的业务倒退思路和在云原生、大数据、人工智能三大重点业务板块的最新实际成绩也将在现场一并曝光。 不独行,摸索当先实际数字化转型的摸索肯定是孤单的吗?如何更快地落地先进技术?流动当天还将分设云原生与大数据两大技术分论坛,不仅有从数据治理、湖仓一体、大数据根底平台到可观测性、利用多活、中间件稳定性等多组技术热点解读,还有吉利汽车、浙江电信等泛滥行业客户“现身说法”,不间断带来高密度的技术和行业利用分享,带你辞别独行摸索的传统模式,一键减速数字化转型。作为首次高调联动,网易数帆也请到了如微软、人大金仓、毕马威等优良的生态搭档亮相现场,独特公布最新生态打算,独特助力更多企业的数字化征程,敬请期待! 不盲行,翻新亦要有道热门技术层出不穷,挑花了眼该怎么办?跟风式上车可不可取?积淀十余年技术积攒与服务教训,网易数帆还将在本次大会上首次对外公布数字化生产力翻新模型,解构云原生、大数据、人工智能等畛域的重要生产因素,助力企业构建从部分到全局的数字孪生体系。此外,去年人气爆棚的低代码workshop也将再度回归,用实战谈话,带你近距离体验“看得见、摸得着”的极速开发之旅。2022网易数字+大会,行将上线!【点击报名】

September 6, 2022 · 1 min · jiezi

关于云原生:解锁云原生新场景-云原生加速云边端一体化发展

云原生减速云边端一体化倒退“十四五”布局中明确提出要“协同倒退云服务与边缘计算服务”,同时国务院《“十四五”数字经济倒退布局》也指出要“增强面向特定场景的边缘计算能力”。随着我国云计算进入普惠发展期,边缘计算需要激增,云边端一体化未然成为将来重要演进方向。 云原生和边缘计算技术的广泛应用和深度交融,必将进一步减速云边端一体化的落地实际过程。 云原生边缘计算架构 上面联合灵雀云的边缘计算解决方案为大家介绍残缺的边缘计算整体架构,这个架构蕴含终端、边缘和云三个局部,终端局部能够是摄像头、传感器、VGA、机器人等。第二局部边缘端,根据离边缘设施的远近咱们进一步划分为边缘网关、近边缘和远边缘三种类型的计算环境。 边缘网关也就是A局部,是与设施严密相连的,数据从边缘向云传输的第一跳,个别采纳有线或者无线形式与设施间接相连。边缘网关有利用类型多,设施接口应用多的特点,采纳容器技术关键在于晋升网关的融合度,将多类型网关合而为一。在我遇到的边缘计算我的项目里,最后客户的边缘网关依照接口不同,间隔设施的间隔不同,采纳20多个arm板卡治理不同的设施,在采纳容器后,咱们进行了资源交融,最终计划仅应用9个arm板卡,资源节约了一半。 近边缘也就是B局部,通常是依照边缘局点部署的,一个商超、加油站、高速收费站、飞机等都算一个近边缘计算环境。这种环境与设施之间的网络延时须要管制在2ms左右。这种平台通常是由三个以上物理服务器节点形成,是边缘计算的重要组成部分。这个局部的特点是承载了重要的边缘业务,须要反对会更多一些,例如存储、网络、GPU、中间件、微服务框架等,然而整体资源还是比拟缓和。容器平台恰好适应这样的运算环境。不仅仅为业务提供根底运行反对,还可能保障业务的弹性伸缩、故障自愈、批量公布等,为业务带来额定的价值。 下一个计算环境是远边缘,也就是C局部。这种环境是按区域部署的,和端点之间的网络延时管制在10ms左右。这一部分我之所以把它放在边缘计算和云计算之间,是因为在有些客户的计算模型中并不存在这一部分,或者这一部分会演化成企业公有云,这齐全根据业务层级架构。从基础设施的视角看,远边缘就是一朵能力齐全的公有云,因为业务状态比拟多,个别须要反对虚拟机和容器两种计算模型。侥幸的是,Kubernetes领有Kubevirt这样我的项目,让咱们可能采纳云原生的形式治理虚拟机,在事实中,这曾经不算新技术,在运营商等场景中曾经失去宽泛的应用。在远边缘环境中,咱们采纳软件定义数据核心的思路,采纳K8s作为底座,承载数据中心所须要的所有计算、网络、存储、负载平衡、平安等能力。另外,在远边缘上还有对于近边缘以及边缘网关的对立治理能力,治理对象包含业务和平台侧的治理。最初是云计算环境,也就是D局部。这一部分也就是咱们个别都了解的IaaS、PaaS等能力。对于远边缘环境的对立治理咱们采纳分布式云架构,能够在云里对远边缘环境进行利用下推、对立运维,平台降级等操作。 值得一提的是,在实践中,并非每个客户必须遵循这样简单宏大的架构,通常客户须要的是整套架构的一个子集,这齐全取决于客户业务架构。在灵雀云的边缘计算架构中,咱们并不是从零构建这样一套简单的架构。而是在曾经稳固运行、并且经数百家头部企业客户验证的成熟产品架构根底上,进行大量的扩大和加强,使之适应边缘计算环境特点,从而保障这套解决方案有足够的丰盛的性能和足够的稳定性。 K8s容器+边缘计算=edge-native 平台实质上是为了更好地反对业务,业务的灵活性、稳定性才是咱们谋求的最终目标。在边缘计算畛域,咱们会用edge-native来形容可能充分发挥边缘能力的业务类型,这相似于cloud-native形容了运行在云里的新型业务类型。容器不仅仅为边缘计算提供了良好的基础设施,更可能无效反对edge-native业务的开发和运行。这里咱们逐个合成edge-native业务的七个特色: 第一,业务通常是层级架构的。从边缘网关到近边缘到远边缘,最初到云,业务的不同局部运行在不同的层级环境中,他们独特形成了残缺的业务。容器所提供的多级边缘治理能力与边缘计算理论建设架构齐全匹配,而且容器能够晋升业务层级部署的灵活性,业务能够疾速的从云里下沉到边缘,或者从边缘迁徙到云中。 第二,业务须要cache。这和边缘侧有大量的数据处理无关,边缘计算本身无奈解决此类问题,传统状况下只能业务本人解决。当咱们采纳容器后,容器能够轻松把中间件、数据库服务下沉到边缘网关或者近边缘环境中,无论是x86服务器还是arm盒子。 第三,业务须要弹性伸缩。正是因为边缘计算资源无限,弹性伸缩这种灵便的资源调配机制显得更有价值,在传统边缘计算的模型中,基础设施无奈帮忙业务解决此类问题,须要在业务层面解决此类问题,这给业务带来很大的麻烦。然而弹性伸缩是容器的强项,在规范的k8s中,就蕴含了HPA的能力,它能够通过简略的配置,让业务根据CPU、内存、监控指标进行弹性扩缩容,实现资源更集约化应用。 第四,业务状态应该是多个小服务组成。这种小服务概念借鉴了云端微服务的概念,他强调服务要尽量小,可能适配到更紧凑的设施中,并且缩小服务之间的依赖,可能实现疾速的服务拼装。这点正是容器的劣势,容器本身就是小服务最佳的承载工具,另外像服务网格这种技术也有利于针对C、C++、Java等业务实现服务治理,可能帮忙开发疾速排障。 第五,edge-native是近地服务。业务的设施、数据、交互齐全产生在边缘侧,大家能够设想一下加油站、商超、高速收费站这类场景。容器中的服务路由技术能够进行灵便的业务公布,不仅实现就地服务,还能实现极其状况下的跨地服务。 第六,故障自愈。故障时边缘计算的常见景象,因为边缘侧没有稳固的制冷、防震措施,导致要比数据中心更容易产生故障,这极大的晋升了企业的运维老本。我的有些客户,须要在每个地市雇佣几个人保护局点业务的失常运行。容器Pod正本治理技术能够实现疾速故障自愈,一旦探针发现业务无奈服务,容器平台会疾速将业务进行重启、迁徙等操作,确保有足够的正本运行在集群中。 最初,平安诉求也是edge-native典型特色。这是因为边缘计算减少了攻击点。而容器早曾经解决了运算、网络、存储上的隔离性问题,而DevSecOps能够帮忙业务晋升代码平安、镜像平安。更重要的是,一旦预先发现软件供应链产生了破绽问题,例如最近产生的 Ngnix 0day破绽问题,须要降级业务才可能解决此问题,而在容器环境,咱们能够通过业务批量更新疾速解决破绽问题,甚至平台本身的问题也能够通过一键式平台降级解决。 edge-native是业务的指标,但绝不仅仅是业务开发团队的责任,相似于cloud-native,须要咱们在基础设施、在平台侧给与足够的反对,而容器就是实现edge-native的重要技术手段。 容器边缘 VS 超交融边缘 在和客户的沟通中,局部客户在犹豫是否应该采纳超交融解决边缘平台的问题,这里咱们能够简略仅从技术角度比照一下超交融和容器对边缘计算的适配水平。 这里咱们形象了超交融和容器技术的架构,左侧是超交融架构,通常在局点上部署几台超交融服务器,在云端通过云管平台实现对边缘侧的对立治理;右侧是容器技术,在局点上部署Kubernetes治理物理服务器,在云端通过容器云管实现对边缘侧的对立治理。 咱们能够从云端到边缘侧逐个比对这两种计划。首先在云端,超交融计划治理对象是虚拟机,实质上治理的是资源,无奈感知到利用的运行状况;而容器计划治理的对象却是容器,也就是业务自身,这对业务运维就十分敌对了,咱们更多关注的是业务运行得好不好,而非仅仅是资源。 在云边网络层面,除了惯例的治理流、监控流数据,一个重要的带宽占用对象是虚拟机镜像或者容器镜像,容器镜像大小与业务本身类似,是虚拟机镜像的1%-10%。因而当咱们下发一个镜像到边缘侧,容器技术在网络层面能够极大水平上节约本就紧俏的云边网络带宽。 而在边缘侧,超交融采纳的虚拟机运行业务,虚拟机运行起来后,每个虚拟机须要独立操作系统,因而虚拟机的运行资源占用是比拟高的。而容器是共享操作系统,一个容器所占的运行时资源和容器内的业务根本类似,没有额定收入。这样容器技术资源占用上有微小的劣势,能够留给业务更多的CPU、内存等运行资源。 另外,最重要的还是平台对业务的反对上,容器更加精简灵便,故障自愈、弹性伸缩、灰度公布自身就是容器的强项,而这些采纳虚拟化实现都过于轻便。 所以,在和客户切磋计划后,大部分客户都喜爱纯容器边缘计划,采纳容器反对近边缘或者边缘网关的建设,而在远边缘、云端会采纳虚拟化、超交融、容器共建的形式。 云原生边缘计算赋能ISV交付运维 传统边缘计算有其明确的应用场景,是业务向数据凑近的过程。以后越来越多的ISV开始思考通过采纳类边缘计算的计划来晋升业务交付运维的效率。这部分ISV包含教育、医疗、广电等行业。 传统状况下,ISV须要针对每一个客户进行现场部署、现场开发,一个我的项目须要几周到几个月甚至几年的现场服务,这推高了ISV的人力老本。 为了解决该问题,ISV开始采纳边缘计算计划实现远端业务对立交付、运维。计划很简略,在每一个客户环境中部署容器治理平台,也就是K8s,在云中部署边缘治理模块,而后买通客户环境到云环境网络,从而实现通过云环境对客户业务的对立运维。这种架构能够在肯定水平上进步客户服务的响应速度,同时升高我的项目现场服务老本。目前这还是一种翻新的技术模式,但在将来兴许会帮忙企业造成新的商业模式,晋升经营能力,实现继续支出。 立刻开启云边协同新体验ISV合作伙伴申请点击此处,立刻与灵雀云工程师独特布局云原生边缘计算最佳实际。 企业用户征询试用点击此处,立刻定制属于你的云原生边缘计算解决方案。 上一篇:AceCon演讲实录 | 云原生边缘建设实际分享下一篇:智能制作的下一站:云原生+边缘计算双轮驱动

September 2, 2022 · 1 min · jiezi

关于云原生:技术门槛高来看-Intel-机密计算技术在龙蜥社区的实践-龙蜥技术

编者按:龙蜥社区云原生秘密计算 SIG 定位于云原生秘密计算底层基础设施,专一于秘密计算底层技术。在阿里巴巴开源凋谢周中, 龙蜥社区秘密计算 SIG Maintainer、Intel 产品安全专家张顺达分享了《Intel 秘密计算技术在龙蜥社区的实际》,帮忙开发者龙蜥社区秘密计算 SIG,以及 Intel 在 SIG 当中的工作和停顿。以下为本次分享内容: 一、龙蜥社区云原生秘密计算 SIG 背景介绍秘密计算通过在基于硬件的可信执行环境(TEE)中执行计算的形式来爱护应用中的数据。 这些平安的、隔离的环境可避免对应用中的应用程序和数据进行未经受权的拜访或篡改,从而晋升相干组织在治理敏感数据和受监管数据方面的安全级别。TEE目前风行的技术有 Intel 的SGX、TDX,AMD 的 SEV 及 ARM 的 TrustZone 等等。 以后,Intel 在龙蜥社区次要提供了 SGX 和 TDX 反对,以及在 SGX 和 TDX 上构建的运行时虚拟机以及容器等一些列秘密计算利用。 英特尔软件防护扩大(Intel Software Guard Extensions,SGX)是一组平安相干的指令,它被内置于一些古代 Intel 中央处理器(CPU)中。它们容许用户态将特定内存区域设置为公有区域,此区域也被称作飞地(Enclaves)。其内容受到爱护,不能被用户利用自身以外的任何过程存取,包含以更高权限级别运行的过程。 CPU 对受 SGX 爱护的内存进行加密解决。受爱护区域的代码和数据的加解密操作在 CPU 外部动静(on the fly)实现。因而,处理器能够爱护代码不被其余代码窥视或查看。SGX 应用的威逼模型如下:Enclaves 是可信的,但 Enclaves 之外的任何过程都不可信(包含操作系统自身和任何虚拟化管理程序),所有这些不可信的主体都被视为有存在歹意行为的危险。Enclaves 之外代码的任何代码读取受爱护区域,只能失去加密后的内容,因为 SGX 不能避免针对运行工夫等侧信道信息的测量和察看,所以在 SGX 外部运行的程序自身必须能抵制侧信道攻打。 SGX 被设计用于实现平安近程计算、平安网页浏览和数字版权治理(DRM)。其余利用也包含爱护专有算法和加密密钥。英特尔® Trust Domain Extension (TDX) 正在推出新的架构元件,以帮忙部署称为信赖域 (TD)的硬件隔离虚拟机 (VM)是 SGX 的下一代产品。 ...

September 1, 2022 · 2 min · jiezi

关于云原生:超大模型工程化实践打磨百度智能云发布云原生-AI-20-方案

人工智能开发畛域的倒退呈现出数据量和模型规模越来越大、模型训练速度要求越来越快的特点。然而训练和推理工作速度慢、资源利用率、利用老本低等工程化问题妨碍了人工智能利用的落地。 据 Gartner 预测,到 2023 年 70% 的 AI 利用会基于容器和 Serverless 技术开发。理论生产中,越来越多的 AI 业务比方主动驾驶、NLP 等也正在转向容器化部署。 近期 IDC 公布的《云原生 AI - 减速 AI 工程化落地》报告指出,云原生 AI 是连贯 AI 利用和 IaaS 的桥梁,是减速 AI 工程化落地的要害。 云原生 AI 不是简略的“云原生+AI”,除了涵盖容器、K8s 等云原生的通用能力之外,面向 AI 工作负载,如何反对 GPU 等异构资源,如何晋升资源效力,如何反对超大模型的预训练等,都须要对应的配套技术和长期工程实际,能力真正满足 AI 业务落地的场景。 基于国内顶级 AI 业务锻炼出的深厚教训以及丰盛的技术积攒,百度智能云正式公布云原生 AI 2.0 计划。 01 交融大模型落地教训,云原生 AI 2.0 重磅公布自从 2012 年深度学习在图像和语音方面产生重大突破后,人工智能便真正具备了走出实验室步入市场的能力。 千亿级甚至万亿级参数的超大规模模型的呈现,如百度公布的“文心”等,向深度学习框架的算力调度、调优算法等提出了更高的要求。 百度智能云将超大模型训练(文心等)的教训,资源管理和资源利用率优化的教训,以及多场景工程实际的教训充沛交融进云原生 AI 2.0 计划,用标准化的能力帮忙企业应答不足大模型训练教训而导致的资源利用率低等问题,减速 AI 利用落地。 此次云原生 AI 2.0 版本在资源弹性、跨节点架构感知、训练推理效率等方面做了重点降级。 02 剑指工程化问题,助力 AI 利用落地那么,百度智能云的云原生 AI 2.0 计划解决了 AI 利用落地过程中的哪些工程化问题呢? ...

September 1, 2022 · 3 min · jiezi

关于云原生:金融核心系统云原生转型的三个挑战六个误区和四个步骤

近年来,云原生技术倒退热火朝天,IT零碎云原生转型已成共识,留给各行各业的只是何时云原生、怎么云原生的工夫和形式问题。金融行业作为各类转型从来的排头兵,在推动云原生转型上同样不逞多让。金融行业为何这么踊跃地做云原生转型?在蚂蚁团体数字科技事业部产品总监马振雄看来,这源自三个驱动力:业务、政策、科技。其中,业务模式变动带来了对弹性、敏捷性、稳定性、安全性及开放性的新诉求,政策方面的自主可控、多云跨云等要求则促成了金融科技继续的翻新与倒退,而这二者要想实现,最终的落脚点都在科技底盘构建上。云原生,集全畛域技术之众长,志在重构企业基础设施,天然成为金融行业科技转型的宠儿。  金融云原生转型的三个挑战以后,从IT的估算、投入及建设来看,金融行业大幅当先于大部分传统行业,但在云原生获得显著功效的同时,还存在三个层面的挑战。 在认知层面,云原生的体系非常宏大,而金融行业对云原生的认知尚有待欠缺。金融行业的云原生应该是以更加全面的视角笼罩利用全生命周期的体系,而不只是简略的技术重叠。在利用层面,金融行业个别会对增量利用做云原生转型,但绝大部分的存量利用仍旧在云下,是单体式架构。若想将所有存量利用从单体式重构成为分布式,须要按批次、慢节奏的逐渐转型。而在转型分布式架构后,仍需选型利用层面的开发框架,做对立的技术栈治理。目前,以蚂蚁数科SOFAStack为代表的金融级云原生分布式解决方案,提供一揽子解决方案,帮忙金融机构及企业客户解决在架构降级转型过程中的老本、效率、稳定性和弹性等问题,实现对云上增量利用与云下存量利用的对立治理、观测与治理,让云下的单体利用疾速取得分布式架构的服务治理能力和观测能力。在基础设施平台层面,头部金融机构多是基于开源的技术栈自研基础设施、技术中台等;腰部与尾部的金融机构受限于本身研发条件,多思考洽购商业产品。 须要各个金融机构贴合本身现状,寻找一条切实可行的门路构建全行级对立的利用基础设施,并真正在全行范畴落地。  外围零碎革新要躲避的六个误区在金融行业的泛滥利用中,外围零碎被称为“跳动的心脏”、“皇冠上的明珠”,其重要水平显而易见。金融机构在云原生分布式降级时须要确保安全合规、整体可演进、架构高可用,因而对外围零碎的架构革新往往慎之又慎。尽管集中式架构以后仍具备很强的竞争力与稳定性,但在金融数字化高速迭代的浪潮中,集中式架构的问题日益凸显,例如零碎部署无奈及时相应业务需要、零碎弹性能力差、老本低等。阿里云公布的金融外围零碎转型“红宝书”,其中总结了目前外围零碎转型常见的六个误区: 误区一:从简略零碎着手过渡到外围零碎进行架构转型。所谓“由简入奢易,由奢入简难”,非核心零碎的转型教训对于外围零碎云原生化的参考及借鉴意义非常无限,及早在外围架构层面纳入自主可控等方面的考量,可能无效防止二次迁徙带来的额定老本。误区二:谋求技术架构的齐全解耦,碎片化供应商不被绑定。底层架构的高效稳固应该是转型的第一指标,在底层架构稳固的状况下进行局部优化与解耦才是最佳实际。误区三:外围零碎依照功能模块切分,再众包给不同的开发商实现,防止被一家厂商绑定。业务模块能够解耦分包给不同的供应商,但技术架构须要统一规划、统一标准,由业余的供应商来进行技术架构的设计和承载,实现外围畛域“统”与“分”的联合。误区四:业务利用与技术平台之间互不关联。在云原生架构下,该观点已不实用,须要通过引入额定的框架、机制和设计来保障外围零碎的整体体现。误区五:抉择利用平迁,不做架构大更改。外围零碎转型谋求产出和产能的均衡,技术架构的降级可能推动产出,而云原生化带来的产能晋升也可能进一步促成产出,从而成为数字化转型的一个助推引擎。误区六:抉择各个领域最佳的供应商实现各自善于的工作工作。相较抉择供应商而言,外围转型更重要的是要抉择具备端到端的落地实际能力,且从理念、方法论、设计规划、平台架构以及标准规范方面都可能进行战略性长期投入和总体把控的合作伙伴。这样能力真正地和金融机构一起实现业务麻利与外围下移,从而推动数字化转型,而不是为一堆冠名数字化转型的文档买单。以银行业为例,随着全方位数字化的金融时代的到来,银行外围零碎正在全面进入云原生时代,麻利交付、高并发、弹性伸缩等问题已成为银行外围零碎建设时的必要思考因素。头部银行具备较强的自研与施行能力,能够在外围下移方面做预演与尝试,但对于中小银行来说,事实仍旧很骨感。针对不同类型的企业,SOFAStack提供不同的解决方案,对于头部银行,SOFAStack在不毁坏其本身技术积淀的根底上,查缺补漏、加强能力;而对于中小银行,SOFAStack则帮忙从0到1建设对立标准的基础设施、技术中台,助力科技转型。在产品/服务层面,SOFAStack提供业务建模设计、微服务利用开发、分布式中间件、CI/CD、利用部署公布、服务编排、对立利用运维、容灾高可用、平安切面等全栈式解决方案,并兼容Dubbo、Spring Cloud等开源微服务运行环境。借助SOFAStack,金融机构可实现传统利用平滑上云、云上云下对立治理、多云异构下运维自动化以及技术危险保障,最大化上云价值。  外围零碎云原生转型的四个步骤基于上述挑战和误区,马振雄倡议金融行业外围零碎云原生转型能够按四步走: 梳理残缺云原生全景图,并对本身做充沛的现状剖析;基于业务指标梳理并制订平台与利用两方面的指标架构;做现状与将来指标架构的偏差剖析;合成工作,制订可执行的分阶段的施行打算。同时,马振雄联合本身经验,示意“从运行时切入,观全貌,再逐渐延长至其余畛域”的学习门路更适宜想要从事云原生行业的集体开发者。“SOFAStack的使命是提供金融业数字化转型过程中所需的科技撑持,成为金融业跨云利用的操作系统。对有志于从事云原生行业的开发者,‘从外围到全局再延长至旁路’是一个举荐的学习门路。让咱们携起手来,以开源共建的形式促成云原生技术的落地与迭代,打磨端到端的可信原生能力,帮忙万千金融畛域技术从业者们。”马振雄总结道。 

August 31, 2022 · 1 min · jiezi

关于云原生:企业应用现代化实用教程-微服务架构怎么选DubboSpring-CloudIstio终极对决

本篇文章将带您零碎理解对于企业级微服务治理与开发的要害概念及选型指南,心愿能为您的企业级现代化利用建设提供启发。 微服务是利用现代化趋势下的必然选择随着数字经济的一直倒退,企业面临着更加多样化、麻利化的新时代IT需要。 · 用户行为的变动:业务利用的用户拜访不可预估,突发性拜访增多,存在长期热点事件或大促期间等不可控业务高峰期。· 业务模式的变动:所有业务拜访都是通过互联网渠道,包含Web、手机App、微信小程序等。· 业务零碎开发的变动:利用再也不像以前半年或一年进行布局,随时会有需要变动,两周一个迭代成为常态。业务利用交付周期短,品质要求高。· 运维模式的变动:要求全天候值守,在线降级和疾速响应,不同团队特地是外包团队应用不同的技术栈,无奈对立管控。 因而,评估一家企业是否须要采纳微服务架构,往往考查这五大要害条件:数据量和业务复杂度,团队规模,应答业务流量变动,是否需要足够的容错容灾,以及性能反复度和过错老本。 在日益强烈的数字化竞争下,企业必须更快地拥抱市场变动、随时响应新的用户需要,比对手更迅速地将产品推向市场。 微服务作为减速企业晋升麻利创新能力的重要抓手,可能帮忙企业疾速实现独立更新和部署利用,疾速应答市场变动,逐步成为企业减速利用现代化的必然选择。 微服务架构怎么选?· Dubbo Dubbo是比拟晚期的一款微服务架构,能够使得利用通过高性能的 RPC 实现服务的输入和输出性能,和Spring框架无缝集成。长处是RPC长连贯+NIO,性能更高;但协定的局限性,会限度生态倒退和兼容性。 · Spring Cloud Spring Cloud是基于Spring Boot的一整套实现微服务的框架,提供了微服务开发所需的配置管理、服务发现、断路器、智能路由、微代理、管制总线等组件。Spring Cloud蕴含了十分多的子框架,其中,Spring Cloud Netflix是其中一套框架,由Netflix开发起初又并入Spring Cloud小家庭,它次要提供的模块包含:服务发现、断路器和监控、智能路由、客户端负载平衡等。Spring Cloud领有更成熟的Spring社区生态,更多成熟的企业应用案例;但也存在肯定有余,比方跨语言平台问题、微服务治理对代码侵入性较强。 · Istio Istio 是以后Service Mesh状态上比拟热门的实现计划,可能和K8s深度联合,更疾速、更便捷地实现服务治理。Istio 提供了一种简略的办法,来创立一个提供负载平衡、服务间认证、监控等的服务网络,且不须要对服务代码进行任何更改。通过在整个环境中部署专门的 sidecar 代理服务,来拦挡微服务间的所有网络通信,整个配置和治理通过 Istio的控制面板来做。作为新一代的微服务架构,它的微服务治理与开发更彻底解耦,适应场景更宽泛,很多企业都正在逐渐从Spring Cloud向 Service Mesh过渡;但也正是因为技术比拟新,企业自研须要肯定的学习老本,突破传统IT运维/开发壁垒,思考引入业余的技术厂商则可能完满地解决这一问题。上图为Istio的根本运行原理:1、当用户向 Kubernetes 提交一份新的配置,首先会触发 galley 注册在 kubernetes 中的webhook,webhook 会查看配置是否非法,如图中的步骤1。2、若配置无奈通过校验,则 kubernetes将回绝用户提交的配置,并给出相应的错误信息。如图步骤2。3、当配置通过校验后,通过 kubernetes 的告诉机制,galley失去配置变更信息4、Galley 将变更的配置/服务信息转换为 MCP 的格局通过 MCP 协定推送给pilot,如图步骤4。5、最初一步,pilot 通过 xDS 协定向数据立体推送变更的配置。 以上为以后常见的微服务架构,那么企业理论革新时应该怎么做呢?咱们倡议:· 不同类型的利用均能够通过微服务能力进化到现代化利用。· 须要为传统利用提供一条稳当的转型门路· 须要为SpringCloud利用提供一条贴合云原生的、无需大规模适配的转型门路。 微服务架构如何设计?首先从微服务的定义来看,微服务是一起单干的独立小服务单元,能够同步异步调用,也能够独立拆分、独立部署、独立降级,后端中间件、存储资源、数据库等也是独立的,最佳实际是每个微服务都有本人的database,真正意义上实现微服务利用解耦。 接下来,咱们从微服务的必备基础理论,也是企业进行微服务所需遵循的一大准则——康威定律来看: 组织模式等同零碎设计。设计零碎的组织,其产生的设计等同于组织之内、组织之间的沟通构造。 第一定律:Communication dictates design(组织沟通形式会通过零碎设计表达出来)。人与人的沟通是非常复杂的,一个人的沟通精力是无限的,所以当问题太简单须要很多人解决的时候,咱们须要做拆分组织来达成对沟通效率的治理。在团队外部进行频繁的、细粒度的沟通。对于团队内部,定义好接口,契约,只进行粗粒度的沟通。这样能够升高沟通老本,同时也合乎高内聚,低耦合准则。 第二定律:There is never enough time to do something right, but there is always enough time to do it over(工夫再多一件事件也不可能做的完满,但总有工夫做完一件事件)。简单的零碎须要通过容错弹性的形式继续优化,不要指望一个大而全的设计或架构,好的架构和设计都是缓缓迭代进去的。因而企业须要拥抱变动,解决当下,先实现一个一个小指标。 ...

August 31, 2022 · 1 min · jiezi

关于云原生:金山办公-2022-年技术开放日文档云原生时代的规模之道

 8 月 26 日,金山办公在珠海举办以「规模之道」为主题的 2022 年技术开放日流动。金山办公副总裁姚冬、金山办公技术委员会执行主席皮霞林、金山办公高级研发总监黄传通、金山办公公有云专家陈良等嘉宾发表了主题演讲。 有了云,协同办公以指数级规模呈爆发式增长态势。 有了云,就有了合作的可能,有了合作,用户能发明更多的价值。办公软件正在进入云原生时代,而软件架构设计和治理形式也正悄悄产生着转变。  迈入文档云原生时代,文档随取随用 会上,金山办公高级研发总监、云平台负责人黄传通示意,以后咱们曾经迈入“文档云原生时代”,并在主题演讲中,分享了软件开发的架构设计如何适应云原生环境。  何为文档云原生?云原生技术自身是一种利用云计算交付模型的劣势来构建和运行应用程序的办法。当企业应用云原生架构开发和运维应用程序时,以在线文档、在线表格、在线表单为代表性的办公利用,人造地被设计为在云上以最佳形式运行。办公场景下的云原生能够做到:“文档生于云,存于云,编辑于云、流动于云”,办公云原生利用则具备“唾手可得、用过即走、随时分享、不便合作”等突出劣势。  据理解,金山办公的文档云原生服务撑持着超大规模的数字化办公业务,发明了承载5.7亿沉闷用户设施外围业务经营、超 1500 亿云文档数量、270PB 云文档存储量、百万级 QPS(每秒申请)的超大规模云原生实际,也是目前云办公畛域面向数字化转型的最佳云原生实际标杆之一。  为了撑持云办公服务的业务状态倒退,从 2009 年至 2022 年,WPS 云服务的架构演变,历经了从单体式利用到分布式架构,再到 DevOps+ 容器化、微服务化,以及正式进入云原生提供混合云可伸缩能力四个时代。整个过程,对于服务研发的“速度”和“麻利”指标都提出了极高的要求:比方必须反对大规模云服务疾速更新的能力、服务必须具备高健壮性、故障自愈能力等等。  黄传通强调,金山办公近年来正鼎力投入云原生的平安基础设施建设,着手建设“两地三核心”(生产核心、同城容灾核心、异地容灾核心),所有的数据都会在不同区域备份,极其灾祸状况下可做到秒级切换能力,过来一年已实现“四个 9 ”级别服务高可用性——全年 99.99% 以上工夫服务可用。  北京冬奥会,云原生利用交付的最佳实际云原生是一整套体系,蕴含了从开发,部署到运维的残缺技术栈。除了开发,云上的运维技术倒退也突飞猛进,尤其是面向私有化部署。  2022 年,北京冬奥会胜利举办,这是迄今观看人数最多、数字化水平最高的一届冬奥会。作为官网协同办公软件供应商,金山办公为冬奥组委提供了一套公有云部署解决方案,计划采纳了云原生的技术栈,反对文档的云端存储、文档的多人在线协同等。 金山办公公有云专家陈良在《冰雪盛会背地的技术保障—公有云场景下的云原生利用交付及运维》示意:“在冬奥会案例中,金山办公面临两方面挑战:首先是跨区域的办公协同,蕴含场馆、团队与总部员工的办公协同,以及与国内奥组委的协同,特点是部署环境简单、运维难,可用性保障难;其次,冬奥会的数据安全要求是国内顶尖水准级别的。” 为了解决这两个难题,金山办公原创设计了一套“公有云底座”(kubewps),并造成了一套规范的“ 1 小时”高效部署服务流程:第一,实现环境容器化,屏蔽环境差别、兼容多操作系统解决部署依赖问题;第二,实现配置模板化,事先依据节点数预约义最佳的角色调配,缩小赛事前期配置;第三,治理平台化,为冬奥组委提供了一套可视化运维零碎,清晰展示监控运维成绩。 历经 800 余天,金山办公帮助北京冬奥组委技术部实现了协同办公零碎及其余 3 个业务零碎的自主研发建设,共计解决问题工单 800 余次,提供超过 4000 小时技术保障,达成 100% 问题解决率,以“零事变”成绩圆满完成赛事保障工作。 兼具技术厚度和治理翻新“技术立业”是金山办公的重要策略,保持程序员文化是金山办公的贵重基因。 技术开放日上,金山办公副总裁姚冬在《超大规模软件项目管理》主题演讲中,坦诚分享了 WPS 30 多年来在超大规模软件治理实际中总结进去的的教训和心得。姚冬示意:“做好超大规模软件我的项目,不仅须要技术能力、产品能力,也须要治理能力,用治理推动技术创新、效率晋升和品质改良。” 流动现场还邀请了特地嘉宾——WPS 97 版研发负责人章立新缺席。章立新1992年退出WPS,先后参加了盘古组件、WPS 97、WPS 2000、WPS Office 等软件开发。往年是章立新退出金山的第三十周年。章立新说:“一代代金山人的智慧,积攒了 WPS 的技术厚度,造就了 WPS 的产品规模。有厚度、有规模,金山办公必将厚积薄发。”   为了适应产业一直提出的需要,金山办公产研团队继续把握技术趋势的变动,保持摸索新一代办公产品状态。据 2021 年报数据,2021 年金山办公产研费用投入 10.82 亿元,研发围绕“云和数字化”方向做长期储备,投入一直加码。最新数据显示,金山办公研发总人数 2816 人,研发人员占公司人员总数比例近七成。 ...

August 26, 2022 · 1 min · jiezi

关于云原生:数字化转型新CP云原生边缘计算-实践分享

近日,在2022智能云边开源峰会(2022 Open Source AceCon)上,灵雀云首席解决方案专家杜东明受邀进行了《云边赋能,容器伴行-云原生在边缘计算的实际思考》的主题分享。他指出,在数字化转型的一直增速下,云原生曾经成为了企业的必然选择,云原生与边缘计算的深度交融更是能为企业带来更大的收益,更快地赋能业务倒退。 云原生已成为企业数字化转型的助推器 通过长期的实际,咱们发现,这个实质的答案还是企业数字化转型的破坏性作用。所谓数字化转型,是企业把实现价值的外围能力和数字化技术和数字化渠道相交融。例如,传统银行实现价值的形式是吸储、放贷、提供金融服务,以前咱们抉择银行个别看网点离家和公司的间隔,然而当初,咱们抉择银行要害看哪家app做得好,银行的软件变成了实现价值的外围工具。在一些更加传统的行业中,咱们也看到数字化转型的身影,例如工业企业,为了更好的提质增效,减排降本,将订单和打算,设计和工艺,生产和品质,仓储和物流有机的联合起来,造成工业互联网、工业大数据,这实质也是数字化转型。 一旦企业进行了数字化转型,企业的IT产生了微小的变动,逐步从反对部门、老本部门向盈利核心转变,企业IT开发、运维的数字化利用变成了实现价值和业务增长的外围抓手和因素。 在这个大背景下,咱们看到了很多的变动,首先企业的利用数量显著增多,原来IT只用运维外部的OA、ERP、财务零碎,然而当初,数字化业务导致IT运维的利用数量以几何倍数减少,咱们看到一个城商行渠道零碎上有8000多个服务,某股份制银行服务数量达到了惊人的10W。 第二,企业自研的比重在进步,以前通过购买而取得的IT零碎明天不再实用,因为数字化利用和企业的外围业务严密相干,这是竞争的劣势所在,是不可能购买来。所以Gartner报告指出,到2020年,企业应用75%是来自于自我构建,而非购买。 第三,企业应用的麻利度在进步,不同于以往的利用满足于外部、稳态的用户需要,数字化业务须要满足的瞬息万变的市场需求,以前半年布局半年洽购施行的业务周期不再实用,而是变成了业务随时可能产生扭转,在最近跟一个快递公司的沟通中,他们坦言每周二、周四都要对30个国家累计3000多个业务零碎进行更新。 最初,业务的架构产生了变动,传统的system of record扭转成system of engagement,兴许须要大量的交互,带来业务规模持续增长,架构解耦势在必行,必须进行关注点拆散,将单体式架构拆分为微服务架构。 这些景象,咱们统称为敏态IT,与传统的稳态IT有着微小的差别。敏态IT的产生,对IT是坏事吗?不,他具备微小的破坏性,传统咱们基于Itil体系构建的稳态运维体系,在这种破坏力之下,变得疲于应答。业界须要一种技术,可能解决这些敏态问题,而这些技术,咱们统称为云原生技术。 容器与边缘计算伴生成长 边缘计算和容器貌似是两个驴唇不对马嘴的的事件,惟一的相似性就是他们都诞生于2013年,容器的诞生源自于docker的开源和docker hub的建设;而边缘计算这个概念源自美国“太平洋东南国家实验室”的一篇报告。从谷歌趋势中咱们能够看到,在过来的十年中,人们对两个技术放弃着继续低落的关注和激情。 过来咱们通常会认为容器或者Kubernetes是属于数据中心的技术,它善于治理成千盈百个节点,调度简单的微服务业务;而边缘计算通常是在资源紧俏环境,貌似不是K8s善于的畛域。事实上,这是对K8s的误会,它卓越的架构导致其具备极高的弹性,既能够在数据中心治理外围业务,也能够在单节点、三节点这样的边缘场景大展身手,因为在小规模环境中须要解决的利用反对问题并不少于大规模环境。 边缘计算和容器两个技术的交汇应该是耳濡目染的过程,然而大规模的交汇应该产生在2021年,这与咱们的市场感知齐全相符,从2021年开始,各行各业都涌现出了大量的在边缘侧建设容器平台需要。 在Gartner报告中,也有相似的观点。在2020年Gartner公布的《边缘计算成熟度曲线》报告中,尚未提及容器相干的技术因素,而2021年雷同报告中,咱们看到首次呈现了“Edge PaaS”的概念,这个概念正是用来形容容器技术在边缘侧的利用。而且这个概念一经呈现,就达到了第一个概念巅峰,阐明过来Edge PaaS始终产生,只是在2021年显著的显现出来。Gartner指出,通过在边缘侧无限的计算资源上运行容器,使新型edge-native、高度分布式、边缘感知型利用成为可能。 最佳CP:云原生与边缘计算 上面咱们具体看一下,容器与边缘场景是如何适配的。 首先,云原生与边缘的联合有利于晋升资源利用率。边缘侧的显著特点是资源总量无限,通常是一台、三台服务器为主,一些端点管制类设施往往只有一台arm小盒子。这些资源运行边缘利用曾经顾此失彼,很难再承载额定的平台层资源耗费。容器治理平台不同于传统的虚拟机、超交融架构,其平台层的overhead非常低,个别状况下,1c2g就可能跑起来一套K8s,如果切换成microK8s、K3s这些瘦身版K8s,资源使用量将进一步缩减。所以采纳容器并不会给边缘侧带来额定的资源压力,反而能够优化资源配置。 第二,云原生能够帮忙边缘侧实现基础设施的对立治理。边缘侧尽管规模小,但其仍然须要一个平台对下治理基础设施对上提供网络、计算、存储服务,例如软件定义存储、软件定义网络,而这些在容器社区早已有大量开源解决方案,而在商用畛域咱们早曾经落地了大量全栈云平台都是须要对物理基础设施进行治理的。 第三,云原生能够无效缩小企业边缘侧AI业务的IT老本。边缘场景和人工智能密不可分,客户通常须要在边缘侧进行AI推理运算,甚至一些模型训练也会放在边缘侧。那么GPU的需要必不可少。在容器平台中,通过GPU虚拟化,能够把一块GPU虚构成多个虚构GPU调配给多个容器,每个容器中的利用如同独占了一块GPU。这极大地晋升了边缘侧AI业务的灵活性,同时帮忙客户降低成本。 第四,以容器为外围的云原生技术更易实现边缘侧设施端口调用。边缘计算通常与设施相连接,咱们看到应用串口、网口、VGA等,而容器的Device Plugin插件技术,能够让容器很轻松拜访这些端口。 第五,对于开发运维人员来说,采纳云原生技术可能更便捷地实现业务的疾速部署和迭代。这也是极为要害的一点,在边缘环境中,业务局点分散在较大的区域,对业务的部署、前期运维带来微小的难题。容器能够轻松应答这些场景,像灵雀云的多集群治理技术能够让咱们在办公室里,对成千盈百的边缘局点进行业务部署、降级。针对边缘侧业务,运维人员能够设置监控告警策略,疾速获悉现场事变。业务呈现问题时,开发人员能够通过治理平台查阅利用日志,甚至登录到容器里调试业务。 最初,云边协同可能极大地晋升业务自主性及可用性。边和云之间是弱网络环境,无奈保障带宽、时延甚至连通性,因而须要边缘自治能力。而运行在边缘侧的容器治理平台本身具备极高的自主性,其业务调度,高可用保障齐全不依赖云端环境,当云边网络断开时,边缘侧仍然能够放弃失常运行。 个别客户会放心业务的容器化革新是不是很简单?本人能不能搞定?这点其实齐全不必放心。首先边缘场景下,部署在边缘侧的业务数量极其无限,个别也就4、5个,针对这几个业务的容器化革新并不艰难,依照灵雀的教训,个别半天到一周能实现一个业务的容器化革新。而业务一旦革新完,能够被一键式的部署到几百上千个局点,而且为前期运维带来了微小的灵活性。所以针对边缘业务的容器化革新是一个ROI极高的投入,二者的深度交融能够为企业带来更大的收益。 近期,灵雀云还将正式公布云原生边缘计算解决方案,敬请期待! 立刻开启云边协同新体验点击此处,立刻与灵雀云工程师独特布局云原生边缘计算最佳实际。 上一篇:智能制作的下一站:云原生+边缘计算双轮驱动下一篇:揭秘5名运维如何轻松治理数亿级流量零碎

August 26, 2022 · 1 min · jiezi

关于云原生:TAP-文章系列12-小步快跑的代码扫描实现质量左移

测试是软件品质的根底,测试左移为利用准时上线的要害在以往的日子,一个应用软件我的项目开发工作,相干人员无不将注意力放在领域、估算与我的项目周期三个面向。而「墨菲定律」却如影随形,一直发威;咱们总是无奈防止的如「人月神话」书中所形容的一样陷入困境。 通常,需要访谈消耗掉大量工夫,大大的压缩了开发所须要的工夫,即便零碎设计被分明的探讨与制订,开发者仍旧被我的项目周期压得喘不过气来,所以测试是最常被省略的局部;始终到利用要上生产环境时,才发现应用程序没有齐全实现原先设计指标,没方法满足客户要求,甚至源代码的编写或是应用的框架,都具备平安的危险,最初导致整个我的项目延期。 即使最终,零碎在趔趔趄趄的开发过程后上线,紧接的一连串Bug修改、性能减少与批改,都是是我的项目布局初期应该想到,却又没想到的局部。 一个零碎通过多年的应用与保护,历经多代轮替的开发者,早已偏离原来的设计;再加上没有良好的架构设计,也没有从我的项目开始时就纳入的测试,后续的开发者没有短缺的信念与多余的工夫进行重构,以至于整个零碎的保护工作日趋惨重,也让迭代速度一直降落,整个零碎也越加凌乱,与热力学的熵增定律:「每个零碎会从有序走向无序,日趋凌乱,且不可逆」,不约而同。 置信许多具备利用开发与运维实务教训的读者,每次在零碎上线时总是有种惶惶不安、风平浪静的刺激感。 Working Effectively with Legacy Code 的作者Michael C. Feathers在书中定义了遗留零碎即为没有测试笼罩(爱护)的零碎,也是有待改善的零碎,可见测试的重要性,却是传统利用开发所欠缺的局部。 前述的传统瀑布式项目管理形式,的确弊病丛生,因而麻利开发思维横空出世,提倡测试后行、增量开发与及早部署;这个概念扭转了这个世界开发软件的形式。 VMware Tanzu Labs(原Pivotal Labs)的技术专家 Mark Parker,已经于2016年的SpringOne流动上,以 “TDD: The Bad Parts”为题目的演讲中提出,如何让应用程序能够高效开发、继续且即时部署的要害,即为测试。 然而,当初多半开发在个阶段测试工作所破费的工夫与精力,通常如下图右边的倒三角形,单元测试破费很少工夫,零碎整合测试与验收测试则须要更多的工作量才可实现;其中起因不难理解,一旦零碎进入SIT或是UAT的测试阶段,其须要与其余零碎对接,所以在问题查找须要更多工夫,且性能修改过程中则须要请其余周边零碎与团队配合,才可能重新部署测试。 综合上述问题,反之,若将更多工夫与精力放在单元测试工作上,将会省去大量的SIT与UAT工作量。 而如果期待零碎能够快速反应需要变动,也心愿有正确高品质的源代码,一直地重构以便获得整洁的源代码,也透过测试驱动开发,让开发者与业务相干人员对于推出的利用与提供的服务更加有信念,都是必要的步骤与正向循环。 麻利开发的工程实际治理形式,推动测试左移,品质左移咱们简略将利用程序开发到上线,简略划分成迭代开发与上线部署两个阶段。 在第一个开发阶段,是属于开发者所需关注的局部,除了实现客户要求的零碎规格、性能,若期许达到开发者能够达到麻利团队的要求,则乐于分享的开放式心态、团队严密的单干形式、开发者讲求纪律的自我要求,皆是VMware Tanzu Labs提供给客户的参考意见。 Kent Beck与Uncle Bob推广测试驱动开发(Test Driven Development, 简称 TDD),这是一种从 test code的角度来是对待production code的软体开发方式,依据需要所布局的测试案例,遵循简略准则,先不思考进一步的架构问题,以满足测试条件为要点,反覆的以红灯、绿灯、重构为循环,从test code与 production code中往返; 因为有 test code的爱护,可落实Martin Fowler在他的著述—“Refactoring”书中所提:「一个零碎的重构工作是从第一源代码被写进去开始,到零碎停用为止」,大大防止了前述「熵增定律」的产生,更容易的开发出易于测试、保护的 production code。 有别过来写在文件上僵化且没有继续保护的规格,此过程中的测试案例,进而成为可执行的制品,防止开发过程中改A坏B的问题,确保零碎的正确性。如此一来,麻利开发与云原生概念中的继续集成、继续交付,才可能疾速且有信念的执行。 麻利开发方法论中,不论是eXtreme Programing的迭代(Iteration)或是Scrum的冲刺(Sprint),皆要求以小步快跑的增量形式,并尽速反覆的推送到生产环境,实现客户所需性能,获得业务价值。 这个要求,也就是利用程序开发与上线的第二阶段:一开始是所谓的继续集成,所涵盖的范畴,有源代码的集成、测试与扫描,在云原生的技术中,还要历经镜像生成,紧接着再进行镜像扫描、签章,最初存储至镜像仓库后,静待最初的部署。 这些过程,须由平安、运维与平台团队依据组织要求,独特制订与搭建流水线,提供给开发者应用;为求高效且缩小人为染指的谬误,须以自动化形式进行,但也可依据治理与平安上的要求设定品质门禁,让负责品质的人有机会可做最初的确认,之后再部署到UAT或是生产环境中。 前述这些工作皆可在云原生基金会所率领的生态系中,找到适宜企业用户想要的工具;然而稳固又牢靠的开源工具,有肯定抉择的艰难度。 加上须要平安、运维与平台团队自行评估、搭建与测试,再到前期的治理,让这项工作显得更加惨重。 Tanzu Application Platform与Supply Chain Security ToolTanzu Application Platform(简称 TAP)是依据VMware多年来帮助企业客户,进行数字化转型工作后,所累积的教训与汇整企业客户、开发者应用体验,演绎并设计出一系列的技术栈。 响应了后面提到的开发迭代与上线部署两个阶段(在此称为 Inner Loop 与 Outer Loop),其目标在晋升开发团队与运维团队的生产力、容器平台的可察看性,以及利用与容器部署至Kubernetes后的安全性。 ...

August 25, 2022 · 1 min · jiezi

关于云原生:TAP-文章系列11-利用-TAP-实现应用云调试与面向开发者的应用运行状态监控

从云原生平台的广泛应用谈起......云原生平台,特地是以Kubernetes为代表的容器调度平台,曾经失去了十分疾速的遍及。各行业企业的数据中心,纷纷调研并落地适宜各自企业现状的Kubernetes云原生利用平台;然而遗憾的是,很少有企业在落地并施行Kubernetes云原生利用平台的时候,思考如何升高因为云原生平台所带来的开发阶段的额定利用开发成本。 咱们能够简略的将开发阶段(或者定义为开发闭环 Inner Loop)的流动,分成上面几个次要板块: ●Learn的阶段 随着微服务软件架构与DevOps的衰亡,以及互联网大厂所引领的 “you build it, you run it”,这样的理念的推广,利用开发团队的职责,越来越向传统基础架构所负责的畛域延展,包含:设计,开发,测试,打包,运行利用。 为了无效的实际这样的实践,利用开发团队须要及早学习并相熟利用理论的物理运行计算环境;在云原生K8S平台的宽泛遍及下,意味着开发团队须要学习并相熟基于K8S的利用部署平台,利用这样的平台进行利用的开发、调试,甚至进而打包并部署利用到K8S环境中,并提供精益运维的反对; 可事实是,随着K8S平台的实际,越来越多的开发团队意识到,间接基于K8S 平台提供的接口进行开发流动,重大影响开发团队的开发效率;因而,退而求其次,开发环境采纳桌面版的容器环境,例如:Docker/Docker Compose,集成测试、生产环境用K8S平台。这种环境的差别,特地是在微服务架构的利用开发、部署、运维场景下,为前期精益运维引入了微小的危险;更重大的是,有的利用零碎十分的简单,桌面版的容器环境没法满足利用算力的需要,不得不依赖近程的K8S平台进行开发流动,依然会产生开发效率降落的问题。 Tanzu Application Platform 提供了一个服务层,将K8S的接口屏蔽在了这个服务层之下;利用TAP的服务层接口,开发团队能够疾速的发展利用的日常开发、测试、部署等流动。须要阐明的是,本文次要关注在开发,调试阶段如何利用TAP服务层的疾速调试API,帮忙开发工程师,利用本地或近程的K8S进行利用的开发,调试流动;如果须要理解TAP服务层提供的推送利用API、Bind Backing Service等API的需要,请参考系列文章的其它主题。 ●Discovery and Start 的阶段 开发团队在这个阶段,通过 DDD(Domain Driven Design)学习并造成各个子系统的边界、Boris剖析子系统间的调用与依赖、SnapE记录子系统的接口规格与形容;同时,学习部署零碎的计算平台的基本功能已帮忙解决利用零碎的可用性等非性能个性;对于基于Kubernetes平台部署的云原生利用零碎,意味着开发团队须要调配贵重的开发工夫,让团队成员相熟Kubernetes平台的基本功能。 Tanzu Application Platform能够极大的升高开发团队成员学习Kubernetes的门槛,将利用在Kubernetes环境中的开发、调试、部署与拜访集成到开发团队相熟并宽泛应用的IDE(Integrated Development Environment)中,实现升高开发工程师基于Kubernetes开发利用的门槛。 ●Code、Test、Debug 工作流 这个阶段是开发团队的次要日常工作。一个广泛的广为承受的想法和指标,就是尽量让开发团队专一于畛域需要的业务代码开发。但咱们发现在基于K8S云原生平台的开发过程中,很少有开发团队在日常的开发中,基于K8S平台来进行日常的开发、调试等工作流程。一个最为奢侈的起因,从批改代码,到构建 OCI image镜像,到拆卸K8S yaml,再到最初的部署,公布利用,拜访代码实现批改的后果,这一系列操作下来,至多须要15到20分钟。更麻烦的是如何利用开发工程师相熟的IDE进行利用的K8S近程断点调试呢?斗争的后果,就是开发团队依然利用已有的工具,利用桌面环境,利用Docker工具栈,发展Code、Test、Debug的日常工作。对于简单的微服务利用,或者受限于内部零碎依赖, 再或者受限于桌面算力,必然影响开发团队的开发效率。 Tanzu Application Platform 专门针对开发团队应用K8S云原生环境进行利用的开发、测试、调试的场景,利用开源社区提供的 Tilt 工具,联合 TAP Developer Tools Extensions 以及IDE开发工具3重劣势,尝试解决开发团队无效利用K8S进行微服务开发、测试、Debug的日常需要。这也是本文重点分享的内容。 利用TAP实现利用云调试基于之前的背景铺垫,期待大家可能意识到,在云原生下的微服务利用开发循环(inner loop)阶段,在必要的状况下,利用与利用部署的QA或者预生产环境相近似的Developer K8S环境进行开发、测试、调试,可能极大的晋升开发效率同时缩小将来可能因为环境的差别导致的测试、部署上的危险。 接下来,咱们会利用Tanzu Application Platform 利用开发调试 Developer API,以及开源 Tilt 工具、VS code IDE 、Tanzu Developer Tools Plugin,给大家演示如何利用TAP所提供的工具链,帮忙开发团队实现疾速,便捷的K8S利用云调试。 ...

August 25, 2022 · 2 min · jiezi

关于云原生:数据中心深度制冷联合解决方案登陆VMware云市场及VMware-Explore-2022大会

VMware 作为当先的云基础架构厂商,对可持续性有着长期的承诺。在中国,VMware 和英特尔也在聚合生态,推动碳中和计算的翻新。 VMware、英特尔和Quarkdata(云创近景)合作开发了联结解决方案 Deep Cooling,以减速推动在中国乃至寰球数据中心规模化采纳可继续的碳中和计算技术;并一道在2021年底独特公布了数据中心进步运维效率、节能减排的联结白皮书:《面向可继续经济倒退的碳中和计算技术—数据中心新基建背景下的减排翻新》,通过在数据中心外部综合利用物联网/边缘计算、人工智能/深度学习、和交融运维治理等技术节省能源、缩小碳排放。 DeepCooling以可继续的碳中和计算技术通过继续的边缘 AI 干涉和实时控制,帮忙企业优化数据中心的整套制冷体系的能耗体现。这套计划曾经在三方的联结推动下,在国内数个大型数据中心落地,帮忙客户显著改善了PUE,升高了碳排放。在曾经生产性部署的环境里全面验证了显著缩小制冷系统能耗和碳排放的成果。 近日,云创近景携深度制冷智能能耗优化平台(DeepCooling Intelligent Energy Consumption Optimization Platform),正式登陆VMware云市场。VMware云市场(Cloud Marketplace)由VMware寰球经营,提供在多云环境内发现和部署教训证的第三方和开源解决方案。Deep Cooling计划应用的Flowgate开源我的项目曾经在2020年以vRealize Operations治理包的模式在VMware云市场上架。"Deep Cooling是一个智能能耗优化平台,利用前沿的人工智能和边缘计算技术优化数据中心、大型超市和写字楼的能耗。Deep Cooling利用边缘计算和大数据技术建设能耗优化模型,广泛应用于数据中心、工厂、大型公共建筑等各种场景。利用基于边缘服务器的人工智能技术,动静测量和计算最适宜房间的配置,Deep Cooling智能能耗优化平台可在几秒钟内管制暖通空调和冷水机组。" Deep Cooling联结解决方案也将在本月底于美国加州旧金山市举办的VMware Explore 2022 大会上亮相。VMware Explore 由久负盛名的VMworld重新命名而来,每年8-9月间举办的此项会议是汇集VMware寰球合作伙伴、商业客户、行业分析家们的重要流动。由VMware、Intel和云创近景三方独特展现的深度制冷联结解决方案将向寰球企业客户介绍如何通过技术创新将节能减排的环境可持续性倒退和降本增效的商业倒退指标完满联合在一起。想理解更多对于此Session的信息,请点击:https://event.vmware.com/flow/vmware/explore2022us/content/page/catalog?search=CEIB1384USDVMware云市场中的Deep Cooling计划:https://marketplace.cloud.vmware.com/services/details/deepcooling-intelligent-energy-consumption-optimization-platform-1?slug=true更多细节请参考:联结解决方案系列|DeepCooling——面向可继续经济倒退的碳中和计算技术。 -END- 起源:VMware中国研发核心

August 25, 2022 · 1 min · jiezi

关于云原生:企业应用现代化实用教程-IT架构师必读的DevOps落地行动指南

想要落地DevOps却不晓得如何动手?本篇文章将带你深刻学习对于DevOps的要害概念及最佳实际。 DevOps的起源个别认为,DevOps的呈现源于两个因素:麻利软件办法的宽泛采纳以及IT基础设施及代码的治理形式。咱们先看麻利软件开发办法。20世纪末,支流软件开发办法是所谓的瀑布模型,须要破费大量工夫,实用于对疾速产品交付需要不大的大型信息系统,这个模型可能确保产品的高质量和精密的老本管制。 20世纪90年代,随着互联网和Web技术的倒退,瀑布模型的消极作用开始浮现:如何满足一直变动的客户需要的同时,还要按时交付同时不升高产品质量,就变得极为艰难。     因而,IT治理办法也须要随之变动,逐步从聚焦IT零碎逐步转变为聚焦IT服务的管理模式。从2000年开始,这些涌现进去的治理实际,被先行者工程驳回之后,成为所谓的最佳实际,有些最佳实际进一步被业界宽泛承受,甚至成为规范。咱们以IT服务为例,20世纪80年代,这样的想法开始呈现:信息技术以服务的模式提供价值,以流程的模式组织IT流动。随后ITIL(IT基础设施库)等被论述进去,使得这些实际进入最佳实际之列,在2002年成为IT服务治理的首个规范。现在,新涌现进去的实际,被打上DevOps(开发+运维)的标签。实际上,DevOps的外延,曾经大大超出了原始含意。那么到底什么是DevOps呢? 何为DevOps?随着与客户交互的新办法的呈现,以及麻利开发技术的充沛利用,业界迫切需要一种新的IT治理办法。而以虚拟化和云计算技术为撑持的基础设施即代码的呈现,为IT治理新办法的呈现提供了时机,基于麻利软件开发和精益生产演进的IT治理新办法DevOps应运而生。 DevOps是一种麻利软件开发和精益制作想法的演变,利用到IT端到端的价值链,归功于文化、组织和技术的改革,使业务可能通过古代信息技术更多地达到预期,更快满足用户的业务需要,晋升资源利用率。 首先,DevOps是对麻利软件开发和精益实际两者的演变,是排汇,而不是取代。 其次,DevOps 被利用到IT端到端的价值链,其本质就是:DevOps所思考的不仅仅是软件开发,而是整个价值链。整个价值链始于业务干系人的新想法,通过需要剖析,设计,开发,测试和部署,到运维,最初到交付给客户。端到端价值链的办法有助于从宏观上整体地剖析,辨认和打消瓶颈。 为什么要采纳DevOps? 首先,企业落地DevOps是晋升产能和效率的必然选择,能够大幅晋升新产品或新利用的上市工夫。 传统企业新产品上市波及到相当大的时间跨度,对于响应的IT部门,这个工夫可能包含以下环节: 针对一种或若干种业务想法构建和起草计划,以及业务论证;评估和抉择一个业务想法进行施行;布局施行所需的口头,取得资金;员工和业务流程筹备;同时进行需要规范化,原型开发,初始测试,全功能IT零碎开发,全面测试,公布和部署;同时进行营销流动,市场筹备,销售渠道和工具的筹备;新产品或服务的推出。上述流程须要破费几年工夫,然而业务部门心愿缩短到数月。拥抱DevOps的理由是不言而喻的。 发明数字化产品的充满活力的公司,习惯于疾速口头。绝对于谨严,具体打算,他们更推崇可平安失败的试验。这时,流程可能是这样的: 建设一个假如,开发验证办法;假如的理论实现;后果评估,A / B测试,与指标的比拟;依据剖析进行调整,返回第一步或第二步。很容易看到这是一个循环,预期时长是几周。这就是小步快跑的策略。这样疾速的步骤是必须的,因为DevOps的实质就是继续的探寻。最终状态是不可知的,指定长期的打算没有意义。 为了尽可能缩短上市工夫,DevOps提供了多种技术: 缩小批量大小;缩小交接次数;继续辨认和打消损失;自力更生的团队,传统IT部门为老本优化,DevOps为速度而优化;自动化。其次,缩小技术债权也是企业拥抱DevOps的一大起因。技术债权是在团队成员抉择一个非最优的形式解决问题以缩短开发工夫时产生的。这是一个天然的过程,问题是累积的非最优计划导致了开发产出逐渐好转,必然导致产品质量下滑。 DevOps继续重构程序代码,器重在操作中获得的教训,激励继续辨认并打消瓶颈,认为这些工作和技术创新同开发新产品性能等同重要。 同时,DevOps强烈建议应用“尽可能频繁面对问题”的实际,以便避免问题的“停滞”,即所有人都晓得,但没有人可能解决的状况。 除此之外,采纳DevOps能够帮忙企业排除脆弱性。通常组织中最重要的和业务收益最相干的零碎是最软弱的。 DevOps可能以最激进的形式扭转脆弱性,做到齐全排除;在DevOps中,代码和零碎作为一个整体,在某个时刻是全功能的,如果接下来的变更毁坏了性能,就要马上回滚并且让零碎继续正确地工作;DevOps的实际,无意地引入凌乱和不稳定性到生产环境,指标IT零碎必须以独立和疾速的形式做出反馈,探测到故障并复原它们的失常运作,现实状况下最终用户是无感知的,当然数据也不会失落。 DevOps常见误区常见误区1:“DevOps不过是连续麻利的想法”企业在落地DevOps前,首先要明确一点,DevOps并不仅是麻利的一部分。 · 只管DevOps在很大水平上基于麻利,然而扩大了麻利开发到通用的麻利IT交付,笼罩整个组织、整个流程以及残缺的价值链;· 取得DevOps的回报须要在公司中进行比以往麻利所做的更为显著的文化改革;· DevOps的指标汇合不仅限于减速交付:也须要缩小技术债和排除脆弱性。 常见误区2:“工具可能给你极致的DevOps”其次,咱们须要意识到DevOps是一系列的组织文化和工作形式改革,而不仅仅是工具和自动化。 · 尽管个别的软件解决方案被宽泛承受,但没有也不可能有一个残缺的DevOps必备软件列表;· DevOps依赖确定的自动化工具的可用性和有效性。然而严格来讲,这些工具的最小集能够缩减到用于存储所有源代码的版本控制系统、IT基础设施配置数据、软件交付流水线自动化零碎;· 任何特定的DevOps施行都须要从企业本身组织状况登程,业余的商业化厂商能够帮忙企业疾速理清流程、减速实现组织变革。 常见误区3:“DevOps是一个全能士兵,能写代码,做测试,部署环境,并治理基础设施”最初,咱们须要理解DevOps并不是一个新职业。 · DevOps是一种对IT部门的基本面有深远意义的改革,并不是通过招聘一些DevOps工程师或邀请DevOps专家就能达成的;· 具备施行软件交付流水线的能力也不能保障胜利;· 短期来看,不大可能通过利用DevOps的实际就立刻节省成本,但久远来看是在为更大的降本增效做筹备,因此抉择一个具备过硬技术实力和丰盛实践经验的厂商非常重要。 即刻开启您的DevOps最佳实际之旅如您有更多企业级DevOps落地需要,点击此处立刻定制属于您的DevOps计划。

August 24, 2022 · 1 min · jiezi

关于云原生:云原生-SIG关于-Koordinator-混部原理及最佳实践-第-43-期

「龙蜥大讲堂」精彩预报来啦!本期邀请了龙蜥云原生SIG Contributor 分享《Koordinator 龙蜥云原生混部最佳实际》,快来扫码入群,预约前排小板凳观看直播吧! 直播主题及内容介绍直播主题:Koordinator 龙蜥云原生混部最佳实际 直播工夫:2022 年 08 月 25 日 (周四)16:00-17:00 直播内容: Koordinator 集群混部的原理,集群资源管理、容器调度。 听众受害: 理解 Koordinator 集群混部的原理,理解 k8s 集群资源管理、容器调度。 适宜人群:容器、k8s,云原生畛域的开发者、爱好者。 讲师介绍:龙蜥云原生 SIG Contributor、Koordinator 社区 Maintainer,在集群资源管理、容器调度、混部等方向经验丰富,曾深度参加业界多个分布式资源管理零碎的设计和研发。目前次要负责容器服务差异化 SLO 混部。 如何加入直播? 钉钉扫描下方海报二维码入群即可加入本次直播。 小龙舒适揭示:本期龙蜥大讲堂直播回放将在直播完结后一周内上线至龙蜥官网(首页-动静-视频)!往期龙蜥大讲堂视频回放已上线至龙蜥官网,欢送观看,有任何疑难欢送随时征询龙蜥助手—小龙(微信:openanolis_assis)。 —— 完 ——

August 24, 2022 · 1 min · jiezi

关于云原生:阿里云-EMAS-Serverless-重磅发布

EMAS Serverless 是阿里云提供的基于Serverless技术的一站式后端开发平台,为开发者提供高可用、弹性伸缩的云开发服务,蕴含云函数、云数据库、云存储、动态网站托管等性能,可用帮忙开发者及企业客户疾速实现一云多端利用的搭建,治理运维后端服务更简略,无缝对接丰盛的云资源。 这次的EMAS产品升级整合了原阿里云小程序云Severless产品的次要性能,产品做了底层架构优化,为利用开发者特地是多端开发者实现一站式利用开发提供了全新的开发体验。 点击进入【EMAS Severless详情页】 点击进入【产品文档】 点击进入【EMAS Serverless教你4步疾速搭建小程序】 EMAS Serverless的产品性能架构图: EMAS Serverless提供如下次要性能: 为了更好的布道推广 Serverless 开发生态,EMAS Serverless 面向开发者/学生提供收费套餐(不是只1个月哦,你懂的),针对业务倒退的不同阶段,提供多种套餐和按量付费模式。 请来阿里云官网一探到底!搜寻EMAS Serverless进入产品详情页 欢送扫码退出EMAS Serverless技术支持群,分割咱们的在线技术支持

August 22, 2022 · 1 min · jiezi

关于云原生:企业应用现代化实用教程-如何快准狠地进行应用容器化改造

本篇文章将带你理解所有对于企业级利用容器化革新的必备理论知识,以及如何清晰布局云原生转型门路,手把手教你如何做好容器化革新。 容器化指标与门路 泛滥周知,企业的数字化转型大都以业务价值为指标,因为每个企业的独特性,通常很难找到齐全匹配的教训可供借鉴,因而必然带来转型过程的碎片化,从而对原有的传统利用架构带来微小冲击,而大量新利用的产生同样会导致原有企业架构的碎片化,因而依据不同的利用特点从新梳理、区别对待,为了解决这一问题,以容器为外围的新一代双态IT架构应运而生。 双态IT架构次要蕴含稳态业务和稳态业务两大部分。敏态业务往往是间接和业务盈利相干的,会随着用户需要而一直变动,因此更重视满足业务的疾速多样性,强调敏捷性和速度。稳态业务通常为撑持性业务,比方CRM、ERP、OA等等,更强调准确性、可靠性和稳定性。 与此同时,反对业务利用的继续演进也是容器化的一大指标之一。企业的底层基础设施也从原来的网络设备加服务器,过渡到虚拟化,再进阶到容器化,其所撑持的下层业务利用状态也会随之发生变化,逐步从传统的单体利用向虚拟化时代的RPC/SOA利用、再向云原生时代的微服务利用转化。很多企业可能在虚拟机时代就进行了微服务化革新,但可能收益并不显著。尽管利用曾经是独立的个体了,但仍然有着极高的弹性伸缩等能力需要,这时候就须要借助容器来实现,二者的强强联合才可能真正将微服务的劣势施展进去。再配合DevOps平台,就可能更好地实现敏态业务的扩大和生产效力的晋升。 此外,容器化的另一红利在于推动由系统化向平台演进。因为云原生技术的学习老本过高,比起节约大量研发资源在自研云原生平台的调研、架构设计、技术选型、建设运维上,越来越多的企业开始拥抱开箱即用、灵便可控的一站式全栈云原生平台,企业无需再关怀容器、微服务技术的细枝末节,一套平台提供生产就绪的微服务基础设施、治理、运行、运维最佳实际环境。 云原生利用状态云原生利用状态次要蕴含以下几类: · 中间件利用MySQL、Redis、RabbitMQ、MongoDB、Kafka。这类利用是云原生平台内的一种利用状态,可能在容器平台内,也可能在原来的虚拟机、其余私有云等传统基础设施资源上,咱们称之为数据服务,用于为利用提供长久化撑持。 · 工作负载工作负载指的是在K8s下的workload,包含Deployment、StatefulSet、DaemonSet、CronJob等。· 形象模型通常来说,在部署利用时须要进行形象封装或定义。具体来讲,一个利用通常是指一个利用零碎,利用零碎又有各自的前端、后端、中间件、配置文件、网络等等。当然在不同的客户环境下,也可能有不同的定义,比方微服务团队下定义的利用就是微服务利用,涵盖workload、治理能力等等。因为有上述形象模型的定义,就衍生出了OAM利用、微服务利用、原生利用。 · 治理分区及组织架构由一个平台撑持多个利用,一个利用反对多个集群,集群又划分成不同的管分区,比方生产集群、测试集群、灾备集群等等。组织架构层的业务零碎能够跨多个集群,设置调配不同我的项目的资源配额,在不同我的项目下独立开发运维。 利用上云要害门路 企业上云门路应该依据不同的利用资产状态、上云后的预期指标进行综合剖析评估,确定适合的转型模式,再去采纳对应的解决方案和环境。利用上云的转型模式次要分为以下6种: Encapsulate:间接裸露API供翻新利用调用,也是所有利用都实用的一种模式,相当于利用不迁徙,只凋谢旧利用的API给新利用应用。 Rehost:不做任何批改迁徙到云。这里分为两种状况,第一种是原有利用不须要批改,比方原有利用为容器化利用,就能够间接迁徙到云上;第二种是没有工夫批改,很多企业我的项目革新工夫周期缓和,来不及做架构革新、微服务拆分,那么就能够间接把容器当成虚拟机来用,更不便利用容器平台来做DevOps,减速企业麻利化经营,也便于后续进行单体利用革新。只不过成绩收益不太显著,很难充沛享受到云的便当。 Replatform:利用局部云劣势进行容器化等大量革新,比方企业能够通过进行容器的内部化或者去状态化,领会到容器带来的劣势,不须要过多地思考基础设施的细枝末节,就能实现高并发业务场景下的主动扩缩容,晋升零碎的弹性和容错能力。 Refactor:利用云原生劣势局部重构。这部分次要波及到微服务革新,思考如何去拆分业务利用。 Rearchitect:用云原生架构重构利用。除了思考利用本身的容器化、微服务化革新,也要综合思考中间件的云原生化,更多从整体架构上进行再布局建设。 Rebuild:构建全新的云原生利用。全面的云原生化能够帮忙企业更快地享受到云原生降本增效的技术红利。总体来看,很多业务利用甚至无需扭转代码,就能够实现平滑地云原生转型。企业应联合本身业务愿景、投入产出、麻利交付、服务水平、革新周期等指标进行全盘考量、正当布局,倡议先上云后逐渐革新,更早地施展云原生劣势,为企业发明更大价值。 企业上云原生关键步骤 第一步,优先建设企业级容器云平台。提供平台来托管从传统应用程序到微服务应用程序的所有应用程序。利用现代化容许现有中间件的容器化。 第二步,翻新云原生利用开发,倡议新业务间接采纳新技术栈开发,在一开始就使用微服务、DevOps、API等麻利技术框架,在企业级云平台上构建云原生利用,没有历史包袱。 第三步,现有利用上云。在剖析评估后分类、逐渐进行原有零碎利用迁徙。 第四步,实现多云化的利用治理。在新旧利用都云化之后,企业就会面临多云治理的问题,这时企业应重点关注运维层面,将技术与业务拆散。利用要在多个云环境中运行,实现对于多云利用的全生命周期治理。 什么利用适宜上云?整体来看,所有的利用都能够上云,只不过企业须要综合思考现有利用上云的革新老本和收益状况进行正当布局。利用上云准则次要能够归为3类: 第一类,优先上云· 曾经容器化的利用· 微服务架构的利用· 无状态的利用 第二类,举荐上云· 须要故障自愈、弹性伸缩、疾速迭代能力的利用· AI利用,如Tensoflow、GPU密集型利用等 第三类,须要进一步考量· 不保护的,无技术支持的黑盒利用· 重资源利用· 有非凡外挂的利用,如U盾· 对操作系统有特殊要求的利用 优先上云的利用有无可参考的判断规范?依据灵雀云多年的容器化革新落地实践经验,咱们总结出了以下几条优先上云利用所需具备的条件: · 已建设清晰的可自动化的编译及构建流程应用了如Maven、Gradle、Make或Shell等工具实现了构建编译步骤的自动化,不便在容器平台上实现自动化的编译及构建,如曾经应用了Jenkins等继续集成工具更好。 · 已实现利用配置参数内部化利用已将配置参数内部化到配置文件或环境变量中,以便于利用容器能适配不同的运行环境。 · 已提供正当牢靠的健康检查接口容器平台将通过健康检查接口判断容器状态,对应用服务进行状态放弃。 · 已实现状态内部化,实现利用实例无状态化利用状态信息存储于数据库或缓存等内部零碎,利用实例自身实现无状态化。 · 不波及底层的操作系统依赖及简单的网络通信机制利用以解决业务为主,不强依赖于底层操作系统及组播等网络通信机制以进步可移植性。 · 部署交付件不宜过大,倡议在2G以内轻量级的利用便于在大规模集群中疾速传输散发,更合乎容器轻量麻利的理念。 · 启动工夫不宜过长,倡议在5分钟以内过长的启动工夫将不能施展容器麻利的个性,这部分利用往往因为过重而须要革新。 您是否曾经筹备好进行容器化革新?如您有更多利用容器化革新需要,点击此处即可与灵雀云工程师独特布局探讨利用容器化革新最佳实际,具体理解灵雀云如何利用容器帮忙您的企业减速实现降本增效。

August 18, 2022 · 1 min · jiezi

关于云原生:从零搭建云原生技术kubernetesK8S环境通过kubesPhere的AllInOne方式

前言k8s云原生搭建,步骤有点多,但通过kubesphere,能够疾速搭建k8s环境,同时有一个以 Kubernetes 为内核的云原生分布式操作系统-kubesphere,本文将从零开始进行kubePhere3.1.1的装置搭建,采纳了KubeKey,KubeKeyKubeKey 能够将 Kubernetes 和 KubeSphere 一起装置,其余版本大同小异,只是改个版本号而已。 服务器服务器账号明码139.198.22.13root**参考官网文档在 Linux 上以 All-in-One 模式装置 KubeSphere 通过kubekey装置KubeSphere,具体参考 官网配置/README_zh-CN.md 装置前筹备## 敞开防火墙systemctl stop firewalldsystemctl disable firewalldsystemctl status firewalld## 查看并敞开swap分区swapoff -aecho "vm.swappiness=0" >> /etc/sysctl.confsysctl -p /etc/sysctl.confsed -i 's$/dev/mapper/centos-swap$#/dev/mapper/centos-swap$g' /etc/fstab## 查看Selinux状态getenforce## 装置依赖组件yum install -y ebtables socat ipset conntrack## 装置dockeryum install -y yum-utilsyum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo#yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repoyum makecache fastyum -y install docker-ce docker-ce-cli## 启动dockersystemctl enable docker && systemctl start docker## 设置docker镜像加速器cat > /etc/docker/daemon.json <<EOF{ "insecure-registries":["10.8.104.247:5000","git.xcc.com:5000"], "registry-mirrors": ["https://dzhtyzgo.mirror.aliyuncs.com"], "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "storage-driver": "overlay2", "storage-opts": [ "overlay2.override_kernel_check=true" ]}EOF## 重启docker使配置失效#重载配置systemctl daemon-reloadsystemctl restart dockersystemctl status dockerdocker info | grep "Registry Mirrors" -A 1## 查看DNS设置cat /etc/resolv.conf ```shell script#须要时可改为上面dns配置nameserver 114.114.114.114nameserver 8.8.8.8设置kubernetes仓库cat <<EOF > /etc/yum.repos.d/kubernetes.repo[kubernetes]name = Kubernetesbaseurl = http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64enabled = 1gpgcheck = 0repo_gpgcheck = 0gpgkey = http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpgEOFyum makecache fast装置命令#0、放在目录里mkdir -vp /data/kubesphere cd /data/kubesphere #1、下载KubeKeycurl -sfL https://get-kk.kubesphere.io | VERSION=v1.1.1 sh -#2、增加可执行权限chmod +x kk#3、开始装置#装置 KubeSphere v3.1.1 的倡议 Kubernetes 版本:v1.17.9,v1.18.8,v1.19.8 以及 v1.20.4。如果不指定 Kubernetes 版本,KubeKey 将默认装置 Kubernetes v1.19.8。#案例 # ./kk create cluster [--with-kubernetes version] [--with-kubesphere version]#若要同时装置 Kubernetes 和 KubeSphere,可参考以下示例命令:# ./kk create cluster --with-kubernetes v1.20.4 --with-kubesphere v3.1.1./kk create cluster --with-kubernetes v1.18.8 --with-kubesphere v3.1.1#验证装置后果#输入信息会显示 Web 控制台的 IP 地址和端口号,默认的 NodePort 是 30880。当初,您能够应用默认的帐户和明码 (admin/P@88w0rd) 通过 <NodeIP>:30880 拜访控制台。kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l app=ks-install -o jsonpath='{.items[0].metadata.name}') -f输入信息会显示 Web 控制台的 IP 地址和端口号,默认的 NodePort 是 30880。当初,您能够应用默认的帐户和明码 (admin/P@88w0rd) 通过 <NodeIP>:30880 拜访控制台。 ...

August 17, 2022 · 4 min · jiezi

关于云原生:使用Karpenter通过时间切片管理GPU节点

  导语 在机器学习畛域,咱们常常应用 GPU 来减速计算工作负载。但当初的企业和开发者都更热衷于“上云”。有了云计算,应用云服务,用多少付多少,也就能升高经营老本了。 当你领有数十个在不同时间段须要用到 GPU 的应用程序时,怎么以更低成本,怎么更灵便地在云服务器中调度资源,就会变成一件十分重要的事件。  作者介绍 Jina AI 云架构研发工程师陶然 问题 那么,如何优化云服务中 GPU 的应用老本呢?在应用虚拟机时,哪怕你不须要全天候的服务,你也必须继续为所有的设施付费。相比于虚拟机,容器领有更高的资源应用效率,作为容器界的扛把子,kubernetes 提供了弹性的节点缩放形式。 因为我应用的是 Amazon EKS,所以本文抉择了 Karpenter 作为节点缩放器。Karpenter 是一个为 Kubernetes 构建的开源主动扩缩容我的项目,你能够通过此 文档[1] 理解更多对于 Karpenter 的信息。 想要治理多个 GPU 节点,还须要用到 NVIDIA 的 k8s 插件[2]。这是一个 Daemonset(守护过程),提供了以下自动化的性能: • 公开集群每个节点上的 GPU 数量• 实时追踪 GPU 的运行状况• 在 Kubernetes 集群中运行启用 GPU 的容器除此之外,它还反对 工夫切片[3],使得用户能够在 Pod (Kubernetes 的最小调度对象)之间共享 GPU,从而节省成本。 Karpenter 自身也为节点提供了主动缩放性能,也就是说,只有在须要算力时,才会创立 GPU 实例,并且能够依据理论需要批改利用实例的调度规定。除了降低成本之外,也能更灵便地把 GPU 资源调度到 kubernetes 集群中的应用程序。 架构 基础架构 组件这个架构非常简单易懂:应用程序抉择了一个带有选择器(selector)的 karpenter 制备器(provisioner),接着,karpenter 制备器依据启动模板创立节点。 部署 接下来最重要的问题是如何去部署它,仍有一些细节须要思考分明: • 如何将 NVIDIA k8s 插件部署到仅有 GPU 的节点• 如何配置共享的 GPU 节点以应用工夫切片,而不影响其余节点• 如何在启动模板中自动更新节点 AMI,以便节点能够应用最新的镜像• 如何设置 karpenter 制备器上面我将逐个解说。 ...

August 16, 2022 · 2 min · jiezi

关于云原生:微服务性能分析|Pyroscope-在-Rainbond-上的实践分享

随着微服务体系在生产环境落地,也会随同着一些问题呈现,比方流量过大造成某个微服务应用程序的性能瓶颈、CPU利用率高、或内存透露等问题。要找到问题的根本原因,咱们通常都会通过日志、过程再联合代码去判断根本原因。对于微服务宏大的业务,这必定会很耗时,而且也很难及时找到关键问题点。 本文将介绍一个 继续性能剖析平台 Pyroscope,它可能帮忙咱们疾速找到内存透露、CPU利用率高的代码。 什么是 Pyroscope?Pyroscope 是一个开源的继续性能剖析平台。它可能帮你: 查找代码中的性能问题解决 CPU 利用率高的问题定位并修复内存透露理解应用程序的调用树跟踪随工夫的变动Pyroscope 能够存储来自多个应用程序长期的剖析数据;能够一次查看多年的数据或独自查看特定的事件;较低的 CPU 应用;数据压缩效率高,磁盘空间要求低;快捷的 UI 界面; Pyroscope 架构Pyroscope 由两个次要组件撑持运行:Pyroscope Server 和 Pyroscope Agent。 Pyroscope Agent:记录并汇总您的应用程序始终在执行的操作,而后将该数据发送到 Pyroscope Server。反对多种语言,GO、Python、Ruby、eBPF、JAVA、Rust、PHP、NodeJS、.NET Pyroscope Server: 解决、聚合和存储来自代理的数据,以便在任何工夫范畴内疾速查问。片刻后能够查看剖析数据,并在任何工夫范畴内进行查问。 与 Rainbond 集成架构 1.集成 Pyroscope Agent: 应用 Rainbond 插件的机制在微服务组件内装置 Pyroscope Agent 插件,该插件会将 pyroscope.jar 通过 javaagent 形式启动 java -javaagent:pyroscope.jar -jar app.jar 2.依赖 Pyroscope Server: 将装置了 Pyroscope Agent 插件微服务组件都依赖至 Pyroscope Server。 实际步骤本文将基于微服务框架 Pig 进行实际,步骤为: 部署微服务 Spring Cloud Pig,Gitee:https://gitee.com/log4j/pig部署 Pyroscope Server装置 Pyroscope Java Agent 插件并配置建设微服务与 Pyroscope 之间的依赖关系Pyroscope 根本应用Rainbond 部署请参阅文档 疾速装置 ...

August 16, 2022 · 1 min · jiezi

关于云原生:培训预告-企业应用现代化实用教程微服务治理与开发篇

8月18日,灵雀云《企业应用现代化实用教程》系列培训课程第三期——微服务治理与开发篇 行将开讲,欢送报名加入! 为什么企业须要微服务?在新型互联网业务模式的一直冲击下,为满足用户层出不穷的多元化需要,企业业务利用的性能、模式、终端越来越丰盛,传统的繁多架构曾经无奈满足日益变动的新兴利用。 繁多架构模式在我的项目初期很小的时候开发不便,测试不便,部署不便,运行良好。可是当利用随着工夫的推动,退出的性能越来越多,最终会变得微小,一个我的项目中很有可能数百万行的代码,相互之间繁琐的jar包。 只有向微服务架构转型,才可能疾速实现独立更新和部署利用,而无需浪费时间在简直重造整个车轮,晋升企业的麻利开发、疾速迭代能力,减速业务的继续翻新。 为此,灵雀云特地推出了《微服务治理与开发》培训课程,将由资深行业专家为您教学企业如何进行微服务架构革新,晋升利用的治理与开发程度,麻利、牢靠、高效地实现利用现代化转型。 培训直播预报培训课程《微服务治理与开发》 课程简介本期课程为企业级微服务开发与治理的专项技能晋升课程。学员将从本期课程中理解,什么是微服务利用、常见微服务架构、微服务开发与治理,以及如何与Kubernetes容器等现代化云原生技术联合应用。 培训工夫2022年8月18日(星期四)13:30~16:30 培训模式线上直播 适用人群参加企业级微服务架构革新的开发、运维及相干人员 课程纲要 报名形式点击此处或扫描上方海报二维码,立刻报名加入!与资深微服务专家线上交换,还有机会取得一对一实际领导哦!

August 11, 2022 · 1 min · jiezi

关于云原生:四个基础步骤完成企业的-FinOps-规划

本文译自 Four Steps to Avoiding a Cloud Cost Incident。作者:ASIM RAZZAQ最近的《Flexera 2022 云计算情况报告》中指出,企业在云计算成本的节约上,达到了 32%,高于去年的 30%。如果不及时发现和纠正,会产生更加微小的财务影响。 随着企业的云基础设施的成熟,将云资源应用和老本精确映射到产品线、团队和业务部门变得越来越简单,问题也越来越多。然而,精确的云成本计算,对于团队资源应用和确定销售老本 (COGS) 利润率至关重要,对于企业拟定估算也必不可少。企业须要更加牢靠的、精密的云老本视图,以便将老本归结到各部门,并在更有意义的业务上减少估算。 云计算成本的激增会迅速耗费企业的估算,而且很难追踪,本文将介绍几个简略的步骤来帮忙企业免受云计算成本事件的影响。 制订强有力的标签策略,对老本进行细化归属首先,IT 团队须要确定哪些服务对业务有促进作用,这将有助于定义和创立标签策略。 例如,当组织中有两个团队治理同一服务时,这些团队应该爱护带有团队老本标签的服务。此外,团队应该为他们运行的环境增加另一个标签,以便他们能够跨团队和环境之间调配云老本。 当应用程序应用大量资源(如数据库和存储)时,团队应思考增加特定的应用程序标签并按每个应用程序合成老本。须要留神的是,没有一个放之四海而皆准的标签解决方案,因而企业须要确定什么是无效的,而后通过增加和删除标签来尝试不同的策略。 理解云老本所有权以防止凌乱企业在将云计算成本纳入团队、应用程序或 COGS 方面做得好不好,能够间接归咎于云老本与业务之间关系的重要信息。 因为不足这种背景或对资源分配的可见性,使得 IT 团队和领导无奈就谁负责各种费用和资源达成统一。人工成本归属不能精确扩大,也不能思考到跨团队和利用之间的共享集群资源应用。这就造成了凌乱,当用户任意切割数据而没有明确责任时,这种凌乱就会降级。 还有一些状况是,老本有时会被反复计算,有两个所有者,甚至齐全没有所有者。由此产生的数据是不牢靠的。这就无奈将资源应用状况可视化,也会减弱、妨碍甚至击败老本改良措施和优化。 云计算成本应该有一个所有者,可能确保云计算收入与商业价值挂钩。理解谁领有哪些局部资源,将有助于找出起因。 建设和监控云估算云计算收入的历史数据是重要的,它能够帮忙预测和估算云计算的老本脚印应该产生的事件。如果没有产生这种状况,那么应该对其进行标记和考察。 一旦把握了老本数据,企业就能够精确理解云计算收入的状况。然而,这是否合乎收入的预期呢?通过在我的项目的每个阶段建设和监控估算,企业能够为云计算收入设置护栏,避免工程师在 "以防万一 "的状况下适度调配性能而导致老本飙升,失去管制。一旦估算到位,企业就能够监控收入并调整资源规模以均衡理论应用状况,而不是在执行开始时预计应用状况。 随着工夫的推移,适当调整资源规模将实现最佳收入,并确定能够敞开的未应用的资源。企业应辨认不再须要的开发和测试实例,并将其敞开。 施行老本异样检测企业能够通过继续监控和优化云计算成本来爱护本人免受老本异样的影响。老本异样检测能够帮忙在它们成为问题之前尽早辨认。当资源所有者的预测超出设定估算时,能够通过 Slack 或电子邮件间接向资源所有者发送及时、可操作的警报,这一点尤其无效。最好的抉择是采纳云老本监控和优化 (CCMO) 工具,在产生老本异样时实时收回警报。这些工具必须可能检测异样并剖析其根本原因,同时还能够查看问题所在,以防止将来呈现相似的谬误。 为动静云环境执行继续老本监控和异样检测工具,对于辨认与预期收入不统一或偏离既定模式的流动至关重要。通过适当的监控,企业能够在事先采取纠正措施。 不须要的和意外的老本事件会耗费企业的估算,特地是在云基础设施增长的时候。企业须要实际这些步骤,以理解云环境的全貌。 云原生技术社区有20+技术交换群,想进群跟技术大牛们聊天,或退出志愿者队伍,请加我微信:

August 10, 2022 · 1 min · jiezi

关于云原生:如何治理资源浪费百度云原生成本优化最佳实践

导读:麦肯锡在调查报告中指出,2020年,因为不足老本优化伎俩,80%企业的云资源老本大幅超出预算;同时,45%的企业因为不足优化措施,在间接迁徙上云的过程中会超买55%的资源,并且在上云的头18个月会多花70%的费用。随着寰球经济继续上行,企业应该如何做好精细化经营和降本增效,如何优化云资源的调配、应用和治理成为了当下必须要思考的问题。本文将会具体介绍百度的云原生老本优化体系并重点阐释对老本优化起到关键作用的混部和超卖技术,最初介绍如何保障资源资源利用率晋升之后的稳定性,心愿能给企业的云原生转型提供教训借鉴。 全文5476字,预计浏览工夫16分钟。 从上面两张图中能够看出企业在云原生转型过程中面临 K8S 采用率逐年晋升但资源老本却一直飙升的矛盾。 右边图片来源于《2020年 CNCF 中国云原生调查报告》,图中显示生产零碎中应用 Kubernetes 的比例已从 2019 年的 72% 增长到了 82%,越来越多的企业在云上应用基础设施资源、通过 Kubernetes 平台来治理利用。左边图片来源于CNCF《FinOpsKubernetes Report》,报告中指出云原生导致资源成本增加,迁徙至 Kubernetes 平台后,68% 的受访者示意所在企业计算资源老本有所增加,36% 的受访者示意老本飙升超过20% 为什么会呈现这个矛盾?其实,企业在云原生转型过程中次要面临三个艰难: 老本治理艰难:K8S 的弹性帮忙了业务疾速整张,但也带来了计费、分账治理上的艰难。因为 K8S 的 Pod 迁移性比拟强,比照传统的 Agent 部署模式,Pod 可能会在各个节点上漂移。多集群场景下,也可能在集群之间漂移老本优化难:弹性、潮汐、混部超发、预留实例、竞价实例,伎俩很多,但须要投入人力来对这些伎俩精心搭配资源利用率低:给业务调配的资源过大,理论应用的资源过小,企业的 CPU 资源利用率广泛低于15%这些艰难就导致了企业的资源老本无奈无效管制。百度借助当下风行的 FinOps 理念,联合外部多年的实践经验发现:能够从老本洞察、老本优化以及老本经营三个方面造成闭环,对上述艰难各个击破。 01 老本优化施行门路1.1 老本洞察计划 在 K8S 平台做老本洞察,根本会按以下三个方向进行: 可视化的资源追踪:对集群,节点维度的资源变动做追踪利用级别的用量剖析:对用用做 Pod 级别分配率核算;统计不同的 Namespace 和Label 对应相不同的业务和业务线,向上聚合产出报表利用率统计:对多资源维度的分配率、利用率进行统计。比方 CPU、Memory、GPU、磁盘等数据。1.2 老本优化计划 节约的根因次要是因为业务申请的资源过大,理论应用的资源过小,整体利用率不高,并且业务本身存在波峰波谷且申请时个别会依照波峰申请。同时,如果企业有在线业务也有离线业务的话,会存在在离线分池,技术栈不对立、资源池不对立的问题。 老本优化次要伎俩波及资源优化和利用优化两个层面: 资源优化:预留套餐互转,通过资源画像检测出的保底资源,由后付费转为包年包月应用弹性扩缩容,应用竞价实例,潮汐实例反对有打算的资源申请,应用 Serverless实例反对突发流量个别云上企业的资源由包年包月和后付费两种形式组成,通过老本洞察做剖析和统计,而后通过老本经营做举荐和具体的施行,最终把它转化成下图右侧的金字塔形态的资源分层。 最保底的资源采纳包年包月的模式,每日打算的资源通过弹性(竞价)实例以及潮汐实例去做中间层资源的满足,突发的状况应用 Serverless Pod 满足。 利用(利用率)优化: 百度外部通过多年的教训积攒,总结出了一条残缺的利用优化门路。比方有一个规范的在线集群,首先会通过资源画像去梳理在线业务的品质,经7-14天的梳理周期给出利用的利用率的预估进而做对应的配额进行举荐,如果业务方配合利用配额缩减之后广泛会节约20%的老本,这个办法的落地难度为中等。 如果对节点利用率做预估配合在线超卖,也就是节点不变,通过放大节点下面的一个资源的总量晋升集群的总容量,最终成果就是用固定的节点去承载更多的在线业务,广泛会缩小30%的老本,这个办法较容易落地。 最初是在离线合池的办法,在线业务和离线业务个别都是由大数据等重吞吐不重时延的业务组成,通过在离线工作混部,在百度外部 CPU 利用率能够从20%进步到40%,广泛缩小30%的老本,当然它的技术难度和落地老本也比拟大。 1.3 老本经营计划 上图是咱们的老本平台示意图,老本管控平台蕴含了传统的账单\权限,估算\布局,需要安顿,老本优化等内容。 产品能力次要针对售卖依照品质分级给出不同计费模式,按品质分为独占型、共享型和抢占型。针对某些业务的非凡需要如敏感、窃密等需要,能够通过独占集群形式或者是独占节点形式进行部署。 ...

August 9, 2022 · 2 min · jiezi

关于云原生:揭秘5名运维如何轻松管理数亿级流量系统

随着国务院《对于放慢国有企业数字化转型工作的告诉》等一系列政策的相继出台,企业的数字化转型有了更为明确的领导方向。对于央国企而言,采纳云原生技术减速“上云用数赋智”曾经成为必然趋势。 然而,采纳云原生只是第一步,企业仍然面临着IT架构设计、利用容器化革新、DevOps施行、微服务迁徙等诸多理论转型问题,如何充分利用云原生技术的价值、享受到更大的技术红利呢?为此,咱们精选了国内头部央国企云原生转型的先锋实际案例、落地调研报告、以及实用转型指南,为您企业的云原生转型提供无力参考。 《央国企云原生技术实际案例汇编》看出名头部国有企业云原生转型胜利路线《2022传统行业云原生技术落地调研报告—央国企篇》中指出,超95%的受访央国企曾经思考或正在应用云原生技术。当应用云原生技术成为必答题之后,如何充分发挥云原生技术的劣势、真正将减速数字化转型落到理论场景中,又成为了企业所面临的新的挑战。 本书整顿了运营商、制作、地产等企业的云原生技术实际案例,为央国企云原生革新门路和落地成绩提供参考撑持,心愿您能够从中取得启发。 下载报告: 与此同时,为继续推动国有企业云原生转型步调、减速国有企业转型过程,本文还汇总了《2022传统行业云原生技术落地调研——央国企篇》和《2022央国企云原生落地实用指南》等最新央国企云原生转型参考书,也将一起分享给您,为您企业的云原生转型之路提供更多行业前沿资讯与解决方案。 《2022传统行业云原生技术落地调研——央国企篇》让央国企云原生转型有据可依、有例可参近日,为积极响应十四五倒退布局、减速推动“上云用数赋智”口头,云原生技术实际联盟(CNBPA)联结云原生技术社区,以及灵雀云、华云等云原生技术厂商,独特公布了《第四期(2021-2022)传统行业云原生技术落地调研报告——央国企篇》,从IT估算、利用架构、技术选型、转型功效等方面进行了系统分析和深刻解读,帮忙您全面理解以后央国企云原生的利用现状及落地成熟度,让央国企云原生转型有据可依、有例可参,减速买通央国企数字化转型的“最初一公里”。 【要害发现】· 在数字化转型倒退策略和疫情的影响下,央国企IT估算不减反增· 混合多云、分布式云、边缘计算技术日趋成熟,场景日益丰盛· 自主可控迎来新机遇,一云多芯、双架形成最佳过渡门路· 超95%的受访央国企曾经思考或正在应用容器、DevOps、微服务等云原生技术 下载报告: 《2022央国企云原生落地实用指南》深入探讨各行业云原生转型实战方法论近日,云原生技术实际联盟联结灵雀云,独特公布《2022央国企云原生落地实用指南》,指南聚焦国有企业不同畛域不同阶段的云原生转型理论痛点及解决方案,会集丰盛技术实际干货,笼罩金融、工业、交通、医疗、教育等各行业实战方法论和先锋实际案例,深入探讨企业云原生转型胜利门路,心愿能对企业云原生转型有所裨益,为数字经济蓬勃发展装上助推器。 下载报告: 点击此处,立刻定制属于你的云原生解决方案!

August 3, 2022 · 1 min · jiezi

关于云原生:2022-Cloud-Native-Computing代表厂商-灵雀云第三次入选Gartner中国ICT技术成熟度曲线报告

近日,寰球权威征询剖析机构Gartner公布了“2022中国ICT技术成熟度曲线(Hype Cycle for ICT in China, 2022)”报告,灵雀云(Alauda.io)间断三年入选,并进入首次公布的中国云原生计算代表性厂商(sample vendor)名单。 《中国ICT技术成熟度曲线报告》面向中国CIO公布,涵盖了20项ICT新兴技术和实际,是企业IT高管把握最新技术,制订企业数字化策略的重要风向标。报告中的Gartner Hype Cycle代表性厂商(sample vendor)名单,甄选技术当先、领有成熟计划、能够为用户发明价值的厂商,已成为企业IT高管在特定技术畛域抉择技术合作伙伴的重要依据。2020年,容器作为新兴云服务呈现于中国ICT技术成熟度曲线报告,灵雀云凭借过硬的技术实力、弱小的产品和客户服务能力,间断入选2020,2021CaaS容器云代表厂商名单。 2020年CaaS代表厂商 2021年CaaS代表厂商 2022年Cloud Native Computing代表厂商 往年,Gartner以容器为代表的云原生技术栈为对象,公布了全新的中国云原生计算云服务代表性厂商(sample vendor)名单,此项扭转,间接反馈了云原生技术与商业反对在中国落地的成熟度,建设具备全栈能力的云原生平台,已成为先进企业数字化转型的最佳门路。灵雀云的再度入选,也标记着其对容器、云原生技术栈的前瞻摸索、对客户场景需要的敏锐把握,失去市场和权威机构的认可。 Gartner在报告中指出,企业拥抱云原生的次要驱动力,是对“从云中取得最大利益”的渴望。因为越来越多的CIO们意识到了云原生在生产力和敏捷性方面的劣势,包含减速和简化应用程序生命周期的能力,不同环境之间工作负载的可移植性,以及改善资源利用效率等,更深刻地采纳容器、微服务等云原生技术成为了数字化优先企业的共识。 CNBPA在日前公布的调研报告中也发现,超95%的受访企业曾经思考或正在应用云原生技术。微服务、现代化架构和麻利开发方法须要新的专业知识和新的技术/工具,如容器、基础设施自动化、CI/CD和业余经营能力,而这正是云原生技术能带给企业的微小红利。 同时,Gartner还在钻研中发现,决定采纳云原生往往只是个开始,因为总领有老本(TCO)、解决方案的性能和安全性、企业的经营情况、业务敏捷性,以及适应分布式团队等起因,当今企业更偏向于采纳一站式云原生解决方案,使得企业可能在更大程度上享受云原生所能发明的潜在价值。 为了反对数字竞争力的倒退,中国的企业正在向可组合架构转型,这进一步推动了对云原生的采纳,特地是在容器和CI/CD方面,企业可能通过云原生疾速进步业务灵活性和产品上市速度,晋升麻利经营能力。 灵雀云作为企业数字化转型中重要的云原生合伙搭档,在云原生畛域深耕多年,基于当先的容器技术及丰盛的落地实践经验,打造了新一代以Kubernetes为外围的企业级云原生全栈公有云平台ACP,笼罩企业业务利用全生命周期,反对灵便自定义各类基础设施,帮忙企业减速构建、运行及治理现代化利用,发明更大的业务价值。也因而,灵雀云已成为以后备受企业青眼的云原生技术厂商。 将来,灵雀云将继续打磨产品,以一体全栈、开箱即用的云原生技术,为更多数字化优先企业提供麻利、牢靠、高效的云原生反对,为企业数字化转型减速。

August 3, 2022 · 1 min · jiezi

关于云原生:Docker把存储占满了怎么办教你两个秘籍通过prune或迁移overlay2

前言大家好,我是奇想派,一名致力分享,誓要成为编程达人的程序员。 很多开发敌人,在应用docker的时候,常常下载镜像,镜像打标签,而后不清理无用的镜像,长此以往,docker就会把宿主机的磁盘空间占满,这个时候要怎么办?教你两个秘籍,通过docker自带的prune命令或者迁徙docker下的overlay2文件夹。 不懂怎么操作?那就跟着奇想派进行实操吧! 办法1:清理docker空间,通过prune1、命令查看磁盘应用状况。du -hs /var/lib/docker/ 2、清理docker磁盘#相似于Linux上的df命令,用于查看Docker的磁盘应用状况:docker system df#能够用于清理磁盘,删除敞开的容器、无用的数据卷和网络,以及dangling镜像(即无tag的镜像)。 docker system prune#清理得更加彻底,能够将没有容器应用Docker镜像都删掉。留神,这两个命令会把你临时敞开的容器,以及临时没有用到的Docker镜像都删掉了…#所以应用之前肯定要想分明.。我没用过,因为会清理 没有开启的 Docker 镜像。docker system prune -a#docker system df -v 命令能够进一步查看空间占用细节,以确定是哪个镜像、容器或本地卷占用过高空间docker system df -v 主动清理命令docker system prune 可对空间进行主动清理。该命令所清理的对象如下:已进行的容器未被任何容器应用的卷未被任何容器所关联的网络所有悬空的镜像对于下面提到的一些镜像或容器的状态,须要咱们心里有点数:已应用的镜像:指所有已被容器(包含stop的)关联的镜像,也就是docker ps -a所看到的所有容器对应的image。未援用镜像:没有被调配或应用在容器中的镜像悬空镜像(dangling image):未配置任何Tag(也就是无奈被援用)的镜像。通常是因为镜像编译过程中未指定-t参数配置Tag导致的。docker system prune后能够加额定的参数,如:docker system prune -a : 一并革除所有未被应用的镜像和悬空镜像。docker system prune -f : 用以强制删除,不提示信息。另外除了system级别的,还有针对容器或是镜像级别的删除命令:docker image prune:删除悬空的镜像。docker container prune:删除无用的容器。 --默认状况下docker container prune命令会清理掉所有处于stopped状态的容器 --如果不想那么仁慈通通都删掉,也能够应用--filter标记来筛选出不心愿被清理掉的容器。例子:革除掉所有停掉的容器,但24内创立的除外: --$ docker container prune --filter "until=24h" docker volume prune:删除无用的卷。docker network prune:删除无用的网络手动革除对于悬空镜像和未应用镜像能够应用手动进行个别删除:1、删除所有悬空镜像,不删除未应用镜像:docker rmi $(docker images -f "dangling=true" -q)2、删除所有未应用镜像和悬空镜像docker rmi $(docker images -q)3、清理卷如果卷占用空间过高,能够革除一些不应用的卷,包含一些未被任何容器调用的卷(-v 详细信息中若显示 LINKS = 0,则是未被调用):删除所有未被容器援用的卷:docker volume rm $(docker volume ls -qf dangling=true)4、容器清理如果发现是容器占用过高的空间,能够手动删除一些:删除所有已退出的容器:docker rm -v $(docker ps -aq -f status=exited)删除所有状态为dead的容器docker rm -v $(docker ps -aq -f status=dead)办法2:迁徙 /var/lib/docker 目录/var/lib/docker/overlay2 占用很大,清理Docker占用的磁盘空间,迁徙 /var/lib/docker 目录。 ...

July 30, 2022 · 1 min · jiezi

关于云原生:一文了解-Rainbond-云原生应用管理平台

Rainbond 是一个云原生利用治理平台,应用简略,不须要懂容器、Kubernetes和底层简单技术,反对治理多个Kubernetes集群,和治理企业应用全生命周期。遵循 以利用为核心 的设计理念,对立封装容器、Kubernetes和底层基础设施相干技术,让使用者专一于业务自身, 防止在业务以外技术上破费大量学习和治理精力。同时,Rainbond 深度整合利用开发、微服务架构、利用交付、利用运维、资源管理,治理高度自动化,实现对立治理所有利用、所有基础设施和所有IT流程。 开发平台Rainbond 作为开发平台,本身的一些性能亮点能够使开发者关注于业务代码,无需关注利用部署。 源码一键部署源码一键部署,只需填写代码仓库地址,Rainbond 会自动识别我的项目语言,让传统利用不须要改变或大量改变就能疾速变成云原生利用。 辨认策略:Java 我的项目根目录存在 Pom.xml,其余语言相似。 反对多种语言,例如:Java、Python、PHP、.NetCore、Go、NodeJS、Dockerfile等。 微服务编排Rainbond 反对多种 Service Mesh,例如:内置的 Service Mesh、基于 Istio 的 Service Mesh。在 Rainbond 拓扑图通过利落拽即可实现微服务编排。 服务之间通过 127.0.0.1:8080 拜访,例如:A 服务依赖 B,A 服务会向 B 服务 注入IP:PORT 127.0.0.1:8080。 利用复制多套环境搭建始终是比拟头疼的事件,在 Rainbond 上能够通过 利用疾速复制 性能,把咱们在 Rainbond 上搭建好的环境,很轻松的一键式复制出多套环境 1 -> N。利用复制会将曾经配置的 环境变量 配置文件 依赖关系 等齐全复制。 利用、组件治理Rainbond 反对对利用、组件的全生命周期治理。蕴含 启停、重启、滚动更新、版本回滚等。 敞开组件、利用是 Rainbond 的一个亮点,当咱们的利用或某个服务临时不应用时,能够敞开该服务或利用,将资源开释,须要时一键启动即可。Rainbond 反对对单个组件进行版本回滚,当某个服务上线呈现问题时,一键回滚将服务恢复正常。日志收集:Rainbond 会收集每个服务的日志并展现在组件视图内,不便用户排查定位问题,并默认存储7天内的日志。 组件伸缩:一键调整组件的 CPU、内存,也可设置主动伸缩策略。 环境配置:通过图形化界面配置组件的 环境变量 配置文件,也可将其余组件的配置文件共享到该组件中。 存储:增加组件的 长久化存储,Rainbond 会主动创立 PVC PV 。 ...

July 28, 2022 · 2 min · jiezi

关于云原生:云原生机器学习落地难灵雀云助力企业快速应用-MLOps

灵雀云企业级MLOps解决方案帮忙企业从开发运维全流程降本增效,疾速实现云原生时代的MLOps。 作为 AI 时代的 DevOps,MLOps 助力于减速企业从数字化转型到大数据转型再到智能化转型的产业降级过程,为企业积淀行业特有的 AI 模型、AI 利用提供工具链保障。随着 Kubernetes 的利用暴发,企业也踊跃投身建设基于 Kubernetes 的 AI 平台,充分利用 K8s 生态提供的资源管理、利用编排、运维监控能力。 然而,企业在间接应用风行的开源 MLOps 软件如 Kubeflow[1] , MLflow[2] 等,通常须要耗费较大的调研、部署、运维、利用迁徙、利用适配等老本。灵雀云 MLOps 以及其开源版本 kubeflow-chart[3],致力于极大水平地升高企业应用 MLOps 的老本,在 Kubeflow 的根底上,集成 MLFlow,SQLFlow, kfpdist,elyra 等工具,补充 Kubeflow 难以利用之处,构建残缺的 MLOps 开源解决方案。 企业级云原生机器学习落地妨碍重重关注云原生机器学习的敌人对 Kubeflow 必不会生疏。Kubeflow 是基于容器和 Kubernetes 构建,提供面向机器学习业务的麻利部署、开发、训练、公布和治理平台,通过集成开源生态中越来越多的我的项目,如 Jupyter, Knative, Seldon Core 等,搭建了机器学习利用从开发到上线到迭代的生命周期内的工具链,解决企业应用机器学习中遇到的和 DevOps 相似的工具链的困扰,因而,Kubeflow 也成为了以后云原生场景下支流的 MLOPS 平台。 然而,有了 Kubeflow,是不是在 Kubernetes 上一下子搞定机器学习、深度学习呢?事实并没有那么简略。据理解,很多企业对于 Kubeflow 调研和尝试也多以失败告终。Kubeflow 目前存在以下诸多问题导致企业间接应用 Kubeflow 利用 MLOps 颇为艰难: Kubeflow 部署简单、艰难Kubeflow 蕴含组件繁多,依赖简单,运维排错消耗人力Kubeflow 许多性能易用性差,企业 AI 利用开发、迁徙艰难Kubeflow 没有中文反对首先,部署 Kubeflow 残缺平台,须要部署大量的依赖和组件。社区提供的装置办法为应用 Kustomize 命令,并应用仓库https://github.com/kubeflow/m... 中的层叠式 (overlayed) YAML 配置文件实现装置。当开发者须要批改某一具体配置项时,须要从宏大的 YAML 文件中寻找配置项地位,并建设新的 YAML 文件实现层叠式笼罩,十分繁琐与不便。 ...

July 28, 2022 · 1 min · jiezi

关于云原生:我们被一个-kong-的性能-bug-折腾了一个通宵

故事背景在 Erda 的技术架构中,咱们应用了 kong 作为 API 网关的技术选型。因其具备高并发低延时的个性,同时联合了 Kubernetes Ingress Controller,基于云原生的申明式配置形式,可能实现丰盛的 API 策略。 在咱们最早交付的集群中,kong 还是较为晚期的 0.14 版本,随着业务层面对平安的要求日益趋增,咱们须要基于 kong 实现平安插件,帮忙零碎可能具备更好的平安能力。因为较为晚期的 0.14 版本不能应用 go-pluginserver 来扩大 kong 的插件机制,咱们不得不在古老的集群中将 kong 降级为绝对较新的 2.2.0 版本。 降级过程就不在此赘述了,根本就是照着官网文档一步步顺利的降级下来,然而在降级下来之后的几天里,咱们的 SRE 团队收到了十分密集的征询甚至是声讨,部署在该集群上的业务间歇性的无法访问,提早十分高。 一系列失败的尝试参数调优最开始为了疾速修复这个问题,咱们对 kong 的 NGINX_WORKER_PROCESSES、MEM_CACHE_SIZE、 DB_UPDATE_FREQUENCY、WORKER_STATE_UPDATE_FREQUENCY 参数以及 postgres 的 work_mem、 share_buffers 都进行了适当的调优。 然而,没有任何成果 。 清理数据因为这个集群的历史起因,会频繁的注册或者删除 api 数据,因而集群中累计了大概 5 万多条 route 或者 service 数据。 咱们狐疑是数据里量大导致的性能降落,于是联合 erda 中的数据对 kong 中的历史数据进行删除,在删除的过程中呈现的删除较慢并且同时 kong 的性能急剧下降的景象。 重复测试了几次后咱们确定了 「只有调用 admin 的接口导致 kong 性能降落」 这一论断,跟社区的这个问题十分类似,链接如下: https://github.com/Kong/kong/... kong 实例的读写拆散确定了是 admin 接口的起因后,咱们决定将 admin 跟业务的 kong 实例离开,心愿 admin 的调用不会影响到业务的失常流量拜访,期待达到 kong 的 admin 接口慢就慢吧,然而不要影响业务的拜访性能。 ...

July 26, 2022 · 2 min · jiezi

关于云原生:阿里云可观测-6-月产品动态

July 26, 2022 · 0 min · jiezi

关于云原生:系列文章|云原生时代下微服务架构进阶之路-Boris

通过本篇文章您能够理解到以下内容: 回顾Boris历史、由来Boris具体实施流程Boris的具体例子总结回顾首先让咱们做一个简略的回顾: 在上一篇文章中咱们谈到了Event Storming,咱们理解到,Event Storming是一个入手实际的过程,这个过程须要咱们的领域专家以及技术人员一起参加,应用简略的工具(例如贴纸、白板、笔等)通过对事件的形容,流程的梳理,咱们逐渐理解到了整个零碎的业务流程(Business Flow),随着Event Storming的实现,咱们也初步通晓了整个零碎包含多少个微服务。 至此,进一步思考,咱们可能会面临以下问题: 每个微服务彼此交互的形式是怎么的?微服务与内部零碎交互方式是怎么的?整个零碎全局的拓扑图是怎么的?那么带着这些问题让咱们来开始明天的主题Boris。Boris历史、由来首先咱们来看下什么是Boris英文:Identify relationships between services in a complex system to reveal the notional target system architecture and record them using SNAP 中文:确定简单零碎中服务之间的关系,以揭示概念上的指标零碎体系架构,并且应用SNAP进行记录。(这里提到的SNAP我会在下一篇文章中向大家介绍) 如果用一句绝对文言的形式去解释Boris,能够了解为Boris形容了整个零碎微服务以及微服务与内部零碎的关系和交互方式。 Boris是由Pivotal(现曾经回归到VMware)的Shaun Anderson在2016年创造的,下图向您展示了一个实在场景下Boris的样子。 大家不难看出,Boris整个样子和蜘蛛网很类似,这也是它名字的起源,其实Boris的名字是以一首歌曲的名字来进行命名的,歌曲的名字叫做“Boris the Spider”。 至此置信大家对Boris有了一个初步的理解,接下来让咱们来看看Boris具体实施的流程是怎么的。 Boris具体实施流程 WHEN什么时候才会进入Boris阶段?Event Storming的产出物即是若干个微服务,当咱们实现Event Storming当前,能够采纳Boris将这些微服务之间的交互进行建模和梳理。从而能够对简单的零碎进行剖析并且理解整个运作模式。 WHY为什么要进行Boris?咱们通过实现Event Storming,能够很好的拆分出微服务,然而此时对微服务之间的交互,关系等并没有一个全局的视图进行表白。通过Boris(例如每个微服务之间是怎么交互的,是同步还是异步,内部零碎又有多少,它们与微服务之间的关系又是怎么的等)能够帮忙咱们了解零碎全局的拓扑。 WHAT想要实现Boris,咱们须要进行哪些筹备? Event Storming的产出物(若干个微服务)会议室(较大的凋谢空间),用于技术人员、领域专家等成员之间的充沛探讨。便签纸(各种色彩,用于代表不同意义,例如Service、Topic等)。笔 (最好每个人一支),用于在便签纸上书写。白板 用于贴便签纸。不同色彩的胶带(用于展示微服务之间的交互方式,例如同步、异步)此外在进行Boris过程中,咱们须要应用不同色彩的贴纸以及胶带,不同色彩代表的含意不同,如下图所示: Service来源于Event Storming,当咱们实现Event Storming后,产出了微服务(这里的微服务并不一定是最终的微服务,咱们能够在Boris或者SNAP中对微服务进行再次拆分以及合并) Topic/Queue应用异步模式下的收发音讯内容。 External System顾名思义,代表内部零碎。Boris不仅仅展示了微服务之间的关系模型,同时也会蕴含微服务与内部零碎关系。 Sync代表微服务之间交互的形式,这里代表的是同步,例如REST Call。 Async代表微服务之间交互方式,这里代表的是异步,例如应用MQ进行音讯的收发。 至此后期筹备都曾经实现,接下来让咱们看下整个流程是怎么的。首先是将Event Storming产出的微服务进行收集,把这些微服务以新的蓝色贴纸形式进行收集,并且粘贴在当时筹备好的白板上。 在收集完所有微服务之后,咱们能够在此基础上进一步摸索。接下来要思考的是每个微服务之间亦或微服务与内部零碎的交互方式(同步的REST Call还是异步的MQ音讯告诉),并且用不同色彩的胶带进行连贯。 在确定微服务之间的交互方式后,例如服务A和服务B的交互方式为REST Call即同步,咱们还须要在此形式上增加对应的命令,对于命令的了解能够认为是GET、UPDATE、DELETE等操作,比方服务A想从服务B获取订单信息,那么对应的命令就是Get Order,咱们能够用贴纸记录下来。须要留神的是,这种命令是存在方向的,因为是服务A从服务B获取,所以对应箭头的形式应该是从A到B。 当咱们实现了下面的三个步骤后,最终造成Boris的样子如下图所示: https://tanzu.vmware.com/deve... Boris的具体例子通过上一章节的介绍,置信大家对Boris中的概念,以及施行流程有了较为清晰的了解。可能有些概念较为艰涩形象,同时Boris自身是以入手实际为主的模式,所以为了更好的加深咱们对整个流程的了解和认知,接下来咱们以上一篇文章中介绍Event Storming例子为根底,即用户注册,再次来回顾下整个流程。 ...

July 25, 2022 · 1 min · jiezi

关于云原生:8-年产品经验我总结了这些持续高效研发实践经验-研发篇

前言:在产研全链路流程上,协同最大的指标就是团队信息的透明化,即在清晰指标的指引下进行团队信息通明的日常研发工作,助力我的项目/产品胜利公布。基于此,研发过程是否卓有成效就成为咱们关注的另一重点因素。通常「研发过程」是指:代码到制品再到部署上线的全链路,这个过程是继续集成的重中之重。 本期次要围绕「研发过程」开展探讨,在具体分享实际之前,笔者想先和大家畅想探讨下,在软件研发全流程中,咱们须要怎么的产品和个性来撑持咱们继续去谋求高效研发(本期次要围绕老本、效力,品质这块后续独自再做剖析)的指标,集体思考了几点内容(局部内容会在注释的实际分享中具体阐明),在此抛个砖让欢送大家一起探讨。 <u>思考一</u> 反对团队把实际和文化通过自定义配置形式积淀。 所有团队成员在应用产品性能的过程中,会耳濡目染依照团队心愿的实际路线进行。一方面,团队的研发是按既定路线进行的,研发效力是可预期的;另一方面,团队新人也能疾速融入到团队开发模式中,疾速融入团队文化。 <u>思考二</u> 在软件研发全链路中,应该具备高度自动化的能力。 研发全链路工作流中的各节点,通过高度自动化的能力,能实现以下指标: 除代码开发和项目管理事项信息录入外,尽量减少登录平台的手动操作;主动精准音讯的推送,借助端的能力,让用户本地异步订阅查看研发和项目管理信息。<u>思考三</u> 弱小且丰盛的端能力。 让研发成员可能在本地沉迷式开发,指标要做到不感知 DevOps 平台存在的状况下,无时无刻不在应用平台能力。 <u>思考四</u> 产品能力和状态应该可能高度自定义化。 想通过一种产品状态去撑持笼罩所有的行业是不事实的,一个 DevOps 平台研发团队,不可能深刻理解相熟各行各业的研发模式,更不可能去定义实际去引领所有行业的研发提效。平台能做和须要做的是:把平台底层根底能力做强、做灵便,让不同业领导者,在高效继续交付的实践疏导下,利用平台丰盛的根底能力和高度自定义配置能力,去构建属于本人行业的研发实际模式,最终通过行业研发实际模式积淀模版的可复制化,助力该行业整体研发效力的晋升。 <u>思考五</u> 平台须要深度联合低代码开发平台,让利用研发变得更简略。 <u>思考六</u> 借助 AI 的能力,辅助晋升用户代码开发、品质、平安、问题定位等利用研发过程效力。 <u>思考七</u> 联合大数据、AI、函数计算等技术个性,让研发效力度量、运维监控等观测能力变得更弱小。 通过私有云或者企业级大数据、AI 和底层云计算能力的对接,让研发效力度量、监控数据统计的老本变得更低;通过函数计算以低成本的形式满足用户对研发效力和监控数据的灵便统计诉求;通过低代码开发平台 + DevOps 平台底层 Tracing、Logs、Metrics + 函数计算 + 数据可视化,让用户可能疾速构建行业最佳实际的监控运维零碎,通过模版能够复制到其余行业用户。言归正传,接下来我将次要从「研发全链路」登程,分享一下 Erda 团队具体的实际过程,心愿能给大家带来新的思考。 基于骨干的开发模式在研发模式方面,Erda 团队采纳的是基于骨干开发模式(Trunk Based Development),绝对于骨干开发模式还有个性分支开发模式(Feature Branch Development),其典型的代表就是 gitflow 模式。两者都是软件届罕用的软件分支模式,各自有着各自的优缺点,抉择适宜本人的才是最重要的。Erda 团队抉择基于骨干开发模式的初衷,是想以继续集成的形式尽快公布版本,以及心愿通过骨干开发模式促成团队成为精英绩效团队。 Erda 团队基于骨干开发的指标: 每日有新代码合入主干,每日实现继续集成、继续测试随时随刻可能提供可公布的版本,个性能够按需紧急公布上线产品个性疾速实现验证,缩小试错老本为了让团队通过骨干开发模式来实现上述的指标,有两个实际要点十分重要: 我的项目协同的高要求:工作拆分(参考迭代事项协同中的工作颗粒度倡议,尽量拆分到 1-2 天)须要足够小驱动 mr 变小,从而能从项目管理上反对产品个性疾速实现验证和试错;研发品质的高要求:个性开发的快,不能是就义品质的快,所以在这个快的前提下,对于合入的个性代码要求就会变的更高,这里的要害就是开发须要确保代码品质,不要想着把品质交给测试团队来保障 (建设自动化流程对规定、规范、标准进行主动查看;单元测试;数据库标准等等)。实际要点剖析后,接下来一起看看具体的实际步骤以及须要怎么的 DevOps 平台工具来撑持。 基于骨干分支的代码研发通过我的项目协同把需要进行工作拆分,研发同学认领工作后即进入开发工作,开发的首要工作就是创立一个个性分支(Feature/ 工作 ID)用于该个性的代码托管。OK,对于团队新成员来说可能动工第一步问题就来了 Feature 的源分支是谁?团队采纳的是骨干分支的开发模式,天然就是从骨干分支(Master)来拉取了,对于相熟团队开发模式的同学来说,基本就不是问题,新同学只有通过培训或者本人去 google 学习一下也就明确了。 团队的实际和文化诚然能够通过治理标准来进行束缚来实现,不过今人也云“堵不如疏”,是否可能把这些实际标准束缚在产品中定义?通过产品性能交互,疏导用户按团队的预约的实际路线进行。Erda 团队就是这样实际的,成果还不错! ...

July 25, 2022 · 1 min · jiezi

关于云原生:终极套娃-20-云原生交付的封装

我总是喜爱一些比喻,这样能够让咱们更加形象地意识事物。 Erda 是一个 PaaS 平台,底层用到的技术已经从 marathon + mesos 切换到当初的 K8s,它们个别被认为是“容器层”。Erda 在“容器层”之上又重叠了 CI/CD Pipeline、集群和部署治理、利用监控、自动化测试等等能力,这样分层的体现十分像网络的分层,每一层各司其职,不过我更喜爱将其比喻为「编程语言」。 封装是为了缩小“失误”一门高阶编程语言领有更合乎人类了解的语法,其通过编译成汇编或者机器码来实现运行,或者是编译成低阶语言再进行二次编译。 与此相似,Erda 通过对“容器层”的封装,对咱们的用户出现了具备“Erda 理念”的功能设计和应用体验。而所谓封装最重要的就是缩小人为的“失误”,就如同高阶语言通过受限和优雅的语法、智能的编译提醒以及丰盛的类库,大大减少开发者的心智累赘,能够轻松地写出强壮的代码。而在其之上的程序设计办法、最佳实际,为高速交付实现提供实践撑持。 何为制品Erda 的身骨是以「利用」为核心打造的,假如 Erda 只能剩下一个性能的话,那就是利用的“交付”。 交付能够非常简单,我称之为“两步走”: 将代码编译成利用安装包在客户要求的环境中装置利用理论的状况会稍显简单,但不会扭转这个外围的步骤,大抵是多几步的问题。 如果要查究细节的话,这两步能够始终向下开展。Erda 做的事件就是让使用者毋庸深究这些细节,就像咱们应用个人电脑观看视频时毋庸晓得编码、传输和解码的过程,也毋庸晓得有损和无损的区别。 当然,做这样的比喻不代表 Erda 无意拦截用户进行深刻探索,相同若懂得底层原理,更可能加深对 Erda 功能设计的了解! 具体而言,Erda 标准了可在云上交付的“软件安装包”格局,这样的安装包咱们称之为“Erda 制品”(下文称之为“制品”),咱们简略列举一下制品的个性,这样大家能够有一个总体的印象: 制品是对 docker 镜像的进一步形象,相似 docker-compose.yml,涵盖了多个镜像(服务)的总体形容,以及相互之间的依赖关系制品是对利用交付环境的申明(结构化、可被零碎辨认的软件装置部署说明书),不仅申明每个镜像服务的资源限度,也可能申明所须要的中间件(比方 mysql)须要补充一下,因为 Erda 是一个多利用架构(外围的主库 erda、前端利用 erda-ui、监控相干的 telegraf、fluentbit 等),所以 Erda 交付的时候是多个利用独特交付,咱们称之为我的项目制品。我的项目制品在蕴含多个利用制品的同时还反对分批部署等个性。 这是 Erda 本人的制品(我的项目制品): Erda 的我的项目制品通过分组蕴含了多个利用制品(erda、erda-ui 等) 制品的 Addons 详情其中 rds 和 MySQL 能够互为替换 咱们聚焦一下 Erda 主利用的制品外部,也就是分组 Group 3 中的 erda 主库的利用制品。 因为 Erda 主利用是微服务架构(多服务),所以咱们能看到一串微服务容器列表: ...

July 25, 2022 · 1 min · jiezi

关于云原生:云原生-SIG-直播关于-cni-与-hybridnet-核心技术分享-第-35-期

「龙蜥大讲堂」第 35 期来啦!本期龙蜥大讲堂邀请了龙蜥云原生 SIG 成员来分享《cni 与 hybridnet 核心技术分享》,快来扫码入群,预约前排小板凳观看直播吧! 直播主题及内容介绍本期主题:cni 与 hybridnet 核心技术分享 直播工夫:2022 年 07 月 21 日 (明天)16:00-17:00 直播内容: hybridnet 是一款面向混合云场景的 Kubernetes 容器网络解决方案。它能够帮忙用户在物理机和虚拟机的异构环境之上,构建一层 underlay + overlay 的对立网络立体。 听众受害:理解 kubernetes 下网络插件 cni 基本原理,以及开源网络插件 hybirdnet 原理,并对 k8s 下网络解决方案有进一步理解。 适宜人群:云原生、容器,网络技术开发者,爱好者。 讲师介绍:龙蜥社区云原生 SIG 成员、阿里云cni 插件 hybridnet 外围维护者 如何加入直播? 钉钉扫描下方海报二维码入群即可加入本次直播。 小龙舒适揭示:本期龙蜥大讲堂直播回放将在直播完结后一周内上线至龙蜥官网(首页-动静-视频)!往期龙蜥大讲堂视频回放已上线至龙蜥官网,欢送观看,有任何疑难欢送随时征询龙蜥助手—小龙(微信:openanolis_assis)。 —— 完 ——

July 21, 2022 · 1 min · jiezi

关于云原生:云原生平台让边缘应用玩出花

7月14日,由云原生计算基金会(CNCF)、KubeEdge社区主办的首届云原生边缘计算峰会在线上召开。会上,天翼云科技有限公司高级研发经理张其栋发表主题演讲,就云边一体云原生平台如何助力边缘利用落地进行了分享。 近年来,互联网流量爆发式增长,带来大量的流量调度业务需要,驱动CDN市场疾速倒退。天翼云于2020年开启CDN产品的规模商用,到目前为止,曾经实现了CDN全产品线的经营,可反对直播减速、点播减速、下载减速、平安减速、全站减速、动态减速以及海内减速等多类业务,精准调度能力处于业界当先水准。 CDN业务的飞速发展,也给其运维带来了微小挑战,搭建对立的利用治理平台势在必行。CDN是典型的云网交融产品,要对数量泛滥、散布扩散广的边缘节点协同治理;CDN外围组件革新简单,关联组件须要协同部署,利用也须要对立治理以实现降本增效;CDN节点高低架须要关联到平台能力及业务组件的高低架,为晋升业务稳定性,还要实现节点自治。 天翼云基于CDN业务云化打造云原生容器PaaS平台,借助云原生平台原生根底能力,联合定制化加强能力,能够更加灵便地治理平台上的各种类利用,解决云网协同治理及边缘利用落地问题。 天翼云容器PaaS平台演进分为三个阶段,从1.0迭代至3.0版,定制化能力逐渐加强,效率和平安性能大幅晋升。 目前,容器PaaS平台曾经具备分批灰度降级、边缘配置组件联动、业务自动化切流、节点自动化接入等能力。  CDN节点数量泛滥,对立降级可能会影响到业务利用,该平台可能依照既定策略,实现节点内以及区域内CDN利用的分批次降级; 实现了平台和配置管理联动,在利用部署和降级之前,可主动拉取所依赖的配置模板、配置版本,实现更疾速的降级部署,在核心侧提供configmap, apollo等原生计划实现配置管理; 在利用降级过程中,平台可实现业务的自动化切流,可能实现利用部署、降级过程中的全量自动化; 资源交维之后,可能疾速将容器治理能力延长到边缘,进行边缘容器高低架,同时还可能依据标签治理的设置,自动化治理须要部署到设施上的利用。 目前,该平台已撑持多种边缘利用的胜利落地,首先是CDN利用,截至往年6月份,所有新增节点及已有节点齐全实现云化革新。在反对CDN利用的根底上,该平台还撑持了天翼云私有、公有大数据平台产品利用的落地,赋能海南数据超市我的项目、重点城市大脑我的项目、日志中台我的项目等。 数字化转型继续深刻,CDN业务飞速发展。作为云服务国家队的天翼云将持续砥砺,进一步夯实云原生容器PaaS平台建设,欠缺平台能力,晋升平台应用性及可靠性,同时在现有根底上持续摸索边缘侧业务利用,服务更多的业务场景,推动数字中国建设。 

July 20, 2022 · 1 min · jiezi

关于云原生:超实用转型攻略2022央国企云原生落地实用指南重磅发布附下载链接

《国民经济和社会倒退第十四个五年布局和2035年近景指标大纲》中明确提出“放慢数字化倒退 建设数字中国”,迎接数字时代,激活数据因素潜能,推动网络强国建设,放慢建设数字经济、数字社会、数字政府,以数字化转型整体驱动生产方式、生存形式和治理形式改革。 此外,2020年国务院国资委印发的《对于放慢推动国有企业数字化转型工作的告诉》,更是明确对企业数字化转型提出了领导方向,提出要促成国有企业数字化、网络化、智能化倒退。包含建设根底数字技术平台、构建数据治理体系、推动产品翻新数字化、生产经营智能化、用户服务麻利化、放慢新型基础设施建设、放慢要害核心技术攻关等。 对于企业而言,采纳云原生等新兴技术减速数字化转型已成为必然趋势,各行各业都在踊跃探寻云原生转型的胜利门路,为企业数字化转型提速。 在此背景下,云原生技术实际联盟联结灵雀云,独特公布《2022央国企云原生落地实用指南》(以下简称“指南”),指南聚焦企业不同畛域不同阶段的云原生转型理论痛点及解决方案,会集丰盛技术实际干货,笼罩金融、工业、交通、医疗、教育等各行业实战方法论和先锋实际案例,深入探讨企业云原生转型胜利门路,心愿能对企业云原生转型有所裨益,进一步放慢企业云原生转型步调,减速买通企业数字化转型“最初一公里”,为数字经济蓬勃发展装上助推器。点击此处或扫描下方二维码查看完整版《2022央国企云原生落地实用指南》

July 20, 2022 · 1 min · jiezi

关于云原生:Dapr助力异构语言系统的事件驱动架构设计

咱们在探讨微服务时,通常避不开服务的颗粒度和服务之间的松耦合。也就是说服务应该是可能自治的,可能掌控服务所有的依赖,并且尽量升高同步通信的频率。明天咱们来探讨一下实现分布式服务松耦合的事件驱动架构模式,以及异构语言零碎如何实现事件驱动架构设计。 事件驱动架构事件驱动架构(EDA)是一个提倡在散布式微服务零碎中应用事件生产和生产的软件架构范式。一个事件代表一个具备重大影响的行为,一个事件产生通常意味着一个实体的创立或者状态产生变更,例如电商零碎中创立一笔订单或者订单状态发生变化。 对于事件的特别之处在于他们没有显示的与可能关怀他们是否产生的服务间接产生通信。事件就是“仅仅产生过”而已,而不会去思考是否有特定的服务对他们的产生感兴趣,这也正是事件弱小的起因——事件转换为自蕴含的一条记录,从根本上与他们的处理程序解耦。事实上,事件的生产者通常不晓得谁是事件的消费者,或者消费者可能基本就不存在。事件须要作为记录被长久化,一条记录应该蕴含形容一个事件所有必要的信息,事件的生产者应该确保潜在的消费者可能获取到处理事件须要的所有数据。 如上图所示,实现事件驱动架构有四个次要组件: 事件生产者:开始整个工作流的初始事件发布者。事件代理:代理保护一个channel/queue/topic来公布事件。事件消费者:事件记录音讯的订阅者,并依据事件来执行特定行为。处理事件:让整个零碎通晓事件消费者在生产事件之后而采取行为所带来的影响,这通常是另一个工作流的初始事件。通过异步和通用解耦耦合其实就是一个组件受其余组件影响的水平,耦合有两个维度:空间维度——组件在结构上相干;工夫维度——他们的关系受工夫影响的水平,例如,同步调用一个REST API。如果两个服务必须同时可操作,那么它们之间存在肯定水平的工夫耦合。如果组件之间存在很强的互相依赖性,咱们就称它们为紧耦合,否则就称它们为松耦合。 那么,EDA如何克制耦合? 事件不是通信,他们仅仅是产生而已。组件产生了一个事件并公布一条记录,而不关怀事件的生产组件是否存在。因而,如果消费者不可用,也不会影响到生产者。在代理上事件记录的持久性在很大水平上打消了工夫的概念。生产者在T1公布了一个事件,消费者可能在T2读到这条音讯,至于T1和T2之间的工夫窗口可大可小。然而EDA并没有齐全打消耦合,事件代理对于生产者和消费者解耦都是至关重要的,他们必须依赖一个代理来实现信息传递,这也减少了零碎架构的复杂性,并引入了一个新的故障点。这就是为什么要求代理必须具备高性能和高容错能力的起因。 事件的类型事件告诉。该类型的事件通常在一个组件发送事件音讯告诉其余的组件在各自畛域内产生变更时应用。事件告诉的关键因素就是事件起源组件不关怀告诉音讯的响应。事件溯源。事件溯源的核心思想是当组件状态发生变化时,组件将状态变更记录为一个事件,并且咱们能够在将来的任何时候通过从新处理事件来重建零碎状态。事件存储成为假相的次要起源,组件状态纯正从它派生而来,例如版本控制系统。携带状态的事件传输。当事件的消费者组件状态变更不须要申请生产者组件以获取数据时,能够应用这种模式。事件记录蕴含了所有必要的数据。事件处理的模式事件处理通常有三种格调的定义,这三种实现格调在很大水平上并不是互斥的,在一个大型事件驱动零碎中通常是相互合作独特发挥作用的。 离散事件处理离散事件处理的特色是通常事件之间彼此是互相独立不相干的,能够被独立解决。例如,订单领取后物流发货和赠送积分。 事件流解决对无边界的相干事件流解决,事件记录依照肯定程序被公布和解决。消费者能够依照生产者规定的程序处理事件记录并在本地数据库中保留一个实体的正本。离散地解决这些更改记录不会缩小它,因为程序很重要。多个消费者还须要留神资源竞争,因为在这种状况下可能产生多个消费者试图并发地批改数据库中同一条记录,因为无序更新导致数据不统一。能够借助Kafka之类的事件流平台来放弃实体更新的程序,Kafka的程序队列通过数据键值和partition来保障一组音讯在同一个队列中的程序,从而解决资源竞争问题。 复合事件处理复合事件处理是从一组简略事件标识的复合事件模式。这种解决形式通常更简单,要求事件处理器跟踪先前的事件并提供查问和聚合这些事件的办法。假如咱们有一个服务弹性扩容事件,扩容条件是CPU使用率大于80%并且内存使用率大于85%,那么扩容事件就能够定义为由CPU使用率高于80%警报和内存使用率高于85%警报两个简略事件标识的复合事件。 EDA的劣势缓冲和高容错。事件生产者和消费者解耦,防止了广泛的点到点故障。高可伸缩性。无论是代理的规模还是消费者的数量,都具备很高的可伸缩性。EDA的毛病仅限于异步解决。为零碎引入了额定的复杂度——代理。故障屏蔽——不像紧耦合零碎那样可能疾速间接地获取零碎里各组件的故障,尽管有时这个故障的影响是很重大的。松耦合零碎尽量避免一个组件的故障对其余组件的稳定性带来影响,然而有时候这也覆盖了本应该及时引起咱们留神的问题。通常须要依附各个组件的监控和日志来解决,但这又减少了复杂性。在设计事件时,首先须要思考跨零碎的事件回滚,这将减少数据库的复杂性。 什么时候应用EDA不通明生产的零碎。生产者通常不晓得消费者的状况。后者甚至可能是短暂的过程,可能在短时间内呈现和隐没!高扇出。一个事件可能由多个不同的消费者解决的场景。简单的模式匹配。将简略事件串在一起以推断出更简单的事件。命令-查问责任拆散。CQRS是一种拆散数据存储的读取和更新操作的模式。实现CQRS能够进步应用程序的可伸缩性和弹性,但须要在一致性方面进行一些衡量。此模式通常与EDA相关联。Commond和EventCommond,其目标是在特定的边界内调用与业务逻辑相干的行为,Commond只有一个消费者,表述动作行将产生然而还未产生。相较于事件驱动的异步解决模式,Commond通常是通过REST API来实现的同步调用。事件是对曾经产生的事件的纯正形容,它没有规定应该如何处理事件。而Commond是指向特定组件的间接指令。因为Commond和事件都是某种类型的音讯,所以很容易混同,将指令谬误地示意为事件。通常在组件数量比拟少,与其余组件通信也比拟少的状况下,事件驱动还是比拟可控的,然而随着组件或者微服务的数量越来越多,难度也会随之减少。如果咱们不通过粗疏的设计,全程应用命令驱动将会带来不必要的耦合。同样如果全程应用事件驱动,不仅会减少开发难度和业务边界不清晰,而且也有可能设计出一个紧耦合的服务,导致建设一个分布式单体服务,这将比一个纯正的单体服务更蹩脚。Commond和Event的抉择应该依据理论应用场景灵便抉择,如果消费者是业务逻辑”执行“的一部分,则应该应用Common模式;如果消费者是业务逻辑执行后的”告诉“局部,则比拟适宜Event。 异构语言零碎的事件驱动设计异构语言零碎实现实现事件驱动设计,面临着诸多挑战 反复工作。无论事件记录的公布、生产,事件记录的长久化,还是事件代理组件的对接,可能不同语言服务都要反复开发一次。这不仅大大增加工作量,而且还会为零碎整体品质带来了很多不确定性,毕竟康威定律在微服务畛域还是有实际意义的。组件抉择的限度。尽管各个云平台对于存储和stream服务都尽可能全面地提供规范API和通用SDK。然而因为语言个性的差别,不可避免在技术选型上有所限度。可移植性。无论是运行云平台的迁徙,还是组件的迁徙,都是一个微小而又冒险的工作。零碎的可移植性很大水平上依赖引入组件的可移植性。配置信息管理。大规模分布式服务中,配置管理自身就是一个麻烦事。那么有没有更优雅一些的形式,为事件驱动设计的落地提供助力。 对于Dapr(分布式应用运行时)Dapr是由微软开源的一个可移植的、事件驱动的分布式运行时框架。Dapr除了自托管运行模式外,还能够运行在kuberneets云原生平台上,以边车模式为应用服务提供多种代理模式。在kuberneets对分布式服务资源形象的根底上,Dapr实现了分布式服务能力形象的跃迁,它能够使开发人员从简单根底服务组件的治理中解放出来,更专一于畛域业务逻辑的开发,轻松构建出弹性的、无状态和有状态、可迁徙的应用程序。上帝的归上帝,凯撒的归凯撒。对Dapr感兴趣的同学,能够去Dapr官网上理解更具体的信息。 为什么DaprDapr通过凋谢、灵便、独立的构建块,将服务调用、输入输出绑定、状态存储、公布订阅和配置管理等能力形象为规范API,API反对http和grpc两种通信协定。因为Dapr是可移植和跨平台的,开发者就可能用他们喜爱的语言和框架来构建可移植的应用程序。 公布订阅Dapr提供了一个可扩大的Pub/Sub服务(保障音讯至多生产一次),容许开发者公布和订阅主题。 Dapr为Pub/Sub提供各种实现组件,使操作者可能应用他们所喜爱的基础设施,例如 Redis Streams 和 Kafka等。从而实现了应用程序和基础设施的解耦,应用程序只须要接入Dapr SDK,而不须要对接每个组件。对于开发的工作量和复杂度、标准束缚的执行都会带来很多便当。并且底层组件的保护、降级甚至是迁徙,对于应用服务来说,将不再是累赘。 例如,java我的项目接入Dapr 在pom文件中引入Dapr sdk<dependency> <groupId>io.dapr</groupId> <artifactId>dapr-sdk</artifactId> <version>1.6.0</version></dependency>公布事件记录 try (DaprClient client = new DaprClientBuilder().build()) { for (int i = 0; i < NUM_MESSAGES; i++) { String message = String.format("This is message #%d", i); client.publishEvent( "messagebus", "testingtopic", message, singletonMap(Metadata.TTL_IN_SECONDS, MESSAGE_TTL_IN_SECONDS)).block(); System.out.println("Published message: " + message); try { Thread.sleep((long) (1000 * Math.random())); } catch (InterruptedException e) { e.printStackTrace(); Thread.currentThread().interrupt(); return; } }订阅事件记录 @Topic(name = "testingtopic", pubsubName = "messagebus") @PostMapping(path = "/testingtopic") public Mono<Void> handleMessage(@RequestBody(required = false) CloudEvent<String> cloudEvent) { return Mono.fromRunnable(() -> { try { System.out.println("Subscriber got: " + cloudEvent.getData()); System.out.println("Subscriber got: " + OBJECT_MAPPER.writeValueAsString(cloudEvent)); } catch (Exception e) { throw new RuntimeException(e); } }); }就这么简略的几行代码,就实现了一个分布式事件的生产者和消费者,至于底层反对服务能力的组件是redis、是kafka 还是本地存储,对于应用服务齐全是通明的,治理和配置的工作都交给Dapr来实现。Dapr的configuration API和服务调用API的实现复杂度,也跟公布订阅根本相当。大家能够参研一下SDK 官网文档。 ...

July 19, 2022 · 1 min · jiezi

关于云原生:云原生Intel-Arch及云原生机密计算-3-大-SIG-在线分享今天见-第-3234-期

「龙蜥大讲堂」本周直播预报来啦!本周龙蜥大讲堂邀请了龙蜥云原生 SIG Maintainer 彭涛分享《龙蜥云原生 SIG 双周会》、龙蜥社区 Intel Arch SIG 成员、 Intel 系统软件部经理田俊分享《Scalable IOV 下一代硬件虚拟化计划》、龙蜥社区云原生秘密计算 SIG 核心成员/海光资深软件工程师冯浩来分享《海光 CSV 秘密容器计划介绍》,快来扫码入群,预约前排小板凳观看直播! 一、龙蜥社区云原生 SIG 双周会会议工夫:2022 年 07 月 19 日 (明天)14:00-16:00 会议内容: 本次云原生 SIG 会议有如下 3 方面内容: 1、龙蜥云原生 SIG 小组运作标准探讨 ——所有 Maintainer。 2、技术分享:Nydus 容器镜像减速服务—— kata 社区架构委员会成员/龙蜥云原生 SIG Maintainer 彭涛。 3、下次双周会议题预报。 听众受害: 探讨龙蜥云原生 SIG 的运作标准,听众能够获知在龙蜥云原生 SIG 上应用引入的云原生组件的办法。在技术分享环节会介绍 Nydus 镜像服零碎,听众能够理解 Nydus 在镜像减速方面做的工作,并理解讲 Nydus 利用在生产中能够带来的收益。 适宜人群:容器、云原生畛域的开发者、爱好者。 讲师介绍:彭涛:龙蜥云原生 SIG Maintainer、kata 社区架构委员会成员。 如何加入直播? 钉钉扫描下方海报二维码入群即可加入本次直播。 二、Scalable IOV 下一代硬件虚拟化计划直播工夫:2022 年 07 月 19 日 (明天)16:00-17:00 ...

July 19, 2022 · 1 min · jiezi

关于云原生:出专辑啦-从入门实操演示到进阶直播答疑玩转容器服务-so-easy

「5 分钟玩转阿里云容器服务」系列课程是啥?「5 分钟玩转阿里云容器服务」由阿里云云原生团队近 40 位阿里云容器服务架构师、技术、产品专家联手打造,将容器产品最佳实际出现为每次 5 分钟的系列短视频教程,以容器服务产品实操领导演示为主,通过系统化总结阿里云容器服务应用办法和技巧,帮忙企业和开发者晋升应用容器产品的效率,升高应用难度,基于容器服务打造业务可继续倒退的解决方案。 35+课程大节讲些啥?「5分钟玩转阿里云容器服务」系列课程,第一期围绕阿里云容器服务 ACK、阿里云容器镜像服务 ACR 的常见问题,共设置 12 个课程章节,35+课程大节,内容涵盖容器环境创立、容器网络、容器存储、弹性、容器操作系统、容器平安、可观测、Serverless 容器、ACK AI 套件、 边缘容器、混合云以及容器镜像等。 局部课程介绍第 1 课 题目:ACK & ASK 根底环境创立 简介:阿里云架构师手把手带你玩转容器根底环境创立 讲师:阿里云架构师,徐果(华相) 第 2 课 题目:容器网络之 Flannel vs Terway 简介:比照网络插件 Flannel,Terway 的差别能力体现 讲师:阿里云技术研发,王炳燊(溪恒) 第 3 课 题目:容器网络之 ALB Ingress简介:ALB Ingress 简介、如何装置以及如何创立 ALB 实例 讲师:阿里云技术研发,李鹏(元毅) 第4课 题目:容器存储之云盘存储卷 简介:在 ACK 集群中用动态存储卷和动静存储卷的形式应用云盘 讲师:阿里云高级开发工程师,王焦(白槿) 第 5 课 题目:容器网络文件存储 CNFS 简介:如何在 ACK 集群中应用 CNFS 存储?CNFS 存储的共享数据 Quota  能力和扩容能力 讲师:阿里云高级开发工程师,王焦(白槿) ...... 课程地址: https://developer.aliyun.com/... 每次 5 分钟没学够?进阶版训练营行将上线思考到大家在应用容器服务产品时,除了常见的问题之外,也会遇到难以攻克的简单问题,因而咱们在每次 5 分钟短视频课程根底上,打磨精品,推出进阶版训练营——「玩转容器服务提高班」。 ...

July 18, 2022 · 1 min · jiezi

关于云原生:灵雀云加入LF机密计算联盟推进机密计算在云原生场景的应用

近日,灵雀云发表正式退出“秘密计算联盟”Confidential Computing Consortium(简称CCC),该联盟由Linux基金会发动,致力于定义和推动秘密计算技术的利用。联盟成员包含谷歌、IBM、英特尔、腾讯、阿里、百度等国内外科技巨头。灵雀云的退出,将携手行业同仁解决秘密计算与容器技术的适配和平安保障问题,升高门槛,让秘密计算更容易、更广泛地在云原生环境中利用。 随着混合云趋势的倒退,对数据的爱护变得更加简单。许多企业放心其敏感数据泄露,因而回绝将一些敏感的应用程序迁徙到云中,这在肯定水平上妨碍了企业数字化转型和云原生化的脚步。而秘密计算的呈现,正在试图排除这一阻碍。秘密计算技术侧重于爱护应用中的数据,并为敏感数据提供齐全加密的生命周期,借助秘密计算,企业能够释怀地将数据和代码迁徙至云中,并进行大规模解决。 然而,尽管秘密计算技术高速倒退,但利用方面依然处于起步阶段。秘密计算在云原生场景中运行还存在着很大的技术壁垒。为抹平秘密计算在云原生场景中的高应用门槛,灵雀云将携手“秘密计算联盟”及行业同仁一起,推动解决秘密计算容器/Kubernetes对接问题,为开发人员提供与容器统一的开发体验,并为运行在云原生环境下的企业代码和数据提供平安防护。 企业的数据资产是新时代的石油,随着越来越多的企业开始拥抱云原生。构建秘密计算云原生基础设施,也是推动企业施展数据的价值的重要一环。将来,灵雀云将联结秘密计算联盟独特开辟更贴近Kubernetes生态的秘密计算云原生解决方案,并推广至金融、能源制作、医疗、智慧城市、区块链、AI等行业及场景,让更多企业用户享受到秘密计算和云原生技术联合的红利,让企业数据在云原生场景实现平安、高效的流动,充分发挥数据资产价值。

July 14, 2022 · 1 min · jiezi

关于云原生:Kubernetes-问题排查全景图

July 12, 2022 · 0 min · jiezi

关于云原生:2022-云原生编程挑战赛启动导师解析服务网格赛题

大赛介绍2022 第三届云原生编程挑战赛,是由阿里云、Intel 主办,云原生利用平台、天池联结承办的云原生顶级品牌赛事。 自 2015 年开始,大赛曾经胜利举办了七届,并从 2020 年开始降级为首届云原生编程挑战赛,共吸引了超过 36000 支队伍,笼罩 10 余个国家和地区。 本届大赛将持续深度摸索服务网格、边缘容器、Serverless 三大热门技术畛域,为酷爱技术的年轻人提供一个挑战世界级技术问题的舞台,心愿用技术为全社会发明更大价值。大家赶快报名参赛吧! 丰富处分等你来报名!瓜分¥510,000 元现金大奖三大热门赛道任意抉择邀请小伙伴报名兑换精美礼品实现 Serverless 场景体验领阿里云背包以下赛道可任选 1 个或全副扫码报名: 赛道 1(服务网格) 赛道 2(边缘容器) 赛道 3(Serverless) 更多内容尽在大赛官网,欢送扫码理解: 赛题背景容器作为云原生利用的交付物,既解决了环境一致性的问题,又能够更细粒度的限度利用资源。随着微服务和 DevOps 的风行,容器作为微服务的载体得以广泛应用;而Kubernetes 作为一种容器编排调度工具,解决了分布式应用程序的部署和调度问题。 在服务网格技术呈现之前,能够应用 SpringCloud、Netflix OSS 等,通过在应用程序中集成 SDK,编程的形式来管理应用程序中的流量。然而这通常会有编程语言限度,而且在 SDK 降级的时候,须要批改代码并从新上线利用,会增大人力累赘。服务网格技术使得流量治理变得对应用程序通明,使这部分性能从应用程序中转移到了平台层,成为了云原生基础设施。以 Istio 为首的服务网格技术,正在被越来越多的企业所注目。Istio 应用 Sidecar 借助 iptables 技术实现流量拦挡,能够解决所有利用的出入口流量,以实现流量治理、观测、加密等能力。要理解更多无关服务网格 Istio 的基础知识,能够参考 Istio 官方网站。 可将服务网格 Istio 的流量治理过程简略了解为如下的模型: 在一个 Kubernetes 集群中,开发/运维人员将提供服务的容器(业务容器)以 Pod 的模式部署在集群中、并对外提供服务(一个 Pod 是一个或一组一起部署的容器,是能够在 Kubernetes 集群中创立和治理的最小部署单位)。Istio 在此之上进行了额定的工作,为用户提供了非侵入式的流量治理/可观测/加密等能力。具体来说,服务网格 Istio 为每个业务容器注入了一个 Sidecar,该 Sidecar 是一个 Envoy 利用的容器;并通过设定 iptables 规定拦挡所有业务容器的入向和出向流量。这样,每个 Pod 中就多出了一个 Envoy 容器(Sidecar),用于提供服务网格的非侵入式能力。 ...

July 12, 2022 · 3 min · jiezi

关于云原生:阿里云-RocketMQ-系列公开课重磅来袭

Apache RocketMQ 诞生至今,始终服务于 100%阿里团体外部业务、阿里云以及开源社区数以万计的企业客户。 历经十多年双十一严苛流量验证的 RocketMQ,承载了超过万亿级音讯规模的洪峰压力。2021 年 Apache RocketMQ 更是进入全新 5.0 时代。 立足于企业业务集成的外围场景,RocketMQ 在高牢靠低提早方面重点优化,构建了全新的低提早存储引擎和多场景容灾解决方案;面向业务集成过程中链路逻辑的多样性,RocketMQ 提供了丰盛的业务音讯类型,这些个性的积攒使得 RocketMQ 成为金融级的业务音讯首选计划。 为了帮忙大家更深刻的了解 RocketMQ 业务音讯的性能,倾情打造「阿里云 RocketMQ 系列公开课」,本次公开课为“RocketMQ 音讯集成:多类型业务音讯专题”,围绕一般音讯、定时音讯、事务音讯和程序音讯发展,从性能场景、利用案例以及最佳实际等角度来介绍 RocketMQ 业务音讯类型的应用。 精彩内容领先看,扫描海报中二维码,即可入群观看直播(具体直播工夫和议题如海报所示)~ 点击此处,欢送预约报名~

July 12, 2022 · 1 min · jiezi

关于云原生:一图看懂-腾讯云原生安全31重保防护体系

重保季正在热火朝天进行中,企业如何面对愈发灵便荫蔽的新型攻打挑战?如何用无限的人员和精力高效实现高强度安运工作? 腾讯平安从蓝军视角梳理攻打门路,凝练打造腾讯云原生平安“3+1”重保防护解决方案,帮忙企业建设全面高效的防护体系。

July 12, 2022 · 1 min · jiezi

关于云原生:事项研发工作流全面优化|Erda-22-版本如七而至

在 Erda 2.1 版本中,围绕研发全流程自动化的主线路,咱们重点公布了协同事项信息自动化同步、流水线主动发现归类等研发自动化的个性。研发自动化是个大而简单的内容, Erda 产品将会围绕此指标,会通过多个迭代版本来稳步推动。 Erda 2.2 版本次要围绕事项的研发工作流开展,重点公布了研发模式自定义配置、分支长期合并部署、工作侧的研发工作流等,大大小小新增和改善共计 31 项个性。 针对研发全流程可视化、自动化的指标,此版本曾经迈出实质性的 “一步”,十分心愿收到大家在应用的过程中对咱们的期待和倡议,也欢送大家积极参与到 Erda 社区的建设中,一起助力企业研发效力晋升! 上面咱们一起来看看,本次新版本将会有哪些亮点和大家见面~ 亮点性能 1 Erda Gallery 全新企业资产对立治理平台上线随着应用软件畛域拆分的越来越细,企业各部门洽购的软件、IT 资产应用和部门之间自研类似软件的黑盒问题曾经逐步演变为当下比拟常见和难解的课题。 那么如何让企业 IT 资产治理由繁变简?如何让企业 IT 资产应用由乱变治?如何让软件交付由慢变快呢? 本次 Erda 2.2 版本为大家带来了全新的 Gallery 解决方案,次要帮忙企业用户解决以下场景问题。 场景1:企业研发利用高效复用,防止反复造车。在研发成绩方面,依靠于 Erda 的利用/我的项目制品治理个性,通过制品版本公布到组织 Gallery 中进行共享,组织内其余成员能够通过 Gallery 中制品进行一键部署应用,缩小反复造车和版本管理混乱的问题。场景2:我的项目交付高效施行。从 Gallery 一键下载/装置在我的项目交付施行阶段,我的项目施行交付同学能够便捷到 Gallery 中轻松获取对应的版本在客户我的项目侧进行疾速部署,缩小了交付和研发侧为确定版本而产生的大量低效协同,也无效保障了交付部署的品质。场景3:企业 IT 资产对立治理以后应用软件畛域拆分的越来越细,企业外部自研的应用软件数量也在人不知;鬼不觉中水涨船高,如何对立治理和对立透出给外部成员应用成为一个比拟大的课题,Erda Gallery 从企业 IT 资产治理的维度,提供了基于 DevOps 平台主动公布(外购软件的手动公布暂未凋谢)性能,让企业全员可能在一个中央应用企业所有的利用。亮点性能 2 基于事项协同的研发工作流上线软件研发效力如何晋升是一个大而简单的问题,用户并不一定能通过一堆 DevOps 工具堆砌来解决问题,当然这个必定不是工具的问题,工具标准高效应用(通常会称之为最佳实际)和标准可复制性才是问题的要害。 为了让用户在 DevOps 平台积淀或复制胜利最佳实际来提效,Erda 2.2 版本给大家带来了基于工作的研发工作流个性,心愿通过这个工作流可能让开发同学沉浸于代码的开发,项目组研发模式标准由平台来撑持,让用户在无感知的状况下实现,具体个性蕴含如下: 研发工作流—研发模式工作流的配置。用户通过分支策略配置和研发工作流的配置实现自定义的研发模式配置( 目前支流的研发模式为:Gitflow 或骨干的开发模式)。 分支策略配置:配置分支列表,并且设置这个分支从哪里来,须要合并到哪里去的分支策略研发工作流配置:配置什么分支用于干什么,生成什么制品,可能部署到什么环境配置入口:DevOps 平台 -> 具体我的项目的我的项目设置 ...

July 8, 2022 · 1 min · jiezi

关于云原生:直播回顾|当我们说微服务上容器时我们在说什么

家喻户晓,基于微服务的利用更加适宜运行在容器上,能够最大化施展微服务的劣势。但在微服务利用上容器的过程中,因为用户理论状况和倒退布局的差别,采取的门路和计划也有不同。如何抉择最合适的计划,其中的关注点有哪些,并如何应答,都须要去认真思考。 明天咱们跟大家一起聊一聊这个主题《当咱们说微服务上容器,咱们在说什么》,分享的内容次要包含微服务利用容器化的几个典型场景、须要关注的问题以及对应的解决方案。 本文是 6 月 30 日“CloudTech 博云说”第五期分享内容《当咱们说微服务上容器时,咱们在说什么?》的回顾整顿。扫描上方海报二维码或点击文章开端的浏览原文,回看精彩视频! 01 微服务与容器:1+1>2大家必定都据说过云原生或者 PaaS 落地的三驾马车,即微服务、容器和 DevOps,三者相辅相成并有着宽泛的分割。在云原生技术落地过程中,利用麻利迭代和强壮运行的需要正是促成微服务利用产生并倒退的重要因素。而虚拟机作为 IT 基础设施的撑持,从单体利用到微服务利用的时代,曾经无奈很好地满足微服务利用部署的外围需要,即保障资源利用率不升高甚至晋升,高性能、高可用、高弹性的保障等。容器技术的衰亡并非偶尔,而是正好符合了微服务利用时代的需要。 云原生技术社区中最为人所认可的思想家之一,Adrian Cockcroft,他已经说过在与容器联合应用后,微服务架构的长处失去了进一步的放大。起因在于,微服务激励软件开发者将整个软件解耦为较小的性能片段,并且这些性能片段可能应答外界的故障。而容器进一步对这种解耦性进行了扩大,它可能将软件从底层的硬件中分离出来。 依据信通院《中国云原生用户调研报告》显示,国内 64% 的用户将容器技术利用于部署微服务化利用,这也是国内应用容器的最多场景。 02 微服务的倒退历程在谈微服务容器化部署之前,咱们先看看微服务的倒退历程。尽管微服务的架构有多种类型,但从总体来说次要分为两种:一种是有肯定侵入性的传统微服务架构,如 Spring Cloud、Dubbo、gRPC 等,另一种是近些年衰亡的非侵入式微服务架构 ServiceMesh,如 Istio、Linkerd、Sofamosn 等。 其实从微服务倒退演进的角度来看,除了所谓的侵入和不侵入的差别,微服务的另一个趋势是向容器聚拢。传统的微服务架构没有思考太多的容器化部署,而 ServiceMesh 天生就与 kubernetes 紧密结合,不得不说,这也是一种显著的需要主导的技术改革趋势。 03 微服务上容器,须要留神什么?当然,微服务从虚拟机部署到容器化部署,必定会带来很多变动。那么会有哪些次要变动呢?咱们从以下次要五个角度做了一些简略总结。 部署状态:从虚拟机到容器的变动; 通信模式:部署在容器上须要减少一层容器网络层; 服务框架:在服务框架上会更多的思考服务网格计划,从而带来传统微服务框架和服务网格共存以及演进的问题; 治理架构:容器化服务/集群与非容器服务的共存,须要有容器+非容器的对立部署和运维治理场景 利用架构:须要进一步地做服务的云原生/无状态化革新。 基于这些变动,咱们可能会产生一些纳闷和不确定性。例如,如果是某某框架自研或洽购的某某厂商的微服务利用,能上容器吗?好上容器吗?会不会很麻烦?带来哪些问题?注册是 nacos,或者是用到了某某组件、中间件,影响上容器吗?带着这些问题,咱们先基于一个典型的微服务架构利用来看一下。 这个图是一个比拟典型的微服务架构利用。从业务维度来看,它由前后端的服务组成,基于传统的治理框架提供注册和配置。从组件视角来看,它包含了前端、后端服务、注册核心、配置核心、网关和中间件。并且对于微服务的治理,还有服务调用、负载平衡、限流熔断、服务监控、事务追踪、分布式音讯等,通过 Dubbo 或 SpringCloud 能够提供这类治理组件的对立集成计划。基于以上,这时候咱们会初步造成两类微服务利用容器化的计划: 第一种,对于各类组件、前后端利用去做容器化,扭转它们的部署状态。这个时候业务和治理逻辑还没有齐全解耦,治理和监控对业务代码还是有肯定的侵入。 第二种,就是框架也进行演进,采纳服务网格 ServiceMesh 的计划,再进行容器化。 第一种场景咱们可能会比较关心这些组件和服务的容器化革新的程序,而第二种场景会产生诸如 ServiceMesh 计划选型,传统微服务治理框架如何更便捷地演进到 ServiceMesh 框架。针对这些问题,咱们也梳理了几个典型场景。 从整体上看,次要有三大典型场景: 传统微服务架构利用上容器场景,包含了局部上容器和全副上容器。 服务网格利用上容器场景,波及利用间接采纳 ServiceMesh 框架和传统微服务架构迁徙或兼容 ServiceMesh。 微服务利用容器化之后进行对立治理、运维的场景。 上面咱们一起来看一下,针对不同的场景,在这些场景里有哪些须要重点关注的中央。首先是微服务利用上容器的两种形式。在利用全副容器化的场景,会关注利用状态放弃、配置、通信、日志,版本公布和部署等。在利用局部容器化的场景,须要关注网络互通、配置正确等。因为工夫关系,这里就不一一开展了,这里能够参考咱们最近公布的《利用上容器指南》。 ...

July 8, 2022 · 2 min · jiezi

关于云原生:发评测赢好礼-Serverless-函数计算征集令

随着云计算倒退,云原生热度攀升,Serverless 架构锋芒毕露且发展势头迅猛。不仅被更多开发者所关注,市场占有率也逐年进步。阿里云函数计算(Function Compute)是一个事件驱动的全托管 Serverless 计算服务,应用它您将无需再关怀底层云资源、服务器等基础设施,咱们为您筹备好计算资源,以弹性、牢靠的形式运行代码,助您轻松应答峰谷流量。 为了帮忙更多用户主观理解并应用阿里云函数计算 FC,阿里云开发者社区携手云原生利用平台 Serverless 团队公布 “Serverless 函数计算征集令”,您只需公布函数计算相干评测文章,即有机会取得千元好礼 + 千元函数计算资源包! 流动工夫:2022年6月28日-7月31日您将取得:好文奖品邀请 Serverless 业余导师团队,依据文章品质评出: 参加奖品 撰写函数计算评测文章,依据公布程序评出: (注:奖品将于流动完结后两周内发放,用户可在页面自行支付对应身份的奖品福利。充值卡等虚构奖品会通过短信发放) 参加形式: 申领免费资源额度-->场景体验-->发表原创文章-->提交文章-->审核通过-->参加评比/支付福利 流动主页 (注:流动面向所有阿里云注册并实名认证的用户,如不在流动页提交文章,将无奈参加支付奖品) 投稿方向:对函数计算 FC 产品能力的体验和倡议;应用函数计算 FC 创立利用的场景测评,如:基于 Serverless 架构的弹性高可用视频解决零碎、基于函数计算 FC 搭建云上博客等;咱们心愿看到一些的最佳实际内容和对函数计算的实在应用感触,尽量图文并茂,文章字数需为 600 字以上。流动领导: 为了帮忙各位笔出风范,咱们还提供专家技术领导,扫码退出云原生 Serverless 评测答疑群,第一工夫 Get 产品流动资讯,更有Serverless 四大导师天团坐镇评测局,群内零距离在线互动答疑,助你下笔如有神,问鼎笔林“一代宗师”!

July 7, 2022 · 1 min · jiezi

关于云原生:交付效率提升52倍运营效率提升10倍看金融云原生技术实践案例汇编附下载

随着云原生落地暴发,越来越多的金融企业步入了全面云原生化的过程。升高交易成本,改善服务体验,曾经成为诸多金融企业放弃持续增长的战略目标。 然而,云原生技术虽好,落地却不是欲速不达。在强调“IT降本增效”的明天,企业更加审慎地评估资金、工夫、人力投入和技术创新的产出。一套全新IT的重塑,包含开发模式、零碎架构、部署模式、基础设施、组织文化等一系列的自动化、麻利化演进和迭代,云原生的成果又如何评估? 这个问题摆在泛滥IT决策者背后,甚至让技术创新止步于此。 《金融云原生技术实际案例汇编》让云原生落地实际成绩高深莫测纵观泛滥金融企业的云原生革新之路,目标归根到底,一是升高企业老本,进步企业的效率;二是,更快的驱动外部翻新。 金融企业上云原生技术后,对企业有什么扭转,产生了什么成果?这些成果能够用数字评估吗? 咱们整顿了国内外头部金融企业的云原生技术实际案例,置信您能够通过行业同仁在技术演进、能力落地以及行业摸索等方面的教训,对云原生技术落地的成绩,有更加清晰的认知! 下载报告: 为深入探讨金融企业云原生落地实际的胜利路线,往年灵雀云相继公布《金融行业云原生技术落地调研报告》与《2022金融云原生落地实用指南》也一并举荐给您,帮忙理解更多行业趋势与解决方案。 《金融行业云原生技术落地调研报告》从全栈的视角洞察云原生行业趋势往年上半年,云原生技术实际联盟(CNBPA)联结灵雀云等厂商独特发动了《第四期(2021-2022)传统行业云原生技术落地调研》,抉择“金融”为首发调研行业,从全栈视角,对金融企业目前高度关注的云原生基础设施、混合云、微服务架构、数据、平安等畛域的技术问题和行业趋势动手,全面理解云原生技术的利用状况和落地成熟度,帮忙读者从全栈的视角洞察金融云原生行业趋势。 【外围观点】: · 建设具备全栈能力的云原生平台,已成为先进金融企业数字化转型的最佳门路; · 随着容器向数据中心和基础设施下沉,虚拟化有逐步被代替的趋势; · 金融企业敏态开发、智能运维需要高,K8s是实现GitOps 和智能运维的必然选择; · 云原生安全策略成2022金融科技新焦点 下载报告: 《2022金融云原生落地实用指南》深入探讨金融企业云原生落地实际的胜利路线灵雀云联结云原生技术社区独特公布《2022金融云原生落地实用指南》,指南聚焦金融企业云原生转型各个阶段的理论痛点及解决方案,别离从云原生架构、基础设施、平安、运维等角度登程,深入探讨金融企业云原生落地实际的胜利路线,为金融行业高质量推动金融数字化转型,深入数字技术金融利用、壮大凋谢翻新的产业生态奉献云原生力量。 下载报告: 上一篇:《第四期(2021-2022)传统行业云原生技术落地调研报告——金融篇》重磅公布! 下一篇:超硬核攻略!《2022金融云原生落地实用指南》(附下载链接)

July 7, 2022 · 1 min · jiezi

关于云原生:Databend-Cloud-入选中国信通院云原生产品目录

近日,在中国信通院召开的云原生产业大会上,正式公布了 2022 年度首批《云原生产品目录》,Databend Cloud 产品胜利入选 云原生产品目录 中国信通院为解决云原生用户选型窘境,全面拉齐行业认知,推动云原生产业蓬勃发展,而发动、征集和评比进去的,Databend 的技术能力取得了权威认可,胜利入选目录。本次公布的《云原生产品目录》共收录云原生技术服务产品及解决方案 251 个,波及容器、微服务、服务网格、无服务器、中间件服务、云原生平安,以及云原生交融服务等类别。Databend Cloud 入围云原生数据仓库类,成为中国信通院权威举荐的云原生产品。Databend Cloud 是基于开源云原生数仓我的项目 Databend 打造的一款易用、低成本、高性能的新一代大数据分析平台,让用户无需再关注任何资源,而是专一于数据价值的开掘,打造的一个真正按需、按量付费的 Data Cloud 。 Databend Cloud 绝对于其它大数据产品具备以下个性:基于开源 Cloud Data Warehouse 明星我的项目 Databend 打造,产品迭代快真正的存储、计算拆散架构,谋求极致弹性,实现资源的精细化调度Git-like 旧式存储引擎,可挂载 AWS,Azure, 阿里云,腾讯云,青云等对象存储,老本极低无需指定分区键,无需创立索引, Databend Cloud 主动帮你实现,简略易用简单数据类型以及函数反对,轻松剖析 CSV/Parquet/JSON 等 Semi-Structured 数据欠缺的事务反对,提供 Time Travel, Database Clone, Data Share 等能力多集群挂载同一份数据进行并发读写,资源隔离互不影响,随用随启,不必主动休眠兼容 MySQL ,Clickhouse 协定 , 轻松对接周边生态企业级平安防护,数据加密,DAC & RBAC 管制,平安释怀Databend Cloud 能够:入门用户上传数据文件到 Databend Cloud 网盘,通过简洁易用的 Worksheet 浏览器进行 SQL 操作,轻松开启数据分析之旅。 大数据工程师开箱即用,真正实现低成本、高弹性、按需按量的应用体验,解决不同用户之间资源隔离,提供齐全独占计算节点的剖析体验。 数据分析团队基于 Zero Copy 能力实现跨部门的数据受权拜访机制,基于同一份数据做不同剖析,且计算资源互不影响。 为企业降本增效基于对象存储存储数据,实现存储按需分配;计算节点按需启动,无工作时主动进入休眠状态,真正实现按需、按量从而给企业降本增效。Databend Cloud 专一于云端大数据一站式解决方案,以解决传统大数据我的项目中运维难,老本高,应用简单的问题,让你更加专一数据价值的开掘。 ...

July 7, 2022 · 1 min · jiezi

关于云原生:一个开发者自述我是如何设计针对冷热读写场景的-RocketMQ-存储系统

作者:Ninety Percent 悸动32 岁,码农的倒数第二个本命年,平铺直叙的生存总感觉短少了点什么。 想要去守业,却胆怯家庭承受不住再次失败的挫折,想要生二胎,带娃的压力让我想着还不如去守业;所以我只好在生活中寻找一些小打动,去看一些老掉牙的电影,而后把本人打动得稀里哗啦,去翻一些泛黄的书籍,在回顾里寻找一丝丝已经的深情满满;去学习一些冷门的常识,最初把本人搞得昏头昏脑,去加入一些有意思的较量,捡起那 10 年走来,早已被刻在基因里的悸动。 那是去年夏末的一个黄昏,我和共事正闲聊着西湖的美妙,他们说看到了阿里云公布云原生编程挑战赛,问我要不要试试。我说我只有九成的把握,另外一成得找我媳妇儿要;那一天,咱们绕着西湖走了良久,最初终于达成统一,Ninety Percent 战队应运而生,云原生 MQ 的赛道上,又多了一个艰巨却刚强的选手。 人到中年,依然会做出一些激动的决定,那种屁股决定脑袋的做法,像极了领导们的睿智和 18 岁时我朝三暮四的日子;冬季的 ADB 较量,曾经让我和女儿有些疏远,让老婆对我有些偏见;此次参赛,必然是要暗度陈仓,发愤图强,不到关键时刻,不能让家里人晓得我又在卖肝。 动工你还别说,或者是人类的本色使然,这种背着老婆偷偷干坏事情的感觉还真不错,从上路到上分,一路顺风逆水,极速狂奔;断断续续花了大略两天的工夫,胜利地在 A 榜拿下了 first blood;再一次把第一名和最初一名同时纳入囊中;快男总是不会让大家悲观了,800 秒的问题,成为了较量的 base line。 第一个版本并没有做什么设计,基本上就是拍脑门的计划,目标就是把流程跑通,尽快出分,而后在保障正确性的前提下,逐渐去优化计划,防止一开始就适度设计,导致迟迟不能出分,影响士气。 整体设计先回顾下赛题:Apache RocketMQ 作为一款分布式的消息中间件,历年双十一承载了万亿级的音讯流转,其中,实时读取写入数据和读取历史数据都是业务常见的存储拜访场景,针对这个混合读写场景进行优化,能够极大的晋升存储系统的稳定性。 基本思路是:当 append 办法被调用时,会将传入的相干参数包装成一个 Request 对象,put 到申请队列中,而后以后线程进入期待状态。 聚合线程会循环从申请队列外面生产 Request 对象,放入一个列表中,当列表长度达到肯定数量时,就将该列表放入到聚合队列中。这样在后续的刷盘线程中,列表中的多个申请,就能进行一次性刷盘了,增大刷盘的数据块的大小,晋升刷盘速度;当刷盘线程解决完一个申请列表的长久化逻辑之后,会顺次对列表中个各个申请进行唤醒操作,使期待的测评线程进行返回。 内存级别的元数据结构设计 <![endif]–> 首先用一个二维数组来存储各个 topicId+queueId 对应的 DataMeta 对象,DataMeta 对象外面有一个 MetaItem 的列表,每一个 MetaItem 代表的一条音讯,外面蕴含了音讯所在的文件下标、文件地位、数据长度、以及缓存地位。 SSD 上数据的存储构造 总共应用了 15 个 byte 来存储音讯的元数据,音讯的理论数据和元数据放在一起,这种混合存储的形式尽管看起来不太优雅,但比起独立存储,能够缩小一半的 force 操作。 数据恢复顺次遍历读取各个数据文件,依照上述的数据存储协定生成内存级别的元数据信息,供后续查问时应用。 数据生产数据生产时,通过 topic+queueId 从二维数组中定位到对应的 DataMeta 对象,而后依据 offset 和 fetchNum,从 MetaItem 列表中找到对应的 MetaItem 对象,通过 MetaItem 中所记录的文件存储信息,进行文件加载。 ...

July 6, 2022 · 4 min · jiezi

关于云原生:微服务治理技术研读班即将开班

July 4, 2022 · 0 min · jiezi

关于云原生:多年锤炼迈向Kata-30-走进开箱即用的安全容器体验之旅-龙蜥技术

文/云原生 SIG(Special Interest Group) 一、Kata 的过来让咱们将时钟拨回 2015 年 5 月,Hyper.sh 和 Intel 开源技术核心的工程师们分别独立公布了runV 和 Clear Containers 的虚拟化容器我的项目,而这两个我的项目便是 Kata Containers1 的前身。这两个我的项目相互有很多交换,在分别独立倒退了两年半之后,于 2017 年底合并成了 Kata Containers 我的项目,并把这个我的项目捐给 Openstack 基金会治理,这也是 Openstack 基金会的第一个 Pilot 我的项目。在 2019 的 4 月,Kata Containers 被 Openstack 基金会认可为其第二个顶级我的项目,在这之前的十多年里,Openstack 基金会都只有 Openstack 一个顶级我的项目。 Kata Containers 平安容器的诞生解决了许多一般容器场景无奈解决的问题: 多租户平安保障。云原生多租户场景下,平安容器能够避免歹意租户对 host 内核的间接攻打并大幅缩小机器上其余租户的危险,从而让私有云服务变得更稳固。不同 SLO 混部容器混合部署。平安容器的强隔离性缩小了容器之间的性能影响,使得不同 SLO 优先级实例混部有了更稳固的技术计划,对延时敏感的在线业务用 runC 解决方案,大数据类对资源诉求比拟高且有显著峰谷差别的离线业务用平安容器解决方案,避免离线业务突发流量影响到在线业务,通过在线离线业务同时混部进一步缩小计算资源的节约和老本耗费。可信&不可信容器混合部署。可信代码运行在 runC 容器中,不可信代码运行在平安容器中,两者在同一台宿主机上混部,升高不可信容器产生危害的可能性。在这些劣势的根底上,平安容器在虚拟化上谋求极致的轻薄,从而让整体资源耗费和弹性能力靠近 runC 容器计划,以此达到 Secure as VM、Fast as Container 的技术指标。 二、Kata 的倒退在 2018 年 5 月 Kata 1.x 阶段, Kata 和 containerd 社区独特制订了 shimv2 接口标准,并率先在 Kata Containers 反对了该标准。18 年11月,通过 containerd-shim-v2 和 vsock 技术,Kata 精简了大量的组件,配合轻量级 hypervisor 和精简内核,kata 能够大幅升高内存开销和容器启动工夫。更要害的是,升高零碎部署复杂度还大幅提高了稳定性,特地是在零碎重载状况下的稳定性。 ...

July 4, 2022 · 3 min · jiezi

关于云原生:全技术栈全场景全角色云原生系列培训重磅首发助力企业打造硬核云原生技术团队

近日,云原生畛域领军企业灵雀云独家推出面向中国企业用户的全栈云原生系列培训。此培训体系笼罩残缺云原生技术栈,将灵雀云数万小时的云原生实战经验稀释成60小时的精髓课程,从技术精讲、平台解读、利用场景和落地实际几个方面,为开发、运维等不同角色IT用户设计了清晰且更有针对性的云原生学习门路,满足不同层面的学习进阶需要。同时,该培训可能帮忙企业打造高价值云原生技术团队,使用云原生技术赋能企业应用翻新,独特为数字化转型减速。 据Gartner预测,到2025年,云原生平台将成为95%以上的新数字化打算的根底,而2021年这个比例还不到40%。同时,CNBPA最新调研也表明,在云原生落地的过程中,IT团队建设、专业技能培训将成为企业IT的关注焦点。在可预感的将来,企业对于云原生专业技能人才的需要会更加旺盛,IT团队也从服务角色变成引领业务翻新倒退的重要撑持。 为此,灵雀云开创性地推出了一站式全栈云原生系列培训,由数十位资深云原生技术专家耗时两年潜心打磨,融汇了数百家企业云原生转型的实战经验,并与云原生计算基金会(CNCF)的CKA/CKAD/CKS认证培训和国内DevOps认证培训全面接轨,面向企业中云原生平台的管理员、使用者、研发、运维、架构师等相干岗位人员,提供有针对性的培训和场景训练,让学员可能在疾速、系统地把握云原生基本知识及要害概念的同时,对于企业中lift & shift、Refactor和Rewrite等不同场景提供成熟的方法论和实操领导。 就在明天,灵雀云全栈云原生系列培训全网首发!让咱们一起来看看还有哪些亮点吧! 培训亮点01 全栈云原生技术培训本系列课程笼罩了残缺的云原生技术栈,学员不仅能够学到容器/K8s、DevOps、微服务等云原生核心技术及实际方法论,更有云原生网络、边缘计算、云原生数据服务等进阶课程继续更新。 02 全链路云原生实际领导放心只会实践,而不会实操?咱们提供的是从基础理论到架构设计,从平台应用到利用容器化革新的全链路培训,不仅有常识输入,还有手把手领导,解决企业上云原生的所有顾虑。 03 全场景云原生教训输入本课程根据企业云原生化转型的全阶段、全场景所需技能储备而设计,满足不同阶段、不同应用场景的用户需要,无论企业想要上云迁徙、利用容器化、还是微服务革新,都能在这里找到适宜的课程。 04 全角色云原生学习门路放心课程太通用,没有针对性?咱们对于企业中云原生平台的使用者、系统管理员、运维人员、利用开发人员、IT架构师等不同角色人员,制订了不同的学习门路,不便针对性学习。 本培训填补了国内一站式云原生培训体系的空白。无论您的IT团队刚刚有云原生转型志愿,还是有肯定技术背景但亟需实际领导,都能在本系列课程中取得全方位的技能晋升,助您打造一支成熟、业余、技术过硬的云原生团队,技能点霎时拉满! 报名征询入口点击此处,或扫描下方二维码,立刻报名,即刻开启云原生世界的大门!

June 30, 2022 · 1 min · jiezi

关于云原生:高校如何基于云原生构建面向未来的智慧校园

2022年全国教育工作会议以及《教育部2022年工作要点》明确提出,施行教育数字化策略口头。“数字化转型”作为我国教育领域的一项重要改革动作,将为教育高质量倒退注入新动力,成为2022年教育“关键词”。 在疫情的影响下,在线教育为人们更好地意识这个世界提供了帮忙,同时也为扭转这个世界提供了全新的办法与实现门路。高校等教育机构作为常识密集、网络信息技术使用充沛、思想活跃的前沿征地,其对教育资源的信息化、数字化也有着更高的要求,采纳先进的新兴技术减速智慧校园建设曾经成为各大高校的外围工作之一。 智慧校园的建设并非以数字化转型为目标,而是以云计算、物联网、大数据分析等新技术为支点,提供一种环境全面感知、智慧型、数据化、网络化、合作型一体化的教学、科研、治理和生存服务,并能对教育教学、教育治理进行洞察和预测的智慧学习环境,其本质是为了促成教育现代化、晋升教学体验和成果。 在智慧校园的建设中,有以下几个典型场景: 智慧校园数据中心:多以容器平台为底座,提供底层及集成服务,各类利用零碎运行于平台之上,实现对立的零碎登录、平安认证、数据交换与共享、服务入口,以便后续的数据治理。 挪动校园:集校园服务云平台、学生智能学习终端、家长手机客户端于一体,属于典型的边缘场景利用,提供不受时空限度的在线教育服务。 智慧校园信息门户:对外向公众提供各种服务,展现校园风采、传递校园动静,对内集成智慧校园上各类业务利用零碎、数据资源,为各类用户提供对立的服务入口,用户依据其不同的权限登录和拜访零碎,进行相干的零碎操作。 智慧资源管理:多采纳微服务架构,集分布式存储、资源管理、资源共享、在线学习为一体的综合性资源服务平台,可能实现对高校海量教育资源的对立治理,包含招生退学、学籍治理、造就治理、学位论文治理、导师治理、学生治理等环节,充沛满足高校研究生信息化建设的须要。 然而,传统的IT架构早曾经不能满足教育机构对于智慧校园的建设需要,如何突破信息孤岛、充分利用各项新技术来构建新一代智慧校园,已成为将来高校信息化策略所必须思考的问题。 云原生技术作为减速数字经济倒退的外围驱动力,能更大程度上帮忙教育机构随需而变、麻利迭代,与AI、大数据、边缘计算的有机联合,更是能够无效实现零碎架构的对立、数据的对立治理,独特为放慢高校智慧校园的麻利化、智能化、信息化建设提供无力撑持。 本篇文章就将和您深入探讨高校如何利用云原生技术减速智慧校园建设。 高校信息化建设挑战重重以后,高校信息化建设的主要矛盾之一,是在以后数字化大倒退的背景下,品种和数量都疾速减少的高校信息化利用,和以后高校信息化经费投入以及本身技术撑持能力之间的矛盾。 随着高校信息化的日益深刻,高校的业务利用品种和数量也随之减少,信息门户、挪动校园、在线学习、资源管理等利用模式也越来越丰盛,拜访路径也扩大到了手机、平板等更多智能终端,然而因为高校的信息化经费投入无限,从某种程度上来说也限度了其本身技术撑持能力的倒退,业务利用需要的指数型减少和技术人力的无限投入存在着肯定的差距。 以往的传统技术架构曾经不足以撑持以后信息化业务的多元、麻利需要。在深入信息化建设的过程中,高校面临着重重的建设挑战,具体有以下几个方面: 首先,在数字化转型规划设计方面,很多高校等教育机构在开发运维流程、零碎架构、数据治理、利用迭代等方面的建设尚未造成标准化、现代化的标准体系,布局和治理难度较大。 其次,在团队建设方面,教育机构面临着用大量人员实现海量工作的微小挑战,现有开发运维人员的工作压力极重。 再者,在信息化平台建设方面,因为信息化利用急剧减少,高校外部管理信息系统可能存在各自宰割、不均衡不兼容、信息孤岛等景象。 另外,在师生信息化服务体验方面,因为投入无限,利用的开发和运维面临着较大的工作压力,有时可能会呈现不能疾速迭代、及时满足业务需要的状况;古老的师生信息化业务也为教学发展和师生学习生存带来了诸多不变,零碎宕机、长期故障都可能导致师生的信息化体验受到影响,利用的满意率无奈保障。 最初,在信息化经费投入方面,高校信息化建设经费总量无限,但信息化建设的老本过高,不利于信息化我的项目的继续开发、麻利迭代。 如何应答上述挑战?国内出名权威剖析机构Gartner也在预测中表明,在疫情的影响下,寰球容器治理市场一直增速,对更高水平的翻新、敏捷性和弹性的需要将导致更多企业采纳基于云的容器治理服务,这一比例将在2025年达到85%。 为更好地应答上述信息化挑战,越来越多的教育机构开始步入云原生化的过程,采纳以容器为代表的云原生技术已成为高校减速信息化建设的必然选择。越早采纳容器技术的高校不仅能够无效解决上述矛盾,还将在信息化、数字化转型中取得更多劣势。以容器为外围的云原生平台可能为高校的外围业务利用提供平安、稳固、高可用性的技术撑持,对于开发人员来说更加利于麻利迭代,对于运维人员来说更加易于保护和治理,对于业务侧也能大幅晋升利用的可用性和创新能力。无论是从资源配置优化角度,还是从企业麻利经营角度来看,云原生都是高校减速信息化、实现降本增效的现实赋能工具。 通过构建教育行业全栈云原生平台,能够标准区域或学校的教育信息化零碎建设,造成围绕教育行业的更为欠缺的信息化体系,并进一步晋升教育信息化建设的利用实效。然而,教育行业云平台的建设,不能单纯地只从技术角度来思考零碎的建设,而是应该站在整体业务倒退角度,综合运维治理难度、利用可用性、工作效率、建设老本、转型门路等因素来进行全盘考量。 咱们先来看一组全栈云原生架构和传统IT架构特点的直观比照,以典型的数据中心场景为例,为什么当今很多教育企业都抉择拥抱全栈云原生呢? 全栈云原生平台 VS 传统数据中心 从上图中不难看出,云原生架构不仅能够躲避掉很多传统架构的弊病,还能通过和大数据的联合开释出更大能量,更适宜新时代教育行业的敏态IT需要,可能在更短时间为教育机构的信息化建设装上加速器。 在理论落地过程中,倡议先基于现有的教育业务进行一站式全栈云原生平台建设,由云原生平台的全局治理集群提供以容器网络、容器存储、容器利用、容器化部署的数据中间件服务、与容器技术联合的DevOps开发交付平台、基于容器化部署微服务利用的全生命周期治理、以及对立监控运维的能力。如果主业务和大数据业务都进行容器化革新,那么就能够通过一站式全栈云原生平台(例如灵雀云ACP)进行对立的治理,实现上述所有性能。 同时,高校拥抱云原生技术的过程,也是拥抱开源的一个过程。对于高校来说,学习理解云原生与开源是必要的,但因为新技术、新利用的学习和试错老本较高,倡议落到理论教育业务发展时,更多思考借助成熟的商业化云原生产品疾速赋能业务。引入业余的云原生技术厂商,可能更好地利用其产品化劣势和弱小的技术实力,放慢高校本身云原生化转型的步调,全面晋升开发、运维、经营的能力和品质,撑持业务利用的继续翻新和疾速迭代。 作为备受各大企业青眼的云原生技术厂商之一,灵雀云领有成熟的全栈云原生能力和丰盛的落地实践经验。灵雀云打造的全栈云原生公有云平台ACP蕴含容器、微服务、DevOps、数据中间件等外围能力,各能力无缝集成,高度自洽,开箱即用,自主可控,截至目前已帮忙数百家头部知名企业客户减速数字化转型。 在生态体系建设方面,灵雀云也始终秉持着凋谢单干、交融翻新的技术理念,愿和上下游教育行业ISV一道,一直打磨云原生技术的新场景、新利用,独特打造更适宜教育行业场景的云原生解决方案,让高校和教育机构充沛享受云原生等新技术的红利,为教育行业信息化再添新生机! ISV合作伙伴申请 点击此处或扫描下方二维码,独特开启云原生时代企业数字化转型新篇章。 高校征询试用 点击此处,立刻获取为您独家定制的教育云原生落地转型计划!

June 29, 2022 · 1 min · jiezi

关于云原生:首届-TechoDay-腾讯技术开放日云原生大数据等基础产品一键配置发布-7-款轻量级产品

在云上时代,开发者亟需更便捷、“轻量级”的工具,升高反复开发的困扰。6 月 28 日,在首届 TechoDay 腾讯技术开放日上,腾讯公布了一系列对开发者敌对的“轻量级”产品,其中波及云原生、机器学习、音视频、大数据等多个畛域,将腾讯多年自研产品的底层能力开释给开发者。 腾讯公司高级执行副总裁、云与智慧产业事业群 CEO 汤道生示意: “咱们心愿提供一个真正懂程序员需要的交流平台。腾讯云也在过来这几年,一直推出更多的研发工具,冀望通过易用、前沿的技术和工具,帮忙开发者解决遇到的难题,低门槛实现对数字世界的创想。”云原生、大数据等根底产品一键配置助力研发效力晋升75%过来,开发者搭建利用,须要创立服务器、配置网络、装置应用软件、数据库、Web 服务器等,再进行各种环境配置,会消耗大量的人力物力资源。 云的呈现,为软件开发提供了标准化的基础设施、对立的架构,也让开发工具链对立和开发工程化,有了实现的根底。在云上时代,传统流程能够大幅度缩减,通过“轻量级”工具一键配置实现。 例如,腾讯云的 CODINGDevOps 平台,也在助力研发和运维的自动化,帮忙产品公布工夫,从过来以“季度”、“年”为单位,缩短到以“天”或者“周”为单位。 在 CODING 平台上,麻利项目管理、测试治理、继续集成、制品库、继续部署、利用生命周期治理等性能,在同一个平台上实现,这让团队研发工具建设老本降落 82.7%,研发效力晋升 75%,产品交付效率晋升了 68%。 在本届 TechoDay上,Orbit 云原生利用治理平台全新公布了云原生利用建模、反对数据库变更引擎、多云对立观测立体等多种重磅个性,助力开发者轻松应答云原生利用交付与运维的痛点。 同时,在海量数据需要的场景下,腾讯云重磅公布全新降级的全托管数仓产品—— CDWClickHouse,该版本填补了 ClickHouse 后续扩容的技术空白,能够为用户提供低成本、高吞吐写入、百亿规模毫秒级的大数据分析服务,晋升用户在海量数据实时剖析场景下的极速体验。 AI、音视频、物联网、虚构仿真等能力模块化服务不同业务场景数字技术正在产生微小的改革,AI、音视频、虚构仿真等技术,越来越多地融入到创新性产品和服务中。但这些技术研发门槛高,从 0 到 1 的搭建消耗大量的工夫与老本。腾讯云正在在将多年积攒的 AI、音视频、虚构仿真等能力模块化,放到云端,让开发者一键调用。 针对 AI 场景需要,腾讯公布机器学习平台——腾讯云TI平台私有云版本,提供一站式的 AI 训练和推理能力,并在 CV、NLP 等模型推理场景中,为算法或者运维工程师提供多种框架的减速能力,减速比能够达到 200%+。 在音视频畛域,腾讯云视立方·播放器 SDK 向开发者提供低代码的“腾讯视频”同款内核播放器,相比零碎播放器性能晋升 30% 以上,宽泛实用于泛娱乐、电商、教育等多种点、直播场景。 同时,云创多媒体创作引擎在视频生产治理、在线审核、经营治理、AI 解决等多个维度进行了降级。目前,腾讯云创平台已服务超过 500 个企业级客户,累计服务用户超过 20 万。此次,云创买通视频存储数量高达 200 亿多条的腾讯云 VOD(点播)服务,为用户创作带来更多可能性。 在物联网畛域,腾讯公布了首个物联网设施洞察剖析产品 IoTInsight,以轻简流程实现物联网设施资产数字孪生建模、设施资产数据分析、设施告警解决、设施仪表盘可视化等一站式产品服务,可广泛应用于工业、能源、园区、政务、交通、地产等不同行业场景。 在虚构仿真畛域,腾讯公布了主动驾驶虚构仿真零碎 TADSim(教育版),含有为高校提供的专用软件包,可能补救院校实践学习与实际的鸿沟。其价格成本低、功能强大,更贴近工业仿真软件,也有更适宜科研、教学应用的功能模块、接口。 与小程序深度买通云开发、低代码成行业趋势凭借易于应用、高效率、低成本等诸多劣势,云开发模式正受到越来越宽泛的抉择。不论是集体开发者还是组织、机构,都能够借此实现更为高效的开发,充沛享受上云带来的高效率和低成本。 以小程序为代表的微信生态,是开发者关注的技术热点。腾讯云和微信联合推出的云开发,服务了数百万开发者,成为微信开发者首选的一站式 Serverless 开发平台,日调用量超过 30 亿。 腾讯云开发网关,将网络减速、平安风控、流量治理等性能整合起来,让开发者能够更加轻便的接入,帮忙泡泡玛特等客户抵挡灰产刷限量款牟利,晋升用户拜访体验,网络申请成功率晋升至 99.9% 以上。 ...

June 29, 2022 · 1 min · jiezi

关于云原生:Curve-替换-Ceph-在网易云音乐的实践

Curve 块存储已在生产环境上线应用近三年,禁受住了各种异样和极其场景的考验,性能和稳定性均超出外围业务需要预期 网易云音乐背景网易云音乐是中国当先的在线音乐平台之一,为音乐爱好者提供互动的内容社区。网易云音乐打造了一个大型、富裕生机且坚硬、疾速成长的业态,为用户提供以社区为核心的在线音乐服务及社交娱乐服务。其标志性重点产品包含 “网易云音乐” 及从属的社交娱乐产品,如 “LOOK 直播”、“声波” 及 “音街”,通过科技驱动的工具让音乐爱好者自主挖掘、享受、分享并创作不同的音乐和音乐衍生内容,并与别人互动。 云音乐云盘业务背景云音乐应用云盘的业务次要包含主站、UGC、曲库等 Java 利用,其中主站是云音乐外围业务,须要提供最高等级的 SLA 保障(年可用率 >=99.99%),面对提供上亿级用户量稳固的云音乐体验,这始终以来也是咱们的重难点。2019 年之前云音乐次要应用 Ceph 云盘,家喻户晓,Ceph 在大规模场景下存在性能缺点,且很难保障咱们在各种异样 (坏盘慢盘、存储机宕机、存储网络拥塞等) 场景下云盘 IO 响应时延不受影响;Ceph 云盘的 IO 抖动问题,咱们曾尝试花很多人力精力做优化革新,但都只是略微有所缓解,无奈彻底解决;性能问题也投入大量人力进行剖析优化,但依然不能达到预期,因而咱们才立项理解 Curve 块存储分布式存储系统。 Curve 块存储介绍Curve 块存储能够良好适配支流云计算平台,并且具备高性能、易运维、稳固不抖动等劣势。咱们在理论利用中,应用 Curve 块存储对接 Cinder 作为云主机云盘存储后端,对接 Nova 作为云主机系统盘,对接 Glance 作为镜像存储后端。在创立云主机过程中,Nova 会通过 Curve 块存储提供的 Python SDK 克隆出新卷作为云主机系统盘应用。在创立云盘过程中,Cinder 会通过 Python SDK 创立空卷或者通过已有的卷快照克隆出新卷,之后能够挂载到云主机上作为云盘应用。云主机应用 Libvirt 作为虚拟化管控服务,应用 QEMU/KVM 作为虚拟化引擎。Curve 块存储为 Libvirt/QEMU 提供了驱动库,编译后就能够间接应用 Curve 卷作为远端存储,不须要把 Curve 块存储卷挂载到本地。 为什么抉择 Curve业务侧i. 依据咱们云音乐利用场景,Ceph 云盘次要存在二大痛点: 性能差:因为单卷性能差(次要是 IO 时延高,IOPS 上不去,并且容易受到集群内其余高负载卷的影响),因而只能用于系统盘,或者作为云盘供给用打印日志,无奈撑持中间件业务应用。 ...

June 28, 2022 · 2 min · jiezi

关于云原生:Dapr源码解析五分钟快速添加并启动新组件

明天跟大家分享一个小教程,如何本人入手写一个新组件,并加载到Dapr runtime。 后期筹备对于Dapr runtime的启动过程,如何加载和实例化组件能够参考之前写的文章Dapr runtime 启动过程Dapr开发环境配置,能够参考Dapr 开发环境配置开始编码克隆Dapr和 component-contribcd $GOPATH/src# Clone daprmkdir -p github.com/dapr/daprgit clone https://github.com/dapr/dapr.git github.com/dapr/dapr# Clone component-contribmkdir -p github.com/dapr/components-contribgit clone https://github.com/dapr/components-contrib.git github.com/dapr/components-contrib编写组件假如,咱们组件名字叫:Mytest首先在component-contrib我的项目下,创立mytest包。 在mytest文件夹创立接口束缚文件:github.com/dapr/components-contrib/mytest/mytest.gomytest组件提供两个办法,Init和Infopackage mytesttype Mytest interface { // Init this component. Init(metadata Metadata) // Info show method Info(info string)}metadata.go:接管组件配置文件YAML中定义的Metadata字段package mytesttype Metadata struct { Properties map[string]string `json:"properties"`}3.为mytest组件提供两种实现形式:demof和demos 在mytest包里创立demof包和demos包,别离在demof.go和demos.go实现Mytest组件demof.go package demofimport ( "github.com/dapr/components-contrib/mytest" "github.com/dapr/kit/logger")type Demof struct { logger logger.Logger}func NewDemof(logger logger.Logger) *Demof { d := &Demof{ logger: logger, } return d}func (d *Demof) Init(metadata mytest.Metadata) { d.logger.Info(metadata)}func (d *Demof) Info(info string) { d.logger.Info("this is Demof, I received %s", info)}demos.go ...

June 23, 2022 · 4 min · jiezi

关于云原生:clientgo-gin的简单整合十Update

背景实现了client-go gin的简略整合九-Create的namespace deployment pod的 创立操作,当初进行一下update批改的操作! update namespace以某 ns为例减少一个标签对于namespace,咱们用的最多的标签是name 和labels(恩后面我还做过配额的例子,这里就简略的拿labels为例了) [zhangpeng@zhangpeng k8s-demo1]$ kubectl get ns --show-labelsNAME STATUS AGE LABELSdefault Active 53d kubernetes.io/metadata.name=defaultkube-node-lease Active 53d kubernetes.io/metadata.name=kube-node-leasekube-public Active 53d kubernetes.io/metadata.name=kube-publickube-system Active 53d kubernetes.io/metadata.name=kube-systemzhangpeng Active 1s kubernetes.io/metadata.name=zhangpengzhangpeng1 Active 3h21m kubernetes.io/metadata.name=zhangpeng1如果去update批改namespace咱们罕用的应该是批改namespace的labels,以zhangpeng namespace为例,我想减少一个name=abcd的标签/src/service/Namespace.go package serviceimport ( "context" "fmt" "github.com/gin-gonic/gin" . "k8s-demo1/src/lib" v1 "k8s.io/api/core/v1" metav1 "k8s.io/apimachinery/pkg/apis/meta/v1" "time")type Time struct { time.Time `protobuf:"-"`}type Namespace struct { Name string `json:"name"` CreateTime time.Time `json:"CreateTime"` Status string `json:"status"` Labels map[string]string `json:"labels"` Annotations map[string]string `json:"annotations"`}func ListNamespace(g *gin.Context) { ns, err := K8sClient.CoreV1().Namespaces().List(context.Background(), metav1.ListOptions{}) if err != nil { g.Error(err) return } ret := make([]*Namespace, 0) for _, item := range ns.Items { ret = append(ret, &Namespace{ Name: item.Name, CreateTime: item.CreationTimestamp.Time, Status: string(item.Status.Phase), Labels: item.Labels, }) } g.JSON(200, ret) return}func create(ns Namespace) (*v1.Namespace, error) { ctx := context.Background() newNamespace, err := K8sClient.CoreV1().Namespaces().Create(ctx, &v1.Namespace{ ObjectMeta: metav1.ObjectMeta{ Name: ns.Name, Labels: ns.Labels, }, }, metav1.CreateOptions{}) if err != nil { fmt.Println(err) } return newNamespace, err}func updatenamespace(ns Namespace) (*v1.Namespace, error) { ctx := context.Background() newNamespace, err := K8sClient.CoreV1().Namespaces().Update(ctx, &v1.Namespace{ ObjectMeta: metav1.ObjectMeta{ Name: ns.Name, Labels: ns.Labels, }, }, metav1.UpdateOptions{}) if err != nil { fmt.Println(err) } return newNamespace, err}func CreateNameSpace(g *gin.Context) { var nameSpace Namespace if err := g.ShouldBind(&nameSpace); err != nil { g.JSON(500, err) } namespace, err := create(nameSpace) if err != nil { g.JSON(500, err) } ns := Namespace{ Name: namespace.Name, CreateTime: namespace.CreationTimestamp.Time, Status: string(namespace.Status.Phase), Labels: nil, Annotations: nil, } g.JSON(200, ns)}func UpdateNameSpace(g *gin.Context) { var nameSpace Namespace if err := g.ShouldBind(&nameSpace); err != nil { g.JSON(500, err) } namespace, err := updatenamespace(nameSpace) if err != nil { g.JSON(500, err) } ns := Namespace{ Name: namespace.Name, CreateTime: namespace.CreationTimestamp.Time, Status: string(namespace.Status.Phase), Labels: namespace.Labels, Annotations: nil, } g.JSON(200, ns)}创立updatenamespace办法 UpdateNameSpace servicemain.go创立路由: ...

June 22, 2022 · 5 min · jiezi

关于云原生:天翼云探索云原生边缘计算融合新思路

6月15日,由中国信息通信研究院、中国通信标准化协会主办的云原生产业大会在线上胜利举办。 天翼云研发三部副总经理鄢智勇、天翼云研发三部研发专家胡建锋发表了演讲,别离就当今时代算力的重要性和云原生在算力网络中的实际、云原生技术发展趋势以及天翼云的翻新动作进行了分享。 数字化转型脚步放慢,云原生在行业的落地利用随之深刻。云原生技术作为数字技术倒退“内核”,一直促成构建泛在化、多样化、统一化的算力基础架构,驱动传统行业技术和业务交融,进一步推动企业数字基础设施降级,可能大幅度晋升利用迭代速度,解放生产力,赋能新兴业务场景。云原生能力正逐渐下沉至边缘,造成云边协同布局,减速边缘业务翻新。 近来,天翼云全面拥抱云原生、边缘计算技术,并将其广泛应用于内外部产品及平台中。在构建CDN产品方面,天翼云打造了云原生和边缘交融的行业新范式,实现了外围业务零碎和边缘业务的全面云化。通过规模化利用云原生技术,天翼云赋能10000+节点,使能CDN从传统架构全面转型为云原生,构建了大规模生产云边协同示范利用,整体推动运维效率晋升62%,研发效力晋升60%,资源利用率晋升42%。 在赋能边缘云方面,天翼云基于云原生技术架构打造了一朵分布式的、云网交融的、云边协同的智能边缘云,目前领有近800个节点,承载了所有边缘云的能力。同时,天翼云一城一池预置大量带宽接入骨干网,可能为企业就近提供边缘数据和视频接入。 云原生技术倒退一直赋能产品,也推动着行业更深层次的技术改革。 数字经济时代,算力作为新兴生产力,为各行各业带来了微小的经济效益,在云原生与边缘计算充沛交融的趋势下,实现算力与网络一体化全局智能调度成为重中之重。而算力网络就像操作系统,可屏蔽底层资源差别,对立调度资源,简化利用开发难度,为终端用户提供更丰盛更便当的利用生态。 天翼云自主研发的算力散发网络“息壤”,以“随愿算网”的形式,通过算力资源管理平台对边缘算力、核心算力、客户现场等资源进行对立治理和调度,实现算力一体化全局智能调度,促成云原生和边缘计算深度交融。 此外,天翼云提供可定制的策略编排、灵便的资源建模,以及多层次的资源底座,通过多层次、多维度的算网大脑调度策略,促成以算力为根底的数字中国建设。 基于上述劣势,“息壤”可充分运用在云原生CDN、云渲染、云通信、云压测等功能模块,以及东数西算、AI智能算力、利用减速、批量计算等场景中。具体利用时,“息壤”具备更低时延、更大宽带、更高效率和智能调度等特点,为行业带来微小的经济效益。 数字化浪潮席卷而来,云原生带动了技术架构、利用效力与云化效益的全方位晋升,促成云数智深层次交融倒退。天翼云作为云服务国家队,将紧跟技术发展趋势,减速云原生与本身产品、技术交融,为行业、企业带来新的倒退思路,推动数字化转型过程。

June 22, 2022 · 1 min · jiezi

关于云原生:Nebula-Graph入驻阿里云计算巢助力企业打造云上超大规模图数据库

近日,阿里云计算巢正式通过了国产开源分布式图数据库 Nebula Graph的 “云合打算”合作伙伴认证,迎来了首家图数据库基础设施软件合作伙伴。 Nebula Graph 是由杭州悦数科技有限公司自主研发的开源图数据库,平安可控,其外围代码采纳 Apache 2.0 协定开源。Nebula Graph 可灵便加载不同数据源的数据,反对 Spark、Flink、HBase 等多种周边大数据生态。它是世界上惟一可能包容千亿个顶点和万亿条边,并提供毫秒级查问延时的图数据库解决方案。美团、京东科技和快手等大型互联网科技公司都曾经在生产环境应用 Nebula Graph 来进步他们的图数据处理能力。 随着企业上云的趋势倒退,企业对云原生图数据库的需要日益减少。开源三年多以来,Nebula Graph 在打磨产品服务好社区用户的同时,致力于打造一款企业级安全可靠的图数据库。基于阿里云计算巢的Nebula Graph 服务是 Nebula Graph 在国内公布的第一款数据库即服务(DBaaS)产品。 基于阿里云计算巢的Nebula Graph服务将容许企业用户一键在云平台创立企业级的图数据库集群,屏蔽了数据库部署、性能调优、运维等繁冗过程,并在几分钟外在云上创立一个图数据库,疾速扩大计算、存储等资源。借助阿里云的基础设施劣势,还可将Nebula Graph 在面对超大规模数据处理时的高吞吐、低时延劣势充分发挥进去。 同时,Nebula Graph 还应用计算巢自动化高可用的容灾方案设计,晋升了业务可靠性,实现服务流程可审计、可追溯,打造可信赖的企业服务。Nebula Graph服务同时集成了多款Nebula周边可视化图数据库管理工具,助力企业疾速从数据中取得洞察力。 “Nebula Graph 是一个牢靠的分布式、线性扩容、性能高效的图数据库,其 Shared Nothing 和存储计算拆散的底层架构让它具备了云原生的特色,能够无效降低成本和弹性扩缩容。同时,作为一个数据库产品,底层基础设施的稳定性以及安全性对于客户来说至关重要。阿里云是国内当先的云计算提供商,咱们看重其稳固的基础设施和安全性,此次与阿里云计算巢的单干 ,通过计算巢更高效地利用底层资源的弹性扩缩容能力以及便捷的服务编排等能力,能够使咱们的客户更能够释怀、省心地应用基于云上的Nebula Graph产品。”Nebula Graph 创始人兼CEO 叶小萌示意。 目前,曾经有上百家ISV合作伙伴接入计算巢平台,包含极狐GitLab、金蝶、数云CRM、PingCAP、蓝凌OA、Fortinet、Avaya、Memverge等。将来,阿里云将继续与ISV合作伙伴严密单干,通过计算巢共筑云上生态,与合作伙伴一起为客户发明更大价值。 点击这里,登录阿里云计算巢体验。

June 21, 2022 · 1 min · jiezi

关于云原生:智能制造的下一站云原生边缘计算双轮驱动

云边协同减速工业数字化近年来,在国家新倒退格局和数字化转型的驱动下,越来越多的工业制作企业在云计算、大数据、人工智能和5G等技术的独特作用下继续发展工业数字化变革。以新一代信息技术与先进制作技术深度交融为基本特征的智能制作,已成为新时代工业数字化的外围驱动力。 相应地,作为智能制作倒退的重要基石,边缘计算、云原生、分布式云也正在迅猛发展,采纳热度一直进步、技术日趋成熟、利用场景日益丰盛,成为推动数字经济倒退的重要引擎。 据Gartner预测,在数据中心和私有云基础设施之外的分布式设施、服务器或网关中执行的数据和剖析流动将日益减少。它们越来越多地位于边缘计算环境,更加凑近数据和相干决策的创立和执行地点。边缘计算正在更多的客户环境中施行,发明支出、节俭资金、进步安全性和客户体验,并启用全新的应用程序和数据模型。 IDC预测也表明,寰球边缘解决方案的硬件、软件和服务收入将持续增长,随着数字优先组织寻求在数据中心之外进行翻新,边缘计算持续取得能源,预计到 2025 年收入将增长到 2740 亿美元。 同时“十四五”布局中也明确指出要“协同倒退云服务与边缘计算服务”,云边协同曾经成为将来重要演进方向,特地是在工业畛域,云边协同更是逐步成为撑持工业互联网倒退的重要支柱。工业互联网作为物联网在工业制作畛域的延长,也继承了物联网数据海量异构的特点。在工业互联网场景中,边缘设施只能解决部分数据,无奈造成全局认知,在理论利用中依然须要借助云计算平台来实现信息的交融。 然而,传统的技术计划曾经无奈满足当今工业制作企业面对性能、效率的严苛要求,云原生边缘计算的呈现则能完满补救边缘侧对数据疾速解决 、疾速迭代更新的麻利要求。 为什么说云原生边缘计算是云边协同最优解?边缘计算在过来几年经验了极为疾速的技术演进,与云原生的联合将能让边缘计算更好的排汇云、大数据和AI的成绩,并让后者进一步扩大利用范畴。随着产业数字化的蓬勃发展,云原生边缘计算必然会将更多的翻新带入更多企业,成为推动数字化、智能化的要害力量。 边缘计算满足边缘侧对数据疾速解决、决策疾速执行的要求。边缘计算在智能制作中的次要性能有5点:数据存储、边缘业务低时延、多接入协定互转、及时剖析、边缘管制。基于边缘计算的性能特点,它可与5G双剑合璧实现厂内AGV联网、可利用图形处理能力实现边线质检、也可实现海量IOT数据本地解决。实质上,边缘计算是分布式计算的一种利用形式,将计算能力下沉至终端设备左近。 云原生作为数字经济时代的现实赋能工具,通过开发模式、零碎架构、部署模式、基础设施、组织文化等一系列的自动化演进和迭代,可能帮忙企业用更短的工夫获得更大的功效,让企业更疾速、更敏捷地进行业务翻新,从资源配置优化、麻利经营等多角度、全方位地助力企业降本增效。 云原生和边缘计算的有机联合,可能帮忙企业更疾速地实现IT化卓越经营,不仅能够提供对立的管控平台(基础设施、利用和云服务),反对任何工作负载(虚拟机、容器、微服务、无服务器、数据服务、机器学习),而且还能够实现灵便地定义基础设施和利用平台、规模化地治理平安及合规性政策,企业得以将更多的精力聚焦于业务翻新和业务倒退,IT部门也从传统的老本核心转为利润核心,帮忙企业发明更大的业务价值。 云原生与边缘计算如何完满交融?通常,边缘计算和云原生技术可在以下几点联合: 1.边缘集群对立治理:基于Kubernetes底座部署的云原生核心云平台可实现边缘集群资源的治理,边缘节点的资源都能够被核心云平台对立治理和经营。 2.利用对立治理:通过容器平台和双栈治理架构实现对虚机利用、单体利用、分布式应用、微服务利用等治理。 3.利用开发交付治理:利用容器化后可通过DevOps能力实现利用疾速开发交付。 4.边缘利用协同治理:边缘集群上的利用由云平台进行对立治理,实现边缘利用批量散发到多个边缘集群。 5.边缘自治:云边断网的状况下,不影响边缘集群业务运行,边缘集群能够实现边缘自治,利用的故障自愈和弹性伸缩。 6.轻量数据对立治理:Kubernetes云平台可通过CSI接口对接各种类型的存储设备,此外还可通过Topolvm等技术将本地存储对立治理起来。不光使边缘节点具备肯定的数据存储能力,还可定期将边缘节点的不沉闷数据传到核心云平台对接的数据存储核心,从而满足智能制作场景对于数据存储的需要。 7.智能协同:基于Kubernetes的云平台部署AI协同计算平台,实现核心端AI计算平台与边缘集群AI利用协同工作。 8.海量设施对立治理:基于开源的Kubernetes云平台具备凋谢、灵便、可拓展的特点,其丰盛的生态社区能够满足智能制作场景对于存储设备、工厂设施、IoT设施、AI等对接的需要。 灵雀云的云原生边缘计算场景摸索为进一步放慢智能制作企业数字化转型步调,灵雀云在智能制作云原生边缘计算场景也进行了深刻摸索、积攒了丰盛的落地实践经验,并将于近日正式推出边缘计算解决方案,感兴趣的敌人们也能够关注一下。 简略来说,边缘计算解决方案能够大抵分为以下3个档次: 1. 对立的云端SaaS管控平台,管理员能够登录该管控平台监控、治理和运维企业内所有K8s集群。该平台为可选项,一些窃密环境的用户能够抉择不连贯该平台; 2. 企业内边缘计算对立管控平台,该管控平台能够实现边缘Kubernetes集群、利用、资源的对立治理,并实现边缘利用批量治理和下发; 3. 边缘集群,适宜于加油站、收费站、厂房、产线等边缘场景,能够在1台及以上服务器上搭建边缘计算平台,提供对立存储、网络、容器、虚拟机计算能力。并且一键式从云端下推中间件、数据库、利用到边缘集群。 云边协同工业互联网PaaS平台实际范本以吉利团体为例,在工业互联网的背景下,吉利团体依靠灵雀云的容器和微服务相干技术,构建了一个能力凋谢的 PaaS平台。平台蕴含4个局部: · DevOps平台:提供从代码到构建到交付全流程,以及不同环境下的治理能力,实现业务需要的疾速响应,晋升利用的疾速迭代和交付的能力,升高开发的投入等。 · 利用撑持平台:基于多租户的集群治理、配额治理、资源调度等能力,实现不同的开发团队在同一套平台上构建或者部署业务利用的需要。 · 对立的监控平台:反对将多种业务零碎交融到对立平台进行治理,须要监控平台提供相应业务利用的监控、告警日志,也包含计量计费的性能。 · 构建凋谢的能力:依靠容器平台提供凋谢能力,把不同的服务通过API接口网关的模式,对内或者对外提供平安、稳固、凋谢的API服务。 对于吉利团体来说,基于灵雀云容器云、DevOps、容器利用撑持、中间件能力,以及凋谢的API接口,打造了团体工业互联网简单利用的对立底座,同时取得了微小收益: 首先减速了业务的交付,实现可构建、施行、公布,亦即利用疾速公布的核心理念。 第二可能在平台上构建相应的中间件服务,升高利用研发的老本,进步利用的劣势。 第三可能提供全维度的统计和剖析,包含计量计费和租户管控等,进步了经营的效率。 第四实现经营化的IT,平台提供的资源底座,可能实现资源的共享、弹性的调度,进步资源的利用率。 第五实现将来的云边协同根底,边缘计算场景、跨云的演进须要灵便、平滑的合作,平台撑持边缘计算场景的疾速落地,满足外围业务的疾速上线。 征询试用 点击此处,立刻定制属于你的云原生边缘计算解决方案。

June 20, 2022 · 1 min · jiezi

关于云原生:DevStream-进入-CNCF-沙箱探索云原生时代的高效-DevOps-实践

2022 年 6 月 15 日,云原生计算基金会 (CNCF) 发表 DevStream 正式成为 CNCF 沙箱(Sandbox)我的项目。 DevStream 是一个开源的 DevOps 工具链管理器,能够通过一个简略的配置文件,将软件研发生命周期中各环节的 DevOps 工具对立治理起来,实现各工具的疾速装置部署、工具间整合、最佳实际配置等工作。 许多研发团队可能会在 DevOps 工具链治理中遇到挑战,例如: 不晓得如何抉择 DevOps 工具没有足够的人力、工夫去调研大量 DevOps 工具在 DevOps 工具链的整合和保护上力不从心DevStream 次要解决开源 DevOps 工具链落地难、保护难的痛点,一方面让开发者少在 DevOps 工具上踩坑,投入更多的精力在更重要的业务逻辑上;另一方面让研发团队不再受限于保护和替换老本,可能更自在地抉择最合适的工具组合,使效力最大化。 次要个性为了反对 DevOps 工具链的灵便高效治理,DevStream 具备以下个性: 配置代码化:对立治理 DevOps 各环节工具,工具链变更历史可回溯Core-Plugin 架构:内核与插件解耦,使 DevOps 工具链像乐高一样灵便可定制易于应用:最佳实际积淀为工具配置,不便用户开箱即用,例如 GitOps 工具链的疾速搭建 自 2022 年 2 月上线 v0.1.0 并开源以来,DevStream 高速迭代。在本次进入沙箱之前,DevStream 已于 5 月中旬退出 CNCF 云原生全景图的自动化和部署工具类别。 目前, DevStream 更新至 v0.6.1,并新增以下要害性能: 更丰盛的插件反对,已反对 JIRA/Trello 治理我的项目与事务并买通 GitHub/GitLab Golang 脚手架生成、Jenkins/GitHub Actions/GitLab CI 治理 CI 流程等一系列工具插件,且还在继续新增中。更欠缺的命令集更成熟的插件治理逻辑,主动感知并评估工具的状态变更,可作为 single source of truth 一站式治理各工具插件更弱小的配置管理逻辑,反对插件之间的依赖治理与配置援用等 ...

June 17, 2022 · 1 min · jiezi

关于云原生:龙蜥社区成立云原生-SIG引入-3-大核心技术共建云原生生态

随着容器技术的飞速发展,云原生的生态日益凋敝,大家对云原生概念都已不再生疏。简言之,云原生是一种能够充分利用云计算劣势来构建和运行利用的形式,有利于用户在私有云、公有云和混合云等新型动静环境中,构建和运行可弹性扩大的利用,代表技术包含容器、不可变基础设施、申明式API、服务网格等。 云原生产业联盟报告显示,云原生技术畛域的建设投入、集群规模正在逐步减少,有超过 70% 的企业在生产环境中应用容器技术,容器扩大了云的边界。在这样的大趋势下,龙蜥社区(OpenAnolis)正式成立云原生 SIG,致力于提供云原生能力和组件的反对,与宽广开发者一起构建具备竞争力的云原生技术,帮忙用户更快、更好地利用云原生技术构建利用集群。 云原生 SIG 地址:https://openanolis.cn/sig/clo... 云原生 SIG 指标云原生 SIG 本着凋谢、中立的准则,探讨云原生技术和业务趋势,继续将有竞争力的技术组件引入到龙蜥社区,包含但不限于: 集群部署和减速相干技术:如 Sealer、CNI、CSI、Nydus、LifseaOS 等,能够开箱即用,实现一键式分钟级集群搭建与扩容;容器编排相干技术:如 Koordinator,联合龙蜥 Anolis OS 构建混部计划,助力晋升计算资源利用率;平安容器相干技术:如 Kata 等,加强云原生容器平安能力。面向云场景用户与宽广开发者,云原生 SIG 从集群、容器、操作系统提供自上而下的全栈优化,和易用、好用、平安的集群计划。当然,云原生 SIG 不仅仅为云场景用户提供云原生的组件和能力,而且更重要的是与宽广开发者一起依据云原生场景和业务趋势做决策,共建整个云原生生态。 一句话概括,云原生 SIG 将整合龙蜥社区的云原生劣势能力,输入开箱即用的龙蜥云原生发行版,联合用户需要输入大数据、混部等场景的解决方案,帮助用户能更快更好应用云原生技术构建利用集群。 SIG 成员介绍Maintainer: 胡伟(英特尔)、任桥伟(英特尔)、朱江云(英特尔)、王磊(统信软件)、彭涛(蚂蚁团体)、查斌(阿里云)、崔元桢(阿里云) 云原生 SIG 布局基于龙蜥社区云原生 SIG 的指标,咱们在提供云原生组件上有以下布局: 第一阶段:从根底单机组件、根底集群组件作为开始,构建基于龙蜥操作系统集群环境;第二阶段:基于差异化组件提供更具竞争力的技术能力,包含基于 Sealer+LifseaOS 的开箱即用集群部署的能力、Nyuds 镜像减速能力、基于 Koordinator 混部能力等;第三阶段:基于差异化能力并联合用户与开发者的场景打造在混部、大数据等方面的解决方案与最佳实际。 最初,云原生 SIG 将以 Anolis OS 作为零碎底座,输入龙蜥云原生发行版,整合有差异化竞争力的云原生组件与技术,联合过往的最佳实际,打造云原生要害场景下的多种解决方案。 流动预报龙蜥云原生 SIG 打算于 2022 年 6 月 21 日(下周二) 14:00-16:00 召开第一次双周例会,会议议题打算如下: 01 14:00 - 14: 40主讲人:龙蜥云原生 SIG Maintainer 查斌 ...

June 17, 2022 · 1 min · jiezi

关于云原生:系列文章|云原生时代下微服务架构进阶之路微服务简介

通过本篇文章您能够理解到以下内容: 微服务架构的由来、历史微服务架构相比传统巨石利用的劣势微服务拆分准则概述微服务架构的由来、历史从软件架构的发展趋势来看,大体能够整体分为四个阶段: 前三个阶段别离是巨石利用、3-Tier架构、SOA架构: 巨石利用,顾名思义是将所有的业务逻辑用一个工程进行示意。(在上一篇文章中咱们进行了具体的介绍)3-Tier架构,一种软件设计的思维。不同于巨石利用的模式,它将整个业务利用进行了档次划分。总共分为三层,自上而下别离是表示层、业务逻辑层、数据拜访层。另一方面,这种档次的辨别也体现了“高内聚低耦合”的思维。SOA架构,一种软件设计的思维,依照理论业务须要,拆分成粗粒度、松耦合的服务架构。第四个阶段也就是咱们明天的配角,微服务架构。在谈到微服务架构的历史,咱们就不得不想到了以下几位巨匠: Adrain Cockcroft,Netflix架构师。主导了Netflix从2009年到2016年巨石利用到微服务架构演进的工作。并使得Netflix成为首批胜利从巨石利用迁徙到基于云的微服务架构的公司之一。Fred George,在2012年的一次技术大会上,具体介绍了他和他的团队如何将百万级代码的传统利用进行革新拆分,并利用消息中间件(MQ)进行服务之间解耦的过程。Martin Fowler,2014年发表了一篇对于微服务架构的文章,这篇文章深刻全面的介绍了微服务架构。(链接)另外对于云原生概念最早的提出者Pivotal(曾经回归到了VMware)对于微服务也给出了相干解释和阐明: 以上就是对于微服务架构历史的介绍,接下来让咱们看看微服务架构相比传统巨石利用的劣势又有哪些? 微服务架构相比传统巨石利用的劣势在上一篇文章中咱们论述了传统巨石利用在我的项目晚期阶段的劣势,以及在随着我的项目一直倒退、扩充后显现出的弊病。那么绝对于传统巨石利用,微服务架构的劣势又有哪些呢? 应用程序扩展性(相比传统巨石利用架构,微服务架构下,每个微服务具备自主运行的能力,这使得增加、删除、更新、扩大单个具体服务变得绝对容易。这种扭转并不会影响到其余服务)。Two-Pizza团队(每个微服务的所有权调配给一个小团队,团队与团队之间严密单干。从而大大提高了工作效率,也使得团队易于治理)。数据安全性(在微服务架构中,每一个服务具备本人独立的数据。当微服务之间建设数据连贯时,信息安全就会成为一个问题。侥幸的是,大多数通信应用的是平安API。平安的API通过确保只有通过专门受权的应用程序、用户和服务器能力拜访数据,从而保障了数据的安全性)。疾速迭代、交付、验证(微服务最重要的劣势是灵活性,可能疾速迭代一个小的、集中的性能,并看到后果。因为企业能够疾速开发和部署新性能,用户能够在几周内看到他们的反馈,而不是几个月或几年。这大大促成了用户、开发人员和工程师之间的合作)。技术多样化(不同的团队能够应用不同的编程语言以及技术来实现他们的服务。服务与服务之间通过申明式的API进行交互,大大增加了技术的灵活性)。容错性(在微服务架构中,一个服务的故障不太可能对其余服务产生太大的影响,因为服务与服务之间是彼此独立运行的。然而大型散布式微服务体系结构往往具备许多依赖关系,因而须要防止的是当某个服务呈现故障,因为依赖关系所导致的其余服务不可用的状况,即容错性)。微服务拆分准则概述通过下面一章节的介绍,置信咱们分明的理解了微服务架构的劣势。当某一个新业务需要到来或者说对现有老旧的巨石利用进行革新时,咱们是否能够间接通过某种曾经选定的技术框架,就可能进行业务开发了呢? 答案是否定的。相比技术框架的确定以及具体的开发工作,更前置一步须要咱们进行解决的就是微服务的拆分。 这里能够把它归结为“三步走”形式: 第一步(微服务拆分)此步骤能够分为两种状况。第一种状况即新的业务从0到1的构建。第二种状况即对已有的“巨石”利用进行革新,革新成微服务架构。第二步(技术选型)此步骤绝对比拟好了解,依据不同的业务模块的特点以及须要,能够应用不同的技术框架。这里不同于巨石利用,因为每一个微服务是独立开发、部署的,所以在技术选型下面会更加灵便多样化。例如针对JAVA技术栈,咱们能够使Spring全家桶,在曾经拆分好微服务的前提下,帮忙咱们从技术框架的角度疾速搭建微服务架构。第三步(业务开发)相干的开发人员依据业务需要,在相应技术框架的根底上进行业务的开发、测试、部署等操作。从下面的介绍不难看出,微服务拆分在整个流程中是尤为重要的,然而只有谈到微服务拆分,置信大家都会据说一个名词,它就是Domain Driven Design(畛域驱动设计,简称DDD)。Domain Driven Design 起源于Eric Evans发表的书籍《DOMAIN-DRIVEN DESIGN TACKLING COMPLEXITY IN THE HEART OF SOFTWARE》(中文译名《畛域驱动设计—软件外围复杂性应答之道》。在此书中的一些概念,例如畛域、限界上下文等概念和微服务提倡的高内聚、低耦合有着完满的符合,进而越来越多的人把Domain Driven Design作为微服务拆分的一种领导准则。 如上图所示,咱们能够看到蕴含了泛滥概念,想要了解把握这些概念并做到灵活运用并不是一件容易的事件,同时Domain Driven Design是一种软件系统设计和开发的方法论,是一种指导思想。如何依据这种指导思想并联合无效的剖析工具进行理论落地,成为了大家广泛关注的问题。 那么作为云原生概念的提出者Pivotal(VMware)在微服务拆分上的最佳实际是什么?最佳实际过程中又会联合应用哪些工具? 在下期的文章中会持续和大家进行交换分享,敬请期待! 如您有任何倡议,欢送随时分割咱们! 参考链接: https://martinfowler.com/arti...https://tanzu.vmware.com/micr...起源|公众号:VMwareTanzu云原生

June 16, 2022 · 1 min · jiezi

关于云原生:Aeraki-Mesh正式进入CNCF沙箱灵雀云合作开源助推服务网格技术落地

6月15日,云原生计算基金会 (CNCF) 发表,由腾讯云牵头,灵雀云等多家搭档单干开源的服务网格我的项目Aeraki Mesh正式成为Sandbox我的项目。此前,Aeraki Mesh已退出CNCF Landscape云原生全景图,并在2022 冬奥会线上直播、央视频、腾讯音乐、王者破晓等多个超大型我的项目中落地利用。被纳入CNCF托管,也意味着Aeraki Mesh成为云原生生态认可的,构建服务网格技术畛域最佳实际的重要我的项目。 Istio 目前曾经根本成为云原生服务网格畛域的事实标准,但在流量治理和服务治理能力上,仍存在优化的空间。Aeraki Mesh致力于解决目前的服务网格内的我的项目只满足 HTTP/gRPC 协定,不拥护其余开源及私有协定的痛点,提供和 Istio API 齐全兼容的治理服务,帮忙用户以较小的迁徙老本和保护代价,疾速取得服务网格提供的流量治理和服务治理能力,从而充沛开释服务网格为云原生基础设施提供的效力。 Aeraki Mesh可看做一个非侵入式 Istio 性能加强工具集,用户能够在服务网格中治理任何七层协定。目前曾经反对Dubbo、Thrit、Redis、Kafka、ZooKeeper 等开源协定。除此之外,用户还能够通过 Aeraki Mesh对公有协定的七层流量进行治理。 Aeraki Mesh 管制面架构 Aeraki Mesh 数据面架构 自Aeraki Mesh开源以来,灵雀云始终积极参与代码奉献,基于本身微服务产品Alauda Service Mesh(ASM)多年的技术积淀,将Istio、服务网格的用户需要及实践经验一直反馈社区,立求为用户提供更便捷、灵便、强壮的云原生利用架构解决方案。 作为开源生态的重要参与者和贡献者,灵雀云也在云原生基础设施、网络、服务编排、DevOps、边缘计算、服务网格等多个畛域继续输入,主导和参加了Kube-OVN、Harbor、Surperedge等开源我的项目的研发和社区建设,一直推动开源在云原生各技术畛域的倒退与落地。 Aeraki 是希腊语中“大风”的意思,正如我的项目创始人命名时的寓意,灵雀云将随同Aeraki 这阵大风帮忙 Istio和服务网格技术在云原生的旅程中航行得更快,更远。 Aeraki Mesh社区正在大力发展中,欢送大家退出! ■ 我的项目官网:https://www.aeraki.net/ ■ 装置试用:https://www.aeraki.net/zh/doc... ■ 退出社区会议:https://www.aeraki.net/zh/com... ■ Star 一下:https://github.com/aeraki-mes...

June 15, 2022 · 1 min · jiezi

关于云原生:医疗机构如何利用云原生加速智慧医院建设

疫情之下的智慧医疗新需要近年来,医疗服务畛域新形态不断涌现,国务院在《对于促成“互联网+医疗衰弱”倒退的意见》中指出,容许医疗机构发展局部常见病、慢性病复诊等互联网医疗服务,为“互联网+医疗衰弱”明确了倒退方向。 数字化时代的倒退,驱动着医院医疗业务向智能化、协同化和个性化倒退,催生出了新的业务模式和医疗服务形式。特地是在疫情的影响下,无接触、少接触的线上问诊成为了人们的刚需。而传统的医疗信息化建设很容易导致单体故障和数据孤岛,无奈全面发展互联网+医疗服务、满足用户多元化的线上服务需要,因而对医院来说,晋升医院的智能化服务水平就成了事不宜迟。 为了满足以后人们对就医的安全性、灵活性、便捷性需要,很多医院都开始利用云原生、大数据等新技术来踊跃谋求转型,摸索智慧医疗的全新打开方式。 这时,一种生于云上的新型“智慧医院”就走进了人们的视线,新一代“智慧医院”以全栈云原生平台为底座,以医疗系统、服务零碎、管理系统和保障系统等为外围,可能实现医疗数据的对立治理和医疗服务的智能化降级,挂号结算、近程诊疗、咨询服务、慢性病复诊等业务都能够通过线上办理,不仅能不便患者就诊、满足患者多元化的需要,也能为实体医院提供强有力的撑持、极大地缓解医院高峰期的经营压力。 能够说,智慧医院已成为医疗信息化建设热点和支流方向,本篇文章就将带您理解如何构建适宜新时代智慧医院的云原生架构。 数字化浪潮下,医院到底该上什么云?智慧医院建设是医疗行业数字化的重要一环,那么如何搭建适宜新一代智慧医院的云架构呢?公有云、私有云该怎么选? 首先,须要明确一点,云架构转型的目标并不是为了转型而进行重构和技术升级,而是为了更灵便和高效地解决业务问题,所以倡议在技术架构设计初期就将业务利用的拆分思考进来,使用一些微服务容器化的麻利集成技术将无奈革新的老零碎和新零碎买通。业务挑战严厉,对灵活性和开发迭代周期短的业务畛域利用,能够优先思考转到这个方向上来。 其次才是解决该上什么云的问题,倡议医疗机构从本身的理论业务状况登程,优先思考建设全栈云原生架构,采纳混合多云部署的形式,混合云负责互联网利用的互联互通,公共业务的服务都能够部署在下面,而外围业务数据库等在本身的公有云上,造成外部业务闭环。个别通过在边界上搁置防火墙,网闸等安全设备,数据通过业务接口程序单向传递。这样对于互联网医院的利用扩大造成平安的架构,既保证了数据的本地化存储,也不便利用扩大。 医院什么业务利用适宜云原生化?从技术实现上来看,医院的大多数业务都适宜云原生化。从利用场景来看,倡议医院能够先从智慧医院利用场景和数据中心动手,逐渐发展容器化革新。 比方,在智慧医院利用场景中,患者核心能够通过服务化、挪动化的伎俩使医疗服务和医院流程向患者集中;医疗费用核心能够通过微服务和容器化反对产品利用疾速构建,灵便应答医院疾速倒退的信息化需要。 另外,在医院的云数据中心建设上,容器化部署也会带来很多益处。基于容器化的云原生技术是大势所趋,容器云具备疾速部署和便捷运维等个性,反对 DevOps的开发运维一体化 ,能够让医院信息中心业务部署更灵便、更简略。 医院的云原生转型分为哪几个阶段?2021年国家卫生衰弱委在《对于印发医院智慧治理分级评估规范体系(试行)的告诉》中指出,智慧医院的建设次要分为三局部内容,包含智慧医疗、智慧服务、智慧治理三大评估规范。 智慧医疗面向医务人员,智慧服务次要面向患者,智慧治理次要指后勤物资和经营治理。 为了实现以上三局部智慧医院建设内容,首先医院须要建设一个平安、牢靠、稳固的基础设施环境,再在基础设施之上进行医院信息化建设和数据安全建设,次要包含以电子病历为外围的医院信息化和医院数据的对立平安治理。 实现智慧医院,以上任何一步都不可或缺,特地是在基础设施方面,首先须要查缺补漏,在医院外部利用云原生、物联网、大数据等新技术实现根底环境建设,兼顾治理资源,能够思考先建设全栈云原生平台、构建服务能力,而后扩充利用规模、丰盛业务能力、逐步从部分试点推广到全局利用,打造新一代基于云原生的智慧医院。 点击此处,立刻定制属于你的医疗云原生解决方案!

June 13, 2022 · 1 min · jiezi

关于云原生:灵雀云麒麟软件携手打造全栈云原生联合解决方案

在数字化转型浪潮的推动下,业务的麻利、弹性、个性化和智能化需要凸显,利用的交付模式也产生了粗浅的变动,要求技术架构具备轻量化、松耦合、灵便麻利的特点。软件能力成为了帮忙企业实现软件定义业务、自主IT研发和业务的继续翻新,让企业具备从竞争对手中怀才不遇并放弃劣势的 IT 外围竞争力。 为更好地应答上述挑战,越来越多的企业开始拥抱开箱即用、自主可控的一站式“全栈云原生”平台,疾速优化现有资源配置,最大限度地进步开发人员的生产力、加重运维人员的工作累赘,推动企业IT和业务利用的麻利迭代和高效演进,以实现数字化转型“弯道超车”。 灵雀云+麒麟软件 一站式全栈云原生联结解决方案在此背景下,灵雀云与麒麟软件携手打造了新一代一站式全栈云原生联结解决方案,该计划基于河汉麒麟高级服务器操作系统构建灵雀云全栈云原生开放平台,针对企业级要害业务具备主机系统可靠性、安全性、高性能和可扩展性,技术架构更贴合企业业务利用,满足企业级利用逐渐向容器化、微服务化过渡的宽泛需要,反对企业建设一个笼罩内外部各环节和组织构造的公有云平台。 计划可服务于不同规模的企业,反对治理各种复杂度的基础设施环境、组织构造清晰的部门建制和人员团队。让资源配置更好地适应利用的理论需要,从而改良基础设施的敏捷性、自动化、效率和老本优化,驱动业务翻新增长。 联结解决方案劣势本计划技术路线以国产麒麟操作系统为支点,具备最优化的零碎运行环境,承载灵雀云全栈云原生开放平台,反对飞腾、鲲鹏、海光、兆芯、Intel等多种国内外软硬件环境,满足企业多样化的数字化转型理论需要。 • 以利用为核心:笼罩利用全生命周期治理:可视化利用编排,一键式利用部署,版本治理,无缝降级,反对利用和服务秒级弹性伸缩; • 全栈开箱即用:一体全栈,各服务模块作为平台组件,开箱即用,疾速搭建; • 全面反对微服务架构和DevOps:反对 SpringCloud、ServiceMesh 服务治理架构,反对宽泛的 DevOps 工具链; • 数据及中间件企业级反对:针对罕用数据组件,如 MySQL、Redis、RabbitMQ、kafka等提供企业级反对和服务。 零碎要害性能• 以对立多集群治理为外围,反对在物理机、虚拟机、不同云环境(私有云或公有云)下的云主机上一键部署 Kubernetes 集群,不便从 IaaS 资源池增加新主机到 Kubernetes 集群里,并疾速实现节点初始化; • 具备超大规模的集群治理能力,可同时治理 5000 个主机节点,并可在 5000 个主机节点上同时运行 15 万个 Pod; • 反对将两个或两个以上集群联邦化后对立治理,可通过跨集群部署和治理利用,实现“两地三核心”容灾备份解决方案; • 同时纳管 x86 和 ARM 架构的业务集群,进步了对国产化反对水平,升高客户资源应用老本; • 在反对搭建自在用户体系的根底之上,对接 LDAP或 OAuth 2.0 等常见认证协定,纳入企业已有的用户体系,可通过 RBAC 细粒度设置用户权限; 同时,灵雀云与麒麟软件已实现兼容性互认证。测试结果表明,单方产品在兼容性、可靠性、用户关键性利用需要及性能要求等方面均良好适配。 此次全栈云原生联结解决方案的公布更是进一步推动了单方产品体系的生态交融,为国产化利用的技术架构提供了牢靠保障。 计划全方位反对企业容器平台、DevOps、微服务治理、数据中间件服务等多维场景,可能帮忙企业更加聚焦于业务翻新,买通数字化转型的“最初一公里”,减速产业数字化过程。目前该计划已在多家出名大型企业落地利用。 点击此处,获取更多计划细节,立刻征询试用!

June 10, 2022 · 1 min · jiezi

关于云原生:TAP-系列文章2-Tanzu-Application-Platform-v11-安装配置步骤

Tanzu Application Platform v1.1装置配置步骤如上图所示,Tanzu Application Platform v1.1的装置,次要分成以下步骤: TAP装置前的筹备;装置Tanzu CLI命令行工具与Tanzu Cluster Essentials(Tanzu K8S安装包治理套件);依据集群的应用角色,参考前文提到的内容,筹备TAP Profiles配置文件tap-values.yaml;装置Tanzu Application Platform v1.1;验证装置环境 ;TAP 装置前的筹备留神:Tanzu Application Platform v1.1的官网装置阐明参考如下地位,本文旨在帮忙首次装置TAP的用户疾速配置和构建TAP运行环境。 留神:本文装置过程中的桌面CLI环境基于MacOS&Linux 操作系统。对于Windows CLI环境的操作请参考官网装置文档。 筹备VMware Tanzu Network登录账号并下载TAP安装包登录 Tanzu Network注册并下载Tanzu Application Platfrom v1.1 packages;保障TAP的装置K8S Cluster Worker的网络可能拜访:https://registry.tanzu.vmware...;DNS Records的筹备筹备利用部署后的拜访域名,利用TAP部署的利用,部署实现后能够间接利用配置的域名进行拜访;装置前须要筹备好这个域名;例如:<app-name>.tap-app.example.vmware.comKubernetes Cluster运行环境的筹备以后TAP v1.1反对的Upstream Kubernetes版本:v1.21,v1.22,v1.23; 以后反对的K8S发行版的提供商: Azure Kubernetes ServiceAmazon Elastic Kubernetes ServiceGoogle Kubernetes EngineTanzu Kubernetes Grid multicloudvSphere with Tanzu v7.0 U3aTAP 装置Tanzu CLI命令行工具与Tanzu Cluster Essentials下载 VMware Tanzu Application Platform tanzu-cli,依据装置桌面OS下载 ( tanzu-framework-bundle-windows, tanzu-framework-bundle-mac, or tanzu-framework-bundle-linux)装置 Tanzu CLI for Linux# Move to the folder containing the downloaded file.cd ~/Downloads# Make a directory to extract the archive intomkdir tanzu# Extract the tar archive into your ~/tanzu directorytar -xvf tanzu-framework-linux-amd64.tar -C ./tanzu# Change your working directory to the extracted archive directory.cd tanzu# Run the install binary to complete the base installation.sudo install cli/core/v0.11.2/tanzu-core-linux_amd64 /usr/local/bin/tanzu# Install the Tanzu CLI Pluginsexport TANZU_CLI_NO_INIT="true" tanzu plugin install --local cli all验证 Tanzu CLI 的装置# Expect version: v0.11.2tanzu version # Expect the package, secret, apps, services, and accelerator plugins to have a STATUS of 'installed'tanzu plugin list 装置TAP Cluster Essentials 套件前文说过,为了简化、角色化TAP 的K8S环境装置;VMware TAP team筹备了标准化的TAP装置套件,简化TAP的装置、配置(模板参数化,定制化)、降级(Upgrade)、模块参数更新;这些Ops性能,由TAP Cluster Essentials套件负责帮忙客户实现。 ...

June 9, 2022 · 4 min · jiezi

关于云原生:TAP-系列文章-Tanzu-Application-Platform-的技术概览

Tanzu Application Platform 致力于为开发团队、利用平安团队、利用运维团队打造一条简化的端到端开发运维体验的门路,以晋升软件开发效率、加固利用平安、简化利用运维复杂度,从而放慢利用上市工夫。助力企业在 Kubernetes 多云环境中提供卓越的开发者体验。 随着各企业正放慢其数字化转型,利用 Kubernetes 等云原生技术来部署和运行应用程序以成为大势所趋。诚然,Kubernetes 简化了运维团队的工作,减速了利用的部署上线。尽管如此,随着许多企业对 Kubernetes 的拥抱,大家正面临着驾驭宏大而简单的云原生生态系统以及随之而来的平缓学习曲线的挑战。只管 Kubernetes 使基础设施和运维团队可能自动化应用程序部署和大规模管理容器,但它给开发人员带来了不同的挑战。 应答开发人员面临的挑战开发人员必须在 Kubernetes 上构建他们的CICD流水线,将来自基础设施提供商 的底层根底资源与从云原生生态系统中获取的零散技术和工具相结合。将不同的开源工具用“搭积木” 的形式拼凑起来极具挑战和危险,首先,大量的开源工具很难设置和保护,通过分层建设的形式将它们连贯到其余应用程序和基础设施非常复杂,势必迫使开发人员破费太多工夫来应答底层基础设施,而不是专一于业务代码的编写。 在整个开发周期中,开发人员须要疾速迭代他们的代码。开发人员通常会一遍又一遍地进行编码、运行、测试和调试的循环,咱们将这个迭代过程的循环称之为“内循环”。可想而知,开发人员的大部分工夫都是花在内循环上,因而内循环的工夫越快,也就意味着迭代的效率越高。现在,大量微服务化、容器化的利用在开发过程中,咱们会依赖于Kubernetes环境进行开发调试,势必这个内循环的过程变得更长,因为每次源代码的更改不仅须要从新构建、从新公布容器镜像,还须要重新部署 Kubernetes 资源,而后能力进行测试,这当然会大大降低开发人员的工作效率。 能够必定的是,Kubernetes 是构建利用的绝佳平台,但它不应该是由开发人员去进行部署,也不应该由利用运维人员为应用程序来配置和施行 IT 和平安等根底要求。现实的状态,部署应用程序的Kubernetes 基础架构对于开发人员和利用运维人员应该是通明的,大家不用在此消耗工夫与精力。 Tanzu Application Platform助力企业在 Kubernetes多云环境中提供卓越的开发者体验为了帮忙企业解决前文中提到的云原生利用开发过程中的种种挑战,VMware 在2022年1月正式公布了新一代PaaS平台Tanzu Application Platform。TAP是一个模块化的利用感知平台,它提供了一组丰盛的开发人员工具和一条事后配置好可拆卸的生产流水线,在任何认证公共云或本地的 Kubernetes 集群上更疾速、更平安地构建和部署软件,为开发人员提供卓越的开发体验。同时,Tanzu Application Platform还是一个可组合、可插拔的平台,因而企业团队能够依据其组织的偏好和不断变动的业务需要对其进行自定义。 TAP 通过定义一个 workload 形象与开发人员进行交互,开发人员只须要关注到 workload 这个层面,workload 之下交给 TAP 自动化实现,从而为在 Kubernetes 上构建和部署云原生应用程序的企业提供卓越的开发人员体验,是面向开发人员的利用平台,它使利用程序开发团队可能通过自动化流水线更快地投入生产,并且它分明地定义了开发人员和、平安人员、运维人员的角色,以便他们能够合作工作。 Tanzu Application Platform技术架构Tanzu Application Platform能够部署在Tanzu Kubernetes Grid以及Amazon Web Services、Microsoft Azure 和 Google Cloud Platform的托管 Kubernetes 产品 之上,在这些与社区版本保持一致的Kubernetes层之上构建古代应用程序。通过TAP企业就能够采纳统一的开发环境和工作流程。 下图为外围组件与服务架构图,接下来将分层介绍下TAP各个模块的性能。 ...

June 9, 2022 · 2 min · jiezi

关于云原生:软件定义汽车变局下车企如何通过云原生构建核心壁垒

软件定义汽车时代已来,云原生成车企转型重要驱动力在现在的数字经济浪潮下,汽车产业正面临着前所未有的转型大变局,汽车产品的属性正在从传统的机电一体化产品升级成为软硬件深度交融的智能终端,“软件定义汽车”已成业界共识。 从用户需要角度来看,随着车联网的一直倒退,用户对于和软件相干的性能体验的需要越来越强烈,“更聪慧的、更高科技的车”正在取代“更好操控的车”,而这对汽车软件的数据治理、存储能力、算力、迭代速度就产生了更高的要求,软件对于用户需要体验起到了愈发重要的作用。 从业务利用角度来看,车联网业务利用日渐多元化,车企的数据治理也日趋简单,如何疾速突破信息孤岛、对立零碎架构、减速业务翻新成为了车企亟待解决的问题。 从技术改革角度来看,云原生、人工智能等科技的飞速发展,大大促成了智能网联汽车的变革。软件的降级曾经成为了全行业所必须拥抱的变动,汽车零碎逐步从关闭的零碎倒退转为凋谢的零碎,以容器、微服务为代表的云原生技术也为车企数字化转型弯道“超车”提供了实现门路。 为了更好地晋升用户体验、抢占市场劣势,越来越多的车企也开始步入云原生化的过程,云原生作为一种更贴近利用的IT架构,可能在业务翻新、用户体验晋升等诸多方面帮忙车企取得转型劣势,如何更大程度地享受云原生技术的红利成为了车企的新焦点。那么,有没有一种规范的车企云原生转型范本呢? 本篇文章就将从车企所遇到的云原生转型理论问题动手,和您聊聊车企数字化转型那些事儿。 汽车行业面临的敏态IT挑战新的市场竞争格局下,主机厂纷纷减少新业务状态,面对市场和客户扩大业务。汽车厂家也有本人的客户APP,基本上通过外包人员进行利用开发,利用架构多采纳单体架构或分层架构。 车企面临着更为严厉的敏态IT挑战: • 资源弹性需要应答能力有余:B2C业务高峰期压力大,外部计算资源无奈动静调整应答。 • 跨云部署和跨云迁徙: 双11或者618等临时性高并发场景,须要利用可能反对跨云部署、扩大以及迁徙的能力以加强资源弹性。 • 利用迭代频率和开发速度慢:利用迭代周期最快为2月一次迭代,迭代频率过低,同时交付周期长,问题和缺点发现和反馈慢,无奈应答业务的疾速变动。 • 利用架构转型云平台撑持:以后正在引入微服务等利用架构,目前不足对新一代利用架构的撑持PaaS云平台。 这时候,咱们就须要一种全新的思维形式和解决办法来应答上述挑战,这个办法就是云原生。 云原生能为车企带来什么?首先,从生产效率方面来看,成熟的全栈云原生平台提供的是一套开箱即用、灵便凋谢的工作形式,可能最大限度地帮忙车企进步开发人员的生产力,晋升开发、运维人员的工作效率,让企业可能将更多的工夫与人力聚焦于业务翻新。 其次,从IT化经营方面来看,云原生可能帮忙车企抢占市场劣势、实现卓越经营。将来每一个企业都将成为软件企业,车企IT的先进水平会间接影响到其汽车产品的外围竞争力,云原生可能帮忙车企迅速构建起高并发、高可用、海量数据计算和存储的车联网产品和体系,同时缩小80%以上的故障率,让车企有更多机会去试错,智能网联利用得以在最大化满足用户需要的根底上,实现疾速开发。 此外,从资源配置方面来看,云原生转型可能帮忙车企优化资源利用,节约更多的传统基础设施老本,整体资源利用率晋升60%以上,并实现跨多云的对立治理、部署和迭代。 在这里咱们间接以某大型车企的云原生实际为例: 2018年,在高并发拜访、高吞吐量以及车辆的车联网接入需要推动下,其智能网联利用做微服务的革新和利用容器化,“智能网联开发院”和“数字化部门”联结起来对整个平台架构进行了相应的设计,在平台建设中外围痛点就是须要引入一个微服务的治理平台,以及一个业务利用的治理平台,来撑持整个智能网联平台的开发须要。 我的项目依靠于灵雀云ACP治理平台,配合微服务治理平台,实现了业务利用的运行以及业务利用治理的工作。我的项目一期实现局部服务器的纳管,造成计算资源池,为业务利用提供部署资源。同时,通过微服务治理性能,实现为业务利用的不同部门或者不同开发团队,适配相应的容器化集群。 当然,平台的落地并不能只是把工具提供给了客户,让客户更好地用起来,也是一个十分大的挑战,尤其对于微服务这样比拟新的概念来说。灵雀云在我的项目当中也为客户提供了微服务治理咨询服务,对于微服务的拆分,微服务革新,以及如何更好地应用平台的各种性能都提供了有针对性的咨询服务。 通过几年的致力,该车企的营销数字化业务的不同业务零碎都逐步迁徙到这个平台上来。这么大规模的平台和业务利用,运维人员可能只须要3~5集体。 对于他们来说,能失去的收益,首先就是对立业务零碎的开发架构,第二是对立了业务零碎的部署架构,第三是极大地缩小了简单的业务零碎运维,大量的人员就能够反对大量的业务零碎的运维工作,同时,通过平台的资源主动伸缩、微服务治理能力,我的项目实现了自动化的业务运行、运维和业务治理。 车联网利用迁徙应从哪些方面思考?车联网是将来交通系统的倒退方向,它是将先进的信息技术、数据通讯传输技术、电子传感技术、控制技术及计算机技术等无效地集成使用于整个高空交通管理零碎而建设的一种在大范畴内、全方位发挥作用的,实时、精确、高效的综合交通运输管理系统。随着车联网日益受到各家车企的器重,很多车企都会将车联网利用纳入云原生转型的重点。 首先,从车联网利用架构来看,包含:车机、智能手机、地图导航、语音技术、 HUD(Head Up Display平视显示器)、OBD(On-Board DiagnosTIc车载诊断系统)、CAN(Controller Area Network控制器局域网络)、RFID(Radio Frequency IdenTIficaTIon射频辨认技术)、ITS(Intelligent Transport System智能交通系统)、智能座舱、主动驾驶等等。 此外,从车联网利用上云策略来看,倡议车企在车联网利用迁徙时,提前制订好业务上云的策略体系,比方制订业务开发标准,联合容器、OAM、SpringCloud、ServiceMesh四种利用类型明确业务上云过程中利用分类规定、迁徙策略、割接办法、运维办法等。 再者,在车联网利用迁徙布局时,除了须要思考上述外围业务利用能力之外,也要从“云端芯”一体化架构全局来进行正当布局。CNBPA最新的调研后果也表明,建设具备全栈能力的云原生平台曾经成为先进企业数字化转型的最佳门路。传统的绝对割裂的IT架构曾经无奈满足企业日益倒退的翻新须要,在现在的云原生时代,企业更应该从整个IT基础设施角度上,去思考如何通过云原生促成业务翻新和业务胜利。 在理论执行时,倡议车企能够思考3步走的云原生转型策略,比方能够思考先建设一个规范的、小规模但功能齐全的云原生全栈云平台,初步实现一个平台对立治理各类基础设施、构建平台的应用服务能力,疾速让研发、运维、业务人员感触到云原生全栈云的便当。第二步再丰盛中台业务能力,在对立的云原生平台根底上扩大更多的业务能力,扩充利用规模,晋升管理水平。第三步能够持续丰盛欠缺本身能力,劣势能力继续推广,打造更欠缺的车联网云原生业务中台,享受云原生技术的红利。 车企如何安稳实现云原生化?首先,在面对B2C业务流量不确定性,原有的单体业务和虚拟机部署形式无奈对突发性高并发业务进行反对,须要构建一套基于利用级别的云计算平台,实现利用级的资源共享和对立调度。 其次,针对单体或SOA利用架构,在高并发业务适应性、高扩展性展示的有余,通过对现有利用架构和业务逻辑进行解耦 ,以微服务架构形式对现有架构进行重构,以容器化的形式进行利用部署,实现利用的疾速交付、部署、上线。在新开发的性能以微服务架构开发,原有的SOW和单体架构架构放弃不变,缓缓的把业务转移到微服务架构中。 此外,针对现有架构实现在短时间内实现2C高并发业务:倡议把 双11或者618等临时性高并发场景的性能提前独自拆分进去,以微服务化形式交付,在基于PaaS云平台上进行业务承载,可能我的项目初期公有云资源不够时可利用云有云资源优势部署企业PaaS平台(只应用私有云资源),实现业务疾速上线和高并发2B业务承接,在流动完结后把数据导入公有云库。 最初,针对多家开发商时,须要建设基于新一代业务开发、治理、交付体系 。从业务代码、开发标准、自动化构建、质量标准、测试流程、上线规范进行对立治理 。DevOps平台可实现以上能力,车厂和利用治理小组进行标准规范的制订,DevOps开发平台进行流程、标准的落地。通过DevOps标准化交付流程对利用交付品质、效率进行治理。实现在变现将来高效利用业务需要交付。 车企如何筑牢云原生平安防线?智能网联和数字化的高速倒退,给汽车行业带来了平安新挑战。一方面,车企开启数字化转型,IT基础设施全面上云,使得零碎复杂度大幅减少;另一方面,智能网联的遍及,让网联车辆在用车的各个环节都面临着网络安全危险。用户全生命周期的数字化,也给数据安全带来了新的威逼。与此同时,近年来我国一直强化在汽车数据安全方面的监管力度,颁布了一系列数据安全新规,使得平安合规成为汽车行业倒退的必然要求。那么车企该如何应答新时代的云原生平安问题呢? 首先,随着云原生技术的一直倒退,通过执行平安“左移”的DevSecOps模式,能够极大水平地保障安全性,从DevOps全流程为企业的业务零碎注入平安危险免疫能力。 其次,倡议优先思考采纳全栈云原生公有云平台,整个PaaS云平台环境部署在内网环境下,仅仅通过接入层(DMZ)实现互联网的接入。互联网上的申请通过接入层反向代理到内网PaaS云的节点上。如果PaaS云节点须要被动向互联网发送申请的话,就须要通过Proxy代理服务器的形式来实现。 另外,公有镜像仓库能够应用开源的企业级镜像仓库Harbor,Harbor应用自签名的SSL证书以HTTPS协定对外服务。PaaS云平台节点上的Docker过程只有配置了自签名的SSL证书,能力从Harbor的镜像仓库中拉取镜像。 点击此处,具体理解灵雀云如何助力车企赢取数字化转型先机,与灵雀云工程师独特布局为您量身定制的云原生转型门路。

June 7, 2022 · 1 min · jiezi

关于云原生:2022云原生网络趋势-K8s托管整个基础设施多云边缘计算安全等场景将云原生网络带向新战场

云原生技术在飞速发展的过程中一直地进入更多的行业和畛域,作为云原生网络倒退的见证者、亲历者,Kube-OVN Team对大量用户的技术选型、利用场景、落地实践经验进行剖析,看到了一套不同于以往的网络发展趋势。 当下网络的瓶颈和时机在哪里? 是否有可参考的场景来印证这些方向? 本篇文章将和你一起发现和探讨咱们眼中的“云原生网络”发展趋势及应答办法! 次要发现• 繁多 CNI 很难满足所有场景需要,不同场景会呈现特定网络插件: • 不依赖特定 CNI 的网络辅助组件会不断涌现 • 新技术涌现,传统技术回归 • 软硬件联合将会把云原生网络带向新的战场 云原生网络次要利用场景近些年,云原生技术在飞速发展的过程中也在一直地进入更多的行业和畛域。咱们最早认为云原生技术,还次要是互联网企业以及一部分技术当先企业(比方利用微服务架构)的抉择。但在灵雀云多年的实际中,咱们看到更多畛域的企业和场景在一直接收云原生技术。次要有以下的几个比拟明确的利用场景: 1、传统利用上云一些传统行业的企业,如金融、能源、制作、车企的利用心愿基于K8s做云原生利用现代化革新,是当初的一个大趋势。 2、数据中心基础设施建设云原生技术当初来看不只是只针对利用、服务,而是一直地下沉到数据中心的基础设施中去。咱们发现,当初的整个IT基础设施,趋于通过云原生的形式进行编排和治理。 3、边缘计算场景这些年比拟火边缘计算相当于把计算一直地推到离用户更近的中央。这种场景下,传统的CDN把计算往边缘CDN上推的过程中云原生也施展了很大的作用。 4、多集群跨云治理随着晚期云原生用户规模的不断扩大,产生了多集群、跨云的治理问题。 5、“金融级”平安和审计要求相较于K8s比拟涣散比拟灵便的平安审计要求,在金融畛域,咱们看到了“金融级”更加严格的平安、审计利用场景。 6、运营商5G运营商的5G业务在国内曾经宽泛布局,在这个过程中存在很多5G、流量编排的工作开始用云原生技术去做落地。 在总结利用场景这个过程中,咱们发现网络常常成为这些云原生场景落地的瓶颈。在计算和存储局部,目前都有一些成熟的解决方案,但在网络局部不是性能有余,就是性能不够,或者监控、可视化等剖析跟不上,又或者是平安的要求不达标……种种限度导致云原生网络还面临着很多的一个倒退时机和挑战。上面我就会联合各种各样的场景来剖析,云原生网络网络面临哪些新的需要,以及目前来自于开源我的项目和商业化的厂商给出的解决方案。 首先来看一下最早的容器网络计划的根本的拓扑。这是一个Flannel的架构的一个示意图,最早的容器网络是针对K8s、微服务这种服务平台来设计的,所以它心愿做到开箱即用,对底层的网络要求很低。在整个云原生晚期的利用视角来看,平台心愿把网络齐全屏蔽掉,不心愿裸露更多的网络细节给用户。 在这个计划里,每个节点固定有一个固定的网络IP段,这样、可能缩小IP调配,通过iptable这样的一些内核技术来实现其安全策略。这样的一个网络模式和构造,在晚期来说是与整个云原生的理念合乎的,然而随着云原生向更多的畛域浸透的过程,这样的网络模型就显得不够用了。 场景一:传统利用云原生化咱们以“传统利用云原生化”这个场景为例做简略剖析。 • 传统利用不论是开发、部署、运维模式都是和微服务框架齐全不同。很多利用的开发运维都依赖于固定IP,须要对IP有很强的管控能力。但最晚期的云原生网络是不具备这样能力的。 • 咱们发现在传统的咱们之前只是把一些利用部署在 K8s上,然而当初越来越多的人会把中间件等一些有状态服务部署在K8s外面,而且须要对外提供服务,相当于K8s集群中运行中间件,也是须要对外提供一个固定的服务地址并且是从内部能够拜访的。 • 咱们的一些用户因为历史起因,利用无奈全副云原生化,须要集群内外互通中转。 • 咱们的一些用户还存在利用、网络管理拆散,须要传统网络敌对的容器网络。 以上这些,是咱们在传统的利用云原生化的场景中遇到的问题。 如果咱们把这些问题形象来看,其实是有以下几个需要: 1、Underlay 网络 传统利用须要的并不总是灵便的overlay网络,可能更须要这种underlay网络。间接把容器网络以固定IP的形式在我二层裸露进来,通过交换机买通,这样整体的开发、部署、运维的冲击是最小的,只管这个可能不太合乎云原生最早的一些理念,然而从实际上来看,这种形式其实是落地最快的。 2、灵便的 IPAM 用户须要对IP有很强的管控,而且也不心愿你的IP是和节点绑定的,所以须要一个更灵便的 IPAM来实现这样的性能。 3、Whereabouts, Macvlan, Bridge, Multus-CNI 在社区有一些开源的解决方案,比方像Whereabouts,它其实是一个 global级别的一个IPAM工具,就是你能够通过这个工具来设置一个寰球的iPad其余的我的项目。Underlay网络能够通过Macvlan还有Bridge这样一些插件去实现。如果须要多网卡多IP,还能够通过Multus-CNI的形式去实现,只管这些形式看上去很传统,但在传统利用云原生化的场景下是很实用的解决方案。 利用场景案例: 云原生网络 Kube-OVN的企业级实际之路 Kube-OVN云原生网络性能的自我救赎 场景二:数据中心基础设施第二个大趋势是云原生技术向数据中心下沉,K8s托管的业务不再是利用,不再是微服务,而是整个IT基础设施。在这种大趋势下,网络不是一个单纯的容器网络,而须要同时承载容器、虚拟机、甚至是裸金属,以及很多异构基础设施。而后你的基础设施中有不同的交换机、路由器、防火墙等各种各样的网络设备和硬件设施,须要通过网络进行对立治理,而且在这种规模下,用户大多数状况都有多租户VPC的需要。 现有的很多K8s网络相当于二层、三层买通的对立的网络立体,但在数据中心的场景下更须要多租户的隔离。此外,数据中心对南北向的流量有一些更高的要求,他们在网关层面上可能须要有一些高性能、高可用横向扩大的能力,这些都是传统数据中心SDN的理念,当初是一直向云原生来迁徙。 咱们看到,一些传统的数据中心网络厂商,SDN厂商,以及一些硬件厂商当初都在一直的把他们的网络交融到K8s中来,因为用户对传统SDN的需要还在。 在开源的畛域,由灵雀云开源的K8s CNI 插件Kube-OVN曾经在做这样一些事件了,你能够创立VPC,能够创立subnet,能够给每个租户创立LB/EIP/NAT防火墙,甚至还有DHCP/DNS这样的一些租户外部的网络应用。 从商业化工具来看,像VMware的NSX-T也在做相似的事件。咱们见到国内的一些传统的做SDN的厂商也开始往这个方向倒退,所以大家很快就能看到一些很成熟的数据中心的根底网络商业化产品。 利用场景案例: 基于Kube-OVN买通OpenStack和K8s网络 云原生虚拟化的最佳拍档:Kube-OVN + KubeVirt 实际案例 | Kube-OVN在字节跳动的利用场景和技术摸索 ...

June 1, 2022 · 1 min · jiezi

关于云原生:定档615-数字化基础软件自主创新分享周即将来袭点击获取通关密钥

6月15-24日,数字化根底软件自主翻新分享周行将炽热来袭,预约通道现已正式开启。 “科技自立自强”在党的十九届五中全会已回升至国家倒退中的策略撑持位置。近年来,随着信息产业自主翻新相干政策、技术路线和实际门路的逐渐清晰,自主翻新落地的难点也逐步凸显,如外围能力起步晚,全栈零碎教训少,利用迁徙挑战多等。而根底软件作为一个难度高,差距大,周期长的畛域,如何放慢实现自主翻新更是成为全行业亟待思考的重要课题。 聚焦数字化根底软件的自主翻新,由网易数帆发动的本季分享周带来精彩7+1,将围绕云原生、大数据等技术畛域,并设金融、批发行业专场,邀请20余名技术大咖、行业专家、上下游搭档别离从行业与技术视角登程,700分钟深度交换分享,独特探讨数字化转型的更优门路。 疫情虽阻断了咱们线下相见,但线上精彩只增不减,这份常识日历速速码住或分享给你的敌人。 本次通关密钥已轻轻掉落在分享周看点当中,聪慧如你是否曾经发现?带着正确答案增加数帆小助理可提前锁定地面专座,观看直播还有机会取得数帆定制礼品。 最初,附上精彩满满的残缺议程,扫描二维码即刻报名分享周。

June 1, 2022 · 1 min · jiezi

关于云原生:Serverless-Job传统任务新变革

Job 作为一种运完即停的负载类型,在企业级开发中承载着丰盛的应用场景。SAE Job 将 Serverless 技术所带来的普惠红利从应用领域向外延展至工作畛域,通过联合 longrun + shortrun 的应用场景和最佳实际打造成为 Serverless 一体化企业级开发运维平台,以满足不同行业的差异化诉求,为用户提供更加欠缺多元的能力反对和稳固牢靠的技术保障。 目前运行 Job 的支流形式是采纳分布式工作框架,比方 Quartz、XXLJob 、ElasticJob 等。此类框架作为面世工夫较长的开源我的项目,应用企业泛滥,性能成熟。而在云原生时代,K8S Job 和 CronJob 也逐步被思考采纳。然而上述计划普遍存在以下痛点: 1、资源利用率低。采纳开源的分布式框架须要程序常驻,在云主机中 7*24 小时免费。而 K8s 计划也须要用户保护集群节点,造成老本节约。 2、可观测性差。用户须要齐全自建一套日志采集、集群和业务监控指标采集、告警零碎来满足生产环境的须要。 3、运维简单。无论是开源框架还是 K8s,都须要关注底层资源的高可用、高并发下工作的容量和弹性,其运维操作具备较高的技术复杂度。 SAE Job 作为一款面向工作的 Serverless PaaS 平台,完满解决了以上痛点。SAE Job 重点解决了用户的效率和老本问题,在兼具传统工作应用体验和性能的同时按需应用,按量计费,做到低门槛工作上云,节俭闲置资源老本。同时,体验上采纳了事件驱动加无入侵任务调度和管控,用户零革新即可具备工作的全生命周期治理及可观测等开箱即用的性能。 SAE Job 反对多种调用形式,包含阿里云规范 API/SDK,可能通过可视化配置 Cron 表达式实现定时工作,通过 HTTP/MQ/OSS 等多种触发器来拉起 SAE Job 。同时反对诸多工作外围个性,包含工作生命周期治理、执行记录、事件告诉、日志监控告警、超时重试、阻塞策略、工作分片、工作多并发等。 SAE Job 提供了三大外围价值: 1、齐备全托管:提供了一站式全托管的治理界面,其工作生命周期治理、可观测性开箱即用,用户能够低心智累赘、零老本地学习应用 SAE 。 2、简略免运维:屏蔽了底层资源,用户只需关注其外围的业务逻辑开发,无需操心集群可用性、容量、性能等方面的问题。 3、超高性价比:采纳按需应用、按量付费的模式,只有工作执行业务逻辑时才会拉起免费,其余工夫不收取任何费用,极大节俭了资源的老本开销。 上面演示一下 SAE Job 的整体应用流程: 点击查看: https://developer.aliyun.com/live/249288 SAE Job 以工作为核心,提供传统的用户体验。以后聚焦反对单机播送、并行分片模型的工作,同时反对事件驱动、并发策略和超时重试等诸多个性,提供低成本、多规格、高弹性的资源实例来满足短时工作的执行。 ...

June 1, 2022 · 1 min · jiezi

关于云原生:一个好的网站logo设计长这样

简介:一个好的网站logo,不仅让用户一眼晓得网站品牌传递的信息,还能进步网站业余度和丰盛度,减少SEO搜寻排名。明天分享下如何设计一款实用的网站logo。阿里云智能logo设计,在线收费体验logo制作:https://logo.aliyun.com/logo许多敌人来阿里云买了域名后,下一步就要搭建本人的网站,来作为品牌形象和产品营销的主阵地。 放眼望去,大部分网站都会在页面顶部展现本人的logo,以左上角为主,让登陆的用户一眼就晓得本人所在的网站品牌是什么。 大品牌的网站logo往往由纯图标、中文名、英文名或其组合而成。 而很多中小企业如游戏、影视、工具、服务类的网站罕用域名或域名关键词来作为网站logo,这样用户记忆更集中,不便下次来访一输即可,省去用户到搜寻平台再次查找一番,兴许就会被其余竞品的广告抢去了注意力。 明天,小云分享下应用域名来做品牌词的网站,如何设计一款实用的网站logo。 1、加点形象元素 秒变平面动感以上案例均由阿里云“智能LOGO设计”在线生成 logo是品牌的形象表白,能一眼出众指标就达成一半了。域名多由英文字母组成,加点形象元素能够让平平无奇的字母立马具有活力,像是在向用户招手示意。 一个播放键的符号,由多色块层叠组成,造成突变和暗影,罕用于视频、影视或拍摄相干的行业,又能凸显出品牌的生机和动感;由小到大的字体,像是从远处飞来,简略的色块衬底,充满热情和档次,一个动态字母做出了动静的成果。 突出首字母也是罕用的形式,简略的线条和半圆,组成了一个首字母“A”字,简略的字母也有了性情和格调,单看到这个字母就能想起你的网站。 平面的小标记,让logo从二维立体间接步入三维平面,尽管由多种色彩组成,却互为暗影,造成一个对立的整体,还十分年老时尚,形象却有艺术感。 2、行业小图标 一眼就get以上案例均由阿里云“智能LOGO设计”在线生成 想让用户一眼晓得你是做什么的? 那最便捷的形式就是把你的行业做在logo里。 一个有点设计感的小图标,让用户对你的品牌行业更加粗浅,一个鸟形象的信封,做邮箱、社交行业都非常适合,让人不盲目联想起“迅速”、“高效”、“轻便”等形象,不必多言,就把品牌价值给传递进来。 一片窗景联想到民宿、刺绣、手工等;一只猫能够是宠物品牌或者叫“猫”的品牌;风车意味着农业、能源与食粮。很多消费品或服务行业都习惯用有行业属性的图标,视觉带给咱们想象力,这些联想都刻在基因里。 3、纯字体logo 大气简洁以上案例均由阿里云“智能LOGO设计”在线生成 最初介绍下纯字体的logo,看似简略,却是许多网站用户的经典抉择。 相比于图标的语义直给,纯字体往往更简略大气,也是很多大品牌应用的形式,字母自身即品牌。 加上有设计感的字体格调,某音风可能是短视频上下游或潮流品牌,一个地球形态的com,让简略的字母有了国内风;黑白的字母看着就很有生机,一点点小设计就显得别具匠心,不使劲地展现,却能立马变高级。还有简略的字母加上域名二维码,让PC端和挪动端互通连贯,用户在手机端看到logo都能够间接扫码进入网站,两全其美。 以上网站域名的logo案例,均由阿里云智能logo设计产品主动生成的。 你也能够花小钱,办小事,轻松一站式搞定品牌设计到营销~ 阿里云智能Logo设计,基于AI算法精准匹配。只须要简略输出名称、行业等根本信息,就能够一键生成上百款Logo设计,依据你的须要筛选,即买即用,并提供字体永恒授权书,商用无风险。 原文链接本文为阿里云原创内容,未经容许不得转载。

May 31, 2022 · 1 min · jiezi

关于云原生:无影云应用核心技术解读

简介:本文整顿自阿里云无影高级技术专家付志超,在阿里云EMR StarRocks无影云利用线上发布会的分享。本篇内容次要分为三个局部: 1. 无影云利用产品简介 2. 无影云利用技术架构 3. 总结&瞻望 理解更多无影云内容:https://developer.aliyun.com/... 一、无影云利用产品简介 首先,介绍一下无影云利用产品个性。无影云利用自研多款硬终端,同时开发了windows零碎、mac零碎的软终端,以及web客户端。对支流平台进行了全面的笼罩。 除此之外,无影云利用提供了丰盛的利用生态。利用生态是无影作为云办公平台的根底能力。无影云利用通过利用虚拟化技术对立调度来实现Windows 、Linux 、Android利用生态的交融。 不同生态的利用都以窗口模式在终端展现。用户应用软件不再受限于终端的零碎类型,晋升了用户的办公效率和办公体验。 二、无影云利用技术架构 为了实现云利用的极致体验,无影云利用在架构层面充分利用了阿里云网络、计算、存储的能力,构建了无影云利用的全域智能的调度和管控,能够依据用户需要进行多地区的一键弹性部署。 在技术层面,无影云利用实现了Windows、Linux、Android利用虚拟化多开,对利用的生命周期进行对立治理。其次,在利用池化方面,无影云利用实现了无影资源节点的池化和利用实例的池化。无影云利用能够在计算节点上,以利用为颗粒度进行算力调度,提供了丰盛的弹性伸缩策略,帮忙企业节省成本。 在调度方面,无影云利用实现了跨地区调度,让用户应用云利用的体验与本地利用成果一样。在业务能力建设方面,无影云利用提供了丰盛的利用仓库、丰盛利用控制策略,供大家开箱即用。与此同时,无影云利用凋谢了无影openAPI,让无影云利用能很便捷的与企业IT集成。 接下来,介绍无影云利用管控的技术细节。 第一,利用虚拟化技术。以更少的资源为用户提供更好的云化算力服务。企业不再须要为每个用户调配一个残缺的操作系统。用户资源按需分配,反对弹性算力,利用即开即用,即用即走。其次,通过对Windows平台、Linux平台、Android平台的利用治理,进行对立的形象,为下层业务屏蔽底层平台的差别。无影云利用定义了云上利用对立的操作接口为将来云原生的利用奠定根底。 目前,利用虚拟化是把传统利用间接搬迁到云上,存在肯定的虚拟化和零碎OS的开销。云原生利用人造运行在云上,没有虚拟化,资源更弹性,资源的应用效率、利用应用体验,都有极致的晋升。其容器化运行,开发、部署和运维都更加高效。 云利用算力池化是在云上被宽泛应用的一种技术。针对不同畛域、不同场景,池化各有特色。因为云利用自身的个性,利用一旦被调配给用户应用就要始终运行,直到用户应用结束。 所以云利用的算力无奈灵便进行和迁徙,减少了无影池化技术的难度。无影的算力池化外围是为企业智能,动静伸缩云利用资源帮忙企业节省成本。保障用户即开即用,即用即走的应用体验。 在零碎层面,无影云利用提供了丰盛的伸缩指标和多种伸缩策略。例如基于负载和工夫定时的伸缩策略,在伸缩动作方面,无影云利用反对计算节点和利用实例的联动伸缩。 在具体的散布策略上,无影云利用反对Spread和Binpack模式。企业IT管理员能够依据本身应用云利用的特色,动静的配置策略,达到老本和体验的均衡,从而晋升资源管理的效率。 为了保障利用即开即用的体验,无影云利用应用了利用预热技术。云利用的启动速度,间接影响用户的体验。当无影云利用不进行任何预热,从创立计算节点、执行利用镜像散发、启动无影组件、到最初启动利用,整个过程用户须要期待2-3分钟。 为了解决这个问题,无影云利用实现了多个档次的预开能力。无影云利用克服了大量的技术难点,实现了从节点预开、到会话预开、到最终的利用预开。当预开的利用调配给用户时,无影云利用会动静加载用户的个性化配置数据,保障用户在池子外面应用利用的体验是统一的。目前,在利用预开模式下,大型利用启动无影云利用能做到1秒以内。 云利用的多级调度是晋升用户体验的另一个重要技术。多级调度外围要解决的用户正当的调配和调度云利用资源。 无影云利用将阿里云当成一个整体,实现了核心+单元的多级管控机制,企业能够在阿里云不同地区部署不同规格、不同的利用,来满足企业多个地区、多个部门、多个工作岗位的办公需要。 无影云利用通过核心的一级调度来进行地区的优选,在单元外面无影云利用通过二级调度进行交付组的优选,而后通过三级调度进行利用会话的优选。 为用户调配一个启动速度快、网络串流提早低、性能高的利用实例。帮用户进行智能的抉择,简化用户应用云利用的复杂度,保障用户应用的体验。 三、总结&瞻望 将来,无影云利用将持续向着Any File Any Time的方向致力。在技术方面,无影云利用将继续在多级调度、算力池化、云原生利用等方面投入,以可控的老本,卓越的体验,为用户提供云应用服务。 原文链接本文为阿里云原创内容,未经容许不得转载。

May 31, 2022 · 1 min · jiezi

关于云原生:智能logo免费体验|如何让餐饮logo在点评网站上一眼出众

简介:一个新的餐饮店铺,还没有人通晓,Logo就是这个重要的“门面”,所传递的信息让人疾速辨认,就能产生记忆点,违心进一步理解,从而为店铺带来流量和收益。如何让你的餐饮店铺logo具备吸引力,在茫茫竞争中一眼出众,为你带来生意呢? 阿里云智能logo设计,在线收费体验logo制作:https://logo.aliyun.com/logo 俗话说,民以食为天,不论是出门下馆子还是居家外卖,越来越多的抉择,对于一般消费者来说,都习惯在点评网站或外卖平台看一看,尝鲜的判断往往就是一瞬间。这个“一瞬间”,首先看的就是品牌的“门面“。 一个新的餐饮店铺,还没有人通晓,Logo就是这个重要的“门面”,所传递的信息让人疾速辨认,就能产生记忆点,违心进一步理解,从而为店铺带来流量和收益。 如何让你的餐饮店铺logo具备吸引力,在茫茫竞争中一眼出众,为你带来生意呢?小云整顿了以下特点和案例作为参考。 1、食物图标,高深莫测对于很多小型的快餐、饮品咖啡和甜品店来说,客户的决策工夫是十分短的,尤其上架了外卖平台,如何疾速让人晓得在你的店铺能吃到什么样的食物,是至关重要的。 图案的辨识度远高于文字,把你的“生意”放进Logo里就是十分疾速的形式。 食品的图案元素加上一点设计丑化,这种“直给”的传递形式,对客户来说,能把品牌和对食物的预期能间接关联上,对于店家来说,也帮店铺疾速筛选了指标客户。 以上案例均由阿里云“智能LOGO设计”在线生成 对于小店来说,这种高深莫测的Logo,视觉传播简略高效,成果也显而易见。 2、色泽丰满,激发食欲人们罕用色彩来表白不同的情绪,比方红色象征热烈或愤恨,蓝色则代表着悲伤。色彩带给咱们的视觉感触,是来自身材的潜意识,不必仔细观看也能被轻松感化。 比方,高饱和度的寒色,会让咱们感觉饥饿,从而刺激食欲,大多数快餐店会应用像红色、橙色、黄色;而亮堂的冷色会让咱们感觉清新,洁净,很多饮料、生鲜会抉择如蓝色、绿色,从而凸显品牌带给咱们的感触。 所以Logo的设计也能够思考到色调对客户心理的影响,使用好色调的特色,让Logo能够更快地吸引到消费者的眼睛,达到事倍功半的成果。 以上案例均由阿里云“智能LOGO设计”在线生成 3、格调符号化,主动引起联想在餐饮品牌Logo设计中,造成本人的格调,并打造本人的特色十分重要,善用符号化的图形在餐饮品牌竞争中很有用。 用一些十分有代表性的元素,让用户看到Logo就能和相干格调产生关联,就算是全新的品牌也会勾起相干的印象,从而产生相熟的感觉。 在这种相熟的格调归类后再加上本人品牌独有的特色,拉近了和消费者的间隔,也会让人更加印象粗浅。 以上案例均由阿里云“智能LOGO设计”在线生成 比方许多茶餐厅或者粤菜、糕点喜爱用港风的设计,霓虹的放射线条,复旧的图形和色调,让人很容易联想到上个世纪热闹时尚的香港。 以上案例均由阿里云“智能LOGO设计”在线生成 日料、韩餐、中餐不同国家的饮食也能够用其符号化的元素来拉近间隔,比方日料、居酒屋等,就喜爱用富士山、红日、相扑、浮世绘等元素。 以上案例均由阿里云“智能LOGO设计”在线生成 而中式餐馆就是另一种格调,书法字体,烟雨水墨、祥云刺绣等国风图腾,让餐厅的Logo霎时有了中式的韵味和禅意。 4、加强场景感,讲好品牌故事现在,除了品牌设计自身,许多餐饮品牌更重视品牌故事的传播。 一个能讲好故事的Logo,不仅停留在图案自身,而是具备画面感,场景感,把人拉入一个意境当中,而后娓娓道来。 这就要求Logo须要具备想象力和延展性,让人在水泥森林中,也能看到小桥流水人家,想给大明湖畔的夏雨荷撑伞。 以上案例均由阿里云“智能LOGO设计”在线生成 一个好的Logo的确能让你的店铺在茫茫人海中一眼出众,器重品牌设计的价值永远都不算晚。 为了给大家总结餐饮行业Logo的特色和案例,小云用阿里云“智能Logo设计”在线生成了以上的案例,如果有你喜爱的格调,也能够依据本人的需要立刻体验下。 阿里云智能Logo设计,基于AI算法精准匹配。只须要简略输出名称、行业等根本信息,就能够一键生成上百款Logo设计,依据你的须要筛选,即买即用,并提供字体永恒授权书,商用无风险。 原文链接本文为阿里云原创内容,未经容许不得转载。

May 30, 2022 · 1 min · jiezi

关于云原生:TAP系列开篇|VMware-新一代云原生平台TAP-助力企业实现应用现代化

要说以后IT畛域的受到企业用户及厂商关注和应用以及投资的热点技术,云原生,无疑是当中最炽热的一个畛域之一。 从2013年云原生的概念第一次在业界被提及开始,云原生技术,依靠于生命力弱小的开源软件技术体系失去蓬勃发展,技术体系一直倒退演变和成熟化;容器化技术首当其中,docker等诸多容器化技术收到业界追捧; 2014年7月,Kubernetes正式开源,开启了容器编排技术体系的百家争鸣的阶段,Kubernetes、cloudfoundry、docker swarm、Mesos等诸多容器编排技术体系各领风骚; 2015年,CNCF正式成立,推动围绕Kubernetes的开源技术为外围的开源生态建设,将业界的云原生畛域技术体系化标准化推上了一个新的台阶;并随着从2017年开始,Mesos和Docker Swarm先后发表反对kubernetes,奠定了Kubernetes成为了容器编排技术体系的业界领导位置。 随同着云原生技术体系的一直成熟和业界深入应用,除了kubernetes以外,诸多创新型的技术也不断涌现; 与此同时,也有一些之前过眼云烟的技术和实际,也在云原生的大潮中再次炽热起来。 微服务利用架构、DevSecOps、CICD、麻利开发、服务网格、无服务器计算、响应式编程等等,给国内外企业用户的IT建设带来十分多的新的技术创新点,并撑持企业的数字化转型并继续带来业务价值。 VMware,是业界出名的致力于IT新技术创新的云计算畛域的领导企业,在云原生技术体系开始涌现前后,就曾经致力于相干开源软件技术体系的研发投入和社区建设,并在近些年继续投入并一直将相干技术教训和产品能力输入到企业用户,帮忙企业用户在数字化转型的畛域给企业IT带来助力。 2013年4月份,作为承载VMware的业界开源技术体系建设理念和愿景的VMware控股的Pivotal公司正式成立,同时,VMware将诸多之前始终在投资建设的技术体系和产品体系注入了Pivotal,包含基于容器技术构建的开源PaaS平台技术体系cloudfoundry、内存计算技术Gemfire、麻利开发服务Pivotal Labs、开源框架Spring等等,并开始依照独立公司的形式来推动云原生技术和产品的推广。同年,Pivotal的Matt Stine第一次在业界提出了云原生的概念。 2014年,Pivotal推出了基于开源cloudfoundry技术体系构建的第一代云原生平台Pivotal Cloud foundry商业版本,并开始助力企业用户构建PaaS平台以实现利用现代化; 在CNCF成立之后,VMware/Pivotal也作为白金会员退出CNCF,独特致力于Kubernetes相干技术体系和云原生技术体系的建设。 2018年年初,VMware/Pivotal联结Google,公布了VMware的第二代云原生平台Pivotal Container Service,基于Kubernetes撑持诸多新型利用的对立平台全生命周期的治理实现。 截止2018年年底,业界有超过一半的寰球财产100强企业采纳了VMware/Pivotal的第一代或第二代云原生平台来撑持企业的数字化转型,涵盖了电信、金融、汽车制作、批发等诸多行业。 2019年,为了深入云原生技术推动,并将云原生技术的实现从原先的容器平台和容器平台之上的实现层面拓展到IT技术的全栈笼罩,Pivotal回归了VMware;并整合了Heptio、Bitnami等诸多先进开源软件技术厂商和能力,推出了针对云原生畛域的全栈技术体系Tanzu,创新性地将容器编排技术Kubernetes交融到了vSphere的技术栈中,使得原先诸多vSphere的用户能够很不便地进行容器化环境的对立治理和应用。 2022年年初,VMware推出第三代云原生平台,Tanzu Application Platform – TAP,除了深入实现容器平台的跨云对立部署治理、异构平台兼容等能力以外,还针对DevSecOps、平安个性、无服务器计算、开发者效力晋升、微服务治理等诸多畛域融入了十分多的创新性的技术,进一步帮忙企业客户实现先进的云原生架构产品和能力体系构建。 同时,TAP相干开源版本实现Tanzu Community Edition也继续被更新和保护。 为了可能让读者比拟清晰地理解TAP的产品技术体系,以及TAP对企业用户IT的开发和运维带来的诸多产品技术价值和能力价值,本系列文章,会从如下的不同角度,来进行具体论述: TAP的技术概览TAP 1.1的装置配置实现TAP的部署参考架构介绍基于Backstage的TAP开发者门户TAP学习核心-通过入手教程来学习利用开发加速器云原生构建服务TAP的利用模型自动化部署的必要条件-易于治理的流水线配置从常规服务谈TAP的利用感知能力利用TAP实现利用云调试与面向开发者的利用运行状态监控小步快跑的代码扫描,实现平安左移基于Knative的TAP云原生运行时此外,读者也点击拜访官方网站,获取更多TAP的产品技术信息。 起源|公众号:VMwareTanzu云原生

May 27, 2022 · 1 min · jiezi

关于云原生:2022Gartner容器预测2025年85的企业将使用容器管理服务

近日,国内出名权威剖析机构Gartner公布了最新《寰球容器治理预测》。预测中指出:在减速的数字化转型驱动下,到2025年寰球容器治理畛域市场规模将冲破14亿美元,预计年复合增长率将达到25.1%。在疫情的影响下,寰球容器治理市场一直增速,对更高水平的翻新、敏捷性和弹性的需要将导致更多企业采纳基于云的容器治理服务,这一比例将在2025年达到85%。以容器为代表的云原生技术正在寰球范畴内掀起新一轮的转型热潮。 容器治理将成企业数字化转型主战场据Gartner预测,随着越来越多的企业步入云原生化的过程,更多地采纳本地云应用程序和基础设施,到2025年,成熟经济体中85%的大型企业将更多地应用容器治理,远高于2022年的30%。 IDC预测也表明,容器软件市场在近几年呈爆发式增长,并且将来五年依然会放弃超过 40% 的复合增长率。到 2025 年,容器基础架构软件市场支出将与虚拟化软件市场、云系统软件市场齐平,成为近几年促使软件定义计算市场增长的新动力。 在数字经济背景下,容器治理将成为企业数字化转型的主战场。对于宽广企业来说,以用户为核心构建商业麻利经营能力变得愈发重要,这就要求传统企业必须进行IT变革,一场以软件为外围的改革正在悄悄开展,当采纳容器治理成为一种新常态,那么如何充分发挥容器的后劲,尽可能多地享受云原生的红利,也就成为了企业将来几年必须面临的挑战。 容器治理是企业减速数字化转型的必然选择数字化转型的减速打算将减少企业对于云原生的需要,相应地也会导致容器的应用减少,从而进一步导致对容器治理(软件和云服务)的减少。云原生使得企业疾速、继续翻新成为可能,“高效、麻利、牢靠”是它的关键词,云原生带来的不仅仅是利用的云上部署,而是意味着全新IT的重塑,包含开发模式、零碎架构、部署模式、基础设施、组织文化等一系列的自动化、麻利化演进和迭代。 相较于传统的利用架构,采纳以容器为外围的云原生架构可能为企业带来更多的潜在益处。在高弹性、高可用、高安全性的云原生架构下,企业得以将更多精力聚焦于业务翻新上,而不用再操心容器技术的细枝末节,不仅可能实现麻利开发流程、疾速运维部署,大幅晋升开发人员的整体生产力,而且对CI/CD管道的配置、DevOps实现也是一个福音。无论是从资源配置优化角度,还是从企业麻利经营角度来看,云原生都是企业降本增效的现实赋能工具。 据Gartner预测,对更高层次的翻新、灵活性和弹性的需要,将导致基于云的容器治理服务成为2025年之前85%新的定制化企业应用程序的默认抉择(2022年私有云的默认抉择仅为55%)。这也意味着采纳容器治理的现代化利用已成必然趋势,更早采纳容器治理服务的企业将在数字化转型中取得更多劣势。 CNBPA最新的调研结果表明,业务利用的麻利开发、智能运维、性能优化是企业抉择拥抱云原生的重要驱动力,传统的技术架构曾经不足以撑持日益多元的业务利用需要,而以容器为外围的云原生化革新则可能无效地帮忙企业实现从传统利用到现代化利用的完满过渡,将软件公布速度进步3至4倍,故障率缩小80%以上,减速企业数字化转型。以容器为代表的云原生已成为企业实现利用现代化、抢占数字化转型先机的最佳门路。 作为国内最早将Kubernetes商业化的公司之一,灵雀云凭借当先的Kubernetes容器技术以及丰盛的企业级云平台开发、运维、治理教训,打造了以Kubernetes为外围的新一代云原生全栈公有云平台ACP,并已在金融、能源、运营商、政企、制作、航空、汽车等多个畛域落地利用,助力数百家企业客户重塑业务利用,减速数字化转型。 将来,灵雀云也将持续以先进的云原生技术和业余的全栈服务,帮忙更多企业实现外围利用现代化、开发运维全流程服务化、基础设施平台化,助力企业取得继续翻新的外围能力,为企业数字化转型提供无力撑持。 点击此处,具体理解灵雀云ACP如何助力您取得数字化转型劣势,与灵雀云工程师独特探讨容器治理的最佳实际,即刻开启全新的云原生之旅。

May 26, 2022 · 1 min · jiezi

关于云原生:10分钟弄懂云原生网络功能快来瞧瞧

一、什么是云原生网络性能? 云原生网络性能 (Cloud Native Function),也称为容器(化)网络性能,是一种旨在容器内运行的网络性能,容器是捆绑代码的标准化软件单元,因而应用程序能够在不同的计算环境中无缝运行。 CNF是网络性能“软件化”的最新进展。 二、什么是网络性能? 网络性能是网络中定义明确的节点或构建块,负责促成特定行为。网络性能的示例包含路由、天然地址转换 (NAT)、域名服务 (DNS)、负载平衡、防火墙和数据包查看等。 最后,通信服务提供商 (CSP) 应用物理网络性能 (PNF) 或为促成特定性能而构建的无形硬件对象。为了寻求更好的前进方向,CSP 最终开始将网络性能数字化,虚构网络性能 (VNF) 应运而生。 虚构网络性能(VNF)使CSP和其余类型的公司可能通过应用软件而不是硬件来为客户服务并满足他们的需要,从而更加灵便地经营。虚构网络性能(VNF),企业通常须要更少的硬件和更少的能耗来实现其指标,能够节俭大量的保护老本。因为其数字信息的个性,虚构网络性能(VNF)能够更轻松地实现降级和推出新服务。 尽管虚构网络性能(VNF)的呈现的确帮忙企业缩小了资本收入并放慢了服务的速度,不像物理网络性能 (PNF)须要漫长的期待周期,企业尽管能够应用现成的商用服务器运行网络性能(VNF),但依然须要一些筹备工夫来实现。对于实时数据处理和决策的零碎而言,依然不能满足这类须要。 这些因素导致了网络性能倒退的下一阶段的到来:Cloud Native Function,云原生。  三、云原生是什么意思? 云原生是一种(有点)新的软件开发办法,在这种办法中,企业也能够应用云中的工具、资源和其余服务齐全在云中构建、部署和运行应用程序。 借助云原生(CNF),能够进一步形象物理硬件,并利用云服务的一些劣势,包含弹性、速度、可扩展性和灵活性等。 四、云原生的次要个性 云原生有一些十分常见的个性以及它们提供的益处。 4.1  微服务 以往的软件开发,只有一台计算机,网络也很原始,软件都集中在微小的、繁多的组件上,旨在一次性解决所有问题。古代办法是将问题合成,让每个子问题成为微服务的责任,这中形式有很多益处: 以将事后打包的开源组件实现为微服务,无需对它们进行任何更改。 领有许多小组件使其更易于扩大。 微服务使重用变得更加简略。通过在开发过程的一开始就保持零依赖和明确定义的API,一个优良的微服务组件,不关怀它四周产生了什么,或者在什么上下文中被应用。 团队开发要简略得多,因为一旦定义了API,不同团队就能够独立并行开发不同的微服务。 4.2  容器化 最后,所有软件都是间接在计算机操作系统上开发和运行的。这导致了问题: 资源与其余应用程序共享,有时会有资源利用的抵触。 对立所有环境(开发、测试、生产)的操作系统、库或其它环境的更改,通常很难做到的,有时甚至是不可能做到。 当进行低级别更改(例如对配置文件)时,随着工夫的推移,它们会导致该物理服务器独有的环境,使反对和治理成为一场噩梦。 这个问题的第一个解决方案是虚拟化。操作系统没有运行应用程序,而是运行了另一个运行应用程序的操作系统正本。大型服务器能够运行多个虚拟机,每个虚拟机都能够运行一个应用程序,咱们不用放心它与其余应用程序发生冲突,因为它们在不同的虚拟机上。但虚拟机 (VM) 也存在问题: 因为虚拟机通常是一个实时操作系统的残缺映像,下面有一层薄薄的应用程序,所以它的大小通常为GB级别范畴。 除了大得蠢笨之外,VM启动须要很长时间能力加载和运行。 VM能够隔离CPU和内存,但依然在不知情的状况下共享网络和 IO。 虚拟机依然须要失常操作系统须要的所有安全性和其余补丁以及其余货色。 容器化是更近一步的优化计划。容器化能够取得足够的操作系统服务来运行应用程序,还能够领有本人的库等,但实际上与许多其余容器共享操作系统和硬件。容器不会主动感知同一服务器上的其它容器。容器不仅能够疾速启动,而且能够通过编程形式创立和删除。容器由容器管理器运行,有丰盛的API和工具能够实现对容器的管制。 4.3  服务注册 微服务和容器化带来了另外的复杂性问题。过来每个人都晓得所有应用程序在哪里,因为只有服务器数量和性能比拟明确。然而对于微服务和容器化,应用程序是无奈通过硬编码方式找到其它组件的名称,而是必须其它形式找到它们并连贯它们。 这就是服务注册核心的作用。服务注册核心是一个数据库,旨在存储应用程序级通信的数据结构,并作为应用程序开发人员查找模式和注册应用程序的核心地位。换句话说,它是微服务申明其存在、可用性和性能的中央。尽管解决了组件服务发现的问题,但也引入了单点故障问题。 4.4  无状态服务 传统上,在利用程序开发中,长久化是一个外围问题。长久化意味着应用程序会将扭转的数据保留,甚至会影响将来程序的运行预期。容器化不善于长久化数据,所以很多服务是“无状态的”,这意味着它们没有存储数据或者依赖历史数据的中央。这也意味着容器没有对于它们正在做什么、曾经做什么或应该做什么的牢靠存储的本地信息。相同,他们应用有状态服务来跟踪所有这些。当然有一些场景,例如在内存中缓存数据等。那些波及共享的资源,则依赖于有状态的服务来保障它们的失常运行。 无状态服务十分受欢迎,并且有充沛的理由:如果应用服务的确是无状态的,咱们能够依据须要运行更少或更多的容器来实现它,而不用放心可扩展性。 五、云原生性能的次要劣势 随着5G的一直推出和越来越多的工作负载在边缘解决,越来越多的公司正在解脱虚构网络性能并采纳CNF——如果不将VNF和CNF 互相联合应用的话。这是因为CNF带来了很多益处,包含: 进步灵活性和敏捷性,因为推出新服务或降级不再波及更换任何硬件。相同,企业能够创立一个新的微服务并将其推广到现有的基础架构上,从而放慢上线工夫并升高与以传统形式施行新产品相干的老本。云原声性能的最大益处是,它使咱们解脱了在繁多、价格过高的硬件集上运行的繁多、极其简单的应用程序的解放。能够混合搭配、扩充和放大规模,将部署克隆到新市场,而不是在工程部署方面破费大量的有效工夫。 降低成本。因为程序部署须要的硬件比反对VNF所需的硬件还要少。因为按需应用付费和按需的可扩展性,应用程序始终可能拜访所须要的基础设施,同时只需为确切应用的硬件资源付费。 改良的可扩展性。因为容器化的微服务能够依据须要横向或者纵向扩大。因为云的个性,很容易部署更多的硬件资源,反对大量流量或并行用户涌入,基本上能够认为咱们领有有限可扩展性。 进步容错性和可靠性。如果一个容器因任何起因而离线,运维人员能够立刻启动另一个容器。因为降级能够在微服务级别进行,因而大型利用不用冒大规模中断或安顿零碎停机的危险。这反过来又提供了更牢靠的产品套件和更好的客户体验。 六、云原生性能的技术挑战 尽管云原生性能的益处很多,但如果打算尝试它,则须要牢记一些注意事项: 须要从新架构现有的网络性能。例如,如果应用任何单体应用程序,则须要将它们合成为微服务。 ...

May 26, 2022 · 1 min · jiezi

关于云原生:案例成果展-灵雀云助力中国人民银行清算总中心构建裸金属容器平台

云原生减速金融数字化《国民经济和社会倒退第十四个五年布局和2035年近景指标大纲》中明确要求金融业稳当倒退金融科技、放慢金融机构数字化转型。 为深刻贯彻十四五策略倒退布局、放慢推动数字金融高质量倒退,作为中央银行的直属事业单位,中国人民银行清理总核心继续发展云原生等新技术创新利用,通过构建高效的裸金属容器平台,晋升现代化微服务利用的治理能力,进一步放慢金融信息基础设施迭代降级,减速金融数字化转型。

May 26, 2022 · 1 min · jiezi

关于云原生:云原生数据库的下一次变革发生在哪里

作者 | 万佳 自上世纪 70 年代以来,关系型数据库进入历史舞台,成为数据库行业的配角。尔后,这个行业步入一个黄金时代,某数据库专家曾撰文写道,“很长一段时间,关系型数据库简直是包打天下的抉择。你很可能用一套数据库玩转所有业务,你也不须要一个连的工程师来保护它”。 “老而弥坚”的关系型数据库对数据库行业来说,互联网的呈现却带来巨大变化:数据量急剧增大、数据类型更加简单、数据处理速度需要一直进步,大数据时代全面到来。 因而,面向非结构化数据的 NoSQL 数据库衰亡,呈现了文档数据库、时序数据库、图数据库、搜寻数据库等。 一时间,NoSQL 数据库景色有限,失去不少企业青眼。大家巴不得把所有零碎都用 NoSQL 革新。 NoSQL 之所以受欢迎,次要是解决了关系型数据库中的各种问题。第一大问题是数据的 Schema 十分多,用关系型数据库来示意不同的 Schema 十分蠢笨,所以须要有不同的数据库,比方文档型、时序型、搜寻型等。另一大问题是关系型数据库的 ACID 极大影响了数据库的性能和扩展性,因而 NoSQL 做出斗争来解决大规模伸缩的问题。 随着挪动互联网的倒退,大数据技术的广泛应用,涌现出越来越多的新型数据库,然而关系型数据库仍然占据主导地位。为什么它能经久不衰?次要起因之一是关系型数据库采纳了 SQL 规范,这种高级的非过程化编程接口语言,将计算机科学和易于人类了解认知的数据管理形式完满的连接在一起,目前还难以超过。 云时代:关系型数据库的“进化”云计算的呈现和倒退,让越来越多的企业开始将数据库部署在云上。通过云服务模式提供数据库性能的云数据库应运而生。据悉,云数据库不仅缩小了数据库参数的反复配置,而且具备疾速部署、高扩展性、高可用性、可迁移性和易运维性以及资源隔离等特点。 尤其是基于容器化、微服务、Serverless 等理念设计的具备弹性伸缩与寰球部署能力的云原生数据库,能随时随地从多前端拜访,提供云服务的计算节点,并且能够灵便及时调动资源进行扩缩容,助力企业降本增效,成为行业倒退新趋势。 能够说,数据库在云时代迎来改革。一方面,此时的数据库向内存和分布式方向演进和倒退,甚至 RDBMS 自身都受到 NoSQL 的挑战;另一方面,在云托管环境下,关系型数据库逐步暴露出一些问题。 此时,为适应变动,关系型数据库须要变革和自我进化。而开路者就是间断 11 年被 Gartner 评为“寰球云计算领导者”的亚马逊云科技(Amazon Web Services)。 亚马逊云科技在 2014 年推出关系型数据库 Amazon Aurora。它兼容 MySQL 和 PostgreSQL,采纳共享存储和读写拆散的形式,不仅晋升了数据库性能,而且解决了可扩展性问题,让传统互联网公司能够无缝迁徙到云上,这让它成为云计算时代的一个代表。 凭借既有传统商业数据库的高性能和可用性,以及具备开源数据库的简略性和老本效益,Amazon Aurora 成为亚马逊云科技历史上用户数量增速最快的云服务,且跻身最受初创公司青眼的八项亚马逊云科技寰球服务。 为什么它能受到诸多企业青眼?这离不开 Amazon Aurora 弱小的性能和先进的架构设计。 性能上,Amazon Aurora 与开源引擎齐全兼容,可取得 5 倍于规范 MySQL 以及 3 倍于规范 PostgreSQL 的吞吐量,反对并行查问可减速 OLAP 业务。其次,高可用方面,它能实现可用区(AZ)+1 的高可用,Global Database 能够实现跨区容灾备份。第三,在扩展性方面,它反对 15 个只读正本主动扩大,每个数据库实例可主动扩大到 128 TB。最初,老本上,它提供商用级数据库性能的同时,老本仅为其十分之一,存储无需预置按用量付费。 ...

May 26, 2022 · 2 min · jiezi

关于云原生:OpenCloudOS云原生演进之路

作为国产开源操作系统社区,OpenCloudOS积淀了腾讯及多家厂商在软件和开源生态的劣势,在云原生、稳定性、性能、硬件反对等方面均有松软撑持,能够平等全面地反对所有硬件平台。OpenCloudOS稳固撑持了腾讯及其合作伙伴超过1000万节点的大规模场景,在政务、金融、互联网等行业通过长期应用验证,能够为企业提供稳固高可用的服务,满足业务严苛负载需要。腾讯在操作系统畛域已有超过10年的技术积攒,特地是云原生的相干技术优化,如容器基础设施、CPU调度、内存治理、IO、网络、可维护性、虚拟化等7大维度的个性奉献到社区中。 技术角度,OpenCloudOS致力于成为“云原生最佳底座”和“最绿色的操作系统”;本文聚焦于OpenCloudOS云原生演进,OpenCloudOS为云原生提供最佳底座,并通过云原生内核联合腾讯全栈开源云原生技术,打造云原生最佳解决方案。 通用 OS 架构 传统OS的定义:操作系统是控制应用程序执行的程序,是应用程序和计算机(硬件)间的接口。操作系统有3个指标:不便:让计算机更易于应用无效:容许以更无效的形式应用计算机资源扩大:容许在不影响服务的前提下,无效的开发、测试和引入新的零碎性能传统通用 OS(Linux) 的典型架构设计如上,操作系统中蕴含了为实现上述3个指标而提供的各种功能模块和接口,总体上,分为两大部分:内核:提供底层硬件(计算机)的根本形象,不同的内核模块提供不同的硬件治理或相干的辅助性能,通过零碎调用向下层利用提供服务。根底库和相干服务组件(用户态):为实在业务运行提供根底运行环境 IAAS场景中的OS IAAS 场景中,OS 次要用于为云主机(虚拟机)提供运行环境,在 IAAS 场景中,OS 中运行的工作类型和数量可控,场景绝对通用场景简略很多。工作类型根本就只有如下几类:VM 相干线程(通常为 Qemu + Vcpu 线程)各种管制面的治理 AgentsOS 本身必须的一些控制线程(比方 Per-cpu Workers)IAAS 场景中,为使虚拟机性能有限靠近(甚至超过)物理机,通常会思考做减法,通过有限缩小虚拟化、OS 层面的开销来晋升性能,罕用的一些典型伎俩如:CPU 层面的绑核内存层面的预调配IO 层面的各种 Bypass Kernel 技术对于 OS 来说,最终的后果是:OS 越来越薄,最终可能会隐没 换个角度看OS(云原生角度) 当云原生浪潮袭来,换个角度(云原生角度)再去扫视 OS 时,看到的又是不一样的视图。云原生场景对 OS 提出了新的挑战,也为 OS 相干技术的进一步倒退和演进注入了新的能源。云原生场景中,OS 为不同类型的利用(Apps,Containers,Functions,Sandboxes),提供底层撑持和服务。此时,相比 IAAS 场景,最显著的差异在于:利用和零碎的边界大幅上移,利用之下皆为 OS对于OS来说,最终的后果是:OS 越来越厚(孕育有限可能),与 IAAS 场景造成鲜明对比 OpenCloudOS For 云原生 在云原生浪潮席卷的行业大背景下,随同着各种业务架构的疾速转身,业务的容器化、微服务化、Serverless 化,对底层的基础设施(包含外围的 OS )提出了新的挑战和要求,OpenCloudOS 也随之迅速转型,针对云原生场景和需要,进行了深度的重构和从新设计,全面拥抱云原生,向云原生 OS 的指标一步步迈进。 OpenCloudOS (以后)次要实现( Kernel 层)了如下云原生 Features· 云原生调度器 - Tencent Could Native Scheduler(TCNS)· 云原生资源 QoS - RUE· Quality Monitor· 云原生 SLI· Cgroupfs ...

May 25, 2022 · 1 min · jiezi

关于云原生:云原生架构及演进

本文是由AIOps社区举办的《云原生架构演进》meetup转录而来,嘉宾张晋涛,Apache APISIX PMC Kubernetes ingress-nginx reviewer,containerd/Docker/Helm/Kubernetes/KIND 等泛滥开源我的项目 contributor, 『K8S 生态周报』的维护者。对 Docker 和 Kubernetes 等容器化技术有大量实际和深刻源码的钻研,业内多个出名大会讲师,PyCon China 外围组织者之一,写有 《Kubernetes 上手实际》和 《Docker 外围常识必知必会》等专栏单体架构什么是单体架构顾名思义,单体架构是将所有的业务服务都放在一个单体中的业务逻辑耦合的架构。以上面这张图举例,咱们申请某个域名,DSN返回相应域名的IP地址,用户会依据理论地址拜访相应的服务器,最初服务器会做出相应。这是一个最简略的单体架构案例。 单体架构的劣势简略,所有的业务逻辑都蕴含在一个大单体中开发疾速,不须要思考各组件之间的调用链关系部署简略,间接打一个jar包或rpm包单体架构的劣势不便于多人协同开发在多人团队合作开发过程中,单体架构的劣势就逐步显现出来了,当你想新增某一个性能时,它会影响到某些函数。但其余开发者并不知道这些函数被批改了,那么很可能会呈现代码跑不起来。或者会造成逻辑上呈现问题。 所以在多人协同开发的我的项目中,试想一下对咱们而言,最好的状况是不是彼此之间不要紧耦合,都心愿将咱们相干的功能模块尽可能的拆分。 保护老本过高在单体架构下吗,所有的服务都耦合在了一个大单体中,如果其中某个性能有bug,很可能会导致整个服务的不可用,所以单体架构的爆炸半径特地大。此外,随着业务复杂度的晋升,你的开发成本会显著回升。 举个例子,在开发过程中,你须要思考某一些性能是否要调用这个函数,如果你确定调用,那么你要十分十分的小心,这时候你可能会想,最简略的方法就是我新加一个函数,长此以往你会发现,在一个大型单体利用中会隐含着很多冗余的代码,甚至是一些暗藏的bug,随着代码规模的变大,这个单体利用的开发成本会变得特地高 部署老本昂扬随着单体利用规模的扩充,它的部署老本会呈线性增长,你会发现它耗费的服务器等资源会变多。在后续老本保护层面,其老本是越来越大的 单体架构的演进为了让用户的拜访性更好,常见的做法是加缓存,让用户每次申请的时候,能够从缓存中读取数据。这样能够缓解数据库的压力。 然而在加了缓存当前,须要思考的事件就多了,比方遇到了缓存生效、缓存过期、缓存被穿透等状况,你是否有应答预案。所以还有一种形式,就是对数据库做一些拓展,比方做集群,在外层加上lb负载平衡、加CDN等操作来晋升用户拜访的可用性, 还有一种形式就是做拆分,将一个大单体利用通过多模块形式拆分,但因为它不是真正意义上的齐全拆分,各模块之间还是耦合的。所以长此以往,随着咱们业务规模的逐渐变逐渐变大,技术债也将会越来越大。 微服务架构与传统的单体架构比,微服务架构外围特点是服务绝对独立,形象力度小。从上面这张图咱们能够看出,像account service,shopping service等服务相互之间是独立的,没有强耦合性。以account service来举例,咱们发现它有一个Account DB,这样做的益处吃,当我这个服务出问题时,短时间内是不会影响其余服务的。 但这一模式造成的一个最大难题就是,你的微服务的形象力度不好把控,很多开发者都常常遇到过,团队里的很有教训架构师都有一些集体喜爱的拆分模式。这是你可能会问,如果换一种拆分形式是否也能够?其实都能够的,只不过是在于你不同的形象力度造成的。 微服务架构最次要的劣势在于它的复杂度绝对可控,因为每个小的微服务之间相互独立,如果它产生了故障,它的爆炸半径要远小于单体架构。此外,每个服务之间须要通信,比方限流、熔断等这些惯例需要,当用户侧的流量上来时如果后端的服务没有及时扩容,这时候就要启动熔断和限流的策略,以避免出现缓存被击穿,甚至雪崩的状况呈现。 微服务架构的另一个益处是,每个微服务都能够应用不同的技术计划来开发,或者说应用不同的语言来开发,各服务之间只需满足接口调用的规定即可。那么微服务架构有劣势么?当然也是有的。最大的劣势在于,咱们将一个大的单体拆分了很多小的微服务,那么在部署上线的时候,所有的都微服务都要部署一遍,部署老本直线回升。 在后面咱们说过,每个服务都有它本人独立的DB。那么在资源在用方面可能不肯定那么高,然而你在做资源布局的时候,必须要给它调配相干的资源。从这个层面看,咱们会发现微服务架构下的整体部署复杂度和资源占用都会变高。另一方面,如果你对微服务拆分的过细,会发现组件过多,保护老本增大,拆分的不够细,组件之间可能还存在耦合,那么这就是个失败的拆分。 云原生架构云原生架构次要以容器化技术docker和Kubernetes为首的容器编排技术。docker给咱们提供了容器镜像和资源隔离这两方面能力。以前开发,咱们交付的可能是源代码或者一个jar包,当初间接交付一个容器镜像。交付形式产生了扭转。 另一方面,容器为咱们提供了根本的资源隔离,开发者不须要去思考服务运行过程中,各服务之间的端口是否会呈现抵触。因为每个容器环境下,每个服务都有本人的network name。这对上文中提到的微服务爱狗是十分好的终局计划。 试想,在原来的微服务架构下,咱们拆分了泛滥小的微服务,这些服务可能会有一些外部类的服务,那必定须要去一个监听端口,咱们也不会将所有的微服务全副部署在不同的机器上,这样在做服务拆分的时候,咱们还须要思考这些服务彼此之间的端口是否会抵触,如何防止抵触。但docker能够帮忙咱们防止这些问题。但另一方面,尽管docker提供了资源隔离的性能,然而咱们都晓得它利用的是Linuc内核中的c group、name space等能力去实现了,它并不具备分布式的能力。并不可能间接把我的某一个容器间接调度到另外的其余的一些容器。 所以在2014年,Google正式开源了本人的容器编排引擎XXX,给咱们提供资源调度的能力,容许咱们将某些服务从一台机器调度到其余的机器上。 另一个就是以Kubernetes为首的容器编排技术,咱们先来它的整体架构是什么,以下图为例,它的整体架构分成两个局部,右边是咱们的管制面,蕴含最外围的API server,须要去解决所有内外部API的申请,以及Controller Manager、etcd等模块 另外一部分是Node节点,Node节点在Kubernetes中是工作节点,蕴含Kubelet与Kube-Proxy两个次要模块,Kubelet是管制某一个pod是否在集群的节点失常的启动,Kube-Proxy负责流量的转发。 在云原生架构下,因为所有的利用都是容器化的,所以它都须要容器镜像的存在,所以CI/CD就成为了最次要的能力之一。其次在整个云原生的顶一下,云原生架构还蕴含可观测性、弹性伸缩等概念。 云原生架构劣势在云原生架构体系下,因为利用部署全副都变成了容器化部署,所以开发者能够不在意这个服务到底如何进行镜像构建,这让咱们更容易进行标准化。另一方面,因为云原生架构提供了故障转移,弹性伸缩等性能,所以咱们的保护老本是升高的。 再有就是效率的晋升,在物理机时代,咱们想要减少正本数量,或者上线一个新的服务,须要做很多的事件。然而当初我嘛能够通过一条简略的命令就能够实现 云原生的劣势次要体现在复杂性,咱们能够发现,云原生架构蕴含很多组件,无论是它架构的复杂度,还是学习老本都是比拟高的, 云原生场景下的基础架构改革容器化VS虚拟化云原生场景下,最小的调度单元是一个pod,咱们所部署的服务也都变成了容器,所以在这里咱们来比照下容器化与虚拟化之间的区别 以下图为例,左侧是容器化利用,右侧是虚拟化利用。对于容器化利用而言,在infra这一层是主机的操作系统,再之上是容器运行时。在这个过程中只有一个操作系统存在。然而对于虚拟化而言,咱们能够发现,每一个虚拟机都有本人的操作系统,所以它的资源耗费变得更高。 当另一方面,如果咱们的某个利用呈现安全漏洞,对于容器化技术而言,最典型的就是容器逃逸,也就是说某个攻击者从容器中浸透进去,攻打到主机上。然而这种状况根本不会产生在虚拟机上,相比于虚拟机,容器化技术带来的劣势是轻量级,但它的劣势是隔离性有余。 基础设施重点不同 在基础设施这一层面上,如aps、oecd、manage schedule等,它援用了大量的组件,本来这些组件咱们基本不须要。而且这些组件还有一些零碎级的依赖。咱们就会发现,这个基础设施不仅引入了很多组件,咱们还须要思考很多组件的依赖,这就导致了咱们的攻击面减少了。举个例子,比方你有一个组件,它依赖于某些服务和库,那么这些服务和库、甚至咱们的操作系统也可能存在安全漏洞。所以在基础设施层面,咱们会发现,引入了大量组件带来了攻击面的减少。 另一方面,网络拓扑的复杂性也减少了,在Kubernetes中,有一个典型的概念—容器网络模型(CNI),咱们会发现,在整个Kubernetes生态中,咱们有十分多的选型能够抉择。这些选型,有的会带来整体的效率升高,有的CNI基于Linux内核,对Linux的版本有要求。所以你整个的网络拓扑要更简单 存储架构选型下图是Kubernetes中的容器存储构造(CSI)的截图,咱们能够发现,外面的可选项十分多。这就意味着,当你在做存储架构的选型的时候,须要去思考很多个方面,比方它的兼容性、可扩大能力、性能、数据安全等等 举个例子,如果是你的业务说须要多端读写的,这种场景要如何去满足,它是否能够与Kubernetes来兼容。咱们都晓得IO的耗费是一个比拟大的性能损耗点,不同的存储计划选型会导致它的性能不一样。另一方面,当你的某一个正本失落时,要如何来保障这些数据的安全性,当你的某哥存储节点挂掉了,我的整个寒假须要恢复过来不受影响,这些都是须要在存储架构选型时须要思考的。 日志架构在日志方面同样面临着很多问题,首先通过这张图,咱们能够看到,有的日志是通过外层代理来的,这是零碎的拜访日志,还有其余诸如利用日志、用户行为日志等等。首先日志起源就形形色色。 其次,日志的存储地位也各不相同。存储包含两个方面,一个是产生日志后,我要写在哪个中央。另一个是最终要把日志存储在哪里。依照Kubernetes举荐的形式,咱们将所有的日志都输入到规范输入中,在采集日志时,咱们只有把容器运行时日志策略配置好,就能够从宿主机中读取到对应的日志 ...

May 25, 2022 · 1 min · jiezi

关于云原生:阿里云专利缴费小程序丨如何在一分钟为多项专利缴费

简介:本文为用户介绍疾速专利缴费的办法。 对于一家科技公司来说,手握多项专利是非常常见的事件。但这却也让相干负责人有点头疼。 “咱们公司名下有十多件专利,从14年到当初大略每年申请了一两个专利。类型的话发明专利、外观专利、实用新型专利都有。”某科技公司的老板骄傲地说道。但专门负责专利事务的工作人员却有着这样的懊恼。“因为每个阶段的年费都不一样,不同专利类型的年费也不一样,所以每年缴纳年费的时候都挺辛苦的,须要定好几个日程揭示本人及时缴纳专利年费。还记得有一年,有项专利缴费时漏掉了,临期只有20地利才查出来。”不仅如此,负责人还称,在网站上填写缴费信息,须要人工核查很多内容,破费大量工夫精力,感觉非常困扰。 如果你也有相似的问题,不要焦急,小助手来教大家如何疾速实现专利缴费! 专利缴费小程序咱们能够应用阿里云推出的专利缴费支付宝小程序来实现缴费流程。这是一款专为满足宽广企业客户和个人用户的专利缴费需要而专门推出的小程序。用户只需在手机上简略操作,不仅能够疾速查问专利,还能够一键给多个专利实现缴费。帮忙大家解决专利太多记不住,错缴漏缴的问题。 在支付宝搜寻【阿里云专利缴费】或者支付宝扫描下方二维码,均可中转小程序。即便当初用不到也能够先珍藏小程序,之后有须要时就能很快找到啦~ 进入小程序之后,只须要三步即可操作胜利。 第一步:查问专利阿里云对接官网专利数据库,数据真实可信。目前有两种形式均可查问专利信息。 对于企业来说,小助手举荐应用【按企业缴纳】,通过点击【查问企业专利】,在搜寻框输出企业名称,即可看到该企业对应的专利概要信息。最多反对增加5个企业喔! 对于集体来说,小助手举荐应用【按申请号缴纳】,点击【新增申请号】→输出申请号即可看到申请号对应的专利信息。 第二步:筛选专利 查问到专利信息后,用户能够通过【临期】、【超期】选项疾速查看哪些专利须要尽快缴纳年费。专利繁多,想要找到亟需缴费的专利怎么办?小助手举荐大家应用筛选按钮,能够依照【临期天数】、【专利类型】来疾速找到本人须要缴费的专利。也能够点击左边的小箭头查看专利详情来核查信息。 第三步:实现缴费 抉择心愿缴费的专利之后就能够去缴费啦!如果想要缴费状态,能够点击【我的订单】,找到对应的专利查问信息,同时也能够抉择发送收据到本人的邮箱。缴费胜利五天后,能够下载收据。并且阿里云保障缴费后果国家官方网站可查,做到诚信服务,让用户释怀。 阿里云专利缴费,做您专利的“贴心管家”,让您省时省心省力,为您的专利资产保驾护航。 原文链接本文为阿里云原创内容,未经容许不得转载。

May 25, 2022 · 1 min · jiezi

关于云原生:智能logo免费体验|网站Logo这样设计搜索排名跟着提升

简介:一个好的网站logo,不仅让用户一眼晓得网站品牌传递的信息,还能进步网站业余度和丰盛度,减少SEO搜寻排名。明天分享下如何设计一款实用的网站logo。阿里云智能logo设计,在线收费体验logo制作:https://logo.aliyun.com/logo 许多敌人来阿里云买了域名后,下一步就要搭建本人的网站,来作为品牌形象和产品营销的主阵地。 放眼望去,大部分网站都会在页面顶部展现本人的logo,以左上角为主,让登陆的用户一眼就晓得本人所在的网站品牌是什么。 大品牌的网站logo往往由纯图标、中文名、英文名或其组合而成。 而很多中小企业如游戏、影视、工具、服务类的网站罕用域名或域名关键词来作为网站logo,这样用户记忆更集中,不便下次来访一输即可,省去用户到搜寻平台再次查找一番,兴许就会被其余竞品的广告抢去了注意力。 明天,小云分享下应用域名来做品牌词的网站,如何设计一款实用的网站logo。 1、加点形象元素 秒变平面动感以上案例均由阿里云“智能LOGO设计”在线生成,点击图片体验 logo是品牌的形象表白,能一眼出众指标就达成一半了。域名多由英文字母组成,加点形象元素能够让平平无奇的字母立马具有活力,像是在向用户招手示意。 一个播放键的符号,由多色块层叠组成,造成突变和暗影,罕用于视频、影视或拍摄相干的行业,又能凸显出品牌的生机和动感;由小到大的字体,像是从远处飞来,简略的色块衬底,充满热情和档次,一个动态字母做出了动静的成果。 突出首字母也是罕用的形式,简略的线条和半圆,组成了一个首字母“A”字,简略的字母也有了性情和格调,单看到这个字母就能想起你的网站。 平面的小标记,让logo从二维立体间接步入三维平面,尽管由多种色彩组成,却互为暗影,造成一个对立的整体,还十分年老时尚,形象却有艺术感。 2、行业小图标 一眼就get以上案例均由阿里云“智能LOGO设计”在线生成,点击图片体验 想让用户一眼晓得你是做什么的? 那最便捷的形式就是把你的行业做在logo里。 一个有点设计感的小图标,让用户对你的品牌行业更加粗浅,一个鸟形象的信封,做邮箱、社交行业都非常适合,让人不盲目联想起“迅速”、“高效”、“轻便”等形象,不必多言,就把品牌价值给传递进来。 一片窗景联想到民宿、刺绣、手工等;一只猫能够是宠物品牌或者叫“猫”的品牌;风车意味着农业、能源与食粮。很多消费品或服务行业都习惯用有行业属性的图标,视觉带给咱们想象力,这些联想都刻在基因里。 3、纯字体logo 大气简洁以上案例均由阿里云“智能LOGO设计”在线生成,点击图片体验 最初介绍下纯字体的logo,看似简略,却是许多网站用户的经典抉择。 相比于图标的语义直给,纯字体往往更简略大气,也是很多大品牌应用的形式,字母自身即品牌。 加上有设计感的字体格调,某音风可能是短视频上下游或潮流品牌,一个地球形态的com,让简略的字母有了国内风;黑白的字母看着就很有生机,一点点小设计就显得别具匠心,不使劲地展现,却能立马变高级。还有简略的字母加上域名二维码,让PC端和挪动端互通连贯,用户在手机端看到logo都能够间接扫码进入网站,两全其美。 以上网站域名的logo案例,均由阿里云智能logo设计产品主动生成的。 你也能够花小钱,办小事,轻松一站式搞定品牌设计到营销~ 阿里云智能Logo设计,基于AI算法精准匹配。只须要简略输出名称、行业等根本信息,就能够一键生成上百款Logo设计,依据你的须要筛选,即买即用,并提供字体永恒授权书,商用无风险。 立刻收费在线体验:https://logo.aliyun.com/logo阿里云智能logo在线体验 晦涩的挪动端流程体验,丰盛的素材内容,优化LOGO匹配后果,都能够在手机上间接在线体验啦~ 原文链接本文为阿里云原创内容,未经容许不得转载。

May 25, 2022 · 1 min · jiezi

关于云原生:打印上云-随时随地一键搞定

简介:橙蜂云打印是以云端服务器为根底,构建企业共享打印平台,反对手机、平板、PC多种终端及钉钉等应用程序,随时随地漫游任意云打印设施,刷脸/扫码认证后实现打印。 作为一名职场人,打印材料、合同、宣传页……都是日常办公必不可少的事。但也会遇到一些“懊恼”: 随着“云时代”的到来,AIoT进入办公畛域带来了云办公体验。作为办公文印的枢纽,云打印技术也改变传统打印模式,突破一人一电脑一打印机的绑定,让员工实现随时随地打印,无效地进步工作效率。 阿里巴巴橙蜂依据阿里外部员工的文件打印体验,带来橙蜂云打印解决方案。 什么是「橙蜂云打印」?橙蜂云打印解决方案以云端服务器为根底,构建企业共享打印平台: 员工:不受设施限度,能够通过手机、平板、电脑多种终端及钉钉、网页等应用程序漫游云打印工作。不受地点束缚,无需到指定打印机,园区内甚至跨园区的任意打印机均可实现打印。 管理人员:对立云运维服务平台,可实时查看机器状态、故障疾速预警与智能推送、机器定位与跨区域治理。 与传统打印相比,橙蜂云打印的劣势是:随时随地 简略高效打印 传统打印设施与地点绑定,无奈反对员工灵便办公(出差、工位变动、会议等)的打印需要,更无奈满足钉钉和其余挪动设施的打印须要。 云打印解决方案跳过繁冗的驱动装置,间接应用各种软件(如Office,浏览器,PDF阅读器等)的打印性能,一键设置后即可打印文档。不受地点局限,随时随地实现打印操作。 对立平台 大大降低打印老本 市场上的打印设施品种多,企业洽购设施各不相同,云打印解决方案反对多种打印机型号接入,无需大量的打印设施更换,实现低碳环保的同时又防止再次洽购,节约企业老本。 云打印解决方案通过对立的运维平台,理解在线文印数量,并智能生成报表进行剖析,为企业IT管理者提更迷信的决策依据,制订更正当的打印标准和设施部署计划,帮忙公司节俭运维资金的投入。 24小时 实时爱护信息安全 在企业数字化转型的尝试中,企业数据安全至关重要,打印环节的信息泄露问题层出不穷。云打印解决方案反对对打印人员智能身份认证,不仅实现高效打印,也爱护了企业信息安全。 云打印解决方案具备的「打印审批能力」,可针对企业波及信息敏感的部门,在合规的前提下,定制化对企业敏感信息侦测和告警,反对全链路加密、动静水印等,24小时实时感应,无效避免企业信息泄露造成损失。 目前,阿里巴巴橙蜂云打印解决方案已全副笼罩了阿里巴巴和蚂蚁团体的办公园区,数千台打印机设施对立接入,服务于超十万名员工的日常办公打印需要。为办公文印赋予数智化的能力,晋升企业经营效率,缩小大量资金投入与节约,创始企业级云打印新模式。 《数智进化论》是阿里巴巴企业智能全新推出的栏目,在这里咱们将分享阿里巴巴对于企业数字化经营与治理的产品实际、解决方案及前沿技术。欢送大家交换探讨,推动企业数智化转型。 原文链接本文为阿里云原创内容,未经容许不得转载。

May 25, 2022 · 1 min · jiezi

关于云原生:StreamNative-Cloud-for-KafkaⓇ新品发布云上打通-Pulsar-与-Kafka

近日,Apache Pulsar 商业化公司 StreamNative 发表公布新产品 StreamNative Cloud for KafkaⓇ。此云原生托管服务基于 Apache Pulsar 构建,提供齐全兼容的 Kafka API 实现,而不受 Kafka 的限度。同时,StreamNative Cloud for KafkaⓇ 反对为百万级主题提供继续的低提早。 2020 年,StreamNative 公布并开源了 Kafka-on-Pulsar (KoP)。通过与腾讯等多个公司共建我的项目,KoP 在 Pulsar 外部从新实现了 Kafka API,Kafka 开发人员和运维人员可借助 Pulsar 的云原生架构与各项劣势性能,轻松将已有的 Kafka 应用程序和服务迁徙到 Pulsar,且无需批改任何利用程序代码。尔后,KoP 不断更新并日趋成熟。截至目前,KoP 已帮忙数个企业与团队平滑解决 Kafka 的各项痛点。 在致力于搭建 Apache Pulsar 生态的同时,StreamNative 研发团队也在鼎力开发多样化云产品,使客户可能在 StreamNative Cloud 或公有云环境中运行齐全托管的集群。新公布产品 StreamNative Cloud for KafkaⓇ 简化配置流程、加强网络模型,有助于反对 KoP 和 StreamNative Cloud 的不断改进与倒退。 StreamNative Cloud for KafkaⓇ 建设在 KoP 的根底上,提供了一个齐全托管的 Kafka API,具备 Apache Pulsar 的所有现有性能。这些技术的联合使各团队可能无缝扩大并反对百万级主题。通过应用 StreamNative Cloud for KafkaⓇ,用户无需简单的代码批改,其现有的 Kafka 应用程序和服务即可利用 Pulsar 架构的各项劣势,新的应用程序也能从多个方面受害于 Pulsar 灵便的音讯模型。 ...

May 18, 2022 · 1 min · jiezi

关于云原生:Loggie-Geek-Camp-火热启动社区大牛带你玩开源

由开源构建的合作模式,正成为描述数字蓝图、发明美好未来的主航道,中国工商银行、阿里云等组织曾经在网易数帆“架构开发、内核开源”理念中与后者达成单干,来自华为、阿里云、中国移动、eBay、T3出行、丁香园等公司的从业者曾经参加到咱们的开源社区建设。但你可晓得,凋敝的开源社区须要的,不仅仅是代码的建设? 2022年5月13日,Loggie 社区正式发动 Loggie Geek Camp 流动,由 Loggie 社区核心成员负责导师,率领大家一起领略开源的魅力,独特发明将来,体现突出者更有大奖可拿! Loggie Geek Camp 是什么Loggie 是网易和中国工商银行联结开源的一个云原生可观测性的数据连接器,心愿成为云原生场景可观测性的“数据高铁”。Loggie 开源之初作为高性能、轻量级的云原生日志零碎,用于日志采集、日志直达和聚合,我的项目发表开源5天即被纳入 CNCF Landscape,不到20天取得 Github Stars 500+。鉴于用户反馈及可观测性对云原生业务的重要性,且 Loggie 依靠其架构设计同时具备采集 Kubernetes Events、Prometheus Metrics 等能力,Loggie 社区锚定了可观测性“数据高铁”的倒退方向。 基于此,Loggie 社区面向云原生、可观测性及日志技术爱好者发动 Loggie Geek Camp 开源合作流动,以“性能之巅,观测由我”为主题,让参与者感触开源文化的精华与开源社区的创造力,共创云原生可观测性的将来。 本次 Loggie Geek Camp 流动为期五周,从2022年5月13日至6月15日,蕴含提供 user case、捕获 bug、欠缺和提交 feature 等四类工作,提交内容通过社区审核即为胜利,体现优异者将可取得网易数帆及 Loggie 社区表彰。 提供user case:提供你对 Loggie 的应用形式,帮忙Loggie找到并适配更多的利用场景捕获Bug:发现并提交一个或以上 Loggie 的 Bug,或者是被咱们疏忽的体验问题欠缺文档:在 Loggie 应用过程中,感觉有文档上的缺失?欢送补充你的想法提交feature:为 Loggie 的性能添砖加瓦,可在咱们已公布的工作之外新增对云原生、可观测性及日志感兴趣者,不管驾轻就熟还是初窥门径,皆可入局。有 Golang 功底更佳。弱小的导师阵容,包含网易数帆资深架构徒弟轶、网易严选资深大数据平台架构师郭琪文、网易云音乐资深云原生研发专家吴荣军、网易传媒资深研发工程师王茂成等,欢迎您的参加! 为什么要加入 Loggie Geek Camp我国开源春天气象初现,社区之花任意绽开,大佬前仆后继,我的项目层出不穷,然则拥抱开源和云原生的潮流,为何肯定是 Loggie Geek Camp?这里列出五大理由,可否让你在万花丛中会心一笑? 极低门槛的云原生。 没有 Kubernetes 高度的形象、繁多的概念,没有 Service Mesh 简单的配置、令人纠结的性能损耗,Loggie 只有一条直观、通用的数据链路模型:source → interceptor → sink,适宜入门。 ...

May 17, 2022 · 1 min · jiezi

关于云原生:云原生离线实时一体化数仓建设与实践

简介:本篇内容分享了云原生离线实时一体化数仓建设与实际。 分享人:刘一鸣 Hologres 产品经理 视频链接:https://developer.aliyun.com/... 注释: 本篇内容将通过五个局部来介绍云原生离线实时一体化数仓建设与实际。 一、离线实时一体化数仓建设难点 二、离线实时一体化数仓技术演变 三、阿里巴巴离线实时一体化数仓建设实际 四、离线实时一体化数仓参考架构 五、将来实时数仓外围趋势瞻望 一、离线实时一体化数仓建设难点随着时代的倒退,数据分析由通过实时大屏洞察业务变动,逐渐转向数据决策和数据在线转化。实时数据的精细化经营,让每个人对数据需要,呈现了指数级增长。另一方面,数据在线举荐,风控系统也重大依赖于实时数据,数据分析的力度和强度有着显著地晋升。 面对蓬勃发展的数据需要,咱们的数据架构也变得越来越简单。无论是订单数据,还是行为数据,它们都通过消息中间件采集,而后通过多条加工链路。一份数据通过离线,实时,在线之后,会产生多份数据集。这套架构让运维老本,开发成本变得很高。 整个架构高老本的背地是因为有多套组件和多套存储。而多套存储带来了多份数据孤岛,导致数据的一致性无奈保障。每个零碎都有本人的运维形式,开发方式和应用形式。从而减少了运维老本和学习老本。 当咱们回顾计算机行业的倒退。在60年代,每个程序员在开发零碎时,都须要本人通过离散文件,网络文件或层级文件存储状态。在80年代,大家能够通过形容的形式剖析数据。到了大数据时代,数据的存储形式多种多样,同样一份数据在各个引擎里有不同的选型。尽管不同的技术在可扩展性,并行能力,吞吐能力上有所不同。但至今为止,咱们剖析问题的形式并产生没有实质变动。所以我置信随着数据技术的提高,数据存储还会有一个交融的过程。 我认为数仓平台的时效性有两个概念,即实时和准时。其中,只有机器做决策的场景须要实时。比方端到端数据产生和提早,大屏风控,计算提早,事件驱动等等。而人类做决策的工夫,个别以分钟/小时/天/月为准,极度陈腐的数据并不影响人类决策的实质。只有扭转决策后果的零碎,才是优良的实时零碎。比方海量数据的灵便剖析,自助剖析等等。 大家有的时候为了数据的时效性,往往会漠视数据的品质。如果一个数仓平台只谋求时效性,咱们只能看到一个后果值。岂但很难发现数据的品质问题,二修改老本也很高。所以一个优良的实时数仓平台,其数据肯定要可查看,可修改。 image.png 数仓平台实时化的第三个需要就是降低成本。这里次要分为开发成本,运维老本和人力老本。其中,最外围的是开发成本。咱们岂但要让业务与技术解耦,实现数据资产复用,业务自助开发。还要简化链路,缩小依赖和传递。在运维方面,组件岂但要具备很好的弹性能力,还要有托管服务,从而升高运维老本。在人力老本方面,咱们要升高技术门槛和学习老本。 综上所述,一个优良的实时数仓须要具备四个能力。第一,反对实时写入、实时事件计算、实时剖析,并且满足实时和准时的需要、第二,将实时和离线交融。缩小数据冗余和挪动,具备简化数据,修改数据的能力。第三,实现业务与技术解耦。反对自助式剖析和麻利剖析。第四,拥抱规范,拥抱生态,拥抱云原生。升高运维老本、迁徙老本,SQL优先。 二、离线实时一体化数仓技术演变接下来,咱们看看离线实时一体化数仓的倒退。如上图所示,阿里巴巴的第一代实时数仓,次要面向特定业务,做烟囱式开发。咱们用典型的Lambda架构,履行采集,加工,服务的三步走策略。依据特定业务,进行烟囱化的建设。以工作为单位撑持利用场景,当数据预处理之后,存储到OLAP和KV引擎。但随着业务场景越来越简单,运维开发成本越来越高。烟囱式的开发方式,曾经不能适应业务变动。 于是咱们有了第二代实时数仓,面向指标复用,进行数仓开发。咱们引入了OLAP引擎,将小数据量明细存储在MPP数据库,反对OLAP Query。而后在DWD层,依照主题将数据源整合,构建可复用的DWS层,缩小建设的烟囱化。与此同时,不同的工作和引擎中,仍积淀了烟囱化的业务逻辑。因为不同业务的SLA不同,KV引擎和OLAP依据SLA,拆分了多个实例,导致数据运维老本和开发成本减少。与此同时,KV Schema Free的元数据管理也尤为艰难。 为了解决上述问题,咱们研发了第三代实时数仓,即面向对立数据服务的一站式开发。在第三代实时数仓中,咱们将公共明细层和汇总层,利用明细层和汇总层,集中存储,对立治理。其次,咱们将OLAP、KeyValue对立为SQL接口。而后,简化实时链路和加工链路,让数据可修改,缩小内部零碎的依赖。通过一站式开发,咱们岂但实现了数据的秒级响应,让全链路状态可见,而且整个架构的组件更少,依赖更少。无效升高了运维老本和人工成本。 三、阿里巴巴离线实时一体化数仓建设实际接下来,咱们讲一讲阿里巴巴离线实时一体化数仓建设的实际。2020年阿里巴巴双十一大屏,峰值解决音讯40亿条/秒,全天解决150万亿条,GMV 3秒以内,全天提早1~2秒。这些数据次要来自两个渠道。第一,结构化的订单数据。第二,用户点击时,产生的点击流数据。数据收集汇总之后,一部分数据进入实时加工链路,进入Flink。另一部分数据以归档的形式,进入离线数仓。离线零碎以MaxCompute为主,在线零碎以Hologres为主。 因为MaxComput是一项大数据计算服务。它能提供灵便疾速、齐全托管、高性能、低成本、平安的PB级数据仓库解决方案。所以当数据集成之后,数据进入Date Works平台,通过MaxComput,对数据进行深度剖析,报表剖析。MaxComput岂但简略易用,领有极致的弹性能力,而且领有企业级的平安能力,充沛保障企业的数据安全。 上图是阿里云的重要组件DateWorks。DateWorks由很多组件组成,其中包含数据治理,数据开发,数据调度,元数据管理等模块。DateWorks集成了阿里云不同的引擎,提供了优良的元数据管理能力和企业及治理能力。 我通常将存储分为三类。第一类Transaction在线的事务零碎。适宜模型简略的剖析场景,以TP模型解决AP的问题。第二类Analytics零碎,这个零碎的往往采纳分布式,列存,索引。通各种压缩技巧,把海量数据分析做到极致。第三类是Serving零碎,这类零碎能毫秒级的响应,每秒反对上万的qps,以只读为主,更新简略。 HSAP以数仓模型解决了数据服务的问题。HSAP次要利用在数据报告,数据看版,在线利用。可能对立数据存储,对立进行数据服务。除此之外,HSAP反对离线数据的批量导入,实时数据的实时更新。 上图是一站式实时数仓的演进。无论是交互式剖析,联邦查问,还是在线的高性能点查都能够缩小数据的传递和依赖。数据离线加工的局部,咱们持续应用MaxCompute。数据实时加工的局部应用Flink。防止数据割裂,赋能数据服务,简化运维治理。 阿里云的Hologres为剖析服务一体化,设计的实时数仓。在云原生方面,与MaxCompute底层买通,通明减速,实时离线一体。在流批一体的存储方面,高吞吐数据写入,反对更新,写入即可见。在性能方面,随着CPU的多核化,咱们对向量化、全异步等执行引擎优化,充分利用计算资源。 咱们在阿里客户体验零碎CCO的实时数仓革新中,对交易、征询、退款等数据整合,解决了危险经营、智能排班、售前转询、现场调度等需要。做到了架构简化牢靠,无数据孤岛,反对联邦查问,全流程秒级提早。岂但缩小了数据同步,防止了数据提早和数据库抖动。而且满足了双11流量10倍的增长需要。 上图反映的是,阿里客户体验零碎CCO过来三年,实时加工工作的倒退。间断三年,老本100%的增长,导致运维压力大,老本耗费大。通过钻研CCO的技术架构,咱们发现实时工作有烟囱化的遗留问题。首先,KV引擎与OLAP引擎不通,没有对立的存储。其次,公共层工作链路过长,不同实例间的数据同步,作业产生了收缩,导致保护老本越来越高。 为了解决以上问题,咱们用了Hologres技术机构,与Flink和DataWorks数据地图集成。实现了高性能写入,让元数据集成DataWorks数据地图。构建了高牢靠的场景HA,实现了行列混存和资源隔离。 通过DataHub+Flink+Hologres+MaxCompute的技术架构,CCO的整体硬件资源老本降落30%,实时写入反对行存千万/秒,列存几十万/秒写入要求。在2020双11当天,查问latency均匀142ms,99.99%的查问在200ms以内。除此之外,还可能撑持200+实时数据大屏搭建,为近300+小二提供稳固的数据查问服务。 四、离线实时一体化数仓参考架构云原生的实时数仓次要分为加工层的和存储层。加工层以Flink加工为主。存储层有Hologres零碎。数据的解决形式只有有三种。第一,即席查问形式;第二,准实时形式;第三,增量形式。通过这三种形式,满足了绝大多数场景的解决需要。 实时数仓的数据分析,次要利用在可视化大屏、Web利用API、BI报表零碎、实时数据接口服务等等。首先,将业务零碎的结构化数据,采集到实时数据缓存平台。初步分类之后,增量数据进DataHub;明细全量数据进Hologres。而后进行数据集成,Flink加工增量数据,实时更新明细数据。 而后离线工作加工后果表,由MaxCompute导入,在CDM/ADS层表为理论物理表,工作由DataWorks对立调度。最初,前端实时申请,数据实时性依赖,全副由DataWorks调度周期配置。 增量数据的实时统计,只有通过增量流,增量流join动态维,增量流join增量流,这3种场景,就能统计出数据。而后通过Flink计算、datahub进行数据存储。而ADS层的利用数据存储在Hologres。逻辑简略,实时性强。 该怎么抉择MaxCompute和Hologres?这两个技术的技术原理是齐全不同。MaxCompute有典型的做数据加工场景,计算过程是异步的,资源按需分配。扩展性简直不受限制,接口标准是MC SQL。Hologres的所有工作都是同步的,简单查问尽量避免跨多节点数据shuffle,基于Pangu,利用SSD做缓存减速,老本绝对高。接口标准是PostgreSQL。 数仓开发应逐渐实现缩小档次,一直复用的指标。缩小数据档次,麻利适应需要变动,弱化ADS、面向DWS、DWD的利用开发。MaxCompute与Hologres底层互通,互读互写,无需内部同步工具,数据传递效率比其他软件高10倍以上。 数据开发不是欲速不达,肯定要分阶段进行。大家肯定要在不同阶段,应用不同的加工形式。第一阶段,肯定以获取数据为主。短平快地撑持,了解业务和数据。 第二阶段,要满足在线疾速业务上线。丰盛公共层明细数据,确定产品框架。到第三阶段的成熟层时,才开始布局不同的组织架构。整个零碎趋于稳定,需要成体系。与业务密切合作常态化。公共汇总层开始积淀。 五、将来实时数仓外围趋势瞻望我感觉在将来,实时数仓的外围趋势是一站式的数据平台,麻利化的数据开发,在线化的数据服务。 一站式的实时数仓,一个零碎能同时解决,OLAP剖析与线上服务两个问题。肯定要满足业务麻利响应,数据自助剖析,防止数据孤岛,赋能数据服务,简化运维治理。 数据服务仅是外部零碎,而且要成为内部的在线零碎。岂但能撑持数据决策,而且要提效在线转化。最终实现数据平台的高可用,高并发。数据的低延时/低抖动,安全可靠。 ...

May 17, 2022 · 1 min · jiezi

关于云原生:云原生-咱就是说跟云特熟-企业级飞速低代码

技术架构的演变十分快,各种新的名词也是层出不穷。 云原生随声附和,那到底什么才是云原生呢?云原生又能带来什么益处呢? 对于大部分人来说,大火的云原生还只是一个绝对含糊和抽象的技术用语,大家都只是一人传虚;万人传实。 其实任何一个IT新理念都是源于业务驱动,对云原生来说也是如此。 1、云原生的概念云原生(Cloud Native)是一个组合词,“云”示意利用程序运行于分布式云环境中,“原生”示意应用程序在设计之初就充分考虑到了云平台的弹性和分布式个性,就是为云设计的。 可见云原生并不是简略应用云平台运行现有的应用程序,这是一种可能充分利用云计算劣势对应用程序进行设计、实现、部署、交付、操作的利用架构办法。 云原生的外围就是通过优化利用的架构设计、开发流程和部署、运维形式,让云计算的弹性、灵便、自动化劣势失去充分发挥,使得工程治理和基础设施治理变得更加高效和自治,从而帮忙管理者将精力集中到业务翻新之中。 云原生最早提出者Pivotal公司(2013年)最新定义云原生为4个要点:DevOps、继续交付、微服务、容器。 2、云原生的关键技术(1)容器 容器技术是一种绝对于虚拟机来说更加轻量的虚拟化技术,能为咱们提供一种可移植、可重用的形式来打包、散发和运行应用程序。 容器提供的形式是标准化的,能够将不同应用程序的不同组件组装在一起,又能够将它们彼此隔离。 容器的根本思维就是将须要执行的所有软件打包到一个可执行程序包中,比方将一个Java虚拟机、Tomcat服务器、应用程序自身打包进一个容器镜像。 容器具备高度的可移植性,用户能够轻松在开发测试、预公布或生产环境中运行雷同的容器。 容器技术大大简化了云原生应用程序的散发和部署,能够说容器技术是云原生利用倒退的基石。 (2)微服务 微服务是一种软件架构形式,咱们应用微服务架构能够将一个大型应用程序依照功能模块拆分成多个独立自治的微服务,每个微服务仅实现一种性能,具备明确的边界。 为了让应用程序的各个微服务之间协同工作,通常须要相互调用REST等模式的标准接口进行通信和数据交换,这是一种松耦合的交互模式。 微服务基于分布式计算架构,具备灵便部署、可扩大、技术异构等长处,但须要肯定的技术老本,而且数量泛滥的微服务也减少了运维的复杂度。 (3)服务网格 随着微服务逐步增多,应用程序最终可能会变为成千盈百个相互调用的服务组成的大型应用程序,服务与服务之间通过外部或内部网络进行通信。 如何治理这些服务的连贯关系并放弃通信通道无故障、平安、高可用、强壮,就成了一个十分大的挑战。服务网格(Service Mesh)能够作为服务间通信的基础设施层,解决上述问题。 服务网格是轻量级的网络代理,能解耦应用程序的重试 / 超时、监控、追踪、服务发现,并且能做到应用程序无感知。 服务网格能够使服务与服务之间的通信更加晦涩、牢靠、平安,它的实现通常是提供一个代理实例,和对应服务一起部署在环境中。 (4)DevOps DevOps是软件开发人员和IT人员之间的单干过程,是一种工作环境、文化、实际的汇合,指标是高效主动执行软件交付和基础架构更改流程。 开发和运维人员通过继续一直的沟通和合作,能够以一种标准化和自动化的形式疾速、频繁、牢靠交付利用。 开发人员通常以继续集成和继续交付(CI / CD)的形式,疾速交付高质量的应用程序。继续集成的实质是确保开发人员新增的代码与骨干分支正确集成。 云原生利用通常蕴含多个子性能组件,DevOps能够大大简化云原生利用从开发到交付的过程,实现真正的价值交付。 (5)不可变基础设施 在利用开发测试到上线的过程中,利用通常须要被频繁部署到开发、测试、生产环境中。 在传统的可变架构时代,通常须要系统管理员保障所有环境的一致性,而随着工夫的推移,这种靠人工保护的环境一致性很难维持,环境的不统一又会导致利用越来越容易出错。 这种由人工保护、常常被更改的环境就是咱们常说的“可变基础设施”。 绝对应的不可变基础设施,是指一个基础设施环境被创立当前不承受任何形式的更新和批改,这个基础设施也能够作为模板来扩大更多的基础设施。 简而言之,不可变基础设施架构是通过整体替换而不是局部批改来创立和变更的。 不可变基础设施的劣势在于能放弃多套基础设施的一致性和可靠性,而且基础设施的创立和部署过程也是可预测的。 (6)申明式API 申明式设计是一种软件设计理念:咱们负责形容一个事物想要达到的指标状态并将其提交给工具,由工具外部去解决如何实现目标状态。 在申明式API中,咱们须要向零碎申明咱们冀望的状态,零碎会一直向该状态驱动。 申明式API能让零碎更加强壮,当零碎中的组件呈现故障时,组件只须要查看API服务器中存储的申明状态,就能够确定接下来须要执行的操作,也能缩小开发和运维人员的工作量,极大晋升工作效率。 3、云原生的益处基于云原生技术带给企业的利用开发的技术价值,间接来说就是:降本增效——大幅升高企业IT开发和运维的老本,晋升企业业务的翻新效率和产业价值。 对于企业而言,抉择云原生技术,不仅仅是出于降本增效的思考。 作为全新的生产力工具,云原生而且还能为企业发明过来难以想象的业务承载量。 企业正在通过云原生构建一个残缺的数字孪生的新体系,这便是云原生的真正价值所在。 对于整个云计算产业的倒退自身来说,云原生从云技术的利用个性和交付架构上进行了创新性的组合,能极大开释云计算的生产能力。 此外云原生的改革从一开始就自然而然与开源生态走在了一起,也意味着云原生技术从一开始就抉择了一条“飞轮进化”式的路线。 通过技术的易用性和开放性实现快速增长的正向循环,又通过一直壮大的利用实例来不断完善企业业务全面上云和本身技术幅员。 当然企业业务的全面云原生化并非欲速不达的,企业业务的技术架构改革依然要迎接很多的挑战,比方传统虚拟机模式的运维习惯、原有IT资产切换、人员的思维、治理形式改革等。 不过云原生所带来的种种益处,对于企业的将来业务倒退的劣势,曾经成为泛滥企业的新共识。 能够预感,更多企业在经验了这一轮云原生的改革之痛后,能穿梭企业的原有成长周期,逾越到数字经济的新赛道,更好活在行将到来的全面云化的数字时代。 在多云时代,企业的数据和利用不仅散布在企业公有云和私有云上,也散布在近程办公室或分公司乃至边缘计算的环境中。 现在的企业心愿实现不同云之间的利用移动性,同时放弃对硬件、管理程序或云的开放性。 因而建设一个以业务为核心的运作形式,构建云原生的应用程序和基础设施是一个必然的趋势。 实现对业务的疾速部署、弹性动静调整,而且整个架构是以非常简单的形式来打造的,而这就是以利用驱动的企业云原生,隐隐却又注定带动一股潮流,扭转企业云的将来。 云原生是当下很火的探讨话题,是多种思维的汇合,集目前各种热门技术之大成。置信云原生不仅仅是一种构建和运行应用程序的新办法,而是一种更有生命力的文化。

May 17, 2022 · 1 min · jiezi

关于云原生:云原生数仓如何破解大规模集群的关联查询性能问题

简介:AnalyticDB for PostgreSQL(以下简称ADB PG)是一款PB级的MPP架构云原生数据仓库。本文从ADB PG架构设计的角度登程,探讨Runtime Filter在ADB PG中的实现计划,并介绍了基于Bloom Filter的ADB PG Dynamic Join Filter性能技术细节。 作者 | 宇毅起源 | 阿里开发者公众号 前言近年来,数据库系统服务的数据量呈指数级增长,同时也面临解决的业务需要愈发简单、实时性要求越来越低等挑战。单机数据库系统曾经逐步不能满足古代的数据库服务要求,因而分布式数据库/数据仓库失去了越来越宽泛地使用。 在实时剖析(OLAP)畛域,分布式数据仓库能够充分发挥零碎的分布式特点,将简单的OLAP工作合成下发到零碎中的所有节点进行计算晋升剖析性能;分布式数据仓库也能够比拟不便地对系统节点进行扩容,应答用户业务数据量减少的需要。然而分布式数据仓库用户无奈防止的一个问题是:随着数据仓库集群规模增大,扩容带来的性价比愈发升高。 造成这种景象的一个起因是,表连贯(Join)作为数据库业务中最宽泛应用的算子之一,在分布式计算中依赖零碎节点间的数据交互;当分布式集群规模增大时,节点之间的数据交互代价会明显增加,这种状况下十分考验分布式系统的网络解决能力,并依赖用户的数据表设计和SQL编写能力以缓解数据交互压力。 针对这个问题,业界不同的分布式数据库系统提出了不同的Join运行时过滤(Runtime Filter)算法。AnalyticDB for PostgreSQL(以下简称ADB PG)是一款PB级的MPP架构云原生数据仓库,同样也面临着上述问题的挑战。本文从ADB PG架构设计的角度登程,探讨Runtime Filter在ADB PG中的实现计划,并介绍了基于Bloom Filter的ADB PG Dynamic Join Filter性能技术细节。 ADB PG架构简介ADB PG基于开源我的项目Greenplum构建,在单机PostgreSQL的根底上进行扩大,将多个PG服务同时启动在单个或多个服务器上并组成集群,以分布式的模式提供数据库服务。 ADB PG将每一个PG服务称为一个Segment,并引入了Slice的概念。Slice用于解决分布式系统中的网络结构,当数据库波及到MPP多阶段计算时,例如Hash Join左右表的Join Key不满足雷同的Hash散布,那么就须要对Join Key通过网络传输进行重散布,ADB PG将网络传输的前后阶段切分为不同的Slices。以下是一个ADB PG集群示意图。 在这种架构下如何解决大规模集群下表连贯Join的性能问题呢?业界解决这个问题的一个计划是引入网络代理节点,同一机器内的Segment将网络数据发送至本地代理节点,由代理节点与其它机器上的代理节点进行网络收发工作以缩小网络拥塞。该计划对ADB PG架构的挑战较大,且没有从根本上缩小Join的网络Shuffle开销。因而为了从Join本源上缩小Join计算的数据量,ADB PG设计并实现了Join Runtime Filter计划。 Runtime Filter和Bloom FilterRuntime FIlter的目标是在Join计算前筛选掉一部分数据,须要一个Filter的实现“载体”。在联合ADB PG的架构设计、存储层和网络层的特点后,咱们抉择应用Bloom Filter作为Runtime Filter的实现模式。 Bloom Filter是一种概率数据结构,通常被用于判断一个元素是否属于一个汇合。Bloom Filter的长处是其空间效率十分高,计算性能通常也高;毛病是存在阳性误判率false positive,然而不存在false negative,即Bloom Filter判断一个元素是否属于汇合的后果不是单纯的true or false,而是"possible true" or "false"。 ...

May 16, 2022 · 2 min · jiezi

关于云原生:云原生小课堂-如何打造一款软硬兼施多功能零损耗的云原生网络方案

导读:随着云原生进入越来越多的畛域,用户对容器网络的需要也一直增长,对容器网络的性能和性能的要求都在一直的晋升。基于软件的容器网络因为无奈在提供丰盛的性能同时保障优良的性能,不得不在性能和性能之间进行取舍。有没有一种计划可能在提供丰盛的性能状况下仍然能提供杰出的性能呢? 本文将介绍 Kube-OVN +智能网卡的联合计划,通过软件与硬件的联合,在放弃容器网络丰盛性能根底上,吞吐量up300%,让用户取得优于宿主机的性能体验。正所谓,“性能”和“性能”两手都要抓,两手都要硬! 云原生网络应用场景越来越简单随着云原生一直在各个场景落地,需要的多样性和复杂度都在一直回升,新的需要也在一直的涌现。基于宽广社区用户的实在应用案例下,咱们在各场景、各行业中总结进去以下需要: 1、传统利用上云有对固定 IP 和IP治理方面的需要 2、数据中心基础设施治理须要有异构设施治理、网络虚拟化、多租户 VPC 的需要 3、跨云多集群有着互联互通的需要 4、边缘场景有着高性能轻量化的需要 5、金融畛域有着流量镜像、审计、平安加密的需要 6、运营商有着多网交融、流量编排的需要 …… 等等 网络性能瓶颈成企业大规模云原生落地妨碍Overlay 类型网络因为其对底层依赖少,性能灵便失去了越来越多的应用,然而额定的性能通常会带来额定的性能开销,导致 Overlay 网络的整体资源耗费会有显著的回升。 通过咱们的 Profile 各个性能会带来如下开销: 1、安全策略,NAT 规定会应用到 netfilter, conntrack 性能,单个数据包会带来额定 20% CPU 开销 2、流量镜像会带来 5% CPU 开销 3、Overlay 封装解封装会带来 5% CPU 开销 4、因为 Overlay 的 UDP 封装导致网卡 TCP 相干 offload 生效,TCP 大包吞吐量可能会呈现数量级的降落 5、veth 额定的网络复制带来 3% CPU 开销 6、网络加密会带来提早和 CPU 使用率的大幅晋升 咱们简略通过 qperf 来测试在不同包大小状况下的 UDP 传输吞吐量,可见随着包大小的减少,容器网络吞吐量相比宿主机网络呈现显著降落,在数据包为 16KB 的状况下,容器网络带宽仅为宿主机网络的 40%。 ...

May 13, 2022 · 1 min · jiezi

关于云原生:案例成果展-一朵航空云为国航APP核心业务保驾护航

航空业的麻利转型挑战在现在的数字化时代,置信大家曾经习惯了通过手机来办理业务,日常出行的机票退改、值机办理等操作都能够在手机APP上实现,APP的便捷水平会间接影响到用户的出行体验,用户在线业务需要的响应速度变得越来越重要。 过来,人工服务是企业提供外围价值的惟一路径;到了当初,传统的服务模式曾经不能满足企业倒退的须要,为了更好的晋升用户服务体验, 软件成为了企业发明业务价值、取得竞争劣势的外围伎俩。 然而传统的APP迭代更新往往须要漫长的工夫周期,却仍然赶不上用户日益变动的个性化需要。比方在大促期间,在线办理的业务量忽然暴增,从天而降的高并发业务压力也对APP的高并发、动静扩容能力提出了更高的要求,如何在不影响业务的状况下及时更新、疾速响应、满足用户多样化需要成了企业关注的焦点。 在这种新型敏态化需要的挑战下,企业继续翻新的能力就变得至关重要,打造一款更麻利、更牢靠、更高性能、且更能满足客户需要的APP成了企业倒退的重中之重。 当航空公司拥抱云原生之后,这些问题就会迎刃而解。航空公司能够据此进行疾速决策,随时依据用户的需要进行利用迭代,摸索更多样化的用户服务场景,加重机场流量带来的压力问题,比方机票预订、客票变更、值机办理、行李托运等外围业务性能都能够通过APP来实时办理。云原生的解决方案实际后,就能放慢业务利用的翻新速度,从以客户为核心的现代化应用服务体系登程,晋升旅客的出行体验。 云原生减速利用现代化转型CNBPA最新的调研结果表明,业务利用的麻利开发、智能运维、性能优化是企业抉择拥抱云原生的重要驱动力,传统的技术架构曾经不足以撑持日益多元的业务利用需要,而以容器为外围的云原生化革新则可能无效地帮忙企业实现从传统利用到现代化利用的完满过渡,将软件公布速度进步3至4倍,故障率缩小80%以上,减速其数字化转型。 在麻利开发方面,企业可能以更快的速度、更高的频次、更灵便地进行外围利用的迭代,迭代周期从以年、以月为单位变成以日为单位。作为和用户沟通的重要窗口,企业的APP将从以产品为核心转向以客户为核心,以满足用户的多元化、个性化的需要。 在智能运维方面,通过对利用的容器化革新,企业能够实现更疾速的部署和交付、更标准化交付物、更高效的资源利用、更加麻利的迁徙和扩大,满足高并发场景下的主动扩缩容需要,加重企业的运维压力。 在性能优化方面,越来越多的企业正在利用容器来纳管虚拟机或物理服务器,通过容器来对立治理各类型的业务利用,使新型的现代化利用间接运行在现实的基础架构上,以大幅度晋升性能和效率,同时降低成本。 此外,在安全性方面,云原生提供了更简略、更轻量级的软件包,攻击面更小,安全性更高。而从经济角度来看,云原生能够让利用在比以前短得多的工夫内进行扩大和倒退,减速业务翻新,从而更大程度地开释云的价值。 云原生“航空云”助力国航APP麻利化降级中国国际航空股份有限公司(AIR CHINA),简称“国航”,作为中国惟一载国旗航行的民用航空公司、世界最大的航空联盟——星空联盟成员,始终秉持着“业余信赖,国内品质,中国风范”的品牌理念,保持走在科技的前沿,积极响应国务院国资委印发《对于放慢推动国有企业数字化转型工作的告诉》,踊跃推动外围业务云原生化革新。 作为大家旅行中的贴心朋友——“国航手机APP”,始终以来为数亿旅客提供了便捷舒服的服务体验,高峰期日出票量可达数万张。如此宏大的业务量也让国航业务零碎面临着微小的开发运维压力,“快”成了IT架构转型的关键词,岂但须要及时响应客户需要、晋升用户体验,而且须要依据市场变动疾速迭代APP,满足各类生产利用场景。麻利高效的云原生架构就成了必然选择。 通常来说,企业的利用零碎个别是有一个工作工夫的,利用的公布和变更会抉择在非工作工夫进行。但在航空业中,尤其在人们日益增长的多元化需要下,要求利用零碎具备7×24小时不间断的在线服务能力,不存在非工作工夫,甚至不存在业务低峰期,这就对企业的利用零碎运维提出了更高的要求。 国航利用云原生技术重塑了整个软件的全生命周期,从架构设计到开发,再到构建、交付和运维等所有环节都实现了顺利转型。云原生通过一系列先进的产品、工具、办法缩小了变更导致的可用性问题,而不是一刀切地管制变更、缩小公布次数,云原生让每日级的公布成为可能。 那么为什么频繁公布、麻利迭代如此重要呢?如果能够实现每日数次公布,那就意味着企业可能大幅缩小线上事变产生的概率,迅速从故障中恢复过来,可用性、安全性、性能都失去了保障,防止了更多潜在的危险,在保障既有劣势的前提下有更多机会进行应用服务的改革与降级,而这些都有可能成为企业将来倒退的竞争劣势。 作为国航深刻落实数字化转型的重要抓手,以容器为代表的云原生技术帮忙国航顺利完成了APP机票预订、航班动静、值机办理、行程核心、用户核心等一系列外围用户服务性能的迁徙。通过仅二十天的云原生化革新、DevOps文化建设,国航的麻利程度再上新台阶,疾速实现了国航APP分钟级的业务利用公布,麻利、高效、牢靠已融入国航APP的开发运维全流程。 国航APP的胜利云原生化,为国航外围业务翻新装上了加速器,使得国航迅速实现了新型业务模式的转变和生产力的冲破。在数字化转型的浪潮中,国航充沛把握科技改革倒退时机,享受云原生技术红利,利用和施展云原生平台的弹性和分布式劣势,实现了业务疾速部署、资源按需伸缩和利用继续公布,减速了外围业务的继续翻新。 能够说,云原生为国航带来了更麻利的APP体验、更便捷的出行服务。人们不再须要着急且无奈地排在柜台前期待出行业务办理,只须要在国航APP上动动手指,就能在“指导之间”享受到“在云原生之上”的便捷服务。 将来,国航将持续以先进的云原生技术,继续晋升用户服务品质,翻新服务产品,满足旅客多元化出行需要,为宽广旅客提供更便捷、更贴心的用户服务体验。灵雀云作为国航的云原生技术合作伙伴,也将继续为国航的数字化转型,提供高效麻利、安全可靠的云原生反对,助力国航打造更高品质的APP,开启全新的“云上”之旅。

May 12, 2022 · 1 min · jiezi

关于云原生:新升级网易数帆轻舟中间件推出运维稳定性管控服务

企业经常会遇到这样的困扰:随同着业务的高速增长,IT零碎的压力一劳永逸,当服务器“不堪重负”时,经常会卡顿、宕机,可能带来数据失落、服务中断、业务受损等一系列问题。 而以音讯队列、缓存等为代表的中间件作为承载IT零碎业务数据的要害组成部分,其可用性和稳定性将间接影响业务零碎的整体稳定性,同时中间件类型繁多且技术栈简单,稳定性保障须要大量教训的积攒积淀和大量老本投入,往往难以发展和落地施行。 针对这一企业级IT运维痛点,近日,网易数帆旗下产品轻舟中间件实现性能降级!此次降级中,轻舟中间件推出了全新的运维稳定性管控服务。轻舟中间件凭借全方位的监控告警、欠缺的自动化运维能力,可帮忙企业用户灵便、高效地开发和集成简单的应用软件,全面保障业务稳固运行。 此次产品升级所推出的运维稳定性管控服务的次要能力体现在两方面: 其一,运维稳定性巡检与预警性能帮忙运维人员“防患于未然”,通过定时巡检工作实现自动化对中间件集群进行巡检,在故障产生之前感知潜在危险并提前染指解决; 其二,异样事件辅助根因性能帮忙运维人员在异样事件告警产生时,通过运维教训积淀的根因剖析引擎辅助疾速定位造成异样事件告警的起因,升高故障带来的损失。 除了中间件运维稳定性管控服务,轻舟中间件还有诸多过硬实力。 1、基于云原生架构,保障中间件高可用轻舟中间件基于云原生时代的事实标准 Kubernetes 的通用接口打造,帮忙中间件平滑、稳固地运行在多种基础设施之上,同时基于 Kubernetes Operator 的高可用调度能力,保障中间件集群具备高可用、故障容忍、弹性扩大等能力。可能为用户提供中间件集群的可视化生命周期治理能力,用户能够一键创立、启动、进行、删除集群,以及一键扩缩容节点和变更资源规格,极大地简化了中间件运维操作的复杂性。相较传统中间件,轻舟中间件更能为企业解决SLA 保障难、运维难、老本低等一系列问题,高可用让中间件集群更加稳固地运行,从而保障业务的继续倒退。 2、降本增效、资源优化轻舟中间件为企业用户提供了一站式中间件集群治理平台,提供支流音讯、缓存等中间件服务,提供了自动化运维能力以及弹性扩缩容能力。 一方面,轻舟中间件大大降低了技术栈选型开发以及运维等人力老本,能无效晋升的计算、存储等资源的利用率。 另一方面,轻舟中间件基于云原生个性可实现弹性扩缩容,面对业务洪峰可实现疾速扩容,当洪峰退去也可疾速缩容,节俭资源占用。 在无效进步根底资源利用率的同时,升高基础设施的建设投入,从而大幅晋升利用交付效率,晋升企业级利用大规模扩大能力和资源利用率。 3、通过内外部验证,积攒大规模集群运维教训轻舟中间件积淀了网易团体外部十余年大规模中间件集群运维和治理教训,通过了诸多内外部实在生产环境大规模、高并发场景下稳固运行的考验,不仅撑持了网易严选、网易云音乐等互联网业务,也在大量头部金融客户生产环境中验证了产品成熟度。 除了弱小的自动化运维能力,轻舟中间件还提供了日志、监控、告警等方面的最佳实际。相比于云主机虚拟化而言,轻舟中间件具备更优异的性能、更经济的IT老本、更轻量的资源管理、更灵便的调度策略、更牢靠的服务保障以及更弱小的故障自愈能力。 目前,网易数帆通过云原生软件生产力平台下微服务、中间件、混合云以及低代码等产品模块的推动,帮忙企业客户造成了企业能力集成、利用疾速迭代、高效IT交付能力、凋谢软件架构和灵便的互联网技术架构等外围能力,为数字化转型落地保驾护航。 点击此处,即刻征询产品详情。

May 12, 2022 · 1 min · jiezi

关于云原生:云原生边缘计算KubeEdge打造智能边缘管理平台吾爱fen享

download:https://www.sisuoit.com/2880.... 需要对于须要前端实现无痛刷新Token,无非就两种: 申请前判断Token是否过期,过期则刷新申请后依据返回状态判断是否过期,过期则刷新 解决逻辑实现起来也没多大差异,只是判断的地位不一样,外围原理都一样: 判断Token是否过期没过期则失常解决过期则发动刷新Token的申请拿到新的Token保留从新发送Token过期这段时间内发动的申请重点: 放弃Token过期这段时间发动申请状态(不能进入失败回调)把刷新Token后从新发送申请的响应数据返回到对应的调用者 实现 创立一个flag isRefreshing 来判断是否刷新中创立一个数组队列retryRequests来保留须要从新发动的申请判断到Token过期 isRefreshing = false 的状况下 发动刷新Token的申请 刷新Token后遍历执行队列retryRequests isRefreshing = true 示意正在刷新Token,返回一个Pending状态的Promise,并把申请信息保留到队列retryRequests中 import axios from "axios";import Store from "@/store";import Router from "@/router";import { Message } from "element-ui";import UserUtil from "@/utils/user"; // 创立实例const Instance = axios.create();Instance.defaults.baseURL = "/api";Instance.defaults.headers.post["Content-Type"] = "application/json";Instance.defaults.headers.post["Accept"] = "application/json"; // 定义一个flag 判断是否刷新Token中let isRefreshing = false;// 保留须要从新发动申请的队列let retryRequests = [];

May 12, 2022 · 1 min · jiezi

关于云原生:云原生边缘计算KubeEdge打造智能边缘管理平台无密

复制URLL链接下载ZY:https://www.666xit.com/3486/第一次Composition API在vue3.2中,正式反对了script setup的写法,这样能够大大简化组件的代码量,缩小一些反复操作,我认为当你写vue3时,应该把这当作默认写法。 在vue3.2之前,个别会这样写。 <script> export default { setup(props,ctx){ const a = ref(0) //必须return能力在template中应用,这里就存在一个反复操作的问题,每次都得cv,万一遗记就得查看 return { a } } }</script>那么当初,咱们能够这样写,比照一下,缩小了多少行代码呢<script setup> const a = ref(0)</script>PS:之后的代码我会省略script setup,默认都在script setup标签下。兴许你会感觉这样就更简略了,其实恰恰相反,CompositionAPI其实要求你对逻辑解决有更清晰的意识,对于封装有更高的要求,否则,你一样会写成比以前更丑的代码。例如: const a = ref(0) const b = ref('') const c = ref(true) const d = reactive({}) const actionA = ()=>{a.value++} const actionC = ()=>{c.value=!c.value} const actionB = ()=>{b.value += 'test' } const actiond = async ( )=> { const res = await ajax(`url`) d.a = res.a d.b = res.b d.c = res.c } const resetD = ()=>{ Object.keys(d).forEach(key=>delete d[key]) }这一堆代码其实就是当你没有思考逻辑,没有想过封装的时候,像流水账一样间接写进去的代码,这些代码真的比optionsApi更好浏览吗,当然不。这里更加凌乱,你很难一眼看出某个函数用的是哪个变量,程序凌乱,这时候须要封装,须要组合,这也是CompositionAPI的含意之一。 ...

May 12, 2022 · 1 min · jiezi

关于云原生:2022-开源之夏-Curve-邀你与中国存储软件共成长赢万元奖金

Curve 社区携手开源之夏,邀你发展乏味而精彩的开源之旅,直面社区大咖,积攒我的项目经验,摘取丰富奖金,独特推动我国根底软件自主翻新。 2022 年,Curve 社区再次退出系列高校开源流动 —— 开源之夏第三届。开源之夏是由中国科学院软件研究所 “开源软件供应链点亮打算” 发动并长期反对的一项暑期开源流动,旨在激励在校学生积极参与开源软件的开发保护,促成优良开源软件社区的蓬勃发展,造就和挖掘更多优良的开发者。 Curve 是网易数帆自主设计研发并开源的高性能、易运维、全场景反对的云原生软件定义存储系统,包含 CurveBS 和 CurveFS 两个子项目,别离提供块存储和文件存储两种能力。数字经济的倒退和国际形势的演变迫使我国增强根底软件自主翻新,但相比以后国内数据库软件玩家泛滥,专一存储软件者寥寥无几,网易数帆自主开源 Curve,既是强化开源基础设施撑持数字业务翻新所需的能力,也心愿推动我国存储软件的蓬勃发展。Curve 社区退出本届开源之夏,正是基于这一出发点。 参加本次流动,你将取得与南征北战的云原生存储软件导师零距离学习交换的机会,实现我的项目并奉献给社区后,你还有机会取得开源之夏流动奖金和结项证书。欢送同学们扫描下图二维码或点击流动链接报名申请。 流动链接:https://summer-ospp.ac.cn/#/o... 我的项目详情本届开源之夏,Curve 社区申报了四个我的项目,题目类型笼罩了打包工具、挂载权限、容量调配、运维工具等多个畛域的开发,难度等级为三根底一进阶,均由社区资深维护者带队实现。具体如下: 我的项目 1:PFS 和 CurveBS 客户端 deb/rpm 打包工具 PFS (Polar FileSystem) 是阿里开源的针对 PolarDB 数据库的文件系统,咱们心愿通过 PFS+CurveBS 打造云原生数据库的存储解决方案,以后 CurveBS 已反对 PolarDB for PostgreSQL。尽管 PFS 和 CurveBS 对接、联调曾经实现,但仍不足在物理机上繁难的部署形式。本我的项目指标为反对 PFS+CurveBS 的客户端在 CentOS7/8、Debian9/10、Ubuntu 打包,我的项目难度为根底,要求参与者相熟根本的 Linux 命令,脚本语言 Bash script ,以及 FPM 打包工具应用。 我的项目 2:CurveBS 反对读挂载和写挂载及读写权限转换 CurveBS 对接 PFS 时反对了单个卷的共享挂载,然而并没有限度各个挂载点的读写权限,可能会呈现多个挂载点同时写数据,从而导致数据错乱、失落、不统一等问题。本我的项目将补救此项缺失,反对在挂载卷时指定读写权限(读写、只读),以及挂载后读写权限的动静变更。本我的项目难度为进阶,参加我的项目须要相熟 C++ 软件开发,gtest 等相干单元测试框架,以及 inux 上的编译、调试命令,如 GCC、GDB 等。 ...

May 12, 2022 · 1 min · jiezi

关于云原生:汽车行业云如何管多云

导读某汽车行业云是专一于新基建、智能制作、人工智能、智能网联和网络安全畛域的数智化云平台,为汽车行业提供了弹性计算、数据、存储、网络、平安、利用、人工智能、 IOT 等多项专属服务。目前,已为国内 40 多家汽车行业领头公司提供服务。 云端资源管理的新挑战该汽车行业云依据理论业务倒退及将来布局需要,为进一步服务好业内客户 BU 及 2B 行业客户和 2C 业务,全面晋升客户体验,满足面向业外走向市场的布局需要,打算建设一站式自助 CSP 云管平台。 云治理平台建设次要针对以下几个难题: 资源品种多,不足对立保护治理该汽车行业云具备的资源类型较多,割裂的多套 IaaS / PaaS 平台资源管理给运维治理带来很大累赘,老平台无奈将散落在产品外面的通用性能进行对立保护治理。 自服务能力弱,不足标准化的服务体系该汽车行业云综合服务产品达 100+,很多资源依附人工线下解决,平台不足一个规范的资源服务体系。如何晋升业务执行效率、缩小资源管理人员反复机械操作,进步资源交付效率亟待解决。 资源管理不足精细化经营能力平台不具备老本剖析和资源优化能力,无奈通过原有平台无效、多维度的老本和资源趋势剖析,很难挖掘出潜在的客户和资源的应用状况,闲置资源容易呈现节约状况。 组织结构复杂,不足细粒度治理能力平台蕴含多套 IaaS / PaaS 平台,组织架构较为简单,不足对立的组织架构治理,以及细粒度的用户角色权限自服务能力,导致资源申请和审批流程较长,资源应用交付率低。 行业云,如何管“多云”为解决以上云端资源管理等难题,该汽车行业云借鉴业界参考案例及先进经验,与 BoCloud 博云携手,启动建设一站式自助 CSP 云端资源管理平台。 平台建设指标是实现对原有产品服务零碎加强补缺,提供预付费、先进计量计费、账务零碎、产品及服务目录、集成经营管控,增强集成化性能及中台化梳理,同时提供 SaaS 化及订阅制服务。并且,通过借鉴原有 CSP 零碎性能,在营销平台的根底上进行疾速迭代开发,从而实现疾速交付。 整体计划是基于博云一体化云治理平台 BeyondCMP 来实现。首先,通过集中管理 IaaS、PaaS 等异构资源,实现资源对立保护治理。其次,云服务营销门户以产品模式进行对立推广销售,并由用户控制台针对 100+ 服务提供对立的服务入口,从而疾速高效地满足撑持业务零碎的资源需要。最初,平台提供规范服务体系,以灵便的计费形式、细粒度产品保护、灵便的资源标签以及多维度老本剖析,来实现精细化的经营。 平台建设实现的具体性能如下: 异构资源对立纳管通过对接 API 的形式来对接该汽车行业云的所有产品,目前已对接包含弹性计算、存储、网络、平安、利用、人工智能、 IOT 等多项专属云产品与服务 100+,且对接在继续建设中。 同时,将这些 IaaS、PaaS 资源对立集中进行治理,将原来散落到产品里的通用性能上提到 CSP 层面,对产品的生命周期、计费、经营剖析对立治理,从而升高所有产品学习老本以及运维老本。 打造对立服务入口平台将服务目录打造成对立的服务入口,资源应用方由营销门户到控制台,通过服务目录对该汽车行业云的 5 大类 100+ 产品进行自助订购、变更、续费、退订,提供全面的产品服务能力,缩小管理人员的反复工作,做到资源疾速交付和业务执行效率的晋升。 提供精细化服务经营平台反对灵便的计费形式、多维度账单老本和资源剖析统计,经营人员依据不同品种的资源,根据不同的指标,可灵便定价,通过不同维度来剖析订单、账单以及资源优化状况。 平台为运维人员提供全局资源视角的经营管理工具,为经营人员提供具体业务视角的老本剖析和数据统计,从而挖掘出更多的潜在用户。 ...

May 10, 2022 · 1 min · jiezi

关于云原生:从这些云原生企业身上我看到了数字化创新者该有的样子

简介:将来的数字世界是什么样子?手握云原生地图的企业,又将如何颠覆数字化?带着这些疑难,咱们采访了教育、金融、新批发、互娱、传媒等畛域的多位大咖,他们是数字翻新的引领者,也是用云原生技术发明业务价值的践行者。接下来,就让咱们一起听听通过“云原生”,他们产生了哪些扭转? 01 2020 年, 中国市场开启了云原生大规模落地的元年。 从那时起,云原生宽泛走入非互联网企业视线。 云原生架构在这两年逐步成为利用部署的支流形式。 企业数字化转型若要深刻倒退,实现规模数字化, 具备弹性、分布式和继续演进的现代化利用状态, 是企业实现数字翻新的重要途径和伎俩。 将来的数字世界是什么样子? 手握云原生地图的企业,又将如何颠覆数字化? 带着这些疑难,咱们采访了 教育、金融、新批发、互娱、传媒等畛域的多位大咖, 他们是数字翻新的引领者, 也是用云原生技术发明业务价值的践行者。 接下来,就让咱们一起听听 通过“云原生”,他们产生了哪些扭转? 作业帮 降本增效是公司对基础架构的一大要求。在利用侧要晋升单位算力承载量,艰深来讲就是 QPS。但咱们面临的一个挑战就是作业帮技术栈太多元了,如何整体晋升 QPS?再看资源侧,存储、网络这些资源要么是刚需,要么就是很难管制老本,资源侧降本的重点还是计算资源,而对于计算资源咱们须要晋升单位成本的算力。 “在我看来,在降本增效的过程当中要分外留神一点,降本不能降质,降低成本时,稳定性、效率、平安不能打折扣。咱们抉择和阿里云一起,抉择开源的力量再联合肯定的自研解决相干问题。在利用层面,咱们晋升了支流技术栈的运行性能,对于应用最多的检索服务进行架构重构,以此来晋升性能和运维效率。 在计算和存储拆散中,咱们引入 Fluid 做一个要害的纽带。Fluid 是一款基于 K8s 的数据编排零碎,用于解决云原生过程中遇到的拜访数据过程简单、拜访数据慢等一系列问题,JindoRuntime用于实现缓存的减速,当咱们应用Fliud和JindoRuntime实现整个检索系统的重构之后,取得的收益也比拟显著。作业帮的数据更新周期从之前小时级别缩短到三分钟以内,运维整个机器交付从之前天级别缩短到了小时级别,程序性能晋升 30%,带来了万核级别资源的缩减。 将来,作业帮会将更多在线服务迁到 ECI 之上来实现真正的削峰,并且更具性价比的 IaaS 资源,这也是咱们始终尝试和摸索的方向。” 网易云音乐 网易云音乐最后的音视频技术大多都利用在曲库的数据处理上,云音乐曲库团队与音视频算法团队一起共建了网易云音乐音视频算法解决平台,落地了 60 多种音视频算法,尤其是在近一年来,服务化的算法占到了一半,这些算法向云音乐 100+ 的业务场景提供了服务能力。但更简单的算法、更多的业务场景,对网易云音乐的服务化效率、运维部署和弹性能力都提出了更高的要求,在咱们上云之前,在外部曾经用到了 1000 台以上不同规格的云主机及物理机。 "咱们在一周内疾速试用了函数计算 FC,然而一个残缺的、高牢靠的架构,须要思考更多的因素。因而咱们的革新重点是把算力工作通过函数计算 FC 弹出去,零碎在整体的对外输入输出上仍放弃不变。 在引入函数计算的第一阶段,特征提取类的算法失去了10 倍速的晋升;稠密类的算法在老本上失去了极大的节约。除此之外,通过函数计算的镜像缓存减速能力,优化了节点的启动速度,让所有的服务拉起能够在秒级实现。这些工作,升高了算法运维解决中的运维老本,让咱们可能更聚焦在算法及业务本身。 将来心愿通过 Serverless 技术进一步解放咱们在运维上的人力投入,并将从存储上进行尝试,让更多场景的音视频算法能够实现。" 安利 互联网的冲击下,安利除了须要适应互联网场景下的麻利、疾速、低成本试错的外围需要,还须要适应互联网场景下的高并发、秒杀、大促等场景。 “云原生中间件为安利构建基于互联网业务中台架构的新电商平台,充分发挥云原生产品的技术劣势,撑持 10000 笔/秒的订单峰值。云原生中间件重构了安利社交商业IT根底,打造了安利寰球数字化的标杆。” 分众传媒 传统服务器无奈满足分众传媒业务高速增长带来的新需要,耗时太长、资源利用率低、运维简单,对人员技能要求高。 耗时太长:以前的人工上刊无奈及时晓得上刊是否正确或者谬误,须要破费很多工夫去核查和批改; 资源利用率低:上刊集中在周六和周日,因而所有资源根本在周六周日应用,大部分时间段不须要应用服务器资源,这就导致资源利用率低; 运维简单、人员技能要求高:因为业务的复杂度对相干业务人员的技能要求也高,须要招聘更高级的人员来反对对应的运维工作。 “对于咱们来说,上云有两个抉择。第一个是用 K8s 本人搭建一套容器集群,第二个是用函数计算 FC。如果用 K8s 申请云主机,咱们须要本人搭建 K8s,通过对外的 API 来提供申请;而应用 Serverless 计算平台,咱们不须要关怀用了多少服务器或者多少人力,只须要关怀每一次 API 申请是否正确达到,就能够确认每次是否有确切辨认到图片,并把辨认谬误的货色收回来,告诉到上刊人员。 ...

May 10, 2022 · 1 min · jiezi