关于云计算:DatenLord前沿技术分享-No28

达坦科技专一于打造新一代开源跨云存储平台DatenLord,通过软硬件深度交融的形式买通云云壁垒,致力于解决多云架构、多数据中心场景下异构存储、数据对立治理需要等问题,以满足不同行业客户对海量数据跨云、跨数据中心高性能拜访的需要。在本周的前沿技术分享中,咱们邀请到了Motphys CEO崔汉青,来为大家分享Rust在物理引擎研发中的利用。 1、演讲题目Rust在物理引擎研发中的利用 2、 演讲工夫2023年6月25日上午10:30 3、演讲人崔汉青Motphys CEO 4、引言Motphys是国内专一于动作物理引擎研发的公司,我是Motphys创始人,给大家介绍rust在物理引擎研发中的利用。 5、内容简介本次分享的次要内容包含物理引擎架构,数学库革新,分布式架构等 6、直播预约欢迎您预约直播,或者登陆腾讯会议观看直播:会议号:474-6575-9473 达坦科技(DatenLord)专一下一代云计算——“天空计算”的基础设施技术,致力于拓宽云计算的边界。达坦科技打造的新一代开源跨云存储平台DatenLord,通过软硬件深度交融的形式买通云间壁垒,实现数据高效跨云拜访,建设海量异地、异构数据的对立存储拜访机制,为云上利用提供高性能平安存储反对。以满足不同行业客户对海量数据跨云、跨数据中心高性能拜访的需要。 公众号:达坦科技DatenLordDatenLord官网:http://www.datenlord.io知乎账号:https://www.zhihu.com/org/da-tan-ke-jiB站:https://space.bilibili.com/2017027518

June 24, 2023 · 1 min · jiezi

关于云计算:云原生周刊Dapr-v111-发布

开源我的项目举荐KamajiKamaji 能够大规模地部署和运行 Kubernetes 管制立体,而只需承担一小部分操作累赘。Kamaji 的特别之处在于,管制立体组件是在一个繁多的 pod 中运行,而不是在专用机器中运行。这种解决方案使运行多个管制立体的老本更低,更容易部署和操作。 Robusta KRRRobusta KRR(Kubernetes Resource Recommender)是一个用于优化 Kubernetes 集群中资源分配的 CLI 工具。它从 Prometheus 收集 pod 应用数据,并倡议 CPU 和内存的申请和限度。这升高了老本并进步了性能。 KadaluKadalu 是一个在容器生态系统中提供长久存储的我的项目。Kadalu 操作员依据配置部署 CSI pod 和 gluster 存储 pod。你将通过在 CSI 中实现的 API 取得你的 PV 服务。 文章举荐Kubernetes 中的 Pod 从新均衡和调配这篇文章具体解说了 Kubernetes 中的 pod 从新均衡和调配的概念,同时提供了一种无效的从新均衡办法。这对于应用 Kubernetes 治理容器的开发者来说是十分有价值的信息。 CI/CD 流水线:构建最佳流水线的内容、起因和办法这篇文章具体解释了 CI/CD 流水线的概念、劣势和要害组件,同时强调了它在软件开发过程中的重要性。 Kubernetes Chaos Monkey: 用于测试集群弹性的预约随机 Pod 删除的 Python 脚本这篇文章次要介绍了一种名为 Kubernetes Chaos Monkey 的 Python 脚本,该脚本能够定期随机删除 Kubernetes 集群中的 pods,以测试集群的健壮性和恢复能力。 云原生动静Dapr v1.11 公布日前,Dapr v1.11 公布。该版本有诸多性能更新,以下是该版本的亮点: ...

June 19, 2023 · 1 min · jiezi

关于云计算:数仓架构瘦身Hologres-5000CU时免费试用

 Hologres基于翻新的HSAP架构,能够将您原先数仓架构中的OLAP零碎(Greenplum、Presto、Impala、ClickHouse)、KV数据库/Serving零碎(HBase、Redis)对立在一个大数据计算引擎中,并提供疾速的离线实时一体化剖析能力。 Hologres 5000CU时,20GB存储收费试用,返回试用>> 产品外围劣势:1、简化数仓架构,缩小数据搬运与多处保护老本 2、实时查问性能强,刷新TPC-H 30000GB世界纪录 3、交融湖仓查问,0 ETL导入离线MaxCompute数据 Hologres应用教程简介基于MaxCompute中TPC-H数据集数据和GitHub公开事件数据,在阿里云实时数仓Hologres上创立Hologres的数据库、内部表、外部表、导入数据至外部表中以及应用Hologres别离查问外部表和内部表中数据的指引。Hologres在查问数据方面具备极速响应的劣势。 筹备环境和资源开始教程前,请按以下步骤筹备环境和资源: 已创立专有网络(VPC)和专有网络交换机,详情请参见创立专有网络和交换机。拜访阿里云收费试用。单击页面右上方的登录/注册按钮,并依据页面提醒实现账号登录(已有阿里云账号)、账号注册(尚无阿里云账号)或实名认证(依据试用产品要求实现集体实名认证或企业实名认证)。胜利登录后,在产品类别下抉择大数据计算 > 数据计算与剖析,在实时数仓Hologres卡片上,单击立刻试用。在弹出的试用实时数仓Hologres产品的面板上实现参数信息配置。本试用教程以表格中的参数信息为例,未提及参数放弃默认值。 勾选服务协定后,单击立刻试用,并依据页面提醒实现试用申请。单击返回控制台,开启试用体验。创立数据库通过Hologres疾速创立数据库,用于后续寄存示例数据进行查问应用。 登录Hologres治理控制台,单击左侧实例列表。在实例列表页面,单击对应实例名称。在实例详情页左侧导航栏,单击数据库治理。在DB受权页面,单击右上角新增数据库。在新增数据库对话框,配置如下参数。 创立表数据库创立胜利后,您需在数据库中创立对应的表。 1.登录数据库。 a.在DB受权页面的顶部菜单栏,单击元数据管理。 b.在元数据管理页面,双击左侧目录树中已创立胜利的数据库名称,单击确认。 2.新建内部表。 a.在SQL编辑器页面,单击左上角的图标。 b.新增应用TPC-H数据集数据的内部表,TPC-H数据援用自TPC,更多信息请参见TPC。 在新增的长期Query查问页面,抉择已创立的实例名和数据库后,请您在SQL查问的编辑框输出示例代码,单击运行。 示例SQL语句用来创立一个映射到MaxCompute公共空间MAXCOMPUTE_PUBLIC_DATA中odps_customer_10g、odps_lineitem_10g等表的内部表,用于后续查问。 DROP FOREIGN TABLE IF EXISTS odps_customer_10g;DROP FOREIGN TABLE IF EXISTS odps_lineitem_10g;DROP FOREIGN TABLE IF EXISTS odps_nation_10g;DROP FOREIGN TABLE IF EXISTS odps_orders_10g;DROP FOREIGN TABLE IF EXISTS odps_part_10g;DROP FOREIGN TABLE IF EXISTS odps_partsupp_10g;DROP FOREIGN TABLE IF EXISTS odps_region_10g;DROP FOREIGN TABLE IF EXISTS odps_supplier_10g;IMPORT FOREIGN SCHEMA "MAXCOMPUTE_PUBLIC_DATA#default" LIMIT to( odps_customer_10g, odps_lineitem_10g, odps_nation_10g, odps_orders_10g, odps_part_10g, odps_partsupp_10g, odps_region_10g, odps_supplier_10g) FROM SERVER odps_server INTO public OPTIONS(if_table_exist 'error',if_unsupported_type 'error');c.新增应用GitHub公开事件数据的内部表,数据援用自GitHub,更多信息请参见基于GitHub公开事件数据集的离线实时一体化实际。 ...

June 19, 2023 · 5 min · jiezi

关于云计算:云联壹云企业版新增自动巡检功能

咱们在 v3.10 的企业版中新增了主动巡检性能,对于设计这个性能的初衷以及成果、客户收益简略给大家介绍一下。 主动巡检性能介绍该服务具备以下三个方面的监控和查看: 服务器监控状态:查看服务器 CPU/内存/磁盘状态、零碎工夫及 qume 版本信息,并且依据查看后果列出问题清单及倡议计划 MySQL 衰弱状态:对数据库进行可用性查看、异样终止的查问数几高可用状态查看,并且依据查看后果列出问题清单及倡议计划 k8s 健康检查:对平台 k8s pods/ nodes 状态、证书状态及无用镜像列表进行查看,并主动删除无用镜像信息 设计初衷咱们会定期对现有所有客户的环境进行巡检,帮忙客户及时发现零碎瓶颈或者潜在危险,个别每个客户从登录环境到输入巡检报告,大略须要一天工夫。随着客户越来越多,巡检工作带来的工夫老本就不容忽视,咱们心愿可能通过自动化产品化的形式来改善巡检工作。 性能上线前后的成果比照上线前 技术支持编写 shell 脚本,登陆客户服务器上,通过 ansible 执行 shell 的命令的输入后果,查看服务器监控状态、MySQL 和 k8s 集群状态。 依据脚本输入信息,手动绘制巡检报告 上线后 主动巡检性能的成果:管理员登录到控制台,点击【巡检】按钮,大略 5 分钟左右的工夫(具体工夫取决于服务器的规模),咱们就能够在零碎查看巡检报告的 PDF,如下图所示。 客户收益第一,平安:产品化后的巡检性能,全程不须要技术人员的参加,更不须要间接登录客户的服务器环境等,这对客户来说很平安,不会带来其余的危险。 第二,问题辨认和解决:环境巡检能够帮忙发现平台中的问题和隐患,如服务器磁盘空间有余,负载过高、服务异样等。通过及时辨认这些问题,能够采取相应的措施来解决它们,进步零碎的可靠性和稳定性。 第三,性能优化和容量布局:通过巡检平台,能够收集对于平台零碎应用状况、资源利用率和负载模式的数据。这些数据能够用于性能优化和容量布局,帮忙组织正当布局资源投入,并满足将来的业务需要。 致谢主动巡检性能是在盛银消金运维团队的倡议和一直反馈下才得以上线和欠缺。在此对盛银消金运维团队示意衷心的感激。 以上是文章的次要内容,作为交融云/多云治理/公有云/FinOps 厂商,云联壹云会继续关注这些畛域的动静,分享相干的信息和技术,能够通过的官网(yunion.cn)或关注的公众号(云联壹云)来获取最新的信息,感激大家的工夫。 原文地址:https://www.yunion.cn/article/html/ 举荐浏览企业面对FinOps,到底能做些什么?总结了4个方面 云联壹云交融云治理平台的 10 大利用场景 Flexera 2023 云状态报告解读 新品公布 | Cloudpods 3.10版本上线!

June 19, 2023 · 1 min · jiezi

关于云计算:在-Debian-12-上安装-KubeSphere-实战入门

老 Z,运维架构师,云原生爱好者,目前专一于云原生运维,云原生畛域技术栈波及 Kubernetes、KubeSphere、DevOps、OpenStack、Ansible 等。前言知识点定级:入门级KubeKey 装置部署 KubeSphere 和 KubernetesDebian 操作系统的根本配置Kubernetes 罕用工作负载的创立KubeSphere 控制台操作入门演示服务器配置主机名IPCPU内存系统盘数据盘用处ks-master-0192.168.9.9141640200KubeSphere/k8s-master/k8s-workerks-master-1192.168.9.9241640200KubeSphere/k8s-master/k8s-workerks-master-2192.168.9.9341640200KubeSphere/k8s-master/k8s-worker共计31248120600 演示环境波及软件版本信息操作系统:Debian 12KubeSphere:3.3.2Kubernetes:v1.26.0KubeKey: v3.0.7简介Debian 已经的开源 Linux 发行版的王者,惟一的电信级开源操作系统,我已经在 IDC 工作时,所有的外围业务、自建防火墙都运行在 Debian 之上,稳如磐石。 基于多种起因 Debian 的用户一直缩小,尤其是在国内,曾经很少有人谈及 Debian了。在当今寻求 CentOS 替代品的背景下,Debian 也是一种抉择。 本文基于我集体对 Debian 的情怀,写了一篇测试验证文档,仅仅实用于学习、测试环境。生产环境须要进行充沛的调研、测试、验证后再做决定。 以后 Debian 的稳定版版本号是 12,开发代号为 bookworm,公布于 2023年06月10日。生产环境应用,能够应用 Debian 10,开发代号 Buster,当初的 LTS 发行版本。 本文介绍了如何在 Debian 12 服务器上部署 KubeSphere 和 Kubernetes 集群。咱们将应用 KubeSphere 开发的 KubeKey 工具实现自动化部署,在三台服务器上实现高可用模式最小化部署 Kubernetes 集群和 KubeSphere。咱们将提供具体的部署阐明,以便读者轻松地实现部署过程。 操作系统根底配置请留神,以下操作无非凡阐明时需在所有 Debian 服务器上执行。本文只选取其中一台服务器作为演示,并假设其余服务器都已依照雷同的形式进行配置和设置。 创立用户在装置 KubeSphere 和 Kubernetes 之前,须要创立一个普通用户,该用户能够是装置 Debian 零碎时默认创立的初始用户 debian,也能够是新创建的用户。在本文中,咱们将应用新建用户 kube 作为示例。 ...

June 19, 2023 · 9 min · jiezi

关于云计算:OpenFunction-v110-发布新增-v1beta2-API支持-Dapr-状态管理

OpenFunction 是一个开源的云原生 FaaS(Function as a Service,函数即服务)平台,旨在帮忙开发者专一于业务逻辑的研发。在过来的几个月里,OpenFunction 社区始终在致力工作,为 OpenFunction 1.1.0 版本的公布做筹备。明天,咱们非常高兴地发表 OpenFunction 1.1.0 曾经公布了!感激社区各位小伙伴的奉献和反馈! OpenFunction 1.1.0 版本带来了两个新的性能:新增 v1beta2 API,反对 Dapr 状态治理。此外,该版本还有多项强化及 bug 修复,使 OpenFunction 更加稳固和易用。 以下是本次版本更新的次要内容: 新增 v1beta2 API在此版本中,咱们新增了 v1beta2 API,原 v1beta1 API 已弃用,未来会被删除。v1beta2 中有不少重构,你能够在这个 proposal 中理解更多细节。 反对 Dapr 状态治理之前,OpenFunction 反对 Dapr 公布/订阅和绑定构建块,状态治理也是有用的构建块之一,它对于具备状态的函数十分有用。应用状态存储组件,您能够构建具备长久状态的函数,这些函数能够保留和复原它们的状态。 当初你能够在 Function CR 中定义状态存储,OpenFunction 将治理相应的 Dapr 组件。 你的函数能够应用简略封装的 Dapr 的状态治理 API 来保留、读取和查问定义的状态存储中的键/值对。 对立同步和异步函数的定义之前,咱们应用 runtime: knative 和 runtime: async 来辨别同步和异步函数,这会减少学习曲线。实际上,同步和异步函数之间的区别在于触发类型: 同步函数由 HTTP 事件触发,这能够通过指定 runtime: knative 来定义。异步函数由 Dapr 绑定组件或 Dapr 发布者事件触发。要指定异步函数的触发器,必须同时应用 runtime: async 和 inputs。因而,咱们能够应用 triggers 来代替 runtime 和 inputs。 ...

June 16, 2023 · 1 min · jiezi

关于云计算:哪个公司的-CEO-不想拥有一个自己的数字克隆

⚠️ FBI Warning:本文纯属作者自娱自乐,数字人的观点不代表 CEO 自己的观点,请大家不要上当受骗!!哪个公司的 CEO 不想领有一个本人的数字克隆? 设想一下,如果 CEO 数字克隆上线了,那他是不是就能够一天约见 100 个投资人了?把他接入企业官网公众号后盾作为客服,24 小时不吃饭不睡觉不喝水给用户答疑解惑,想想就很刺激!感觉 CEO 在给我打工✅ 环界云的 CEO 做到了!先来看看成果: 怎么样,你也想领有一个本人的数字克隆么?问题不大,跟着我操作。 首先你须要筹备本人的语料,咱们 CEO 的语料就是来自各种同性交友大会的演讲内容,如果你的语料不够多,那就得本人想方法了。 当然,本文提供的办法不仅仅实用于数字克隆,你能够基于任意专有知识库来打造一个公有畛域的专家或者客服,而后再对接到公众号,它不香吗? 筹备工作已认证的微信公众号首先你须要有一个微信公众号,而且是曾经认证的公众号,因为公众号强制要求服务器每次必须在 15s 以内回复音讯,公众号平台在发送申请到服务器后,如果 5s 内没收到回复,会再次发送申请等待 5 秒,如果还是没有收到申请,最初还会发送一次申请,所以服务器必须在 15s 以内实现音讯的解决。如果超过 15s 还没有返回怎么办?那就超时了,用户将永远都收不到这条音讯。 如果你想冲破 15s 限度怎么办? 如果是已认证的公众号,能够间接应用客服音讯进行回复,它的原理是通过 POST 一个 JSON 数据包来发送音讯给普通用户。客服音讯就厉害了,只有在 48 小时以内都能够回复。具体可查看微信官网文档。如果是未认证的公众号,并不能齐全解决 15s 限度的问题,然而能够优化。这里提供一个思路,你能够应用流式响应来缓解这个限度,先与 OpenAI 建设连贯,再一个字符一个字符获取生成的文本,最初将所获取的文本列表拼接成回复文本。能缓解申请超时的关键在于:建设连贯的工夫个别状况下不会超过 15s,所以只有在给定的工夫内,胜利建设连贯,根本就能返回内容(15s 之后接管到多少文本就返回多少文本)。尽管有可能会呈现回复内容被截断的状况,但总比你回复不了强吧?本文给出的办法是基于微信客服音讯进行回复,所以须要一个已认证的公众号。如果是未认证的公众号,就须要你本人钻研流式响应了,本文不做赘述。 FastGPT其次你须要注册一个 FastGPT 账号。它是一个 ChatGPT 平台我的项目,目前曾经集成了 ChatGPT、GPT4 和 Claude,能够应用任意文原本训练本人的知识库。 注册链接:https://fastgpt.run/?inviterId=64215e9914d068bf840141d0 知识库注册完 FastGPT 后,你能够间接填写本人的 API Key 进行应用,也能够在 FastGPT 平台充值应用。 ...

June 13, 2023 · 4 min · jiezi

关于云计算:GPT4-免费方案

原文链接:https://icloudnative.io/posts/completely-free-to-use-gpt4/ GPT-4 目前是世界上最强的多模态大模型,能力甩 GPT-3.5 好几条街。 大家都心愿早日用上 GPT-4,不过目前体验 GPT-4 的渠道十分无限,要么就是开明 ChatGPT 尊贵的 Plus 会员,即便你开了会员,也是有限度的,每 3 小时只能发送 25 条音讯。。。 要么就去 OpenAI 官网申请 GPT-4 的 API,然而目前申请到 API 的小伙伴非常少,你认为申请到 API 就能够用了吗?GPT-4 的 API 价格超级无敌贵,是 GPT-3.5 价格的 30 倍,你敢用吗? 然而,然而,既然我写了这篇文章,必定是要通知那一个惊天大幂幂的! 当初完全免费白嫖 GPT-4 的机会来了,不仅能够白嫖,还能够间接作为 API 来调用! 不仅可能作为 API 调用,我还接入了公众号给大家白嫖,你说气人不气人? 如果你嫌上面太长不看,能够间接到公众号里去白嫖 GPT-4 <image width="300px" src="https://jsdelivr.icloudnative.io/gh/yangchuansheng/imghosting5@main/uPic/2023-06-07-12-29-imCWj4.jpg"> 上面言归正传,开始手把手教大家如何收费白嫖 GPT-4。 gpt4free-ts 介绍GPT4Free 大家应该都晓得吧?它上线几周就在 GitHub 上揽收了靠近 4w 的 Star。起因就在于其提供了对 GPT-4 及 GPT-3.5 收费且简直无限度的拜访。该我的项目通过对各种调用了 OpenAI API 网站的第三方 API 进行逆向工程,达到使任何人都能够收费拜访该风行 AI 模型的目标。 这就相当于什么?假如地主家有一个粮仓,你往他家的粮仓偷偷插了一根管子,不停地向外抽米,他全然不知,所以你也不必交钱,所有费用由地主承当。 ...

June 13, 2023 · 2 min · jiezi

关于云计算:sealos-五年磨一剑云操作系统正式发布

这是打算的一部分这是一个雄伟的打算,漫长且乏味。。。 2018 年的一个早晨,我写下了 sealos 第一行代码,过后仓库命名 “kubeinit”,后一想格局太小,我不可能只做一个装置 kubernetes 的事,装置只是打算的一部分,前面改名 sealos,一个巨大的云操作系统打算诞生! sealos 第一个版本写完我就放到了阿里云市场下来售卖了,15 元一份,没筹备能卖出去,后果还真有人买了!真的赚到这 15元时我异样兴奋,仿佛一个商业帝国就在我眼前了。 然而后果就是花了一整天的工夫给这个客户做售后服务。。。电影院里还在解决问题。 而后很快就卖爆了,很短时间就给我换了个 iphone8,不过问题也的确是多,导致我基本就服务不过去,这时我信心重写。公布了 v2 的 ansible 版本,最终还是感觉没做到极致,因为用户还是好多依赖搞不定,直到读完 kube-proxy 的源码我发现有一种计划能够把负载平衡彻底变简略,干掉所有依赖,于是写了 v3 版本的 sealos,在装置上是做到极致了。 为什么开始执着装置 因为这是入口,绝大多数人搞云原生时都绕不开这件事,流量入口足够大,是个十分好的切入点,用户习惯了用 sealos 装置就会逐渐摸索其它性能了。 在阿里的工作 在阿里的时候写了 sealer,这里很重要的点就是让装置足够灵便,以前只能我制作安装包他人来用,而集群镜像的翻新能够让用户自在定义安装包是怎么样的,也能够自由组合任意的安装包。这里有个十分让我骄傲的想法是把整个集群看成了一个整体,把 kubernetes 看成了操作系统,那么在这个云操作系统外面的“云版 Docker 镜像会是什么样的” 就十分乏味了。 FROM kubernetes:v1.25.0COPY mysql .CMD helm install mysql .这显然是个平凡的想法,极其形象灵便。单机操作系统也有刻在光盘里的“镜像”,而这个构想让云操作系统也有了“镜像”,平凡构想又实现一个环节。 守业一年 sealos 云操作系统最终会长成什么样子?其实是个十分难的问题,我只有一个含糊的想法,若影若现,直到守业过程中间断迭代了三个版本,才有了明天的状态 —— 所有皆利用!了解它非常简单,就把单机操作系统上装置的单机利用替换成各种分布式应用即可,整个数据中心你看到的就不再是一台一台孤立的服务器,而是一个整体,变成了一台虚构的超级电脑。 这样简略/洁净/极致 的云操作系统,我置信你看到它时很难不喜爱! 这就是我五年的醉生梦死之作 —— sealos! 献给大家~ 云能够这样洁净sealos 外面没有按钮是多余的,把性能做多很简略,而做到简略且弱小才是最难的,咱们花了大精力在产品设计上,任何人应用 sealos 时我置信肯定是难受的。 B 端软件使用者与付钱的人始终都不是同一个人,导致产品体验很少失去器重,都是搞定决策者最要害,谁管软件多难用。而 sealos 不一样,咱们认为产品体验大于所有,如果在产品上花大精力导致咱们最终死掉了,那死而无憾。 这种黑白灰的设计风会让你感觉应用产品时像在喝白开水,而不是在喝饮料,更不是在喝洗脚水(某些产品应用起来想死的心都有)。开发者曾经够苦楚了,我心愿你们在应用时情绪美妙。 sealos 会切中时弊的戳中利用的痛点问题,比方这个利用管理器,30s 能够让你上线本人的利用,这里波及到十分多的细节问题比方主动配置公网域名,主动解决 https 证书问题等。 ...

June 13, 2023 · 2 min · jiezi

关于云计算:云原生周刊DevOpsresources

举荐一个 GitHub 仓库 “DevOps-resources”。这个 GitHub 仓库蕴含了学习和实际 DevOps 所需的资源列表。它包含波及云计算、容器化、微服务、自动化和平安问题的文章、书籍、课程和工具。资源按最佳实际、代码基础设施和安全性等类别进行排序,使得用户能够更轻松地找到与他们需要相干的资源。仓库还包含示例代码和我的项目,这些我的项目可供那些刚刚接触 DevOps 的开发人员作为终点应用。总的来说,这个 GitHub 仓库对于想要学习和实际 DevOps 的人来说是十分有价值的资源。 链接:https://github.com/bregman-arie/devops-resources。 开源我的项目举荐SkipperSkipper 是用于服务组合的 HTTP 路由器和反向代理,包含 Kubernetes Ingress 等用例。它旨在解决超过 300k 的 HTTP 路由定义,具备具体的查找条件,并应用过滤器灵便地减少申请流。它能够开箱即用,也能够通过自定义查找、过滤逻辑和配置源进行扩大。 deploy-node-app这个我的项目提供了一种简略无效的办法来部署 Node.js 应用程序到 Kubernetes 集群中,并且提供了具体的步骤和示例来帮忙读者理解如何应用这些工具来实现部署。 k0smotronk0smotron 是 Kubernetes 管制立体管理器。在任何现有集群上部署和运行由 k0s 提供反对的 Kubernetes 管制立体。 文章举荐应用 GitHub、GitHub Actions、Argo CD 和 Kubernetes 集群的 CI/CD这篇文章介绍了如何应用 GitHub、GitHub Actions、Argo CD 和 Kubernetes Cluster 来实现 CI/CD 流程。作者提供了具体的步骤和示例,能够帮忙读者理解如何应用这些工具来实现 CI/CD 流程。 什么是蓝绿部署?这篇文章介绍了蓝绿部署是一种应用程序的部署办法,它通过将应用程序的两个版本 (Blue 和 Green) 同时部署到生产环境中,从而实现应用程序的降级和替换。这种办法能够帮忙组织疾速响应市场需求和变动,同时升高部署的危险和平安危险。读者能够通过理解这种办法的原理和具体实现办法,更好地了解和应答应用程序的部署和治理挑战。 Prometheus 中的可观测性概念该文章对 Prometheus 中的可观测性概念进行了概述,这是 DevOps 中罕用的监控和指标收集工具。它解释了古代软件开发中可观测性的重要性,以及如何测量和剖析应用程序的性能。文章还探讨了不同类型的可观测性工具及其长处,如 Grafana、Prometheus 和 Jaeger。最初,它提供了应用 Prometheus 监控 Web 应用程序的示例,并展现了如何解释指标和剖析零碎性能。 ...

June 12, 2023 · 1 min · jiezi

关于云计算:短视频云端批量混剪实操指南

本文为阿里云智能媒体服务IMS「智能内容创作」实际指南第一期,讲述围绕新媒体广告营销场景,通过“去重策略”全自动批量混剪短视频,助力更高效、更疾速地创作优质短视频内容。 作者|欧叔 5G时代,越来越多的企业把短视频营销从“尝试”演变为“需要”。视频素材更直观、更形象的展示模式,往往能直击用户痛点,带来更好的广告投放成果。 因为各大短视频平台采纳了“去重机制”以防视频盗用,内容完全相同的视频会采取“屏蔽”、“限流”解决,这就要求投放于不同账号的视频须要在内容、构造上有所差异。因而,基于无限数量的根底素材,智能化生成指定数量的新视频,是营销短视频创作的常见思路。 本文从理论场景案例动手实际阿里云智能内容创作的“批量混剪”性能,通过提交剪辑须要的数据结构Timeline对云端的音视频内容进行二次剪辑生产,将无限个数的素材,通过不同的排列组合、增加不同的转场、特效、字幕、音乐,最终合成出多个不同的成片视频。 01 Timeline概念阐明如何配置Timeline? 在iMovie和Premiere等视频编辑软件中,一次剪辑会蕴含多个轨道以及相应素材的地位、时长等信息,而在阿里云智能内容创作中,则应用Timeline来形容这些信息。用户只需组装好Timeline并提交剪辑合成作业,就能自动生产出视频了。 下图是一个“多段视频拼接+Logo+文案转语音并生成字幕+背景音乐”的Json格局的Timeline,合乎剪辑和开发同学的了解。能够看到,Timeline里只需形容视频程序即可,在合成时会主动获取素材时长并揣测视频在成片中的地位。 02 “批量混剪”具体实际下图为本文示例视频所用到的生存类素材,由作者拍摄于“盒马”。 第一次实际,先将这些素材进行简略合成,此时,每个视频的剪辑策略很简略,提供20个素材,每次随机选取7\~8个进行随机排序,截取相应的秒数,并前后拼接起来,失去成果如下。 https://v.youku.com/v_show/id_XNTk3MDQyNzY1Ng==.html 从成果看,这些视频的内容反复度还是比拟高,最次要的起因是视频素材较少。 素材筹备是剪辑中十分重要的阶段,一批优质的素材能更好地为后续的视频生产提效,“批量混剪”也一样,筹备的素材越多,能失去的组合也越多,去重成果就越好。 “批量混剪”中用到的素材时长都很短,个别一个镜头仅需3-5s,因而在拍摄过程中多拍一些素材,能极大优化生成视频的最终成果。同时,从不同角度、不同场景拍摄物品、选取被摄人物的不同动作等也是能实现进一步去重的小技巧。 第二次实际,这次提供40个素材,每次随机选取7-8个,用下面同样的策略剪进去的后果,能够看到反复度明显降低。 https://v.youku.com/v_show/id_XNTk3MDQyNzY4NA==.html 上述两个实际视频的制作过程绝对简略,只对视频做了截取和拼接,并增加了字幕。之前对相干性能做了简略的介绍(智能媒体生产ICE一些常见场景),客户能够灵便应用。 如果素材足够优质,对素材简略拼接就能达到很好的成果。此外,阿里云IMS中还有特效、滤镜等性能,通过随机增加特效和滤镜能达到更好的去重成果。 https://v.youku.com/v_show/id_XNTk3MDQyNzc1Mg==.html 开发者(客户)能够利用随机特效性能很容易地管制每个素材的Effects,接入也非常不便。 03 更多功能除了以上谈到的,智能内容创作中还有更多剪辑特效性能,能够对素材内容进行“花式”加工。 | Transition转场:通过在任意相邻的两个素材之间增加随机转场成果使素材之间的切换有过渡、更天然,不同转场形式在表现形式上有较大的差异。 | Crop裁剪:对视频画面进行裁剪,比方裁剪视频的两头局部,或者裁剪出视频的次要内容(商品、人物等)。 | Flip翻转:对视频进行程度或垂直翻转,翻转后的视频内容有变动,但仍旧放弃原视频的内容主题。 | Speed变速:调整素材的播放速度,进行疾速或慢速播放,从而达到不一样的成果。 | RandomClip随机截取:对素材随机截取其中的一段,只需设置要截取的秒数即可。 | Font字体:调整字幕的字体,能够应用官网字体或自有版权字体。 | 花字:通过变换字幕的描边、暗影、纹理等使字幕有不同的展现成果。 | 字幕特效:对字幕增加能够设置时长与循环频率的动画特效。 | 智能语音Voice:口播文案是短视频中罕用的性能,在Timeline中能够通过编辑一段文本并应用不同的Voice合成不同成果的人声音频。 | 背景音乐:通过更换背景音乐使成片的音频内容有变动,Timeline中的音频轨能够增加多个,并对音频进行截取、拼接、调音等操作。 以上仅作简短介绍,具体性能内容详见官网: 剪辑制作Timeline 成果示例附录 Effect配置阐明 常见Timeline示例 短视频罕用性能 当视频增加了随机转场、随机字体、字幕动画时,内容去重成果更好。 https://v.youku.com/v_show/id_XNTk3MDQyNzc4OA==.html 须要留神的是,增加过多的成果对视频内容主体也有影响,需酌情增加。智能内容创作Timeline是一个很灵便的构造,能够基于本身需要进行灵便的编排。 04 写在最初从剪辑的“业余度”来讲,批量混剪中用到的技术并不简单,业务指标也是为了更好地在短视频平台做广告投放。在理论生产中,客户能够通过对Timeline进行组装来剪辑出成果不同且品质优质的短视频成片。 本篇演示了几个“批量混剪”的具体实际,欢送更多开发者应用阿里云IMS智能内容创作,在Timeline的应用中摸索更多更乏味的内容和玩法。 欢送退出官网答疑钉钉群征询交换:31783668

June 12, 2023 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-OpenFunction-发布-v110-202352668

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.05.26-2023.06.08。 贡献者名单 新晋 KubeSphere Contributor本两周共有 3 位新晋 KubeSphere Contributor,感激各位对 KubeSphere 社区的奉献! 新晋 KubeSphere Talented Speaker6 月 3 日,KubeSphere 社区联结极狐GitLab 及 Curve 社区组织了一场 Meetup,来自东方通信的周峰讲师取得了 KubeSphere Talented Speaker 证书。 近期重要更新OpenFunction1. OpenFunction 公布了 v1.1.0相干 PR: https://github.com/OpenFunction/OpenFunction/pull/447 贡献者: wanjunlei 2. 减少对于自定义 nocalhost 开发镜像的文档相干 PR: https://github.com/OpenFunction/java-samples/pull/2 贡献者: wanjunlei 3. 更新 functions-framework-go 的 HTTP 路由组件,从 gorilla/mux 切换到 go-chi相干 PR: https://github.com/OpenFunction/functions-framework-go/pull/72 贡献者: lizzzcai 4. functions-framework-java 公布了 v1.1.0相干 PR: https://github.com/OpenFunction/functions-framework-java/pull/13 ...

June 12, 2023 · 1 min · jiezi

关于云计算:OpenELB-在-CVTE-的最佳实践

作者:大飞哥,视源电子股份运维工程师, KubeSphere 社区用户委员会广州站站长,KubeSphere Ambassador。公司介绍广州视源电子科技股份有限公司(以下简称视源股份)成立于 2005 年 12 月,旗下领有多家业务子公司。截至 2022 年 12 月 31 日,公司总人数超 6000 人,约 60% 为技术人员,员工平均年龄约为 29 岁。 目前公司的主营业务为液晶显示主控板卡和交互智能平板等显控产品的设计、研发与销售,产品已广泛应用于家电畛域、 教育信息化畛域、企业服务畛域等,始终致力于通过产品翻新、研发设计晋升产品的用户体验,为客户和用户继续发明价值。公司自成立以来,依靠在音视频技术、信号处理、电源治理、人机交互、利用开发、系统集成等电子产品畛域的软硬件技术积攒,面向多利用场景进行技术创新和产品开发,通过产品和资源整合等能力在细分市场逐渐获得领先地位,并建设了教育数字化工具及服务提供商希沃(seewo)、智慧协同平台 MAXHUB 等多个业内知名品牌。 挑战随着在 Kubernetes 上运行的应用程序数量减少,如何优雅地将服务导出到集群成为一个须要解决的问题。Kubernetes 提供了 NodePort 和 Loadbalancer 来导出服务。NodePort 受到主机端口数量的限度,过多的端口凋谢还会有平安危险,在流量治理方面更是让人望而却步;Loadbalancer 则用于申明云供应商的服务,对于裸金属服务器而言,Kubernetes 官网不提供反对。对于企业公有云中的 Kubernetes 集群,想要对外提供服务,就遇到了挺大的挑战。在这种状况下,咱们发现了 OpenELB, 它能够在 Loadbalancer 类型中导出服务并稳固运行。 解决方案作为 KubeSphere 团队开源的我的项目,OpenELB(曾用名 Porter)是一款为裸金属服务器提供 LoadBalancer 类型服务的产品。 总结起来,有如下几个长处: 首先,它是由一个团队而不是集体运行的,而且社区贡献者颇多,因而能够防止厂商依赖或者无人保护。其次,OpenELB 反对的协定比同类竞争对手更多。最初,OpenELB 有齐备的文档,对中文反对敌对,企业服务能够取得更多的技术服务反对。在应用过程中,您会发现更多的惊喜。实际过程管理员能够通过 NodePort 导出 Kubernetes 服务。在这种状况下,每台集群主机都会导出同样的端口,这在大规模集群中的开销是微小的。可怜的是,Kubernetes 能够应用的主机端口是无限的(30000-32768)。开源社区倡议应用动静端口,这可能会带来危险和治理难度,给流量治理带来微小的挑战。Kubernetes 中的默认 LoadBalancer 类型的服务仅反对云厂商提供的服务。 OpenELB 是一种解决方案,用于为裸机提供负载平衡类型的服务,基于 BGP 和 ECMP 协定,可实现最佳性能和高可用性。OpenELB 提供了两个功能模块: 负载平衡控制器(Controller) 该控制器负责将 BGP 路由同步到物理交换机。 ...

June 9, 2023 · 2 min · jiezi

关于云计算:阿里云峰会发布WellArchitected云卓越架构白皮书助力企业用好云管好云

6月1日,2023阿里云峰会·粤港澳大湾区在广州举办,阿里云智能开放平台总经理圭多在会上发表了「构建平安、高效、稳固的卓越架构」的议题演讲,并正式公布《阿里云卓越架构白皮书》,为企业用云管云解决方案和产品化落地提供指引,助力企业构建更加平安、高效、稳固的云架构。 本书由阿里云架构师团队、产品团队、寰球交付团队等泛滥团队基于过来多年服务企业的经验总结独特撰写,从平安合规、稳定性、老本优化、卓越经营、高效性能五大维度切入,具体介绍了方法论、解决方案、检测和工具的矩阵,帮忙企业切实上好云、用好云、管好云。 从“上好云”到“用好云”数字化转型正热火朝天地进行,云计算已逐步成为企业倒退的外围能源。在这一趋势下,对于当初的企业来说,「要不要上云」不再是一个问题。然而,在进入上云深水区,传统架构古老、经营效率较低、零碎稳定性低下等问题一直裸露进去,客户越来越器重在云上管制危险、降低成本、提高效率。 对云用户而言,在上云、用云、管云过程中继续维持良好的云上架构是一项微小的挑战。对云上利用来说,稳固、平安、性能、老本是架构设计中最通用畛域的形象,也是组织层面最须要关注的几个维度。因而,阿里云基于多年服务各行各业客户的经验总结,将云上的架构设计最佳实际总结为一系列的方法论和设计准则,造成云卓越架构框架(Alibaba Cloud Well-Architected Framework),以帮忙云用户构建良好直至卓越的云上架构。 卓越架构定义五大最佳实际支柱阿里云卓越架构由平安合规、稳定性、老本优化、卓越经营、高效性能五大支柱形成,提供方法论、解决方案、检测和工具的矩阵,这些支柱也是客户云上业务的根底和底座,撑持着业务倒退。 ◉ 平安合规:辨认企业外部、内部的平安要求和监管诉求,在云环境中针对网络安全、身份平安、主机平安、数据安全等全方位地进行布局和施行,同时继续对威逼进行检测和疾速响应。 ◉ 稳定性:无论在何种环境都无奈防止单个组件故障的产生。稳定性的指标就是要尽量升高单个组件故障对业务带来的整体影响。 ◉ 老本优化:通过技术手段理解云资源的老本散布,帮忙企业均衡业务指标与云上老本,通过充沛高效应用云服务来构建业务利用,尽可能晋升云环境和业务需要之间的符合度,通过继续优化来防止资源节约,缩小不必要的云上开销并晋升经营效率。 ◉ 卓越经营:侧重于利用研发态、运行态相干工具与零碎的构建和应用,同时也须要思考组织内如何对利用、工作负载、资源、事件等进行响应,定义日常操作流程,指引企业构建本人的经营模型。 ◉ 高效性能:依据性能监控指标主动触发弹性伸缩能力,通过云平台的资源储备应答流量顶峰,建设齐备的可观测性体系帮助定位性能瓶颈。通过性能测试伎俩建设性能基线,验证架构设计指标并继续优化。 可继续落地的解决方案落地平安、高效、稳固的卓越架构是一个继续的过程,须要一直迭代,阿里云为客户的施行落地提出了“学习、度量、优化”的三阶段。学习阶段能够通过白皮书理解每个支柱下的最佳实际;度量阶段能够通过评估问卷和成熟度报告,理解以后云上利用架构的现状和问题;接下来,针对发现的问题,在优化阶段能够通过解决方案以及工具化产品,自助地进行优化和改良。在业务迭代的过程中,也须要继续度量和改良。 平安是每家企业的生命线。对云上利用来说,往往须要通过阿里云AccessKey拜访云服务获取数据。一旦对应的AccessKey治理不善导致透露,往往会造成数据透露、资金损失、监管追责、声誉受损等等不可挽回的结果。因而,从平安角度来说,利用在架构设计过程中平安应用AccessKey显得极为重要。以平安合规支柱中的身份和访问控制场景为例,介绍了如何在利用的密钥治理这个场景下实际卓越架构中定义的云上最佳实际: ◉ 学习阶段,卓越架构的平安合规支柱针对程序身份(本例中为AccessKey)的治理提出了多条最佳实际。其中一条就是对AccessKey进行定期轮转。通过定期轮转缩短AccessKey的裸露时长,升高透露危险。 ◉ 度量阶段,阿里云云治理核心产品提供的治理检测报告,可能多维度扫描以后云账号下AccessKey的应用存在哪些危险。如未定期轮转的AccessKey,以及从未应用、闲置了肯定工夫的AccessKey,并给出危险提醒和明细列表。 ◉ 优化阶段,针对辨认进去的问题,云治理核心提供了改良计划和倡议。用户能够依照对应的计划文档,进行自助化的治理,清理闲置AccessKey,对AccessKey进行轮转,采纳长期密钥(STS Token)等,升高AccessKey透露危险,晋升成熟度。 由此可见,落地卓越架构是一个继续的过程。同时,随着阿里云的一直倒退,卓越架构的定义和最佳实际也将继续迭代和欠缺。在企业上云之路上,阿里云将继续致力帮忙企业上好云、用好云、管好云。 点击下载白皮书 点击立刻收费试用云产品 开启云上实际之旅!原文链接 本文为阿里云原创内容,未经容许不得转载。

June 9, 2023 · 1 min · jiezi

关于云计算:云原生周刊开发人员使用-GPT4-的-30-种重要方法-202365

OpenAI 最新的大型语言模型 GPT-4 有十分多的用处,那么,作为开发人员,应该如何去应用它,来帮忙本人工作呢? 在最近的 Hacker News 问答中,很多开发人员参加了探讨和分享。 也有人进行了汇总,梳理出 30 种比拟重要的办法。 开源我的项目举荐SandstormSandstorm 我的项目是一个可自托管的 Web 生产力套件,它被实现为一个加固的平安 Web 利用程序包管理器。 cruncrun 我的项目是一个基于 Docker 容器的自动化构建工具。它容许用户构建、测试和部署应用程序,同时提供自动化和可反复的过程 daedae 是一个基于 eBPF 的 Linux 高性能通明代理解决方案。 run-o11y-runrun-o11y-run 是一个围绕 docker-compose 的单文件二进制包,其中蕴含了嵌入的配置,以轻松地运行本地可观测性堆栈。 文章举荐辞别 Ingress:应用 Gateway API 和 Cilium 拥抱 Kubernetes 流量治理的将来这篇文章探讨了 Kubernetes Gateway API 在将来 Kubernetes 流量治理中的重要性,并瞻望了与 ingress 竞争的替代品。文章还提供了一些应用 Gateway API 的示例,以及如何配置和应用该 API。同时,文章还探讨了应用 Gateway API 进行流量治理的劣势,包含更好的可扩展性和灵活性,以及更低的老本和复杂性。 Cgroups - 深入探讨 Kubernetes 中的资源管理在本文中,深入探讨了什么是 cgroup,Kubernetes 如何应用它们来治理 Node 资源,以及除了设置资源申请和限度 Pod 之外咱们如何利用它们。 应用 Terraform 装置 Istio 多集群部署这篇文章提供了具体的步骤和领导,帮忙读者理解了如何应用 Terraform 装置 Istio multicluster 部署。 ...

June 5, 2023 · 1 min · jiezi

关于云计算:从云计算到天空计算二

2021年,UC Berkeley的Ion Stoica和Scott Shenker,在运行零碎热点话题的研讨会上,公布了“从云计算到天空计算”的论文。不同于咱们都熟知的Cloud Computing(“云计算”),Sky Computing (“天空计算”),是云计算的将来,是指天空中有很多的云,如何解决跨云的问题,突破不同云之间的隔膜,最大化地利用跨云数据。 达坦科技的使命正如同论文中形容的“天空计算”的愿景:打造下一代云计算平台,让云之间没有隔膜。为此,咱们翻译了这篇论文,分两期公布。如下是“从云计算到天空计算”的第二局部,欲了解上半局部的内容,请点击从云计算到天空计算(一) 跨云层兼容层是实现天空计算你的第一步,尽管兼容层让用户能够在不同的云平台上运行应用程序而不须要批改,然而用户依然须要本人抉择云平台。这就好比让英特网用户本人抉择路由门路,这个工作过于繁琐,所以实用性不好。要解决这个问题,英特网应用 BGP 来做 AS-level 的路由抉择,终端用户齐全感知不到路由过程。天空计算也应该提供一个跨云层,该层将云平台供应商齐全暗藏,用户应该齐全不晓得利用程序运行在哪个云平台上。跨云层应该是当初兼容层之上。 跨云层应该让用户可能定制策略,这些策略会决定应用程序的运行地点——哪一个云平台,并且这些策略不应该太底层,否则用户的决策负担过重。相同,这些策略应该体现用户的偏好,例如在性能,稳定性和费用间进行取舍。不仅如此,这些策略也应该思考到有些用户不心愿利用程序运行在竞争对手的云平台上,或者处于法律条款限度必须运行在某些特定的国家境内。举一个具体的例子,一个用户能够确定本人的 TensorFlow 利用必须运行在德国境内,并且要在将来两个小时内运行完结,同时保障费用不高于某个设定阈值。 跨云层也有可能让应用程序的可靠性和安全性变得更好,毕竟多个云平台同时呈现故障的概率非常低。并且最近有一些提议将不同的云平台当做不同的信赖域,这样就能够为更多的应用程序提供高效的平安解决方案。 咱们置信要实现跨云层并不存在技术上的限度,这也不难理解,因为在云之间迁徙工作和在数据中心外部迁徙工作是相似的。一旦一个利用思考了多云场景,剩下的问题就由下列的三个性能来实现: 为 OSS 服务提供批准的命名标准。一个检索注册服务,每个云提供商在下面注册服务,每一个用户在下面根据偏好抉择服务。一个跨云的计费服务。咱们当初别离探讨这三个性能。首先是命名标准。为了可能精确地找到某个服务的运行实例,咱们须要一个全局惟一的名字来命名它。有很多中办法能够达到这个目标,例如能够应用 DNS 服务来给出命名,这里并不展开讨论。咱们还须要将一些元数据和这些实例关联起来,元数据蕴含如何启动这些实例,供应商的名字,地点,API 版本和硬件类型等等。咱们也有可能须要附加一些动态变化的信息,例如价格,负载和以后是否能够被应用等等。 其次是检索注册服务。每个利用都须要找到适宜本人的服务实例,这就须要这么一个检索注册服务。每个云提供商将在该服务上公布本人服务的名字和元数据,并且云提供商也应该定期地更新动态数据,例如负载和价格等。同样的,利用也应该依据本人的偏好发出请求。当然细节的调度算法不在本文的探讨范畴内。 最初是付费零碎。在天空计算的场景下,用户的应用程序可能在一个云平台或者多个云平台上运行,然而付费须要别离计算。如果付费操作是每个平台独立实现,那么用户须要在这些平台上都创立账户,显然不太不便。另外一个解决方案是,将计费服务交给第三方服务商,该服务商有所有云平台的账号,这样用户只须要付费一次,剩下的工作由该服务提供商解决。 基于上述探讨,实现跨云层没有显著的技术壁垒,当然还有许多细节须要进一步确定。有了这个跨云层的构想,下一个问题是市场会不会天然孕育出一个产品。 云提供商之间的合作跨云层被设计来帮忙用户可能在多个云平台上按需运行工作,如果该工作波及到大量的数据,那么数据搬运将会是不可避免的。现在,绝大多数的云提供商的数据迁入的费用远低于数据迁出的费用。比方将数据导入 AWS 平台是收费的,然而从 AWS 迁出数据的费用是每GB 0.05 到 0.09 美元,等价的费用能够用来存储这些数据几个月。这些费用比那些头部 CDN 厂商要高许多,CDN 的报价个别是每GB 0.009 到 0.02 美元。 咱们将这种模式的定价策略称为“数据引力”定价策略,这样的定价策略会促使用户更违心在本数据中心解决数据而非迁出。当然对于那些计算特地贵的工作,将数据迁出是很划算的事件,毕竟在这种工作中数据的费用占比很小。例如,在 ImageNet 的训练任务中要解决一个 150GB 大小的数据集,将这么多数据迁出大略须要破费 13 美元,在 AWS 实现相干训练任务须要超过 40 美元,雷同的工作如果在 Azure 上运行仅仅须要大概 20 美元。基于上述数据咱们不难发现将数据迁出解决会更加便宜。由此不难发现,即便有数据引力的存在,有时迁徙数据依然是更加经济的抉择。 不仅如此,对于一些静态数据,咱们能够将其存储在一个云平台的归档服务中,该服务十分便宜,在有需要的时候再迁徙到须要解决的 Blob 存储中。相比上述办法,长期存储在某个云平台的 Blob 存储中费用更加低廉。 据咱们所知,当初数据迁出的费用是统一的,即无论咱们的数据目的地是哪里,费用都一样。对于云平台而言一个可能的抉择是相互之间签订单干协定,相互之间进行数据传输不收取费用,并且搭建更加疾速的传输链路。这样一来数据传输就是收费,并且十分疾速,在签订协定的云平台间的数据引力作用也升高了。 对将来的揣测基于上述的探讨,做一个兼容层的技术难度并不大,然而这会使得云计算供应商的服务变成普通商品——可被代替,因而能够预感云计算提供商会消极看待兼容层。好消息是和其余畛域不一样,兼容层的标准化并不需要全局的协商,即便云计算提供商不违心,也会有越来越多的软件能够运行在多个平台上。那么兼容层即便无奈失去官网反对,也会被越来越多的用户应用,以达到更容易迁徙的目标。尽管大的云计算提供商不喜爱兼容层,然而对于小型云服务商应用这套兼容规范有利于拓展本人的市场份额,因而他们会更加违心兼容这套规范。咱们曾经在市场上看到了这种场景,Google 公布了 Anthos——一个基于 K8S 的利用治理平台——号称可能“只写一次,随时随地运行”。Anthos 曾经在 Google Cloud 和 AWS 上运行,马上 Azure 也会采纳。 ...

June 2, 2023 · 1 min · jiezi

关于云计算:火山引擎边缘云助力泛娱乐产业数字化转型升级

2023年5月26日-27日 QCon 寰球软件开发大会在广州胜利举办,火山引擎边缘云产品解决方案架构师王琦与高级开发工程师李志明受邀缺席大会,与来自产、学、研各畛域的专家独特探讨泛娱乐时代的边缘计算与通信技术,聚焦技术创新和行业倒退。 01 火山引擎边缘计算满足更多音视频翻新场景需要在当今数字化浪潮的推动下,泛娱乐产业迅速崛起,消费者对于翻新体验需要一直增长。边缘计算技术作为推动泛娱乐产业降级的要害驱动力,正呈现出令人瞩目的新动向。 火山引擎边缘云产品解决方案架构师王琦示意,万物互联的智能时代更加依赖数据的规模效益。通过采集和聚合不同维度的数据,一直开掘价值能力业务实现更加高效、智能的指标。尤其是以后基于音视频内容载体的互联网利用场景不断丰富,终端不再仅仅是数据的消费者,更加是数据的生产者。而这些海量终端设备产生的数据,在以核心业务部署的模式下存在带宽瓶颈、响应时延、流量老本等诸多问题须要迫切解决。 火山引擎把从用户到云核心之间所有的算力层都定义为边缘计算的领域,包含:现场边缘、近场边缘、云边缘三层,笼罩1-40ms时延范畴,别离提供从用户现场到本地城市节点和区域核心汇聚节点等多种异构算力资源,并依据地理位置的散布,提供复线、多线等多种网络接入能力,确保用户就近接入,满足业务超低时延的算力调度和网络能力的需要。 在音视频场景,火山引擎边缘计算通过技术和资源,将音视频的管制面服务和数据面服务别离下沉到适合的边缘节点,从而实现更低时延的用户体验、更高并发的业务能力: 通过将音视频流媒体的推拉流服务下沉到笼罩二三四线城市的近场边缘,实现不同运营商的终端用户基于地理位置亲和性就近推拉流能力,能够无效的在全局零碎内实现所有用户统一的低时延接入能力,保障直播体验。将传统音视频管制面服务拆分为边缘信令和核心信令服务,优先采纳边缘部署的信令服务实现对用户信令申请的接入和解决,而核心信令服务仅负责对局部须要核心鉴权或跨边缘节点交互的信令解决,最终升高核心信令服务的服务负荷和并发瓶颈,晋升整体的业务容量。基于自研的云原生架构,反对灵便以云主机、裸金属主机等形式提供不同规格的高性能弹性实例用于部署音视频媒体散发、媒体解决、信令网关等服务。同时为了满足更多基于音视频内容载体的翻新业务需要,边缘计算节点采纳异构算力设计,在视频接入和散发环节即可通过边缘云服务获取GPU资源,满足实时渲染和编解码能力。 02 容器技术在边缘计算场景下的利用摸索随着 RTC 等大带宽、低提早业务场景衰亡,边缘计算业务迎来了爆发式的增长,同时云原生、微服务等技术的遍及,越来越多业务开始借助边缘容器技术打造云边一体化解决方案,火山引擎边缘云高级开发工程师李志明认为,以后联合容器、K8S、服务网格等云原生技术为简单场景提供解决方案,曾经成为了各大互联网公司的支流技术趋势。 以后,用户在应用边缘资源的同时也面临了包含边缘大量资源如何运维、边缘利用如何编排部署、边缘资源如何疾速扩缩容等问题。以火山引擎边缘容器技术挑战为例,团队须要面对资源扩散、环境简单、资源复用、利用部署等诸多挑战。 火山引擎边缘云容器团队联合K8S、平安容器、容器网络、微服务等云原生技术,为边缘联网减速、翻新业务上边缘云、算力疾速扩缩容等不同业务场景提供了标准化解决方案,极大进步了边缘资源的交付效率,升高了用户应用边缘资源老本,助力各业务场景基于火山引擎边缘计算资源构建低提早业务。 资源纳管针对边缘集群宽泛散布在3、4线城市,节点规模不统一、网络和服务器环境不一样,火山引擎边缘云容器团队通过分布式的边缘K8S集群依照区域、业务、资源类型来对边缘资源进行分K8S集群治理,构建出具备数十万边缘节点的分布式资源纳管能力;此外通过自研边缘多 K8S 集群编排治理能力,屏蔽底层边缘计算资源的差别,来实现容器业务部署达到on anywhere的能力。 边缘自治边缘机房的环境绝对于核心云机房的网络环境更加简单,断网、丢包等状况比拟常见。如何保障核心断网状况下业务能够失常提供服务,是边缘计算场景须要解决的关键问题。火山引擎边缘云容器团队针对不同的节点采纳不同的K8S集群治理计划:针对异构资源(比方多云、CDN等非标资源)采纳边缘托管K8S的技术计划;针对自建的IDC机房采纳边缘K8S集群的计划。这两种计划都能够达到边缘和核心断网之后,实现边缘自治的能力。 资源复用绝对于核心机房,边缘的机房规模小,如何达到边缘容器和虚机资源混合应用,进步资源利用率尤其重要。火山引擎边缘容器团队采纳kubevirt和kata的技术计划,从而达到能够通过K8S来实现在一台物理机混合生产平安容器和虚机的能力,从而进步资源的复用率。 利用部署边缘IDC节点比拟扩散,如何给用户提供边缘节点维度的用户利用的部署、迁徙、灰度能力是要害。火山引擎边缘云容器团队基于利用和利用集群的设计思路,来实现不同集群的利用部署和版本灰度性能;此外团队基于主从利用的设计思路来实现多利用绑定部署编排的能力。 随着技术的不断进步,泛娱乐产业正迎来新的时机与挑战。边缘计算技术作为要害的驱动力,将在一直演进的泛娱乐时代中表演重要角色。将来,面向更广大的行业市场,火山引擎边缘云愿携手社会各界搭档,独特摸索时代下的技术前沿,共享行业最新成绩,助力产业蓬勃发展。

June 2, 2023 · 1 min · jiezi

关于云计算:新版发布-Cloudpods-v3102-正式发布

间隔 v3.10 大版本公布刚过去一个月, v3.10.2 也要正式 release 了,快来看看它新增了哪些新性能以及修复了哪些问题吧。 新性能【认证】品高云 OAuth 认证源反对【主机】反对自定义 PCI 透传设施的透传【主机】OpenStack 平台快照反对回滚【报表】月报报表反对订阅发送(企业版)【网络】减少 apimap 服务,为 vpcagent 等提供网络信息,卸载 region 控制器压力【容器】反对部署 K8s 1.22 版本 性能优化【主机】PCIe 机型反对透传设施热插拔操作【镜像】通过文件上传 ISO 镜像反对抉择镜像类型【巡检】优化巡检报告题目显示(企业版)【主机】宿主机开启大页后,禁止调整内存超售比及预留内存大小【网络】内置负载平衡减少优先级及网口字段【主机】ARM 虚拟机性能改良:反对不停机拔插 ISO 设施,修改 3.9 降级 3.10兼容性问题【主机】获取宿主机拓扑构造兼容 ARM 宿主机【主机】ARM 宿主机反对应用 TCG 模式启动虚机【主机】虚拟机不再默认关上 kvm=off 的选项,只对有透传设施的虚机关上该选项 问题修复【多云】修复局部平台 Redis 标签不同步问题【主机】修复主机 hostname 存在空格导致重启失败问题【容器】修复 K8s 集群新建磁盘报错的问题【容器】修复 helm release 降级不失效的问题【主机】修复虚机删除时报 ‘Stage Complete Not Found’ 的问题【主机】修复 virtio 磁盘驱动热插拔失败的问题 【主机】修复 cdrom 启动程序的问题【主机】修复 3.9 降级到 3.10 的一些不兼容性问题【主机】修复虚机蕴含快照迁徙失败的问题【主机】修复虚机批改 ip 后重启网络未失效的问题 以上是文章的次要内容,作为交融云/多云治理/公有云/FinOps 厂商,云联壹云会继续关注这些畛域的动静,分享相干的信息和技术,能够通过的官网(yunion.cn)或关注的公众号(云联壹云)来获取最新的信息,感激大家的工夫。 原文地址:https://www.yunion.cn/article/html/20230602.html 举荐浏览企业面对FinOps,到底能做些什么?总结了4个方面云联壹云交融云治理平台的 10 大利用场景Flexera 2023 云状态报告解读新品公布 | Cloudpods 3.10版本上线! ...

June 2, 2023 · 1 min · jiezi

关于云计算:窄带高清技术之百万级并发下的演唱会直播细节修复

前所未有,高清又不卡。5月,百视TV联结上海人民广播电台、时代峰峻独特出品的《西方风云榜》,灿烂出现一场三十周年音乐分享会·时代少年团《现实之途》。有人说,这是一场似梦非梦的记忆。 演唱会由“乐园”、“少年”、“乌托邦”三大篇章组成,精心之作引来社交话题近30亿次,满足3万多现场观众的同时,线上由百视TV全程直播,沸腾的直播间里更是被观众评论接连刷屏,事件热度值一再突破历史记录。 “嘎嘎清晰”的超高清画质、“一点不卡”的直播体验、“懂观众心理”的调度和镜头切换……观众的花式评论泉涌一直,的确,高清又不卡,谁不爱。 观众们直呼,“这辈子没看过这么高清的直播!”。 (图片截选自社交媒体) 官网信息显示,在演唱会直播当晚,峰值在线人数超过130万,直播间评论量达423万,在这海量数据背地的丝滑、超清直播体感,是百视TV联结阿里云视频云在聚焦原创音乐倒退、助力传统IP宣发及「内容+服务」的商业模式上的全新摸索。 一、窄带高清,毫厘细节的精妙画感达到观众惊呼的视觉感,是一场画质修复与编码算法的精妙之战。 首先,要了解大型户外演唱会直播的错综因子。 相较电商直播带货和其余直播场景,大型户外演唱会的影响因素很多,让直播视觉效果的出现会更为简单。 舞台布局多元简单,如常见的镭光管和频闪灯打造光影交错的幻影成果、变幻多样;现场烟雾、巨幕AR大屏等元素,形成了绚丽多彩的视觉效果;Idol的多层次妆造和舞台道具,往往蕴含极为细腻丰盛的细节;现场多机位拍摄,配合Idol疾速的动静舞动,导致直播画面切换快,指标运动性很强。这些简单情景都不可小觑,须要全副纳入直播视频流解决的领域。 对于现场观众,这些丰盛变幻能够将演唱会的直面成果拉满,但满足百万千万的线上直播观众,想要达到复刻甚至更佳的视觉气氛,这些简单因子对直播过程中的视频编码压缩技术,带来极大挑战。 再者,用生成式细节修复力,逆转直播源流的低画质。 一般来说,大型流动直播对实时性和晦涩度的要求是第一位的,而在户外活动直播中,现场网络品质很容易产生稳定,高码率传输会导致卡顿和提早景象。 因而,为了优先保障这场演唱会的直播信号稳固和晦涩,百视TV抉择较小的码率进行推流(8Mbps @1080p 50fps)。然而,对于出现这类视效高度简单的演唱会,1080p 50fps的信号源,通常须要大于30Mbps的码率,能力保障较好的编码输入品质。 这意味着,理论推流码率远低于直播高画质所须要的码率,因而,会存在因高压缩率导致的显著画质损失,具体表现为:背景光影区大片的马赛克块效应;脸部细节模糊不清,头发纹理细节失落,以及服装道具细节失落;服装、字幕、贴片图案、LOGO等边缘毛刺景象。 下图是8Mpbs 1080p直播源流的两个典型画面的截图,画面中,Idol的发丝不再有细节,同时呈现了显著的面部马赛克块效应,和字幕边缘的毛刺感。显然,这些画质问题堆积成流动的低细节画面,必然极大影响观感体验。 直播源流画面1: 存在面部马赛克块效应 直播源流画面2: 存在字幕边缘毛刺问题 针对这类直播推流存在的画质问题,百视TV应用了阿里云“窄带高清2.0”技术,通过生成式细节修复能力,显著晋升源流的画面清晰度;同时,通过自适应编码能力,升高源流的码率;从而达到转码流相比源流码率更低,但画质清晰度更优,出现毫厘细节的精妙画感。 整体来看,“窄带高清2.0”有两大外围模块: 视觉编码「窄带高清2.0」采纳基于场景和内容的帧类型决策和块级码率调配,模式决策采纳面向主观敌对的算法;在内容自适应编码局部,思考到,人眼感知的视频空间域的亮度、对比度以及时域失真是不间断的,通过基于恰可察觉失真(JND)自适应编码技术,抛弃视觉冗余信息,在主观品质不产生明显降低的状况下,能够大幅节俭码率;同时,通过ROI码控技术调整码率调配策略,进一步晋升人眼感兴趣区域的清晰度。 细节修复「窄带高清2.0」采纳基于生成反抗网络(GAN) 的细节修复生成技术,在修复因编码压缩引起的马赛克块效应和边缘毛刺的同时, “脑补” 生成一些天然的纹理细节,使得画面纹理细节更丰盛、更天然、更有质感。 窄带高清2.0 核心技术模块解读 通过窄带高清解决,咱们将原有的码率升高的同时,反而能够取得更好的视觉效果:演唱会视频中,场景的编码块效应、边缘毛刺被无效去除,失落的发丝细节再度出现,面部皮肤修复后更有肤质感,字幕文字清晰度也更加优质。 第三,演唱会人像的定制模版,更是点睛之笔。 对于超大型偶像演唱会,看清Idol的“颜”肯定是观众粉丝的首要诉求。 着力一场“更懂观众”的演唱会直播,阿里云视频云“窄带高清2.0”在根底模型的成果之上,专属打造了演唱会场景Idol人像定制模版,针对优化人像区域的细节修复生成成果,将Idol的“怼脸直拍”,通过直播清晰还原送到观众屏幕前。 当然,业界已存在一些针对人像修复的解决计划,但这类计划个别是将视频画面中的人脸抠图操作,再独自进行解决。 然而,在演唱会直播转码场景,这类计划存在两个问题:一是对于非侧面及人像有遮挡的状况,解决成果不佳会存在比拟显著的bad case,因而,直播转码可能会呈现意想不到的翻车危险;二是抠像后再解决,整个计划耗时存在不确定性,对于直播50 fps的场景,可能会因而带来卡顿。 因而,窄带高清2.0人像优化性能采纳更优的语义宰割图疏导的图像复原技术,解决模型的输出除了低画质视频,还有该视频对应的语义宰割图,而语义宰割图用于疏导模型更聚焦在人像区域的生成成果。 以下是窄带高清2.0对Idol脸细节修复成果出现: 左:直播源流 8Mpbs右:窄带高清2.0转码输入 6Mpbs 左:直播源流 8Mpbs右:窄带高清2.0转码输入 6Mpbs 左:直播源流 8Mpbs右:窄带高清2.0转码输入 6Mpbs 针对垂直细分场景的专属修复,阿里云视频云摸索一直,去年的NBA赛季,在百视TV NBA转播场景,为了更好地均衡直播流畅性、稳定性和高清画质,窄带高请2.0针对篮球赛事场景进行针对性优化,为百视TV定制了篮球直播赛事的转码模版和AI修复模型,极大晋升了画面清晰度和整体视觉体现,观赛成果极佳。 总言之,把握场景特色的专属定制,往往是沉迷视感的点睛一环,利用算法的精妙将场景造势施展极致。 二、超高清高并发的“零卡顿”,是极致天花板咱们显然可见《现实之途》演唱会的热烈之象,百视TV的线上直播间也是空前沸腾,仅仅通过预约阶段158万的人数便可窥见。 再叠加地利之势,恰逢五一假期,演唱会直播19:30-22:30更是一场晚间的超级流量场,这天然带来一个问题:直播品质如何保障? 咱们总说,极致晦涩、零卡顿播放是直播保障谋求的指标,但实在落地绝非易事。对演唱会这类强沉迷强互动的场景,尤其对“时代少年团”的这场光耀的超高清直播,每一次卡顿大略都是情绪的窒息。 于是,当百万受众刹时涌入,如何守住如此高清质感的直播“零卡顿”? 当然这要受害于阿里云文体直播解决方案系统化的综合能力,寰球3200+节点、180+TB带宽储备、寰球实时流媒体传输网络(GRTN),足以保障千万级用户高并发下的高品质观看体验。 定制化的全链路灾备与应急预案,和多年大型直播流动积攒的最佳实践经验,更是给予了这场超大型演唱会落地的高可靠性。 为了避免在高峰期流量资源抢占带来不良影响,阿里云提前为百视TV就演唱会直播预约状况进行带宽资源筹备及锁量,一旦直播过程中,遇到断流或帧率异样,配置的主备流能实现“主动切换”。 正是在这些齐备的预案和保障下,即便直播过程中遇到突发状况,也能让观众“毫无觉察”,沉浸于晦涩之境。 三、演唱会直播,调动更多感官超大型演唱会直播引发的感官与话题,俨然成为一个时代的文化景象,百万人共屏,千万人共振,数亿级的衍生回荡。 有幸的是,视频云技术在这其中开释淋漓之力。 ...

June 1, 2023 · 1 min · jiezi

关于云计算:Server版支持即将到期Jira和Confluence如何迁移2

到2024年2月,Atlassian将终止对Server产品及插件的所有反对。是时候制订您的迁徙打算了——Atlassian为您提供两种迁徙抉择,一是本地部署的数据中心版本,中国用户25人以上即可应用,二是云版。作为Atlassian寰球白金合作伙伴,龙智也为您筹备了系列文章——《数据中心是否适宜您的企业》、《迁徙到数据中心版前,您须要做这些筹备》,以及《如何将Jira和Confluence迁徙上云》等,不便您抉择适宜本人的版本,并顺利施行迁,确保业务不受影响。本文是《如何将Jira和Confluence迁徙上云》系列文章的第三篇。当您比对完版本差别、理解了如何制订打算后,您就能够依据本人企业的理论状况定义属于本人的迁徙策略了。 定义您的迁徙策略依据您所应用的Server版本和抉择应用的工具,理论的迁徙办法和策略会有所不同。 迁徙外围数据的注意事项 Atlassian的Confluence和Jira云迁徙助手将帮忙您将我的项目、内容、用户和组从自托管的许可证迁徙上云,而不会对团队造成任何中断。通过这些助手,您能够抉择要迁徙上云的内容,在不便的工夫开始迁徙,并在整个迁徙过程中监控停顿。 当您想要评估Server应用程序在云版产品中的可用性,查找应用程序是否有可用的迁徙门路,以及在真正迁徙前运行测试迁徙时,云迁徙助手也会派上用场。 如果您有趣味进行云到云的迁徙来整合站点,或者须要将数据从Jira Service Management Server(以前称为Jira Service Desk)或Advanced Roadmaps(以前称为Jira Portfolio)迁徙到新的云站点,请分割Atlassian寰球白金合作伙伴、云业余搭档——龙智,咱们的专家团队将帮忙您迁徙上云,这样您就能够持续专一于发明价值。 对于用户治理的注意事项 依据您在本地产品中进行用户治理的形式以及将来的需要,有几种办法能够迁徙用户。 尽管一些企业抉择手动治理用户,但也有一些企业抉择将Atlassian Access增加到他们的云产品汇合中,以便更严密(且更容易)地管制明码策略、治理日志、对立用户治理和双因素身份验证、API管制以及SAML单点登录。 依据TechValidate对311名Atlassian用户进行的考察,85%的IT组织示意云端的用户治理更好或与本地部署持平。 Atlassian Access的用户能够应用SCIM供给性能进行迁徙。对于没有应用Access的客户,Atlassian倡议应用上述提到的云迁徙助手。这些工具将承当用户迁徙的重要工作,并执行预迁徙查看,辨认有效的电子邮件、反复的用户,以及其余要在迁徙前进行的“清理”工作,以便将云产品推向最终用户。 在持续之前,还有几个问题须要您的答复: 您所有的Server产品目前是否应用雷同的用户目录?如果你应用第三方来治理用户,那么当初哪个身份提供商保留了这些数据?在以后零碎中最后设置用户治理的是谁?(如果不是您,务必让负责人或Server管理员参加进来,他们须要确认用户和组是如何配置的,以及思考这些配置如何进行迁徙。)应用程序(插件)如何解决? 一个优良的利用迁徙打算始于对以后Server应用程序和集成环境的理解。Audits工具能帮忙您做到这一点,还能帮忙您确定在迁徙过程中应该采取的口头。你须要答复的一些根本问题: 你们目前有哪些利用?它们被用来做什么,由谁应用?它们是必须的吗?云上是否有相似的性能或应用程序的代替计划?Server版和云版的老本比拟如何?您可能有很多应用程序。兴许您从之前的管理员那里继承了一个蕴含30多个应用程序的实例(听起来有点多,但这种状况的确存在),所以,请把迁徙看作是一次大扫除的机会。 应用程序是任何迁徙探讨的重要组成部分,对于那些没有工夫审查和迁徙利用数据的人来说,这可能会令人望而生畏。而这正是龙智的用途所在。作为Atlassian寰球白金合作伙伴、云业余搭档,咱们领有业余的常识,能够评估您以后的应用程序套件、执行审核,确定最佳的迁徙形式,或者摸索如何迁徙到相似的云应用程序。 评估迁徙的复杂性 您的迁徙越简单,策动和执行的工夫就越长。依据估算和资源的状况,您可能会偏向于引入业余的Atlassian解决方案合作伙伴,比方龙智,来提供帮忙。迁徙的复杂性将基于以下几个次要因素: 规模:包含数据的大小,用户的数量。一个只有几个千兆字节数据和不到1000个用户的小型站点比一个领有数百千兆字节数据和数千个用户的站点更容易迁徙,无论是从数据迁徙和停机工夫的角度,还是整体策动的角度来看;应用程序:包含要害应用程序的数量,它们是否又对应的云版产品(或有其余代替计划),以及它们是否有迁徙路径;自定义:包含自定义字段、非Atlassian集成、自定义应用程序和不寻常的数据结构;产品数量:要迁徙的产品越多,迁徙就越简单。例如,只迁徙Jira Software比同时迁徙Jira Software和Jira Service Management更简略;合并:如果要合并多个站点,而不仅仅是迁徙到一个新站点,这将减少复杂性,因为须要协调数据、应用程序和用户。一般来说,须要合并的数量越多就越简单;用户治理:有几个因素会减少复杂性,包含须要应用Atlassian Access、匿名用户的数量、非沉闷用户的数量以及应用多个身份提供者。优化并迁徙(举荐做法) 这是一种“一次性”的迁徙办法,您能够评估哪些数据要迁徙到云端,哪些数据会留在Server实例上,设置为只读状态,用于未来作参考。 实用于 中等复杂性的客户和/或领有2,000-10,000个用户的客户 长处 一次性迁徙只迁徙所需的数据整体迁徙工夫更短,迁徙停机工夫更少团队更容易适应云环境可能改善云性能因为工夫线缩短,可能升高迁徙老本(例如资源投入、合作伙伴老本)毛病 所有用户须要同时登录依据数据量多少,可能会减少停机工夫须要额定的布局和工作来确定如何优化提取并迁徙 将所有数据(产品数据、用户和应用程序)一次性迁徙到云端。 实用于 领有少于2,000个用户的低复杂度客户 长处 一次性迁徙整体迁徙工夫较短因为工夫线缩短,可能升高迁徙老本(例如资源投入、合作伙伴老本)毛病 所有用户须要同时登录依据数据量多少,可能会减少停机工夫可能会将不必要的数据和用户迁徙上云,减少老本分阶段迁徙 分阶段迁徙数据,而不是一次全副迁徙。在每个迁徙实现后,您能够解决问题,并以模块的形式进行用户上线和培训。 实用于 高复杂性客户和/或超过10,000个用户的客户 长处 分阶段用户登录缩小单次停机工夫容许随时间推移逐渐清理和优化给用户适应新形式的工夫毛病 如果须要迁徙Jira Service Desk或Advanced Roadmaps(以前称为Portfolio),则无奈反对较长的总迁徙工夫,可能导致成本增加在过渡期间治理多个部署可能会更简单须要认真布局,因为必须映射依赖关系从头开始迁徙 如果您确信不会持续应用现有服务器我的项目的大部分数据,或者心愿立刻在云上开始工作,那么您能够抉择全新开始,来设置云站点。 实用于 低复杂性的客户,用户较少的客户或新客户 长处 没有或无限的迁徙停机工夫如果您有Server许可证,能够保留数据存档毛病 用户将无法访问旧的我的项目/空间数据最重要的是,您要理解每种办法的所有优缺点,同时抉择出适宜您企业特定需要的办法。事实上,真正简单的迁徙可能会混合应用提取、优化和分阶段迁徙的办法。但正确的均衡取决于你的估算、工夫安顿和危险阈值。 布局和筹备迁徙一旦理解本人的需要,就到了相熟迁徙的各个阶段并制订我的项目打算的时候。您须要理解具体步骤、预估工夫、依赖关系以及每个工作的负责人。 迁徙工具 如果您还没有注册收费的云迁徙试用版,请分割Atlassian寰球白金合作伙伴、云业余搭档——龙智,咱们的专家团队将帮忙您立刻开始!迁徙至 Atlassian Cloud 版后的试用期长短是由您以后的自托管许可证的用户数梯度等级以及残余的运维天数决定的(最长为 12 个月),这样您就能够在Jira和Confluence Cloud中进行摸索,并打算迁徙的具体内容。 ...

May 31, 2023 · 1 min · jiezi

关于云计算:平行云X火山引擎探索XR观展的极致体验

5月20日,素有艺术界“奥林匹克”之称的第18届威尼斯国内修建双年展(以下简称“威尼斯双年展”)中国国家馆展览正式揭幕。 威尼斯双年展为当今世界规模最大、最具影响力的国内艺术盛事之一,中国文化和旅游部自2005年起主办中国国家馆展览。 本届中国国家馆展览由上海交通大学设计学院院长阮昕传授负责策展人,展览以“更新·共生”为主题,向世界讲述一个生存、修建、城市与天然更新共生的中国故事。 作为中国国家馆云展览技术支持单位,平行云科技与火山引擎边缘计算独特打造实时云渲染一站式解决方案,为观展者提供了低时延、高沉迷、可互动的线上展览XR体验,让观展者身临其境感触中国特色的建筑设计魅力。 「平行云科技」(以下简称”平行云“)是国内当先的数字平行世界技术畛域先行者,平行云LarkXR通过分钟级部署大规模云端资源、高适配XR所有支流引擎、以及对不同交互场景和沉迷式体验的灵便反对,实现让多种XR利用能够在各种类型的智能终端上流畅地运行、应用及流传。 01 一站式实时云渲染,让XR体验更低时延、更深沉迷本届中国国家展室内展馆分为“宜居 · 传奇”、“宜居 · 更新”、“共生 · 将来”三个章节。为了让更多用户理解和体验展馆作品全貌,中国国家馆首次为观展者提供线上云展览模式,观展者可自在感触近40年来人居环境的变迁与中国城乡倒退的蓝图。 实现云展厅场景,须要在云端部署大量的算力进行模型渲染与图像处理。为了给用户带来更加沉迷的XR体验,平行云与火山引擎边缘计算独特打造了实时云渲染一站式解决方案。 实时云渲染一站式解决方案以火山引擎全域笼罩的边缘节点、弱小的云端GPU算力和带宽资源池为底座,联合平行云Cloud XR解决方案LarkXR ,为用户带来低时延、高沉迷的XR观展体验。 火山引擎边缘计算基于覆盖全国各省市和运营商的边缘节点,在更凑近用户的网络边缘提供计算环境,助力业务疾速实现边缘部署。 火山引擎边缘计算平台采纳最新一代至强可扩大铂金处理器、100GE/25GE智能网卡、NVMe硬盘等高性能硬件,联合自研优化的云原生边缘计算平台,针对边缘计算简单场景,反对云主机、容器、函数等不同量级算力服务,为用户提供稳固、高效、功能丰富的一站式边缘计算云服务。 02 沉迷式XR体验,云展厅背地的技术“硬实力”因为中国国家馆云展厅的展品类目繁多,因而,为了实现将不同展品的文案介绍、视频播放和虚构人物带看等交互场景做深度联合的这一艰巨工作,平行云与火山引擎联结打造的实时云渲染一站式解决方案从低时延、真三维、高并发、轻终端、可交互等技术维度全面发力,为观展者带来一场便捷晦涩的线上观展体验。 满足超大码率与超低时延火山引擎边缘计算提供覆盖全国各省市和运营商500+边缘节点及分布式异构算力资源,笼罩5-40ms时延圈,反对在凑近用户的边缘多节点进行业务分布式就近部署,实现业务高可用的同时,保障时延敏感型业务的优质用户体验。 此外,平行云Hermes通过并行编码算法、动态码率自适应、编码传输一体化算法以及网络拥塞控制算法等技术,帮忙解决提早、丢包、网络抖动、带宽变动等问题。 身临其境的真三维XR体验为了最大水平地还原修建馆中的视觉效果,火山引擎边缘计算采纳Intel至强Platinum高主频CPU搭配高性能独立GPU卡,高性能多规格的CPU及GPU实例资源,让实时3D渲染达到更佳成果。 实时云渲染一站式解决方案冲破vGPU与GPU直通计划,实现超细粒度资源动静调度与调配,通过构建对立的GPU资源池,让XR利用的拜访更灵便、更高效、老本更低。 轻松应答高并发场景火山引擎边缘计算提供的X86、ARM、GPU、裸金属多样化IaaS计算资源和容器、函数类PaaS计算服务,全域百T带宽、百万vCPU及GPU储备,保障了线上展览实时渲染场景的大带宽与大算力的突发资源需要。 同时,团队采纳对立镜像散发服务,可疾速将平行云业务镜像散发至多个边缘节点,实现数百台多节点业务集群分钟级部署与构建,轻松应答线上展厅的高并发场景。 此外,火山引擎边缘计算提供的高性价比、优质边缘大带宽,同时反对“月95计费”与GPU资源按小时计费,可进一步帮忙优化带宽老本。 买通泛终端接入平行云LarkXR客户端接入解决方案 Apollo,基于底层Runtime,买通泛终端接入,反对Windows、Linux、MacOS、Android、iOS等不同操作系统下,电脑、手机、pad、全息、大屏、SR/VR/AR/M等不同的终端在对立平台的承载与拜访。观展者无需预装软件,只需扫描二维码,即可进入。 实现线上观展实时交互实时云渲染解决方案提供了能够从客户端页面到云端利用之间的双向实时数据通道,以及数据传输服务。观展者进入云展厅页面后,Web端将用户的ID发送给云利用,云端XR利用会依据虚构角色在场景当中的动作,实时将相干交互数据再返回Web端,从而保障观展者在云展厅的交互体验。 据悉,本届威尼斯双年展将继续面向公众凋谢至2023年11月26日,中国国家馆云展厅预计将提供 50 万人次线上观展服务,感兴趣的观者能够扫码进入云展馆体验。 长按扫码,云上观展 将来,火山引擎边缘计算将持续为行业提供高品质的XR观展体验,也心愿携手各界合作伙伴,独特摸索更多边缘利用场景,继续助力业务翻新与倒退。

May 31, 2023 · 1 min · jiezi

关于云计算:活动回顾丨首期阿里云-Serverless-技术创新实战营上海开讲含-PPT-下载

5月27日“阿里云 Serverless 技术实战与翻新”上海站圆满闭幕。流动现场邀请了来自阿里云 一线技术专家,分享以后 Serverless 趋势和落地实际过程中的挑战和时机;带来 数据库 Serverless 技术架构及利用实际;浅析云原生时代开发者须要的 Serverless 能力,为开发者日常利用,待业、晋升提出倡议;应用 EventBridge 构建下一代 Serverless 事件驱动型架构。 《阿里云 Serverless 技术实战与翻新沙龙PPT合辑》地址:https://developer.aliyun.com/ebook/8000 6月5日(周一)13:30,咱们将在【阿里云云原生】视频号对本场流动进行线上直播回放,欢送点击下方视频号卡片进行预约 https://developer.aliyun.com/live/251927 精彩回顾分享主题|Serverless 的起源、倒退和落地实际以后 Serverless 架构从概念曾经进入到大规模生产落地阶段。本议题讲由浅入深探讨企业在 All on Serverless 过程中的挑战和教训,为给更多落地 Serverless 的企业提供参考和借鉴。 本次主题由阿里云智能高级技术专家拓山,从 Serverless 概念解读、函数计算 FC、Serverelss Devs 三个大方面进行讲述了 Serverless 倒退历程,更是表明了阿里云从2022年开始就外围产品全面 Serverless 化,由此可见 Serverless 在产品中资源到服务已是无足轻重的作用,函数计算+阿里云=Serverless 新生态。 分享主题|RDS 云数据库 Serverless 技术架构及利用实际Serverless概念自19年提出至今,应用层的尝试与翻新川流不息,而数据库畛域的Serverless摸索则方兴未艾。传统云托管数据库,立足于Serverless,依靠IaaS层的资源反对,如何为应用层带来极致的弹性、为运维带来智能化便当的体验,从而帮忙客户实现真正的降本增效?本次分享,将介绍阿里云数据库RDS的Serverless 技术架构和细节,并从应用层接入的角度,介绍RDS Serverless数据库的具体实际。 本场中阿里云数据高级研发工程师自升,从Serverless 技术架构论述了(极致弹性、功能丰富、准确计费、内核加强)外围能力,利用部署实例主动启停,通过利用场景讲述业务流程。 分享主题|云原生时代开发者须要的 Serverless 能力云原生发展趋势。该背景下开发者为什么须要Serverless,云原生Serverless的几种常见状态。云原生Serverless最佳实际4. 阿里云Serverless商业实际和案例本次分享者是阿里云 Serverless 利用引擎研发负责人徙远,为咱们讲述了云原生进行生产力集成:容器化 + 微服务 +可观测 + Serverless,一个多状态的架构,让运维老本更低,效率更高,实时日志监测,实现无损高低线,同时对利用运行的健康检查,做到网络网关的优化。 分享主题|应用 EventBridge 构建下一代 Serverless 实际驱动型架构本次议题内容首先介绍在理论利用中用户遇到的痛点问题,并且论述这些痛点问题是如何通过 FaaS + BaaS构建的事件驱动型架构去解决;其次介绍应用 EventBridge构建 Serverless 事件驱动架构的劣势,最初展现Serverless 事件驱动架构的最佳实际及案例。 ...

May 30, 2023 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-杭州-Meetup-报名中-202305120525

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.05.12-2023.05.25。 贡献者名单 新晋 KubeSphere Contributor本两周共有 3 位新晋 KubeSphere Contributor,感激各位对 KubeSphere 社区的奉献! 近期重要更新KubeSphere1. 降级 github.com/docker/distribution 到 2.8.2+incompatible相干 PR: https://github.com/kubesphere/kubesphere/pull/5682 贡献者: hongzhouzi 2. 批改 README 文件中 badge 款式相干 PR: https://github.com/kubesphere/kubesphere/pull/5677 https://github.com/kubesphere/kubesphere/pull/5678 贡献者: cubxxw OpenFunction1. OpenFunction API 降级到 v1beta2相干 PR: https://github.com/OpenFunction/OpenFunction/pull/442 贡献者: wanjunlei 社区动静立刻报名 | 云原生技术 Meetup 杭州站炽热开启技术文章 利用现代化中的弹性伸缩在 Ubuntu 22.04 上装置 KubeSphere 实战教程企业级 Jenkins 实际在 openEuler 22.03 上装置 KubeSphere 实战教程 本文由博客一文多发平台 OpenWrite 公布!

May 29, 2023 · 1 min · jiezi

关于云计算:云原生周刊使用-ChatGPT-提高安全性

尽管 ChatGPT 最近因网络犯罪分子应用该技术增强攻打而成为负面新闻,但它也能够成为网络进攻的弱小资产,帮忙公司最大限度地进步平安态势,同时弥合其员工的技能差距。 云平安联盟 (CSA) 最近公布了一份白皮书,具体钻研了 ChatGPT 的攻防后劲。CSA 技术钻研总监Sean Heide是该论文的作者之一,他说该工具的一个要害劣势在于它容许用户简略地用自然语言询问他们须要为工作编写的特定属性,或者应用新的办法使工作更有效率的倡议。 关注 【KubeSphere云原生】公众号,后盾回复 chatgpt 即可获取该白皮书的下载链接。 开源我的项目举荐CarettaCaretta 是一个轻量级的独立工具,能够立刻创立集群中运行的服务的可视化网络图。 Carreta 利用 eBPF 无效地映射 K8s 集群中的所有服务网络交互,并利用 Grafana 查问和可视化收集的数据。 kubespawnerkubespawner(也被称为 JupyterHub Kubernetes Spawner)使 JupyterHub 可能在 Kubernetes 集群上生成单用户笔记本服务器。 kubecfgkubecfg 是一种以代码模式治理 Kubernetes 资源的工具。 kubecfg 容许您在基础架构中表白模式并在许多服务中重用这些弱小的“模板”,而后在版本控制中将这些模板作为文件进行治理。您的基础架构越简单,应用 kubecfg 的益处就越大。 文章举荐Spring Boot (3) Spring Native (GraalVM) with Kubernetes & Istio这篇文章介绍了如何应用 Spring Boot 3、Spring Native 和 GraalVM 来构建基于 Kubernetes 和 Istio 的应用程序。具体来说,作者介绍了如何应用 Spring Boot 3 的 Spring Native 个性来构建原生反对 Kubernetes 的应用程序,并应用 GraalVM 来优化 Java 应用程序的性能。 ...

May 29, 2023 · 1 min · jiezi

关于云计算:在-openEuler-2203-上安装-KubeSphere-实战教程

作者:老 Z,中电信数智科技有限公司山东分公司运维架构师,云原生爱好者,目前专一于云原生运维,云原生畛域技术栈波及 Kubernetes、KubeSphere、DevOps、OpenStack、Ansible 等。前言导图 知识点定级:入门级KubeKey 装置部署 KubeSphere 和 KubernetesopenEuler 操作系统的根本配置Kubernetes 罕用工作负载的创立演示服务器配置主机名IPCPU内存系统盘数据盘用处ks-master-0192.168.9.9141640200KubeSphere/k8s-master/k8s-workerks-master-1192.168.9.9241640200KubeSphere/k8s-master/k8s-workerks-master-2192.168.9.9341640200KubeSphere/k8s-master/k8s-worker共计31248120600 演示环境波及软件版本信息操作系统:openEuler 22.03 LTS SP1 x86_64KubeSphere:3.3.2Kubernetes:v1.25.5KubeKey: v3.0.7简介本文介绍了如何在 openEuler 22.03 LTS SP1 X86 架构服务器上部署 KubeSphere 和 Kubernetes 集群。咱们将应用 KubeSphere 开发的 KubeKey 工具实现自动化部署,在三台服务器上实现高可用模式最小化部署 Kubernetes 集群和 KubeSphere。咱们将提供具体的部署阐明,以便读者轻松地实现部署过程。 操作系统根底配置请留神,以下操作无非凡阐明时需在所有 openEuler 服务器上执行。本文只选取其中一台服务器作为演示,并假设其余服务器都已依照雷同的形式进行配置和设置。 配置主机名hostnamectl hostname ks-master-0配置 hosts 文件编辑 /etc/hosts 文件,将布局的服务器 IP 和主机名增加到文件中。 192.168.9.91 ks-master-0192.168.9.92 ks-master-1192.168.9.93 ks-master-2配置基于 SSH 密钥的身份验证KubeKey 反对在自动化部署 KubeSphere 和 Kubernetes 服务时,利用明码和密钥作为近程服务器的连贯验证形式。本文会演示同时应用明码和密钥的配置形式,因而,须要为部署用户 root 配置免明码 SSH身份验证。 本大节为可选配置项,如果你应用纯明码的形式作为服务器近程连贯认证形式,能够疏忽本节内容。 本文将 master-0 节点作为部署节点,上面的操作仅须要在 master-0 节点操作。 以 root 用户登陆零碎,而后应用 ssh-keygen 命令生成一个新的 SSH 密钥对,命令实现后,SSH 公钥和私钥将存储在 /root/.ssh 目录中。 ...

May 25, 2023 · 9 min · jiezi

关于云计算:云原生周刊2023-年可观测性状态报告发布-2023522

Splunk 与 Enterprise Strategy Group 单干公布了 State of Observability 2023,这是一份年度寰球钻研报告,探讨了可观测性在治理当今日益简单的技术环境中的作用。该报告将可观测性领导者定义为具备至多 24 个月的可察看性经验的组织。 此外,领导者在以下五个因素中排名最高:跨所有可观测性工具关联数据的能力、在其可观测性工具集中采纳 AI/ML 技术、可观测性技能专业化、涵盖云原生和传统技术的能力应用程序架构和 AIOps 的采纳。 关注公众号【KubeSphere 云原生】,回复关键词 可观测性2023 即可获取本报告。 开源我的项目举荐DevOps Roadmap 2023这是一份对于如何成为 DevOps 工程师的分步指南,蕴含相干学习资源的链接。 kVDI在 Kubernetes 上运行的虚构桌面基础架构。 CloudQueryCloudQuery 是为开发人员构建的开源、高性能数据集成框架。 CloudQuery 从云 API 提取、转换和加载配置到各种受反对的目的地,例如数据库、数据湖或流媒体平台,以进行进一步剖析。 文章举荐K8s 故障排查:Volume Node Affinity Conflict 谬误这篇文章介绍了在 Kubernetes 中解决 volume 和 node Affinity 抵触谬误的办法。node Affinity 是一种 Kubernetes 集群中的容器节点偏好机制,它旨在确保容器运行在尽可能多的可用节点上。当应用 volume 时,可能会呈现 node Affinity 抵触谬误,这会导致容器无奈在指定的节点上运行。 K8s 中的 DevOps——YAML+编写 K8s 对象文件的三个技巧这篇文章介绍了在 Kubernetes 中应用 YAML 文件编写对象文件的三个技巧。Kubernetes YAML 文件是用于定义 Kubernetes 资源对象的文件。在编写 YAML 文件时,能够应用一些技巧来进步可读性和可维护性。 ...

May 22, 2023 · 1 min · jiezi

关于云计算:阿里云李钟弹性计算控制系统团队提效之路

2023年3月25日,“城市领航之夜第一期”流动在上海举办,阿里云弹性计算控制系统技术架构负责人李钟缺席了本次流动并带来了《弹性计算控制系统团队提效之路》的主题演讲,为大家具体分享了阿里云弹性计算控制系统团队所面临的挑战、如何通过技术架构提效,以及工程师文化建设等一系列内容。 本文依据他的演讲内容整顿而成: 阿里云弹性计算控制系统技术架构负责人 李钟 我从2011年开始就入职了阿里巴巴,前阶段次要负责IM服务端的工作,在2015年退出阿里云,期间始终负责业务开发,直到2019年负责弹性计算控制系统的技术架构负责人,次要实现了阿里云弹性计算单元化架构的降级。明天的分享,我将从问题、技术架构、标准流程和工程师文化四个维度,通过弹性计算的教训,以技术和架构的角度来分享弹性计算控制系统团队的提效之路,首先来看一下第一局部,问题和挑战: 一、从问题登程,看以后的挑战阿里云弹性计算管控零碎是一个大型的分布式系统,反对高并发和高可用,除此之外,也有本人独特的复杂度。 图1:问题和挑战 - 规模复杂度和业务复杂度 规模复杂度:治理寰球50多个环境,反对28个公共云地区,兼容专有云技术和业务,并且已扩大到新的本地云、专属云等分布式云场景,规模十分宏大。利用在做配置公布时须要在寰球范畴内变更50余次,这对系统的开发,运维和治理都带来微小的挑战。 业务复杂度:弹性计算的产品类型一直向前倒退,咱们须要对每种类型都提供反对。且因为云计算的底层是物理资源,业务须要对物理资源的限度进行形容和治理,业务逻辑也因而变得非常复杂。 图2:问题和挑战 - 技术演进&稳定性和团队规模 技术演进&稳定性:对于阿里云而言,简直所有云产品都基于ECS构建,因而ECS作为IaaS基座的稳定性十分重要。然而零碎自身还须要一直进行架构的降级和演进。咱们须要在技术演进、稳定性以及效力三者之间做到均衡。放弃业务和技术的疾速演进和降级,然而又要保障不呈现稳定性的问题。 团队规模:最初从团队的规模来看,弹性计算控制系统团队规模继续扩充,近年内曾经增长近6倍。咱们面临的效力方面的挑战愈发严厉。 二、技术架构优先,构建效力基座咱们主张优先思考技术架构的降级和优化来构建效力的基座。总结来说,有上面图中所示的4个方面。 图3:技术架构优先,构建效力基座 首先,咱们先来看一下下面图中右上角的局部,通过短期的计划疾速解决问题。这其中次要是包含三个伎俩,首先通过并发的形式来进步速度,并发的形式是提高效率罕用的伎俩,但这也意味着在同一时间会应用更多的资源;其次通过自动化和工具化的形式升高人力;第三就是通过引入标准化的流程来保障正确性。 短期的解决方案可能达到空谷传声的成果,为团队建设信念,让成员晓得问题正在被关注和解决,促使每个人都去思考如何解决本人面临的问题,并为长期倒退博得工夫。 短期计划长期解决问题之后,就要继续布局架构技术的降级,解决外围问题。这里次要包含几个方面,一,要思考问题的根本原因,从而无效的解决问题,而不是规避问题。布局架构和技术的继续降级来依据理论状况构建高效的零碎。二,保持应用工具化、可集成、平台化的形式解决问题。保障技术升级的可持续性。最初要继续降级根底服务,中间件和根底组件,在代码一直演进的过程中,享受组件降级带来的性能和效力红利。三,须要优化研发流程,使其灵便无效,防止短少流程导致呈现问题。也要防止流程过多导致系统臃肿的问题,摸索新的思路,应用先进的思路和工具提效。最初,须要一直积淀和积攒,一方面是常识体系的积淀,同时也要重视构建可复用的零碎框架和组件。 上面咱们重点来看一下下面提到的第一点,如何通过零碎架构降级来构建效力的基座。 图4:技术架构降级示意图 弹性计算管控零碎负责解决的业务能够分为两个局部,一方面是要治理底层的物理资源,负责对资源的状态进行管控。另外一方面响应用户OpenAPI调用,来实现用户的业务申请解决。 在弹性计算控制系统之前的实现中,这两个局部是互相耦合的。既须要进行资源状态的治理,也须要实现简单的用户业务。但其实这两个局部差异性比拟大,资源状态治理的业务逻辑变动较小,并发度高,对稳定性较为敏感。而用户业务则变动快,业务逻辑较为简单。 因而,咱们将状态治理和业务逻辑做了分层。底层是状态治理的集群,集群逻辑简略但体量较大,比较稳定,不须要有太多的公布。而业务逻辑局部被放到下层,由RPC调用连贯的微服务集群,等于是一个ServiceMesh集群,服务之间的依赖非常复杂,变动也十分快,且无状态。这使得逻辑上异构的两个局部分隔开,解决了稳定性和高并发的问题,同时也满足业务逻辑的高效迭代。 业务逻辑层采纳模块化和服务化架构,使得各个系统之间的职责较清晰,各个服务的角色能够被分明的定义。各个系统应用规范的公共API进行交互,使得零碎耦合度升高,服务能够独立疾速演进迭代。 另外,咱们引入了事件驱动架构,通过事件模型将零碎外面外围链路和非关键模块解耦,解决非关键模块对外围链路的稳定性影响问题。另外也使得零碎的外围链路能够放弃清晰无效,晋升了零碎的稳定性和性能,使得零碎的开发和迭代更加高效。 下面咱们通过架构的演进和优化,解决零碎疾速的演进和迭代的问题,上面来看一下团队是如何通过积攒和建设公共的框架和组件,使得业务开发能够事倍功半。 图5:ecs-yaochi-peento架构图 2015年6月,弹性计算控制系统团队创立了ecs-common-framework,在业务开发的过程中,将一些通用的组件积攒到这个公共库中,其中蕴含了缓存、幂等、限流、工作流等等性能。到2021年,ecs-common-framework中曾经实现了近230多个版本的公布,为业务的开发提供了无效的反对。咱们也对其进行了模块化形式重构,并命名为yaochi-peento-framework,使得我的项目更加规范化,简化依赖治理,接入更为不便。目前已有多个云产品接入应用。 yaochi-peento-framework框架由四个局部组成: 根底框架:蕴含了分布式后端服务开发的公共组件,包含缓存,配置,幂等,序列化等。业务模块:蕴含了OnECS的公共业务组件,提供OnECS通用反对,包含Quota,ActionTrail,Tag等。SpringBoot Stater:整个框架会基于springboot进行输入,使得业务方能够十分不便集成和治理。生命周期治理:提供业务域的生命周期治理,包含利用的初始化,运维等能力。有了上述的yaochi-peento-framework,使得业务方开发新的云产品变得十分不便。正是因为在2015年创立了ecs-common-framework,写下第一行代码, 咱们能力在2021年对其进行重构和降级,使其更为标准化和易于接入。yaochi-peento-framework使得开发云产品控制系统的效率晋升,并且老本大大降低。目前该模块不仅仅是在弹性计算外部应用,也被推广到弹性计算之外的其余云产品团队。 图6:yaochi-peento-cache模块架构图 上面咱们来介绍一下在yaochi-peento-framework外面,咱们是如何设计和实现一个公共的组件。 公共组件方面,标准化和高可用是首要的两个准则。组件的建设须要提供规范的API,同时具备齐备的文档形容和谨严的Changelog跟踪信息。另外组件须要对高并发,高可用的业务有理论的实现反对,是高并发分布式系统的最佳实际总结。 另外,可插拔和可扩大也是零碎十分要害的准则,弹性计算的部署架构非常复杂,要反对多种不同的部署状态,包含公共云,专有云,分布式云等。在不同环境部署时,依赖往往不统一,因而作为根底组件,须要提供可适配的能力,yaochi-peento-framework中的所有的组件都提供通用的interface,并且做到能够反对多种实现。比方下面图6中右边的局部所示,yaochi-pento-cache模块提供了对立的缓存的interface,但在同一套interface下反对多种缓存的实现,能够做到在不同的部署状态依赖不同的缓存实现,但因为这些缓存零碎都实现了同一套interface来工作,因而能够做到让业务逻辑对理论的实现局部无感,这使得零碎往前演进反对更多部署状态的时候会十分便捷。 最初,可观测和可运维的能力也至关重要。所有组件都会有对立的可察看能力输入,全副通过SLS(阿里云外部的日志零碎)接入,最初汇总到Grafana上,业务零碎接入后即可马上获取到所有的观测数据。同时组件也会默认提供opsapi来反对运维能力。 yaochi-peento-framework累积了零碎开发中的最佳实际的组件,对该框架的复用使得新的业务和服务开发能够间接应用现有组件的能力,大大晋升了利用开发的效力。 图7:弹性计算多地区运维平台 除了分布式系统碰到的高并发,高可用问题之外,在弹性计算控制系统的场景里,还会有多地区治理的复杂度问题。这是因为地区管控的环境十分多(目前曾经有50多个环境),中间件提供的控制台的能力曾经无奈满足咱们的治理需要。应用API,工具化和自动化的形式是惟一的抉择,这里咱们引入了最近较为风行的平台工程(Platform Engineering)的概念。咱们让中间件提供API,而不是控制台,咱们通过调用中间件提供的API来提供单元化的运维能力,通过单元化的运维服务输入,而后由全局的运维服务平台整体集成。这样,运维多个地区时,不再须要切换控制台一一操作,而只须要通过总的运维平台进行治理运维即可。 运维API的集成能力还使得采纳自动化,流程化的平台计划成为可能。 图8:中间件和根底组件降级流程 最初,在技术计划上,我想讨论一下中间件和根底技术组件的降级。弹性计算控制系统外部设计了一个框架和组件的降级流程。 组件的引入策略,引入之后有流程进行跟踪,评判组件状态,每个组件都会有相应owner,负责理解组件的状况,比方是否有大的bugfix,或大的性能更新等,并依照理论须要进行被动降级。咱们并不一定会对每一次更新都进行降级,但可能做到对每一版本都一目了然。 一方面这样做使得咱们能够及时理解组件或者框架在性能,安全性和性能方面的降级,能及时评估并安顿降级,取得相应的红利。另外一方面,当呈现相干的安全性破绽危险,须要进行长期紧急降级时,咱们也会对相干的影响面较为理解,能充沛评估降级影响,升高危险。 一句话来说,有筹备的降级,相比拟长期评估降级,效率要更高。 三、标准流程制订,建设效力脉络图9:标准和流程 理解了技术方面的内容,咱们来看一下流程。在弹性计算控制系统团队,咱们的流程分为规划设计、编码测试、公布以及运维等几个阶段。 在每一个阶段,实际上咱们都会有较为严格流程,在这里,我想要分享的是几个我认为较为无效的流程或者工具。 第一个是RFC机制,RFC的全文是“Request For Comments”,意思是“申请对计划进行评审”。规划设计阶段,RFC理论是一种重要的沟通形式,它是方案设计初期的外围设计思维的形容,咱们激励同学在方案设计初期就通过记录RFC来进行沟通,并将探讨的过程通过comments进行记录,并对其进行一直补充欠缺,直至它可能成为一个残缺的计划。这样使得构想和设计都能在一开始就记录,并能一直推动,最终造成能够探讨施行的计划。 另外在技术文档方面,对于开发人员而言,写文档是一件极具挑战的事。因为零碎在不停的变动,明天写下的文档,可能在很短的工夫之后就生效了。因而,在弹性计算控制系统团队外部,咱们采纳的形式是让开发人员在开发的每一步都将评审和计划做到足够详尽欠缺,最初咱们输入的是以后计划的具体技术文档,这样等于咱们记录了对系统每一次变更的具体计划,新的同学并不是通过学习一个大而全的文档,而是学习零碎每一次更新的计划,来理解零碎的全貌。 四、工程师文化建设,丰盛效力气氛图10:工程师文化 最初咱们来看一下弹性计算内是如何来进行工程师文化的建设。 在思考这个问题的时候,思考到与时俱进,我也去问了一下ChatGPT,它给的答案是“好的工程师文化应该是大家独特领有的指标,有独特的价值思考,有独特的实际”。 在咱们团队外部,为了营造良好的工程师文化,会在外部举办定期的技术分享,比方每周4早晨举办的“Hacking Thursday”分享流动。另外有新的计划或有计划评审时,咱们也会激励大家只在钉钉群内做直播。不管直播成果如何,工程师筹备直播的过程也是一种自我促成,当你能讲清楚一个计划的时候,阐明你的方案设计曾经是比较完善了。 同时,咱们会举办外部的技术较量,促成工程师之间的互相交换与学习。咱们还在外部推广了一项名为 “Feature Market”的我的项目,会将一些探索性的、重要但不紧急的工作作为员工平时的赛马我的项目,同时也作为实习生我的项目,调动实习生思考和摸索的积极性,也获得了良好的成果。 图11:高效团队的技术瞻望 最初咱们来看一下高能效团队的瞻望,我感觉重要的一点事须要拥抱云原生技术,这是因为当初很多软件工程和架构的翻新都是基于云原生的技术来实现的,如果不紧跟技术后退的潮流,可能就会被落下。尽管弹性计算是一个IaaS层的根底服务,然而咱们也须要踊跃采纳云原生的技术,就像编译系统一样,阿里云IaaS到PaaS的整个技术栈也须要能实现自举能力。 另外一个就是人工智能技术,次要是上面的几个计划,一是能够帮忙进行常识零碎的建设,文档的生成和保护等等。其次,能够通过人工智能来进行编码辅助。第三是能够通过AI来实现智能技术支持。最初,咱们也心愿可能利用AI帮忙团队做决策,但想要利用人工智能辅助架构和技术设计,前提是先让人工智能了解咱们的技术和数据。 原文链接 ...

May 19, 2023 · 1 min · jiezi

关于云计算:在-Ubuntu-2204-上安装-KubeSphere-实战教程

作者:老 Z,中电信数智科技有限公司山东分公司运维架构师,云原生爱好者,目前专一于云原生运维,云原生畛域技术栈波及 Kubernetes、KubeSphere、DevOps、OpenStack、Ansible 等。前言导图 知识点定级:入门级KubeKey 装置部署 KubeSphere 和 KubernetesUbuntu 操作系统的根本配置Kubernetes 罕用工作负载的创立演示服务器配置主机名IPCPU内存系统盘数据盘用处ks-master-0192.168.9.9141640200KubeSphere/k8s-master/k8s-workerks-master-1192.168.9.9241640200KubeSphere/k8s-master/k8s-workerks-master-2192.168.9.9341640200KubeSphere/k8s-master/k8s-worker共计31248120600 演示环境波及软件版本信息操作系统:Ubuntu 22.04.2 LTSKubeSphere:3.3.2Kubernetes:v1.25.5KubeKey: v3.0.7简介本文介绍了如何在 Ubuntu 22.04 LTS 服务器上部署 KubeSphere 和 Kubernetes 集群。咱们将应用 KubeSphere 开发的 KubeKey 工具实现自动化部署,在三台服务器上实现高可用模式最小化部署 Kubernetes 集群和 KubeSphere。咱们将提供具体的部署阐明,以便读者轻松地实现部署过程。 操作系统根底配置请留神,以下操作无非凡阐明时需在所有 Ubuntu 服务器上执行。本文只选取其中一台服务器作为演示,并假设其余服务器都已依照雷同的形式进行配置和设置。 创立用户在装置 KubeSphere 和 Kubernetes 之前,须要创立一个普通用户,该用户能够是装置 Ubuntu 零碎时默认创立的初始用户 ubuntu,也能够是新创建的用户。在本文中,咱们将应用新建用户 kube 作为示例。 创立用户并设置明码通过执行以下命令,创立一个名为 kube 的新用户,并设置该用户的明码。在提醒输出明码时,请输出所需的明码并进行确认。 sudo useradd -m -s /bin/bash kubesudo passwd kube配置用户免明码执行命令为了装置和部署 KubeSphere 和 Kubernetes,须要将 kube 用户配置为无需明码即可应用 sudo 切换到 root 用户执行系统命令。 要让 kube 用户无需明码即可应用 sudo 命令,请执行以下命令。 cat <<EOF | sudo tee /etc/sudoers.d/kubeDefaults:kube !fqdnDefaults:kube !requirettykube ALL=(ALL) NOPASSWD: ALLEOF配置主机名sudo hostnamectl hostname ks-master-0配置 hosts 文件编辑 /etc/hosts 文件,将布局的服务器 IP 和主机名增加到文件中。 ...

May 19, 2023 · 9 min · jiezi

关于云计算:云联壹云融合云管理平台的-10-大应用场景

作者:高现起 随着交融云治理平台性能越来越多,不同客户应用到的性能区别很大,最近梳理了一下现有的在网客户应用状况,总结了 10 大利用场景,供大家参考。 场景1:私有云账单治理/FinOps场景2:既有云资源纳管/多云资源管理场景3:公有云/政务云建设场景4:多云资源企业内的交付/私有云在企业落地的最初一公里场景5:私有云代理商账单经营平台/账单二次定价场景6:多云 API场景7:GPU 算力平台场景8:裸金属云场景9:IDC 资源云化售卖场景10:获取 MSP 相干资质以下是具体内容。 场景1:私有云账单治理/FinOps客户画像重度的私有云客户,包含单云、多云,客户在私有云上的年生产在千万级别。 企业内有很多个业务线或我的项目团队同时应用了单云资源或者多云资源。 业务团队基于老本考量大量应用了预付费资源,包含包年包月、RI、CPP 等资源。 企业在和不同云厂商结算时应用了不同的币种进行结算,例如人民币、港币、美元、巴西币等。 客户痛点解决难,每月月初,私有云出账时,须要人工剖析多个私有云的账单,费时费力并且容易错,整体的账单解决工夫比拟长。 摊派难,运维部门的 IT 老本(含预付费老本)不能不便的摊派到业务线或者项目组,特地是一些公共资源,例如带宽、流量等费用。 及时难,企业无奈及时获取业务部门在 IT 资源的应用状况,以及获取 IT 资源整体费用状况,个别只能预先追责,造成节约。 经营治理难,大部分企业无奈积淀教训、方法论、自服务工具来经营私有云老本,工作量不可复用。 客户收益主动高效,零碎主动解决私有云账单,每月可节约 90% 的账单解决工夫。 主动摊派,资源主动归属到相应我的项目(可了解为业务团队),主动解决私有云资源以及预付费资源(包含包年包月、RI、CPP 等)的费用摊派,费用摊派效率晋升 80%。 费用查问、剖析和洞察更方便快捷,可定期生成相应报表,可订阅定时发送至邮箱。 费用优化周期性给出优化倡议,及时清理/降配闲置资源,每月可节约 8% 左右的云老本。 平台反对查看 RI、CPP 等应用状况,依据使用率调整和资源的关联关系,每月可防止 10%+ 的节约。 如果应用到了多币种结算,平台反对主动汇率转换,随时查看不同币种账单。 代表客户国内当先的金融保险公司、驰名国内石油化工企业、国内驰名智能制作企业、跨国连锁快餐企业、跨国美妆批发企业等。 场景2:既有云资源纳管/多云资源管理客户画像企业或组织同时应用了多个私有云和公有云。 企业或组织对资源管控有明确诉求。 企业或组织针对遗留公有云我的项目的资源无效利用。 客户痛点企业或组织应用了多个云平台,资源申请者须要登录到不同的云平台进行申请资源,资源维护者以及领导审批也须要登录到不同的云平台进行治理保护,整体的资源应用和管理效率有待晋升。 通过工夫的累计,企业或组织内的不同云平台资源应用极度不平衡,有些云平台资源使用率低,造成节约,有些云平台资源使用率较高,须要减少容量,带来更多老本。 客户收益集中化申请、治理、保护、审批所有云资源资源,可节约 1/3 的运维治理老本,让资源申请者、审批领导工作更便捷。 通过对立的调度,管理员能够很好平衡资源分配,无效进步所有不同平台资源的利用率,同时无需为忙碌云平台扩容,即防止了节约,又节约了老本。 代表客户中央政务云管理中心 省/市超算核心经营部门 场景3:公有云/政务云建设客户画像综合大学、专科院校 中央政府 客户痛点传统公有云软件建设周期长,在物理设施筹备好的状况下,少则一周,多则几个月。 传统公有云软件建设老本高,往往一套软件部署起来,还没有真正投入使用,就须要耗费一部分算力。 传统公有云软件维护老本高,在软件部署实现并且交付后,日常保护至多须要消耗一个人力,甚至更多。 传统公有云软件业务系统可靠性低,大部分业务零碎单机部署,可靠性往往无奈保障。 客户收益轻量,只需 8 核 16 G 500 GB 配置的资源即可治理近 500 台物理机规模的公有星散群,个别交付周期在一周左右,在投入使用后,个别只需 1/5 人力就能够做好日常保护。 ...

May 18, 2023 · 1 min · jiezi

关于云计算:我在京东做研发丨一园一品京东云产业协同平台产品实践

作为产业数字化的重要体现产业协同平台是蕴含了政企协同、产销协同产能协同以及产融协同的一体化解决方案 如何开掘产业数据价值推动特色产业倒退及打造产业集群助力区域数智增长产业 数字化解决方案专家 魏晓征将在5月18日下午15:00的直播间介绍解答 嘉宾介绍 魏晓征 京东科技解决方案核心数字产业产品经理 京东科技解决方案核心数字产业产品经理,有着十余年的技术类产品和产业数字化解决方案教训,对云计算、数据中台、技术中台等多个技术畛域有较深了解,在线上交易、供应链协同治理、供应链金融服务等产业数字化外围场景有丰盛的落地教训。

May 18, 2023 · 1 min · jiezi

关于云计算:应用现代化中的弹性伸缩

作者:马伟,青云科技容器参谋,云原生爱好者,目前专一于云原生技术,云原生畛域技术栈波及 Kubernetes、KubeSphere、KubeKey 等。2019 年,我在给很多企业部署虚拟化,介绍虚构网络和虚拟存储。 2023 年,这些企业都曾经上了云原生了。对于高流量的 Web 应用程序,实时数据分析,大规模数据处理、挪动应用程序等业务,容器比虚拟机更适宜,因为它轻量级,疾速响应,可轻松移植,并具备很强的弹性伸缩能力。 为什么须要弹性伸缩呢? 峰值负载应答:促销流动、节假日购物季或突发事件依据需要疾速扩大资源,保障利用可用性和性能。进步资源利用率:依据理论资源负载动静调整资源规模,防止基础设施资源节约,升高 TCO。应答故障和容错:多实例部署和疾速替换,进步业务连续性和可用性。追随需要变动:匹配前端的业务需要及压力,疾速调整规模,进步事件应答能力,满足需要和冀望。Horizontal Pod AutoscalingKubernetes 本身提供一种弹性伸缩的机制,包含 Vertical Pod Autoscaler (VPA)和 Horizontal Pod Autoscaler (HPA)。HPA 依据 CPU 、内存利用率减少或缩小正本控制器的 pod 数量,它是一个扩缩资源规模的性能个性。 HPA 依赖 Metrics-Server 捕捉 CPU、内存数据来提供资源应用测量数据,也能够依据自定义指标(如 Prometheus)进行扩缩。 由上图看出,HPA 继续监控 Metrics-Server 的指标状况,而后计算所需的正本数动静调整资源正本,实现设置指标资源值的程度伸缩。 但也有肯定局限性: 无内部指标反对。如不同的事件源,不同的中间件/应用程序等,业务端的应用程序变动及依赖是多样的,不只是基于 CPU 和内存扩大。无奈 1->0。应用程序总有 0 负载的时候,此时不能不运行工作负载吗?所以就有了Kubernetes-based Event-Driven Autoscaling(KEDA)! KEDAKEDA 基于事件驱动进行主动伸缩。什么是事件驱动?我了解是对系统上的各种事件做出反馈并采取相应口头(伸缩)。那么 KEDA 就是一个 HPA+多种触发器。只有触发器收到某个事件被触发,KEDA 就能够应用 HPA 进行主动伸缩了,并且,KEDA 能够 1-0,0-1! 架构 KEDA 本身有几个组件: Agent: KEDA 激活和进行 Kubernetes 工作负载(keda-operator 次要性能)Metrics: KEDA 作为一个 Kubernetes 指标服务器,向 Horizontal Pod Autoscaler 提供丰盛的事件数据,从源头上生产事件。(keda-operator-metrics-apiserver 次要作用)。Admission Webhooks: 主动验证资源变动,以避免谬误配置。Event sources: KEDA 更改 pod 数量的内部事件/触发源。如 Prometheus、Kafka。Scalers: 监督事件源,获取指标并依据事件触发伸缩。Metrics adapter:从 Scalers 获取指标并发送给 HPA。Controller: 依据 Adapter 提供的指标进行操作,调谐到 ScaledObject 中指定的资源状态。Scaler 依据 ScaledObject 中设置的事件源继续监督事件,产生任何触发事件时将指标传递给 Metrics Adapter。Metrics Adapter 调整指标并提供给 Controller 组件,Controller 依据 ScaledObject 中设置的缩放规定扩充或放大 Deployment。总的来说,KEDA 设置一个 ScaledObject,定义一个事件触发器,能够是来自音讯队列的音讯、主题订阅的音讯、存储队列的音讯、事件网关的事件或自定义的触发器。基于这些事件来主动调整应用程序的正本数量或处理程序的资源配置,以依据理论负载状况实现弹性伸缩。 ...

May 18, 2023 · 4 min · jiezi

关于云计算:进阶篇丨链路追踪Tracing很简单常见问题排查

通过后面多篇内容的学习,想必大部分同学都曾经熟练掌握分布式链路追踪的根底用法,比方回溯链路申请轨迹,定位耗时瓶颈点;配置外围接口黄金三指标告警,第一工夫发现流量异样;大促前梳理利用上下游要害依赖,分割相干方协同备战等等。随着深刻应用链路追踪技术,问题发现与诊断方面的能力想必都有大幅晋升。 但理论生产过程中的问题可能更加辣手: 比方接口偶发性超时,调用链只能看到超时接口名称,看不到外部办法,无奈定位根因,也难以复现,怎么办? 比方接口调用胜利,然而业务状态异样,导致后果不合乎预期,如何排查? 比方大促压测时或公布变更后,发现 CPU 水位十分高,如何剖析利用性能瓶颈点,针对性优化? 比方同一份代码,本地调试都失常,然而公布到线上环境就报错,如何定位代码行为不统一的起因? 诸如此类的难题它们如同不属于链路追踪的领域,却又与链路追踪有着千头万绪的分割。 链路追踪是可观测不可分割的一部分,咱们不应该人为的划分边界,而是要突破数据孤岛,紧密结合其余可观测技术,以进步零碎稳定性为指标,最大化的施展链路追踪的关联价值。 本大节通过对经典案例的解读,大家将把握链路追踪与其余可观测技术联合利用的诀窍,突破对链路追踪固有的认知,深刻了解链路追踪在可观测畛域的关联价值。 01 利用日志关联:一次订单领取失败行为的全息排查【问题形容】某天,收到了来自火线小二反馈的客户投诉,订单领取始终失败,客户情绪十分烦躁,须要尽快给予回复,投诉工单记录了领取失败的订单号 213589741238xxxx。 【难点剖析】订单领取接口依赖了多个上游服务,接口调用自身是胜利的,然而业务报错导致领取失败。而且只有订单核心的利用日志记录了订单号,上游利用日志没有订单号信息,无奈间接通过订单号进行全利用扫描。 【解决思路】利用链路追踪的上下游追溯能力进行信息串联。 a. 通过失败订单号检索订单核心的利用日志,并找到日志中关联的 TraceId。 b. 通过 TraceId 查问全链路调用轨迹,找到当次申请依赖的上下游调用。 c. 通过查问上下游利用跟当次申请相干的利用日志,定位到订单领取失败起因,原来是优惠券生效导致的。 【延长思考】通过上述案例,能够发现全息排查的前提是实现 TraceId 与利用日志的双向绑定,目前业界的支流做法是将 TraceId 增加到利用日志中实现关联。在链路多维筛选大节中,咱们介绍了两种在日志输入中增加 TraceId 的形式:基于 SDK 手动埋点与基于日志模板主动埋点,感兴趣的同学能够具体浏览相干章节的介绍。 02 慢调用办法栈主动分析:偶发性慢调用,如何定位导致问题的那一行代码?【问题形容】负责稳定性的同学对这种场景应该不生疏:零碎在夜间或整点促销时会呈现偶发性的接口超时,等到发现问题再去排查时,曾经失落了异样现场,并且难以复现,最初只能不了了之。上述场景反复演出直至酿成故障,最终遭受微小的业务损失。 【难点剖析】开源的链路追踪实现通常只能记录超时的接口,无奈细化到具体的办法栈,开发同学不晓得该如何修复。而偶发性异样没有法则,又难以复现,很难通过手动 jstack 或者 Arthas 等在线诊断工具去精准定位根因。 【解决思路】为链路追踪埋点增加回调函数,自动记录慢申请的本地办法栈,实在还原代码执行的第一现场。如下图所示,当接口调用超过肯定阈值(比方2秒),会启动对该次慢申请所在线程的监听,直至该次申请完结后立刻进行监听,精准保留该次申请生命周期内所在线程的快照集,并还原残缺的办法栈及耗时,最终定位耗时次要耗费在申请数据库连贯 getConnection 办法上,通过减少数据库连接数能够解决响应慢的问题。 【延长思考】目前支流的开源链路实现并不反对慢调用办法栈主动分析,只有多数商业化产品(如阿里云 ARMS)反对了该个性。为了可能获取残缺的办法栈信息,传统的链路插桩(Instrument)并不适宜获取办法栈监听,只能利用采样法(Sampling)进行堆栈聚合,但全局采样的高开销很难实现常态化主动监听,必须联合链路追踪埋点,精准定位慢调用所在线程与生命周期,低成本实现精准、轻量级的采样监听。 03 CPU利用率高“三步排查法”:大促前夕压测发现CPU水位十分高,如何剖析利用性能瓶颈点,针对性优化?【问题形容】双十一大促前夕,部门组织了外围利用全链路压测,然而小玉负责的订单核心在第一波压测流量脉冲下 CPU 利用率霎时飙升到 90% 以上,接口调用大量超时,成为了全链路性能瓶颈,导致压测流动草草完结,主管责令她在一周内限期完成优化。 【难点剖析】CPU 利用率高可能是单纯的机器资源有余,也可能是不合理的代码导致的。根底的 CPU 监控只能反映问题,无奈定位根因,不足资源到代码的映射关系,导致很多同学无奈简略间接的进行代码优化,只能自觉扩容。 【解决思路】以 Java 利用为例,咱们能够利用工具一步步定位导致 CPU 利用率高的异样代码片段,次要分为以下三步: a. 查看 CPU 根底监控,确定流量洪峰与 CPU 利用率飙升曲线在工夫上是否吻合,CPU 利用率上涨的次要起因是否为用户态 CPU 上涨,排除宿主机“超卖”,磁盘故障等硬件因素的烦扰。 ...

May 16, 2023 · 2 min · jiezi

关于云计算:SkyPilot构建在多云之上的-ML-和数据科学可节约-3-倍以上成本

作者:Zongheng Yang(在加州大学伯克利分校研发 SkyPilot) 整顿:高现起 导读:用于 ML 和数据迷信的云计算曾经比拟艰难,如果你想要通过老本优化削减老本,你的整体老本包含资源和人力,可能会不降反增。不想在机器闲置时进行?因为这样你可能须要重复的启停,并且重新配置环境或者筹备数据。想要通过应用抢占实例降低成本?解决抢占实例的调度问题也可能会花上几周工夫。如何很好的利用地区之间的微小价格差别,或者不同云厂商之间更大的价格差别来降低成本? 如果云上有一个简略、对立的 ML 和数据迷信接口,具备老本效益、容错性、多区域和多云,是不是会更好?明天就给大家介绍一个我的项目,会从以下几个方面开展: SkyPilot 我的项目介绍SkyPilot 工作原理SkyPilot 应用场景为什么多云成为新常态?尝试 SkyPilot以下为具体内容。 SkyPilot 我的项目介绍SkyPilot,由加州大学伯克利分校的 Sky Computing 实验室主导研发的一个开源框架,用于在任何云上无缝且经济高效地运行 ML 和数据迷信批处理作业。它的指标是让云比以往任何时候都更容易应用,老本更低,并且全程不须要云计算相干的专业知识。近一年多来,SkyPilot 始终在加州大学伯克利分校的天空计算实验室踊跃开发。它被 10 多个组织用于各种用例,包含:GPU/TPU 模型训练(老本节俭 3 倍)、分布式超参数调优以及 100 多个 CPU 抢占实例上的生物信息学批处理作业(在继续应用的根底上老本节俭 6.5 倍)。 SkyPilot 工作原理给定一个作业及其资源需要(CPU/GPU/TPU),SkyPilot 会主动找出哪些地位(可用区/区域/云厂商)具备运行该作业的计算能力,而后将其发送到老本最低的地位执行。SkyPilot 将作业发送到最佳地位(可用区、区域、云厂商)以取得更好的价格和性能。SkyPilot 主动执行云上正在运行的作业的沉重工作: 牢靠地配置集群,如果产生容量或配额谬误,主动故障转移到其余地位将用户代码和文件(从本地或云存储桶)同步到集群治理作业排队和执行SkyPilot 还大大减少了一直增长的云费用,通常缩小 3 倍以上: 主动找到所需资源的最便宜的可用区/区域/云厂商(节俭约 2 倍的老本)Managed Spot,通过应用抢占实例节俭约 3-6 倍的老本,并主动从抢占中复原Autostop,主动清理闲暇集群——可防止的云超支的最大贡献者 SkyPilot 的应用场景在过来的几个月里,逐步向来自 10 多个组织的数十名 ML/数据迷信从业者和钻研人员举荐了 SkyPilot。从用户反馈中,看到该零碎的确解决了他们遇到的常见痛点。 呈现了几种应用场景,从交互式开发到跨区域或跨云厂商运行许多的我的项目,再到横向扩大: SkyPilot 已被用于交互式开发(例如,运行 Jupyter 的 CPU 服务器)、治理许多我的项目(能够在不同的云厂商)或扩大数百个作业。在 GPU 和 TPU 上进行 ML 训练和超参数调整伯克利人工智能研究所 ( BAIR ) 和斯坦福大学的当先机器学习团队始终在应用 SkyPilot 在云端运行机器学习训练。用户通常在不更改代码的状况下启动他们现有的 ML 我的项目。牢靠地配置 GPU 实例、在集群上排队许多作业以及同时运行约 100 个超参数试验是用户反馈的次要长处。此外,用户在 AWS 上运行的雷同作业只需更改一个参数就能够在 GCP/Azure 上运行。 ...

May 15, 2023 · 2 min · jiezi

关于云计算:云原生周刊GitOps-的-4-条核心原则

日前在温哥华举办的 cdCON + GitOpsCon 上,分享内容以 GitOps 准则为特色: GitOps 是申明式的;GitOps 应用程序是版本化的和不可变的;主动拉取 GitOps 应用程序;GitOps 应用程序一直协调。原文链接:https://thenewstack.io/4-core-principles-of-gitops/。 开源我的项目举荐KubeStalkKubeStalk 是一个从黑盒角度发现 Kubernetes 和相干基础设施的攻击面的工具。该工具是用于在 Project Resonance - Wave 9 期间探测互联网上不平安的 Kubernetes 集群的工具的社区版本。 ksctl许多云提供商提供他们本人的 Kubernetes 格调。每个提供商都有其独特的 CLI 工具,用于在特定云上创立和治理集群。在多云环境中工作时,应用每个云提供商的 CLI 创立和治理如此多的集群会变得很艰难。ksctl 是一个繁多的 CLI 工具,能够与泛滥的云提供商进行交互,使您能够轻松地治理多星散群,只需一个繁多的 CLI 工具。目前,ksctl 反对 Civo 和 Local 集群。 HajimariHajimari 是一个丑陋且可自定义的浏览器起始页/仪表板,具备 Kubernetes 应用程序发现性能。 文章举荐理解 Kubernetes API 对象及其工作原理这篇文章介绍了 Kubernetes API 对象及其如何工作。Kubernetes 是一个风行的容器编排平台,它应用 API 对象来治理容器化应用程序的部署、扩大和治理。本文涵盖了 Kubernetes API 对象的类型、定义、如何应用它们以及它们如何工作。 Kong API 网关 - K8s 架构这篇文章介绍了 Kong 在 Kubernetes 集群中的架构设计,包含部署、配置、性能优化、服务注册和发现等方面的内容,同时介绍了 Kong 的插件机制,为 Kong 的扩大提供了不便。Kong 是一个开源的 API 网关,它能够在 Kubernetes 集群中运行,提供身份验证、受权、路由、缓存等性能。 ...

May 15, 2023 · 1 min · jiezi

关于云计算:使用混合云备份HBR如何修改文件备份客户端的登录端口

装置备份文件客户端时,客户端登录端口默认为8011。如果8011端口已被其余利用占用,您能够在装置客户端时将文件备份客户端的登录端口批改成指定端口。 残缺内容请点击下方链接查看: https://developer.aliyun.com/ask/493840?utm_content=g_1000371762 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 15, 2023 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-开源之夏已启动-202304280511

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.04.28-2023.05.11。 贡献者名单 新晋 KubeSphere Contributor本两周共有 2 位新晋 KubeSphere Contributor,包含在社区分享 KubeSphere 落地教训的用户。感激各位对 KubeSphere 社区的奉献! 近期重要更新KubeSphere1. 改良集群证书到期状态更新逻辑相干 PR: https://github.com/kubesphere/kubesphere/pull/5665 贡献者: iawia002 2. 修复利用商店接口中谬误的参数命名相干 PR: https://github.com/kubesphere/kubesphere/pull/5666 贡献者: sologgfun 3. 移除不再应用的参数配置相干 PR: https://github.com/kubesphere/kubesphere/pull/5671 贡献者: wansir 4. 正文内容改良相干 PR: https://github.com/kubesphere/kubesphere/pull/5674 贡献者: sologgfun 5. Resource API 反对动静资源创立相干 PR: https://github.com/kubesphere/kubesphere/pull/5601 贡献者: zhou1203 KubeKey1. 反对自定义镜像仓库域名相干 PR: https://github.com/kubesphere/kubekey/pull/1830 贡献者: pixiake 2. 反对自定义 Docker 默认网桥相干 PR: https://github.com/kubesphere/kubekey/pull/1831 贡献者: wenwutang1 社区动静最佳实际:文鼎创智能物联云原生容器化平台实际KubeSphere 携手 VMware 打造云原生解决方案开源之夏 2023 | 欢送报名 KubeSphere 社区我的项目!KubeSphere Talk 第六期已上线——开源之夏特别篇 ...

May 15, 2023 · 1 min · jiezi

关于云计算:水滴筹基于阿里云-EMR-StarRocks-实战分享

摘要:水滴筹大数据部门的数据开发工程师韩园园老师为大家分享水滴筹基于阿里云EMR StarRocks的实战经验。本篇内容将会围绕以下五个方面开展:1.公司介绍2.StarRocks 概览3.场景实战4.最佳实际5.将来布局一、公司介绍 水滴创建于2016年,业务包含水滴筹、水滴保险商城等,于2021年5月7日上市。水滴以“用互联网科技助推宽广人民大众有保可医,保障亿万家庭”为使命,致力于为用户提供衰弱保障解决方案。心愿联结合作伙伴打造中国版联结衰弱团体,让用户以更低的费用享受到更好的诊疗。 自2016年7月至2022年末,水滴筹平台的捐款人达到了4.3亿,有超过277万的大病患者失去了帮忙,总计筹集医疗资金达到569亿元,并提供了755个保险产品。 二、StarRocks 概览应用历程 首先来梳理一下水滴筹在OLAP方面的倒退历程。 2018年,引入ClickHouse,次要用于监控报警和用户相干的行为剖析工作,包含漏斗、留存等。2020年,引入TiDB,次要用于OLAP剖析和报表展现。2021年,针对过后组件的一些痛点,也为了摸索更多的OLAP引擎,引入StarRocks v1.17.8(DorisDB)版本,自建StarRocks集群,用于OLAP剖析。2022年2月,降级StarRocks集群到v1.19.5版本,用于报表展现。2022年10月,迁徙自建StarRocks集群至阿里云EMR StarRocks,并将大数据的TiDB所有的服务迁徙到StarRocks上,版本为v2.3.2。2023年3月,加入阿里云EMR Serverless StarRocks集群公测,并将集群新性能尝试利用于新业务中。水滴现状 从上表能够看到水滴对各个组件的应用场景,以前以TiDB作为次要组件进行OLAP剖析和OLTP,少部分服务应用StarRocks;实时监控、用户行为剖析还在ClickHouse中。 随着近几年业务的倒退、试验的积淀, OLAP组织架构也存在一些问题,如组件保护艰难,数据冗余存储,数据收口和进口不对立等状况。水滴大数据心愿引入一款实时OLAP数据库,对立数据的监控和查问,用于解决各业务线对数据高效实时数据查问和数据统计分析的需要。 水滴OLAP组件技术选型 水滴对OLAP引擎最关注的有四点,别离是:并发能力,物化视图,join能力和写入实时。 上表是基于水滴通过近几年的实际失去的论断,能够看出: StarRocks在并发能力、物化视图、join能力和写入实时方面整体都是比拟优良的。ClickHouse的并发能力和join能力绝对较弱。TiDB的并发能力和join能力中等,然而不反对物化视图,导致用户体验不是很好。基于几个组件的应用和综合思考,水滴最初决定将StarRocks作为最终的OLAP引擎,将TiDB的服务迁徙到StarRocks中,开始施行组件的对立。 三、场景实战概览 水滴OLAP整体架构如上图所示。次要分为如下几个局部:数据源、数据同步、OLAP引擎、利用场景和数据管理平台。 数据源又分为离线数据和实时数据。 离线数据次要存储在MaxCompute,通过BrokerLoad、SparkLoad两种同步形式,同步到StarRocks中,时效性是T+1或者小时级别。实时数据次要是一些业务和埋点数据,存储在MySQL、TiDB和Kafka中,通过Flink-CDC、Flink-SQL以及自研Galaxy平台进行实时同步。数据进入OLAP引擎后,水滴次要用到三种表模型,别离是:明细模型,聚合模型和主键模型。 明细模型用于存储明细数据和业务统计实现之后的数据。聚合模型用于存储依据业务场景预聚合的数据。主键模型用于存储业务的实时数据。数据模型次要用到宽表、星型模型和雪花模型三种。 数据管理平台次要包含:元数据管理,稳定性保障,品质治理,以及数据安全。 目前水滴的集群规模为,蕴含3台FE和7台BE,每日查问量300万次。 数据写入方面,有1500多个离线工作,每日实时更新行数100万行以上,每日写入数据量1T以上。 上面以两个具体的场景为例来介绍水滴的StarRocks实战。 场景一:报表平台OLAP引擎对立 第一个场景是报表平台OLAP引擎对立。 水滴报表平台之前次要应用TiDB作为存储和查问引擎,起初又引入了StarRocks,由多个组件形成了咱们的OLAP引擎。这样的架构存在如下三个痛点: 组件多,保护不便;老本高;TiDB的并发限度和慢SQL的问题,导致客户体验不佳。报表查问面对三大挑战: 查问高并发响应低提早大数据量多表Join在水滴报表平台之前的流程中,无论是离线数据还是实时数据,都会写入到TiDB和StarRocks中,而后提供报表平台或者业务零碎进行应用。通过一段时间的测试和应用,评估StarRocks能够作为水滴报表平台的次要引擎,后续会将TiDB迁徙到StarRocks中。 切换之前,水滴对两个平台做了压测比照。 上图中,右边是两个集群的具体参数。 首先将TiDB的所有数据同步到StarRocks中,保障压测的数据是完全一致的;而后,应用报表平台的所有SQL查问,在雷同数据、雷同SQL、雷同并发的状况下,同时在TiDB和StarRocks中循环遍历执行这些SQL,通过一段时间的测试,基于水滴的应用场景和水滴数据针对两个引擎的查问性能失去了如下的论断,上面以TiDB中SQL的响应工夫分成三局部进行比照,因为大部分响应工夫都在这三个分段内: 在TiDB中,执行工夫在400ms以内的SQL在StarRocks中执行工夫为200ms以内在TiDB中,执行工夫在400ms到1.5s的SQL在StarRocks中执行工夫在184ms到300ms以内在TiDB中,执行工夫在1.5s到4s的SQL在StarRocks中执行工夫为198ms到500ms以内 水滴大数据部门通过架构优化后,对立了OLAP引擎为StarRocks,将离线和实时数据写到StarRocks之中,提供给业务零碎以及报表平台应用。 新架构的长处是构造比拟清晰,也保护了对立的数据口径。 上图从三方面展现了架构迁徙后的成果: 通过将TiDB迁徙到StarRocks,实现了组件对立,零碎的经营老本失去了肯定水平的升高。平台整体老本升高了58%,整体性能晋升了40%。观测TiDB和StarRocks响应工夫的tp99,能够看到TiDB响应工夫的tp99在3秒左右,而StarRocks响应工夫的tp99根本是几百毫秒,在1秒以内。数据离线同步耗时以及慢SQL,StarRocks都有肯定水平的晋升。 在迁徙StarRocks的过程中也遇到一些问题: StarRocks的DDL和DML与TiDB/MySQL相比尽管兼容90%场景,还是存在一些不兼容问题,上表中列举了一些不兼容的状况以及相应的解决方案。数据没方法间接从MaxCompute同步到StarRocks,必须两头有一层OSS的直达。场景二:数据服务遇到问题 场景二是公司的财务推帐零碎。 财务推帐零碎应用TiDB作为数据存储查问引擎,面临的外围挑战是: 数据实时性要求高;数据一致性要求高;数据的计算逻辑简单;数据分析需要灵便。财务推帐零碎所需的数据波及多张表,每张标的数据量都是上亿级别,推帐须要多张上亿级别的表互相Join能力实现。因为TiDB的并发和内存的限度,目前没方法对这些表多表关联间接聚合解决,所以水滴先依据ID进行分段聚合,而后通过代码的聚合形式,写到两头表中。因为推帐是分场景的,解决工夫最长的场景须要30分钟的工夫,所有300多个场景并发解决,最终也须要4-5小时的工夫。对财务同学的工作效率,有肯定的影响。 革新之后的流程为: 数据首先实时写入TiDB中,而后从TiDB实时写入StarRocks中,因为两头聚合的数据进行反推,因而须要先进行快照数据留存后,StarRocks中的数据能够间接分场景聚合解决,单场景的最大耗时为30秒左右。 架构降级后,性能间接晋升60倍,TiDB只参加存储不再参加计算,其引擎压力升高了70%,然而因为数据同时留存在TiDB和StarRocks中,存储老本有肯定水平的减少。 四、最佳实际表设计方面 绝大部分表都依照工夫字段进行了分区,应用罕用的查问列以及关联的要害列作为分桶;将常常过滤和group by的列作为排序键,优先应用整型作为排序键;对于明细数据,因为数据量比拟大,用动静分区做数据过期的设置;建表时尽量应用准确的字段类型,例如:数字类型数据不必字符串类型,INT能满足的不必BIGINT,晓得字符串长度范畴的数据不必String类型;数字列尽量放到字符串的列之前。数据同步方面 离线写入次要用的是BrokerLoad和SparkLoad两种同步形式;实时写入采纳Flink-CDC和自研Galaxy平台同步形式;实时写入须要控制数据写入的频率,升高后盾合并的频率,保障程序稳固和数据的一致性;应用UniqueKey的replace_if_not_null对局部列进行更新,PrimaryKey间接反对局部列更新。运维和监控方面 对FE进行四层的负载平衡,保障查问申请的高可用,同时也保障查问申请的负载平衡;优化集群参数,来进步集群的查问性能: 进步StarRocks的查问并发(parallel_fragment_exec_instance_num) 进步单个查问内存限度(exec_mem_limit) 应用Prometheus+Grafana进行集群监控告警;对查问历史进行剖析,统计和监控慢SQL、大SQL,及时告警和优化。权限与资源方面 细分账户,防止混用,实现更好的监控和保护,不便将大SQL、慢SQL精确定位用户;依据业务和理论应用场景来划分资源组,对查问进行资源隔离,保障业务之间不相互影响;DDL操作权限收敛到对立平台,减少数据的平安和集中控制。数据管理与品质方面 依据查问记录定期剖析应用状况,做好表生命周期治理;离线同步数据T+1进行数据品质校验;实时同步小时和天级别进行数据品质校验。以后问题 业务须要然而目前没有反对AUTO_INCREMENT和CURRENT_TIMESTAMP;String类型的数据长度有限度,对于某些长度较大的字段智能过滤或者无奈实用;现有日志格局对于谬误日志剖析不是很敌对;实时数据的写入频率不好把控,写入太快会造成版本合并的问题,写入太慢又有数据提早问题;工夫字段不反对毫秒;CPU无奈齐全隔离;表权限目前还不能管制到行级别。五、将来布局 水滴大数据部门的将来布局次要从三方面动手,别离是用户画像、监控报警和用户行为剖析。 用户画像 ...

May 12, 2023 · 1 min · jiezi

关于云计算:云原生周刊Kubernetes-127-服务器端字段校验和-OpenAPI-V3-进阶至-GA

开源我的项目举荐KubeViewKubeView 是一个 Kubernetes 集群可视化工具和可视化资源管理器。它容许用户在集群外部运行命令,并查看集群外部的资源应用状况、容器运行状态、网络流量等。KubeView 反对多种数据源,能够读取 Prometheus、Grafana、Kubernetes 治理等工具的数据,将集群外部的数据可视化。 kube-scorekube-score是一种对 Kubernetes 对象定义执行动态代码剖析的工具。输入是一个倡议列表,其中列出了您能够改良的内容,以使您的应用程序更平安、更有弹性。 Robusta KRRRobusta KRR(Kubernetes Resource Recommender)是一个用于优化 Kubernetes 集群中资源分配的 CLI 工具。它从 Prometheus 收集 pod 应用数据,并倡议 CPU 和内存的申请和限度。这升高了老本并进步了性能。 TransformersTransformers 是一个由 huggingface 团队开发的自然语言解决库,它应用 Transformer 架构来反对各种自然语言解决工作,如文本分类、机器翻译、情感剖析等。 Transformers 库提供了多种预训练模型和自定义模型,能够不便地应用和调优。 文章举荐理解 Kubernetes 部署——初学者指南这篇文章介绍了 Kubernetes Deployment 的基本知识,包含 Deployment 的作用、应用办法和注意事项。文章还提到了 Deployment 与其余 Kubernetes 组件的关系,如 Ingress 和 ReplicaSet。同时,文章还提供了一些实用技巧和示例,帮忙读者更好地了解 Deployment 的应用办法和作用。 etcd 是如何工作的这篇文章介绍了 etcd 在 Kubernetes 集群中的性能和应用。etcd 是一个开源的分布式键值存储系统,用于在集群中存储和治理配置、元数据和其余要害数据。Kubernetes 应用 etcd 来存储集群状态信息和配置,并作为 Kubernetes 控制器和 API Server 的元数据源。 应用 Kubernetes 的 Spring Boot 应用程序服务发现这篇文章介绍了如何应用 Kubernetes 来实现 Spring Boot 应用程序的服务发现。Spring Boot 应用程序通常应用 ActiveMQ、Consul 或 Eureka 等注册核心来注册和发现服务。然而,Kubernetes 自身并不反对服务发现性能,因而须要应用一些工具来实现。 ...

May 8, 2023 · 1 min · jiezi

关于云计算:云鹰卡为什么可以做到不断网

在物联网中,设施不能有“睡觉”的时候,须要7*24小时连网,对网络中断简直零容忍。而设施因为长期布点在网络环境简单的中央,布点更广,运维也更加艰巨。 阿里云IoT云鹰智能卡一卡含有多个号码,即多个运营商网络通道,能够通过软件二次开发,辨认卡片并进行网络切换。与一般的单卡相比,该卡有3个网络通道备份,用户毋庸提前勘测网络信号以确定购买何种单卡,也无需放心繁多网络通道故障后须要保护能力持续应用(可切换到备份通道),总体来说无效晋升了设施的在线率和在线时长。 面临网络环境简单,比方设施布点在楼宇、电梯等网络信号有余的中央时,云鹰智能卡让设施连贯时主动抉择最优可用网络,如果以后网络呈现故障,云鹰卡能够让设施5分钟内近程切换到备份的网络通道。 残缺内容请点击下方链接查看: https://developer.aliyun.com/article/1191986?utm_content=g_10... 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 8, 2023 · 1 min · jiezi

关于云计算:Flexera-2023-云状态报告解读

导读:依据 Flexera 2023 云状态报告显示,经济问题不会减缓私有云市场的增长;FinOps 依然处于利用多云策略的企业首要关注的问题;AWS 和 Azure 在寰球市场仍处于领导位置。 Flexera 依据对寰球 750 位云决策者和用户的考察得出该报告,原报告名称为《Flexera 2023 State of the Cloud Report》,以下是报告的次要调查结果及示例,仅供大家学习、钻研和参考。 样本阐明:往年的考察偏向于大型企业,67% 的受访者来自员工人数超过 2,000 人的组织,11% 的员工超过 100,000 人。与去年类似,大多数(67%)受访者来自美国。来自欧洲的受访者占总数的 20%,其中英国占13%,比去年有所增加。 报告中的亮点文章比拟长,这里列举一些亮点,更多具体内容请向下翻阅。 87% 的企业施行多云策略,纯私有云的企业比例稍有晋升多云客户中,72% 企业抉择了混合云架构,纯私有云应用比例显著增长更多企业将生产负载部署在 AWS 和 Azure近一半的企业正在试用或打算试用 ML/AI数据仓库、DBaaS 和容器服务在企业应用中处于领先地位十年来,云老本治理首次超过平安成为企业用云最大的挑战近一半的企业示意经济不确定性对云的应用和收入影响较小以下为报告的全部内容。 第一局部 企业正在拥抱多云1、87% 的企业施行多云策略,纯私有云的比例稍有晋升受访者示意,应用多云的比例从去年的 89% 降落到往年(2023)的 87%,纯私有云的比例从去年(2022年)的 9% 减少到 11%。 2、AI 相干工作负载增长最快利用的跨云部署、数据备份与复原依然是企业抉择多云的最大场景。AI 相干工作负载增长最快,同比增长 20%。 3、平安工具和 FinOps 工具依然是大部分企业的优先选择对于所有企业来说,多云平安工具应用比例最大,多云老本治理和优化(FinOps)工具次之。然而,大型企业的程序恰好相反,68% 应用 FinOps 工具,63% 应用多云平安工具。与多云平安工具相比,大型企业更有可能应用 FinOps 工具。4、多云客户中,72% 企业抉择了混合云架构,纯私有云应用比例显著增长在所有企业,纯私有云架构的占比有所增加,由去年(2022年)的 16% 减少至 24%。混合云架构的应用比例天然也会降落,由去年(2022年)的 80% 降落到 72%。 第二局部 私有云的洽购规模持续增长1、近 25% 的企业在云上收入超过 1200 万美金 ...

May 6, 2023 · 2 min · jiezi

关于云计算:文鼎创智能物联云原生容器化平台实践

作者:sekfung,深圳市文鼎创数据科技有限公司研发工程师,负责公司物联网终端平台的开发,稳定性建设,容器化上云工作,善于应用 GO、Java 开发分布式系统,继续关注分布式,云原生等前沿技术,KubeSphere Contributor,KubeSphere 社区用户委员会深圳站委员。公司简介深圳市文鼎创数据科技有限公司创建于 2006 年,是寰球当先的线上身份认证解决方案提供商,专一网络身份认证,数据安全畛域,保持持重经营,继续翻新、凋谢单干,在金融电子化、政府、企业办公等利用中提供解决方案,成为泛滥国有商业银行、全国性股份制银行、城市商业银行、农村商业银行、各省市税务、政府、各大 CA 机构以及跨国企业的合作伙伴,累积服务近亿用户,一直满足客户差异化需要。 公司多年来继续翻新,申请了大量的发明专利、实用新型专利和产品外观专利;注销了多项计算机软件着作权,同时是国家级高新技术企业;领有商用明码产品型号证书、明码检测证书、银联认证证书、ISO9001:2015 国内品质管理体系认证及 ISO14001 环境管理体系认证;产品通过了 CE/FCC 认证、RoHS 认证。 公司作为国内线上疾速身份验证联盟(FIDO)的核心成员之一,致力于实现寰球对立的在线验证规范,咱们将使用该技术为不同地区的人们提供享有平等的平安网络世界的权力。 背景介绍“文鼎创智能物联”是深圳市文鼎创数据科技有限公司针对物联网利用,推出的物联网解决方案,计划蕴含对立的物联网服务平台、”云打印机“、”收款云音箱“、”收款云扫码盒子“等旗下产品,为用户的数据安全保驾护航。 作为一家 TO B 解决方案的硬件提供商,“硬件为主,软件为辅”是公司长期以来的开发模式,因而后期在对服务端的开发、部署、架构设计器重不够。传统的我的项目停留在单机(虚拟机)部署,人工打包上传,不仅费时费力,还容易出错,造成服务的不可用。 在拥抱 K8s 之前,咱们也尝试过 docker-compose 的计划,绝对于人工打包部署,docker-compose 也的确给咱们带来了一些便当: ALL-IN-ONE,提供一键式的软件部署计划,无需执行繁琐的部署流程;隔离了宿主机零碎的差异性;缩小了运维人员进行版本迭代的操作,升高操作失误的可能性。在面向物联网行业推出新产品,新解决方案之后,对服务的稳定性,以及可靠性带来了新的挑战,现有的开发模式逐渐跟不上业务的迭代需要,为此咱们迫切需要突破现有的框架,摸索新的一套软件迭代流程。 选型阐明在决定拥抱云原生之时,咱们对市面上的容器治理平台进行了调研,发现国外 Rancher 用户较多,国内 KubeSphere 位居前列。咱们对容器治理平台的选型有几个规范: 生态:一个开源我的项目的生态是否欠缺很重要,周边配套的工具能带来极佳的应用体验和可维护性。社区活跃度:官网仓库 Issue 或问答社区是否回应及时,代码提交是否沉闷?商业公司或基金会反对:是否有商业公司或开源基金会反对,如果为集体我的项目,后续进行保护,则可能会给用户带来的肯定的危险。技术栈:应用的技术栈与团队是否吻合,是否有能力解决和保护?用户体验:是否有 UI 操作界面,界面是否好看,应用晦涩?本土化:是否做了一些本土化的优化,合乎国人的应用习惯?在调研选型时,咱们发现 KubeSphere 能充沛满足的咱们的要求。KubeSphere 团队开源的 KubeKey 工具,能帮忙咱们疾速搭建一个 KubeSphere 集群,省去了繁琐且简单的部署流程,OpenELB 我的项目则为咱们提供了本地集群负载平衡的解决方案。 在应用过程中发现的问题,在中文问答社区根本都能找到对应的解决方案。KubeSphere 的控制台简化了 Kubernetes 服务的部署,使得团队一些没有 K8s 应用教训的成员也能疾速上手,用过的共事都说好。 目前架构目前采纳微服务设计,开发语言以 Golang、Java 为主,服务之间通信应用 gRPC。 生产环境应用两个腾讯云 CLB 别离接入来自业务和物联网终端的流量。整个业务服务部署在腾讯云 TKE 集群,并应用 KubeSphere 来治理利用的日常公布。而集群的基础设施,本着“能买就买,切实不能买就自建”的准则(并不是不差钱,而是小公司运维压力大)。之所以没有应用 TKE 的控制台来治理利用的公布,次要是 TKE 的控制台体验并不是很敌对,另外一个很重要的起因,利用商店对第三方 Helm 仓库反对很差,无奈充分利用 Helm 的生态。 ...

May 5, 2023 · 1 min · jiezi

关于云计算:KubeVela-稳定性及可扩展性评估

背景随着 v1.8 的公布,基于 OAM 的应用程序交付我的项目 KubeVela 曾经继续倒退了 3 年多。目前已被各种组织采纳并部署在生产环境中。无论是与托管定义一起应用还是在多个集群上进行治理,在单个 KubeVela 管制立体上运行数千个应用程序的状况并不少见。用户常常问的一个关键问题是 KubeVela 是否承载肯定数量的应用程序。为了答复这个问题,KubeVela 进行了负载测试试验,制订了性能调优策略,并为关怀 KubeVela 稳定性和可扩展性的用户总结了本指南,以供各位参考。 概述若须要寻求一个基准,如下简要的表格仅供参考。 只管以上数据可能因各种因素(如应用程序大小)而有所不同,但此基准实用于大多数常见场景。 历史KubeVela 负载测试历史 KubeVela 过来进行了屡次负载测试: 1.2021 年 8 月对简略利用进行了负载测试。这次负载测试验证了节点数量不影响 KubeVela v1.0 的性能。它在一个领有 1 千个虚构节点和 1.2 万个应用程序的单个集群上进行了测试。这表明 Kubernetes apiserver 的速率限度是 KubeVela 外围控制器的瓶颈之一。目前为止,负载测试数据被视为规范基准。参考文献[1]。 它有以下几个限度: a.不包含在 v1.1 中公布的多集群和工作流。 b.仅测试应用程序的创立和状态放弃,疏忽应用程序的继续更新。 2.2022 年 2 月 v1.2 版本对基于工作流的应用程序(workflow-based application)进行的负载测试。此次负载测试次要侧重于如何在特定场景中微调应用程序控制器的性能,例如不须要 ApplicationRevision 的状况。开发几个可选的优化标记,并证实去掉某些性能以将性能进步 250% 以上。 3.2022 年 8 月 v1.6 版本对工作流引擎(workflow engine)进行的负载测试。这次负载测试是在 KubeVela 将 cue 引擎从 v0.2 降级到 v0.4 时实现的。它次要发现了一些不必要的 cue 值初始化操作,这将导致额定的 CPU 应用老本。通过缩小 75% 的 CPU 使用量进行修复。 ...

May 4, 2023 · 5 min · jiezi

关于云计算:KubeSphere-社区双周报-杭州站-Meetup-议题征集中-202304140427

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.04.14-2023.04.27。 贡献者名单 新晋 KubeSphere Contributor本两周共有 3 位新晋 KubeSphere Contributor,包含在社区分享 KubeSphere 落地教训的用户。感激各位对 KubeSphere 社区的奉献! 新晋 KubeSphere Talented Speaker两周内 KubeSphere 社区组织了一场线上直播分享——利用 ChatGPT 检测 K8s 平安与合规性,共诞生一位新的 KubeSphere Talented Speaker——刘对。 近期重要更新KubeSphere1. 改良 KubeFedCluster 状态更新时抵触重试逻辑相干 PR:https://github.com/kubesphere/kubesphere/pull/5653 贡献者: iawia002 2. 改良代码格局相干 PR:https://github.com/kubesphere/kubesphere/pull/5650 贡献者: sologgfun OpenFunction1. 增加对立函数定义的提案相干 PR: https://github.com/OpenFunction/OpenFunction/pull/433 贡献者: benjaminhuo 2. functions-framework-java 反对 Dapr 状态治理相干 PR: https://github.com/OpenFunction/functions-framework-java/pull/11 贡献者: wanjunlei 3. 启用 knative pvc 扩大相干 PR: https://github.com/OpenFunction/charts/pull/45 ...

April 28, 2023 · 1 min · jiezi

关于云计算:多维评测指标解读2022MSU世界编码器大赛结果

是极致性能,更是最佳商用。19项第一之上,是63%的极致带宽升高近日,2022 MSU世界视频编码器大赛问题正式揭晓。报告显示,阿里媒体解决服务MPS(Alibaba Media Processing Service)s264及s265编码器共计斩获19项评测第一,相较大赛指定基准编码器(AWS Elemental MediaConvert),可再节俭高达63% 的码率,极大幅升高带宽和存储老本。 MSU世界视频编码器大赛是视频编码压缩畛域最具权威和影响力的寰球顶级赛事,迄今为止已举办17届。仅在往年的云转码赛道中,就有国内外8家参赛单位的19款编码器加入较量,包含微软、亚马逊、腾讯等出名科技企业。 此次,阿里云视频云自研s264编码器在H264主观赛道及主观赛道全面当先,取得了19大细分赛道中的15项第一,并在雷同主观品质下至多可节俭16%的带宽、存储老本,在转码效率上较友商当先13倍;同时,自研s265编码器在相当的带宽及存储老本下,具备较友商2~6倍的转码效率及更精准的码率管制。 480p Comparison 720p Comparison 1080p Comparison 1080p Subjective Comparison(主观赛道) 为了全面地评测参赛编码器的程度,MSU较量采纳了PSNR、SSIM、VMAF等多个经典主观指标,和基于人眼打分的主观指标: PSNR,基于对应像素点计算原始视频和失真视频之间的误差来评估失真视频的品质,是目前视频品质评估中最传统最根本的评估准则,然而因为PSNR并未间接思考人眼视觉个性,因而其评估后果与人的主观感触并不完全一致; SSIM,从亮度、对比度和构造信息三个方面来预计失真图像的视觉品质,旨在比拟原始视频和失真视频的构造类似度,钻研感知构造的伤害来评估视频品质,能够更好地反映人眼主观个性; VMAF,是将人类视觉建模与机器学习相结合的一种视频品质评估指标,将不同评估维度的算法进行“交融”,旨在失去一个能精确反映主观意志的画质评估规范,但人眼视觉零碎是一个简单零碎,该指标还需有大量无效的、符合实际评测环境的数据集。 人眼主观品质,代表了视频品质的黄金规范(golden standard),因为人是视频最终的消费者,因而主观品质评估是站在观测者的角度,实在反映人的视觉感触和审美程度,防止各种主观品质模型都无奈全面模仿人的视觉零碎的问题。 察看MSU赛事会发现,其中的“SSIM”也被MSU主办方选为次要评估指标。 “For objective quality measurements we used YUV-SSIM metric (see Appendix F.1) as a main objective indicator, and other metrics (PSNR, VMAF) as an additional quality metrics. Our team is constantly researching the area of objective video quality metrics to find good solutions for large comparisons.” ...

April 27, 2023 · 1 min · jiezi

关于云计算:Koordinator-一周年新版本-v120-支持节点资源预留兼容社区重调度策略

背景Koordinator 是一个开源我的项目,基于阿里巴巴在容器调度畛域多年累积的教训孵化诞生,能够晋升容器性能,升高集群资源老本。通过混部、资源画像、调度优化等技术能力,可能进步提早敏感的工作负载和批处理作业的运行效率和可靠性,优化集群资源应用效率。 从 2022 年 4 月公布以来,Koordinator 迄今一共迭代公布了 10 个版本,吸引了了包含阿里巴巴、小米、小红书、爱奇艺、360、有赞等在内的大量优良工程师参加奉献。随着 2023 年春天的降临,Koordinator 也迎来了它的一周年,在此咱们很快乐的向大家发表,Koordinator v1.2 版本正式公布。新版本中 Koordinator 反对了节点资源预留性能,并兼容了 K8s 社区的重调度策略,同时在单机侧减少了对 AMD 环境 L3 Cache 和内存带宽隔离的反对。 在新版本中,共有 12 位新退出的开发者参加到了 Koordiantor 社区的建设,他们是 @Re-Grh,@chengweiv5,@kingeasternsun,@shelwinnn,@yuexian1234,@Syulin7,@tzzcfrank,@Dengerwei,@complone,@AlbeeSo,@xigang,@leason00,感激以上开发者的奉献和参加。 新个性早晓得节点资源预留混部场景中蕴含的利用状态多种多样,除了曾经实现云原生化的容器,还蕴含很多尚未实现容器化的利用,这部分利用会以过程的模式在宿主机上与 K8s 容器独特运行。为了缩小 K8s 利用和其余类型利用在节点侧的资源竞争,Koordinator 反对将一部分资源预留,使其既不参加调度器的资源调度,也不参加节点侧的资源分配,达到资源分隔应用的成果。在 v1.2 版本中,Koordiantor 曾经反对 CPU 和内存资源维度的预留,并容许间接指定预留的 CPU 编号,具体如下。 节点资源预留申明在 Node 上能够配置须要预留的资源量或具体的 CPU 编号,举例如下: apiVersion: v1kind: Nodemetadata: name: fake-node annotations: # specific 5 cores will be calculated, e.g. 0, 1, 2, 3, 4, and then those core will be reserved. node.koordinator.sh/reservation: '{"resources":{"cpu":"5"}}'---apiVersion: v1kind: Nodemetadata: name: fake-node annotations: # the cores 0, 1, 2, 3 will be reserved. node.koordinator.sh/reservation: '{"reservedCPUs":"0-3"}'单机组件 Koordlet 在上报节点资源拓扑信息时,会将具体预留的 CPU 编号更新到 NodeResourceTopology 对象的 Annotation 中。 ...

April 26, 2023 · 3 min · jiezi

关于云计算:新品发布-Cloudpods-310版本上线

Cloudpods 是一个开源的 Golang 实现的云原生的多云和混合云交融平台。Cloudpods 不仅能够治理本地的虚拟机和物理机资源,还能够治理其余私有云和公有云平台的资源。 Cloudpods 由北京云联壹云技术有限公司主导开发,并于 2019 年 9 月于 Github 开源。Cloudpods 采纳外围开源模式,其商业版本云联壹云企业版(YunionCloud)自 2017 年开始研发,曾经服务了上百家企业客户。 一、重点性能介绍1、开源之夏感激 2022 年开源之夏的三位同学为 Cloudpods 3.10 减少了如下性能个性: PROXMOX 纳管反对。PROXMOX 是一款宽泛应用的开源虚拟化计划,社区始终都在召唤对 PROXMOX 的纳管反对。IxaKylin(Github ID)同学为Cloudpods 减少了对PVE的纳管反对。 纳管 1.20 以上高版本的 k8s 集群。k8s 始终在飞速发展,从 1.20 开始 API 和之前版本无奈兼容。CoderLee-Y(Github ID)同学为 Cloudpods 反对了 1.20 以上高版本 k8s 的纳管能力。 将 dns 记录导出为 bind 的 zone 格式文件。Bind 的 zone 文件是 DNS 记录的事实标准文件格式,将纳管的 DNS 记录导出为 zone 文件格式,进一步丰盛了云管 DNS 纳管的性能个性。ykdh(Github ID)同学为 Cloudpods 实现了导出 DNS 记录的 zone 文件格式的性能。 ...

April 26, 2023 · 2 min · jiezi

关于云计算:云原生周刊2023-年-Java-开发人员可以学习的-25-大技术技能

文章举荐2023 年 Java 开发人员能够学习的 25 大技术技能这篇文章为 Java 开发人员提供了 2023 年须要学习的一些重要技能,这些技能涵盖了古代 Java 开发、大数据和人工智能、安全性、分布式系统和区块链、以及其余畛域。Java 开发人员应该依据本人的需要和职业规划,抉择适宜本人的技能进行学习。 在 Kubernetes 上应用 GraalVM 和虚构线程实现 Native Java这篇文章介绍了如何应用 GraalVM 和 虚构线程在 Kubernetes 上实现 Native Java。Native Java 是一种在 Java 虚拟机上运行的高性能 Java 应用程序的形式。 应用 Pulumi 和 GitOps 在 Kubernetes 上进行高级机密治理:Sealed Secrets Controller这篇文章介绍了如何应用 Pulumi 和 GitOps Sealed Secret Controller 在 Kubernetes 上进行高级机密治理。这些办法和工具能够帮忙开发人员更好地治理 Kubernetes secrets,并确保机密的安全性和完整性。 开源我的项目举荐AtomixAtomix 是一种云原生运行时,用于在 Kubernetes 中构建有状态、可扩大、可配置且牢靠的分布式应用程序。Atomix API 提供了一组用于构建分布式系统的高级构建块(称为分布式原语)。Atomix 的架构联合了过来十年构建高可用性云基础架构的经验教训。该项目标次要重点是将应用程序与特定数据存储拆散,而不是为各种零碎和协定提供一组对立的多语言接口(gRPC 服务),并反对分布式应用程序的疾速试验和定制。 Auto-GPTAuto-GPT 是一个实验性开源应用程序,展现了 GPT-4 语言模型的性能。该程序由 GPT-4 驱动,将 LLM 的“思维”链接在一起,以自主实现您设定的任何指标。作为 GPT-4 齐全自主运行的首批示例之一,Auto-GPT 冲破了 AI 的可能性界线。 ...

April 24, 2023 · 1 min · jiezi

关于云计算:什么是云计算领域的-orphaned-resources

云计算畛域的"orphaned resources"是指在云计算环境中被遗弃、无人应用、但依然被占用资源的状况。这些资源可能是虚拟机、存储设备、网络接口、数据库实例等等。这些资源通常是因为误删除、应用程序谬误、部署失误、人员变动等起因而遗留下来。 这些遗弃的资源不仅会占用资源,还会导致平安危险,因为它们可能蕴含敏感数据。此外,这些资源还会导致成本上升,因为用户依然须要领取它们的应用费用。 如何检测云计算畛域的 orphaned resources?以下是检测云计算畛域的 orphaned resources 的一些步骤: 列出所有可用资源:首先,须要列出云环境中的所有资源。这些资源可能包含虚拟机、存储卷、负载均衡器、平安组、子网、IP地址等。确认所有资源是否在应用中:针对每一个资源,须要确认它是否依然在应用中。这能够通过查看日志、监控等形式来确定。标记未应用的资源:对于不再应用的资源,须要将它们标记为未应用。这能够通过设置标签、正文等形式来实现。删除未应用的资源:最初,对于曾经确认不再应用的资源,须要将它们删除。在删除资源之前,须要确保这些资源不会对任何应用程序或零碎造成负面影响。综上所述,检测云计算畛域的 orphaned resources 须要对云环境中的所有资源进行全面的扫描和确认,以确保所有不再应用的资源都可能被及时标记和删除,从而保障云环境的平安和有效性。 在理论工作中,云服务提供商通常会提供自动化工具来检测和辨认这些遗弃的资源,并提供相应的治理性能来解决它们。例如,AWS 提供了 AWS Config 和 AWS Trusted Advisor 等服务,能够帮忙用户治理和优化他们的云资源,包含检测和解决 orphaned resources。

April 22, 2023 · 1 min · jiezi

关于云计算:音视频通讯QoS技术及其演进

利用多种算法和策略进行网络传输管制,最大限度满足弱网场景下的音视频用户体验。良逸|技术作者 01 什么是QoS?音视频通信QoS是哪一类?QoS(Quality of Service)是服务质量的缩写,指一个网络可能利用各种根底技术,为指定的网络通信提供更好的服务能力,是网络的一种平安机制,是用来解决网络提早和阻塞等问题的一种技术,包含流分类、流量监管、流量整形、接口限速、拥塞治理、拥塞防止等。通常QoS提供以下三种服务模型:Best-Effort service(尽力而为服务模型),Integrated service(综合服务模型,简称Int-Serv),Differentiated service(辨别服务模型,简称Diff-Serv)。 下面的这些形容,都指的是传统的、原始的QoS的定义和技术栈,其来源于晚期互联网的网络传输设施间的品质保证体系。而本文要探讨的QoS,是在一个齐全不同档次的品质保证体系,咱们先看一下这两个档次QoS的关系。 视频会议公司Polycom的H323白皮书QoE and QoS-IP Video Conferencing里提到,QoS分为两类,一类是基于网络的服务质量(Network-Based QoS)NQoS,一类是基于利用的服务质量(Application-Based QoS)AQoS。 下图展现了两种QoS不同的作用应用场景和不同的品质保障档次。 NQoS是网络传输设施间的根底通信品质保障能力,是这类通讯设备间特有的一组品质保障协定,这些设施有路由器、交换机、网关等。而AQoS则是应用程序外部,依据利用对应的终端设备类型、业务场景、数据流类型所实现的,在不同网络状态下尽力而为地保障用户体验的能力。 尽管NQoS和AQoS都会对最终用户的体验有决定性影响,但如果将利用场景限定在音视频通信畛域,则AQoS这种基于利用的QoS就极为重要了,因为NQoS作为互联网的基础设施的一部分,为兼顾各种应用场景,更多的是一种「普适」的传输品质保障技术,很难对特定畛域做太多的针对性优化,所以本文重点探讨的音视频通信QoS其实是一类基于利用的AQoS,是针对音视频通信畛域的相干应用程序的传输品质保障技术。 02 音视频通信QOS背景集体了解,音视频通信QoS是「利用多种算法和策略进行网络传输管制,最大限度满足弱网场景下的音视频用户体验的能力」,如下图所示: 数据从音视频媒体生产环节,通过各种弱网网络条件的两头传输环节,到音视频媒体的生产环节,造成最终的用户体验。QoS通过各种策略和算法,对端到端全链路进行管制,最终让用户可能获得最佳体验。 03 音视频通信QoS面临的挑战网络场景各种网络条件非常复杂:网络的品种和组合多样,特地是在最初一公里,有双绞线、同轴电缆、光纤、WIFI、4G、5G等;即便同样的网络链接,又会随着不同的场景产生变动,比方4G,5G,WIFI这种无线信号,会随着地位的变动信号强弱也飘忽不定,会呈现4G、5G、WIFI信号的切换。即便是有线网络,也会因为链路上多种App共用、多个用户共用,呈现竞争拥塞等问题。 业务场景各种音视频通信业务场景多样,例如,点播、直播(RTMP/RTS)、会议、互动娱乐、在线教育、IOT、云游戏、云渲染、云桌面、近程医疗等等。不同的业务场景,又有不同的体验需要,例如,直播场景重视晦涩的体验,而对音视频互动时效性,要求并不是太高;会议场景则对沟通交流的实时性要求会比拟高,而对音视频画质的要求没有那么高;但对云游戏等场景,则要求极低的延时,同时要保障极高的清晰度。 用户体验如下图所示,音视频通信场景,用户体验次要从清晰度、流畅性、实时性三个方面来掂量。 清晰度,是用户感触到的视频画面清晰还是含糊,个别状况下分辨率越高越清晰,越清晰的画面蕴含的信息量就越多,传输时占用的流量就多; 流畅性,是用户感触到的视频画面静止起来的时候是顺畅还是卡顿,个别状况每秒钟看到的画面数量越多越晦涩,同样每秒画面数量越多,传输时占用的流量也越多; 实时性,是音视频信息从其产生到被远端用户感触到所须要的工夫,工夫越短实时性越好,实时性越好对传输速度的要求就越高。 后面说过,不同的业务场景对清晰度、流畅性、实时性三者的要求有着不同的偏重,然而随着音视频通信业务场景的一直倒退,越来越多极低延时和可沉迷的场景不断涌现,用户对音视频体验,能够说是既要又要还要,而且要求越来越高,留给技术人辗转腾挪的空间越来越小。在这种趋势下,对音视频传输QOS的技术要求也变得越来越高。 从底层协定来看,基于TCP传输的音视频通信,例如直播、点播等,个别都延时比拟大,而且因为数据都封装在TCP协定外部,依附TCP自身的抗弱网机制来保障可靠性,应用层很难有机会参加其中的管制和优化,只实用于延时容忍度较大的场景。对于延时容忍度较小的场景,根本都是基于UDP的,大家都晓得UDP传输的特色就是可靠性差,须要应用层通过各种抗弱网技术手段来保障数据传输的可靠性,QoS技术就有了大显神通的机会。 本文次要探讨基于UDP传输的,最具挑战性、技术最简单的音视频短延时通信QoS技术,包含实时音视频通信RTC场景和低延时直播RTS场景。 04 弱网的分类如果咱们的传输网络十分的完满,有足够大的带宽、有足够低的延时、有足够高的保障,那咱们就能很容易地实现像真人一样的面对面交换,咱们也不须要QoS技术,不须要编解码,只有把音视频采集下来,再霎时传送到对端播放进去就能够了,人与人的近程互动将变得非常美妙。 然而,事实离这种美妙相去甚远,古代的音视频通信是建设在互联网的基础设施之上的一类利用,这让互联网的传输品质,变成了音视频通信传输品质不可能冲破的天花板。家喻户晓,互联网的传输是简单的、低廉的、不牢靠的、不稳固的,没有方法搞清楚所有的传输环节的情况,咱们须要对这些问题进行形象分类,以便于更好地针对不同的场景进行有效应对,竭尽所能的保障用户的音视频体验不受太大的影响。 咱们个别把网络传输品质不合乎预期的场景叫弱网场景,弱网分成拥塞、丢包、延时、抖动、乱序、误码等。拥塞,是可用带宽有余的体现,如同高速堵车;丢包,是数据在传输过程中丢了,不知去向,如同快递失落包裹;延 时,个别是直达太多或者拥塞排队导致时效性变差,如同转折或堵车;抖动,是数据传输距离忽大忽小,如果不做解决,可能会导致音视频忽快忽慢;乱序,是后发先至,先收回去的数据比后收回去的数据到的还晚,如果不解决,可能会导致音视频的回放;误码,是传输过程中数据谬误,因为传输层会有校验、修改、重传,所以应用层个别都无感知、无需特地解决。 上图用管道灌水比拟形象的把几种弱网场景做了阐明:右边是流量生产侧,左边是流量生产侧,管道的长度是链路的根本延时;管道传输过程中会产生一些谬误和丢包;当管道由宽变窄而且流量超过管道的宽度,就会产生带宽拥塞;当拥塞产生时会呈现流量排队的状况,局部流量会被放到缓存队列,相应地产生队列延时;当缓存队列满了之后,会产生队列溢出,溢出的流量就对应了溢出丢包;链路数据传输过程中会有一些稳定和信号烦扰,导致数据的传输速率不是恒定的,最初收到的数据变得忽快忽慢,咱们将其归类为链路抖动。事实中,这些不同的弱网类型往往是混合在一起同时呈现,对其做不同的分类,能够不便咱们从技术上对其各个击破。 05 音视频通信QoS技术体系QoS技术分类音视频通信QoS技术和策略就是为了反抗上述弱网场景而诞生的,其目标就是尽最大可能打消因为网络变差给用户带来的体验消退,所以对应下面讲的不同弱网场景的分类,用到的QoS技术也被分成了几大类:拥塞管制、信源管制、抗丢包、抗抖动,每一类技术都蕴含很多的不同的技术点和技术细节,前面再来开展。 拥塞管制,是网络情况探测和数据发送形式的决策核心,是整个发送侧QoS技术的外围,是传输管制的大脑; 信源管制,是在拥塞管制的决策下,管制音视频信源产生的形式,管制信源的码率,来适应探测进去的网络情况,实现抗拥塞的目标; 抗丢包,是在网络有丢包的场景下,对信源数据减少冗余信息,达到局部信息被失落的场景,也可能残缺地复原出原有数据; 抗抖动,是在网络延时有稳定、数据时快时慢、时有时无的状况下,减少一部分延时,对数据进行缓冲,让用户体验更晦涩,不至于卡顿; 下面也阐明了不同类的QoS技术对应能够解决不同的用户体验问题,能够看出都是围绕流畅性、清晰度、实时性这三点来改善的。拥塞管制是总指挥,很多时候对整个链路的体验起决定性作用,信源管制能够晋升流畅性和清晰度方面的体验,抗丢包和抗抖动能够晋升流畅性和实时性方面的体验。 QoS在音视频通信流程中的地位咱们晓得音视频通信是端到端的全链路通信,其波及的技术畛域十分宽泛,跨度十分大、非常复杂。比方,客户端侧就蕴含了市面上能见到的Windows、MacOS、iOS、Andorid四个平台的所有终端的适配、兼容、互通,甚至要跟浏览器进行互联互通,同一个平台每款不同的设施也存在较大的差别,很多时候须要独自的适配。还有音频3A(AEC、AGC、ANS)、音频编解码(Opus、AAC)、视频编解码(H264、H265、AV1)等任何一个畛域开展都是非常复杂的技术栈。而云端的各种服务器也是实现互联互通不可短少的环节,包含信令服务器、媒体服务器、混流、转码、录制、节点部署、调度选路、负载平衡等等,每个节点、每种服务都是简单的存在。 在如此简单的音视频通信技术链路中,QoS技术也只是其中的一个比拟窄的畛域,但也是不可或缺的,对线上的音视频通信的可用性有着决定性意义。QoS技术看起来也是音视频通信畛域为数不多的全链路的技术,它端到端、全链路管制着媒体传输、媒体编解码的各个环节,以至于从事QoS技术的相干工程师须要对客户端和服务器的全链路的技术都要有肯定的理解,须要从全局的视角来看整个音视频通信。 下图是对音视频实时通信链路性能的一个形象,用媒体发送和媒体接管的P2P模式,省略了简单的服务器传输局部,不便大家的了解。 音视频通信的根本流程:首先是推流客户端,从终端设备的音视频采集模块采集的音视频数据是未通过压缩的原始数据,按帧(frame)存储的、尺寸较大的媒体数据,是没有方法间接在网络上传输的,须要先进行压缩,就到了编码局部,用到了音视频的编码器,编码实现之后,数据仍然很大,须要进行切片,而后通过RTP对切片后的数据做封装,封装完之后,从发送队列发送到网络上,通过服务器的一系列透传或解决,达到拉流客户端,拉流端收到网络发送过去的RTP数据包之后,要先进行RTP包的完整性判断,判断编码后的数据帧切片数据是否都曾经被收到,之后再解RTP封装,复原编码后的端数据帧,并送给解码器进行解码,解码完的数据送到渲染模块,用户就看到和听到了推流端的画面和声音。 上图右边是媒体发送侧的解决流程:音视频采集模块、前解决模块、编码模块、RTP封装模块、发送队列、网络数据发送。左边是媒体接管侧的解决流程:网络数据接管、RTP包解析模块、接管队列治理、解码模块、后处理模块、渲染模块。两头的右边蓝色的框内性能是发送侧QoS相干的性能,左边的蓝色框内的性能是接管侧QoS相干的性能。另外,从RTCP协定自身的定位看,它就是对基于UDP的媒体RTP数据进行管制的协定,所以也能够看成QoS管制的一部分。 从上图还能够看出两个特点,第一,QoS性能跟很多其它模块都相干,这是因为QoS技术是全链路管制的技术,须要触达的模块比拟多;第二,发送侧的QoS性能显著比接管侧的QoS性能多,这是因为目前很多都是发送侧带宽预计和拥塞管制,因为这样会更靠近信息产生的源头,从源头解决问题的效率更高,防患于未然。接管侧的技术往往是比拟被动的,是出了问题之后的最初补救,亡羊补牢。 QoS技术体系讲完QoS技术的分类和QoS技术在音视频通信技术中的地位,接下来咱们聚焦在QoS技术畛域外部,从客户端和服务器媒体链路来看QoS技术体系和其中比拟大的技术点,如下图所示。左下角的推流客户端侧,用到了信源管制、拥塞管制、抗丢包技术;中上部的媒体转发服务器SFU,用到了信源管制、拥塞管制、抗丢包技术;右下角的拉流客户端侧,用到了抗丢包、抗抖动技术。上面简要串一下相干的技术点的大略流程和意义。 l 音视频推流客户端 所有媒体RTP数据包发送的时候,会在RTP的扩大头中减少一个对立的序列号,能够认为每个数据包有一个惟一的编号,这样所有收回去的数据都有了对应的序列号、发送时刻、包大小三个信息。在接收端收到这些RTP数据包之后,会把每个收到的序列号以及收到的此序列号的接管时刻信息,依照TransportFeedback(twcc)报文定义的格局封装到RTCP包中,反馈到推流端。参考:《WebRTC钻研:Transport-cc之RTP及RTCP》,推流端依据这些反馈信息,就能估算出以后网络传输的情况,包含丢包、延时、带宽三个方面的信息。这些估算的算法,就是带宽预计算法(也叫拥塞控制算法),上图提到了比拟罕用的两种,一个是GCC(google congestion control),一个是BBR(Bottleneck Bandwidth and Round-trip Time),两个都是谷歌推出的拥塞管制算法。 ...

April 21, 2023 · 1 min · jiezi

关于云计算:2023IT市场年会丨浪潮云以云聚数拥抱价值新生

导语4月20日,由赛迪参谋主办的2023IT市场年会在北京胜利举办。作为中国IT产业界连续工夫最长的年度顶级盛会,大会以“数实融创·价值新生”为主题,零碎探讨ICT畛域跨界交融与翻新,洞悉ICT产业倒退新趋势,共促数实融创、价值新生。 算力云化十三载数据云化新将来新一代信息技术的倒退正在引发系统性、革命性、群体性的技术冲破和产业改革。为进一步表彰在科学研究、技术创新与开发、科技成果推广应用等方面获得卓越问题的集体和个体,赛迪参谋在会议现场正式揭晓“2022-2023年度新一代信息技术”榜单评比后果。 凭借前瞻性的策略布局和在数字化转型中施展的引领带头作用,浪潮集团执行总裁、总工程师,浪潮云党委书记、董事长肖雪荣获“新一代信息技术领袖人物”。 从2011年确定云计算策略以来,肖雪率领浪潮云在经验了算力云化的13年后,开启了数据云化的全新将来。围绕“无处不在的计算”,肖雪直面数字时代以数据因素为外围的市场环境,推出数据云,构建起以“云网边端”为撑持的分布式数据云体系,构建数据空间,不仅为数据因素市场化提供了实现门路,也为数据能动、算力能动、算法能动提供了体系撑持。 在推动数实交融方面,肖雪率领浪潮云以数据为外围,通过新兴技术推动数据与场景交融,并通过汇聚多元数据,构建多层次市场数据资源体系,激活数据产业生机,构筑起了数据因素流通和交易服务生态,同时以打造动静平安进攻体系的理念进行服务模式翻新,通过平安产品+威逼情报+平安经营,实现被动、继续、精细化的全生命周期平安管控。 也正是基于在推动数据因素与新兴技术深度交融方面所作出的致力,浪潮云备受行业认可,一举斩获“2022-2023年度新一代信息技术”榜单十余项大奖:浪潮云荣获“新一代信息技术翻新企业”;浪潮边缘云ICP Edge、自主区块链平台(IBC)、云御平安资源池、云泽云治理平台荣获“新一代信息技术翻新产品”,浪潮云原生利用爱护平台荣获“网络安全畛域翻新产品”;浪潮云助力打造的呼和浩特经济技术开发区“数字经开区”建设服务项目、上海市虹口区城市智脑我的项目、长海县海洋渔业产业数字化转型降级我的项目、南通轨道交通信息化平台我的项目、山西路桥交通基建行业数字化转型目荣获“数字化翻新实际案例”,充沛展示了浪潮云在赋能数字化转型方面的全方位实力。 数据因素可信流通“百城千业”拥抱新生会议期间,浪潮云总经理颜亮应邀出席并作为首位企业代表发表演讲,全面阐释数据云助力数据因素可信流通的实际门路与策略布局。 颜亮在演讲中指出,在数据成为策略资源的明天,买通数字基础设施大动脉,畅通数据资源大循环火烧眉毛,开释数据价值成为各国倒退共识。数据空间作为实现数据凋谢共享和可信流通的新型基础设施,基于“可用不可见、可控可计量”的利用模式,为数据因素市场化提供实现门路。在这一背景下,浪潮云以数据为外围,从新因素、新产品、新模式三个方面登程,推出浪潮数据云,提供撑持数据空间的分布式数据基础设施服务,为“数采-数算-数用”的全生命周期提供撑持能力,推动实现数据的可信流通、继续经营。 基于在拥抱数据浪潮过程中积攒的实践经验,浪潮云于日前正式公布了数据云业务策略——百城千业打算,进一步迭代深入业余、生态、可信赖三大外围劣势,通过百亿投入打造联结经营模式,依靠数据云联盟继续加大生态单干,打算在十八个月内实现浪潮数据云在百城千业的落地笼罩,致力于成为中国数据云市场引领者。 颜亮示意,随着数据与利用解耦、与算力平台解耦,云服务曾经从“业务上云”阶段向“云上数据”阶段演进,“公共数据”应进一步加大凋谢的力度和政策撑持,它将成为数据流通的先锋,而面向“数据”的基础设施建设是事不宜迟,也是施展数据红利的根底。面向更广大的市场、更前沿的技术边界,下一步浪潮云将继续精耕细作,踊跃拥抱数据浪潮,为数字中国、数字经济、数字社会建设贡献力量。

April 21, 2023 · 1 min · jiezi

关于云计算:KubeSphere-助力提升研发效能的应用实践分享

作者:卢运强,次要从事 Java、Python 和 Golang 相干的开发工作。酷爱学习和应用新技术;有着非常强烈的代码洁癖;喜爱重构代码,长于剖析和解决问题。原文链接。我司从 2022 年 6 月开始应用 KubeSphere,到目前为止快一年工夫,简要记录下此过程中的教训积攒,供大家参考。 背景公司以后有靠近 3000 人的规模,次要业务为汽车配套相干的软硬件开发,其中专门从事软件开发约有 800 人,这其中 Java 开发的约占 70%,余下的为 C/C++ 嵌入式和 C# 桌面程序的开发。 在 Java 开发局部,约 80% 的都是 Java EE 开发,因为公司的业务次要是给内部客户提供软硬件产品和咨询服务,在晚期公司和部门更关注的是如何将产品销售给更多的客户、取得更多的订单和尽快回款,对软件开发流程这块没有过多的器重,故晚期在软件开发局部不是特地规范化。软件开发基于我的项目次要采纳麻利开发或瀑布模型,而对于软件部署和运维仍旧采纳的纯手工形式。 随着公司规模的扩充与软件产品线的增多,上述形式逐步暴露出一些问题: 存在大量重复性工作,在软件疾速迭代时,须要频繁的手工编译部署,消耗工夫,且此过程不足日志记录,后续无奈追踪审计;不足审核性能,对于测试环境和生产环境的操作须要审批流程,之前通过邮件和企业微信无奈串联;不足准入性能,随着团队规模扩充,人员素质参差不齐,须要对软件开发流程、代码格调都须要强制固化;不足监控性能,后续不同团队、我的项目采纳的监控计划不对立,不利于常识的积攒;不同客户的定制化性能太多(logo,字体,IP 地址,业务逻辑等),采纳手工打包的形式效率低,容易脱漏出错。在竞争日益强烈的市场环境下,公司须要把无限的人力资源优先用于业务迭代开发,解决上述问题变得愈发迫切。 选型阐明基于前述起因,部门筹备选用网络上开源的零碎来尽可能的解决上述痛点,在技术选型时有如下考量点: 采纳尽量少的零碎,最好一套零碎能解决前述所有问题,防止多个系统维护和整合的老本;采纳开源版本,防止公司外部手工开发,节约人力;装置过程简洁,不须要简单的操作,能反对离线装置;文档丰盛、社区沉闷、应用人员较多,遇到问题能较容易的找到答案;反对容器化部署,公司和部门的业务中主动驾驶和云仿真相干的越来越多,此局部对算力和资源提出了更高的要求。咱们最开始采纳的是 Jenkins,通过 Jenkins 基本上能解决咱们 90% 的问题,但仍旧有如下问题影应用体验: 对于云原生反对不太好,不利于部门后续云仿真相干的业务应用;UI 界面简陋,交互方式不敌对(我的项目构建日志输入等);对于我的项目,资源的权限调配与隔离过于简陋,不满足多我的项目多部门应用时细粒度的辨别要求。在网络上查找后发现相似的工具有很多,通过初步比照筛选后偏向于 KubeSphere、Zadig 这 2 款产品,它们的基本功能都相似,进一步比照如下: KubeSphereZadig云原生反对高个别UI 好看度高个别GitHub Star12.4k2k社区活跃度高个别通过比照,KubeSphere 较为合乎咱们的需要,尤其是 KubeSphere 的 UI 界面非常好看,故最终选定 KubeSphere 作为部门外部的继续集成与容器化管理系统! 至此,部门外部经验了手工操作->Jenkins->KubeSphere这 3 个阶段,各阶段的次要应用点如下: 实际过程KubeSphere 在公司外部的整体部署架构如下图所示,其作为最顶层的应用程序间接与应用人员交互,提供被动/定时触发构建、利用监控等性能,应用人员不用关怀底层的 Jenkins、Kubernetes 等依赖组件,只须要与 Gitlab 和 KubeSphere 交互即可。 ...

April 20, 2023 · 3 min · jiezi

关于云计算:OpenKruise-V14-版本解读新增-Job-Sidecar-Terminator-能力

前言OpenKruise 是阿里云开源的云原生利用自动化治理套件,也是以后托管在 Cloud Native Computing Foundation (CNCF) 下的孵化我的项目。它来自阿里巴巴多年来容器化、云原生的技术积淀,是阿里外部生产环境大规模利用的基于 Kubernetes 之上的规范扩大组件,也是紧贴上游社区规范、适应互联网规模化场景的技术理念与最佳实际。 OpenKruise:https://github.com/openkruise/kruiseOpenKruise 在 2023.3.31 公布了最新的 v1.4 版本(ChangeLog[1]),新增 Job Sidecar Terminator 重磅性能,本文将对新版本做整体的概览介绍。 01 重要更新为了不便大家应用 Kruise 加强能力,默认关上了一些稳固的能力,如下:ResourcesDeletionProtection,WorkloadSpread,PodUnavailableBudgetDeleteGate,InPlaceUpdateEnvFromMetadata, StatefulSetAutoDeletePVC,PodProbeMarkerGate。上述能力大部分是须要特地配置才会失效的,所以默认关上个别不会对存量集群造成影响,如果有一些个性不想应用,能够在降级时敞开。Kruise-Manager leader 选举形式从 configmaps 迁徙为 configmapsleases,为前面迁徙到 leases 形式做筹备,另外,这是官网提供的平滑降级的形式,不会对存量的集群造成影响。02 Sidecar 容器治理能力:Job Sidecar Terminator在 Kubernetes 中对于 Job 类型 Workload,人们通常心愿当主容器实现工作并退出后,Pod 进入已实现状态。然而,当这些 Pod 领有 Long-Running Sidecar 容器时,因为 Sidecar 容器在主容器退出后无奈自行退出,导致 Pod 始终无奈进入已实现状态。 面对这个问题,社区的常见解决方案个别都须要对 Main 和 Sidecar 进行革新,两者通过 Volume 共享来实现 Main 容器退出之后,Sidecar 容器实现退出的成果。 社区的解决方案能够解决这个问题,然而须要对容器进行革新,尤其对于社区通用的 Sidecar 容器,革新和保护的老本太高了。 为此,咱们在 Kruise 中退出了一个名为 SidecarTerminator 的控制器,专门用于在此类场景下,监听主容器的实现状态,并抉择适合的机会终止掉 Pod 中的 sidecar 容器,并且无需对 Main 和 Sidecar 容器进行侵入式革新。 ...

April 19, 2023 · 2 min · jiezi

关于云计算:研究思考丨关于软件复杂度的困局

前言大型零碎的实质问题是复杂性问题。互联网软件,是典型的大型零碎,如下图所示,数百个甚至更多的微服务互相调用/依赖,组成一个组件数量大、行为简单、时刻在变动(公布、配置变更)当中的动静的、简单的零碎。而且,软件工程师们经常自嘲,“when things work, nobody knows why”。本文将重点围绕软件复杂度进行分析,心愿可能帮忙读者对软件复杂度成因和度量形式有所理解,同时,联合本身的实践经验谈谈咱们在理论的开发工作中如何尽力防止软件复杂性问题。 导致软件复杂度的起因导致软件复杂度的起因是多种多样的。 宏观层面讲,软件简单是随同着需要的一直迭代与日俱增的必然产物,次要起因可能是: 1.对代码腐化的让步与始终让步。 2.不足欠缺的代码品质保障机制。如严格的 CodeReview、性能评审等等。 3.不足常识传递的机制。如无无效的设计文档等作为常识传递。 4.需要的复杂性导致系统的复杂度一直叠加。比方:业务要求明天 A 这类用户权利一个图标展现为✳️,过了一段时间,从 A 中切分了一部分客户要展现 。 对于前三点我感觉能够通过日常的工程师文化建设来尽量避免,然而随着业务的一直演变以及人员的流动、常识传递的缺失,长期的叠加之下必然会使得零碎越发的简单。此时,我感觉还须要进行零碎的重构。 从软件开发宏观层面讲,导致软件简单的起因概括起来次要是两个:依赖(dependencies) 和费解(obscurity)。 依赖会使得批改过程牵一发而动全身,当你批改模块一的时候,也会牵扯到模块二、模块三等等的批改,进而容易导致系统 bug。而费解会让零碎难于保护和了解,甚至于在呈现问题时难于定位问题的根因,要花费大量的工夫在了解和浏览历史代码下面。 软件的复杂性往往随同着如下几种表现形式: 批改扩散批改时有连锁反应,通常是因为模块之间耦合过重,相互依赖太多导致的。比方,在咱们认证零碎中已经有一个判断权利的接口,在零碎中被援用的到处都是,这种状况会导致一个重大问题,往年这个接口正好面临降级,如果过后没有抽取到一个适配器中去,那整个零碎会有很多中央面临批改扩散的问题,而这样的变更比拟抽取到适配器的批改老本是更高更危险的。 @Overridepublic boolean isAllowed(Long accountId, Long personId, String featureName) { boolean isPrivilegeCheckedPass = privilegeCheckService.isAllowed( accountId, personId, featureName); return isPrivilegeCheckedPass;}认知累赘当咱们说一个模块费解、难以了解时,它就有过重的认知累赘,开发人员须要较长的工夫来了解功能模块。比方,提供一个没有正文的计算接口,传入两个整数失去一个计算结果。从函数自身咱们很难判断这个接口是什么性能,所以此时就不得不去浏览外部的实现以了解其接口的性能。 int calculate(int v1, int v2);不可知(Unknown Unknowns)相比于前两种症状,不可知危险更大,在开发需要时,不可知的改变点往往是导致重大问题的次要起因,经常是因为一些费解的依赖导致的,在开发完一个需要之后感觉心里很没谱,隐约感觉本人的代码哪里有问题,但又不分明问题在哪,只能祷告在测试阶段可能裸露进去。 软件复杂度度量Manny Lehman 传授在软件演进法令中首次系统性提出了软件复杂度: 软件(程序)复杂度是软件的一组特色,它由软件外部的互相关联引起。随着软件的实体(模块)的减少,软件外部的互相关联会指数式增长,直至无奈被全副把握和了解。 软件的高复杂度,会导致在批改软件时引入非主观用意的变更的概率回升,最终在做变更的时候更容易引入缺点。在更极其的状况下,软件简单到简直无奈批改。 在软件的演化过程中,不断涌现了诸多实践用于对软件复杂度进行度量,比方,Halstead 复杂度、圈复杂度、John Ousterhout 复杂度等等。 Halstead 复杂度Halstead 复杂度(霍尔斯特德简单度量测) (Maurice H. Halstead, 1977) 是软件迷信提出的第一个计算机软件的剖析“定律”,用以确定计算机软件开发中的一些定量法则。Halstead 复杂度依据程序中语句行的操作符和操作数的数量计算程序复杂性。针对特定的演算法,首先需计算以下的数值: 上述的运算子包含传统的运算子及保留字,运算元包含变数及常数。 依上述数值,能够计算以下的量测量: ...

April 18, 2023 · 3 min · jiezi

关于云计算:云原生周刊Kubernetes-v127-发布-2023417

开源我的项目举荐PalaemonPalaemon 是一个开源开发工具,用于监控 Kubernetes 集群的健康状况和资源指标并剖析内存不足 (OOMKill) 谬误。 GitkubeGitkube 是一种应用 git push 将 Docker 镜像构建和部署到 Kubernetes 上的工具。 通过简略的初始设置后,用户能够简略地继续推送他们的仓库来实现主动构建和部署到 Kubernetes。 SpiderpoolSpiderpool 是 Kubernetes 的 IP 地址治理 (IPAM) CNI 插件,用于治理底层网络的动态 ip。Spiderpool 与其余兼容第三方 IPAM 插件的 CNI 我的项目一起提供了各种残缺的解决方案。 文章举荐在 Ubuntu 18.4 上创立 Kubernetes 集群并应用 kubeadmin 部署微服务应用程序这篇文章介绍了如何在 Ubuntu 18.4 上创立 Kubernetes 集群。具体来说,作者应用了 the Kubernetes Engine (EKS) 来创立 Kubernetes 集群。在创立集群之前,作者先介绍了 Kubernetes 的基础知识,包含 Kubernetes 的基本概念、组成和工作原理等。 接着,作者具体介绍了如何应用 EKS 创立 Kubernetes 集群。他介绍了 EKS 的优缺点,以及如何配置 EKS 以应用 AWS 和 GCP 等云平台。他还介绍了如何在 EKS 上装置和治理 Helm 和 Kubeadm 等工具。 ...

April 18, 2023 · 2 min · jiezi

关于云计算:借力函数计算-FCHEROZ-打造专业级-AI-日本将棋服务

客户简介HEROZ 公司是一家 AI 开发公司,成立于 2009 年 4 月。凭借其对将棋和国际象棋 AI 开发的专业知识,该公司提供名为“HEROZKishin”的解决方案,以解决企业面临的各种挑战。其施行的示例包含能源管理、股票市场预测以及供应链治理优化。该公司还公布了利用将棋 AI 专业知识的游戏应用程序“将棋大战”。 在 2022 年 5 月,该公司公布了一个名为“Kishin Analytics”的新服务。该产品利用最新的将棋 AI 反对将棋钻研,可在浏览器上运行并且任何人都能够应用,无需高性能计算机环境。该服务旨在为宽广将棋爱好者提供帮忙,包含职业选手和心愿成为职业选手的学员。以前,只有多数职业选手应用低廉的计算机来进步他们的将棋技能。当初,“Kishin Analytics”在阿里云函数计算 FC 上以更低的老本提供高质量的将棋 AI 剖析服务,任何人都能够以低成本进行应用。 客户痛点HEROZKishin 本来是基于弹性计算服务的 GPU 来撑持 AI 服务。但还是有一些问题始终困扰着他们: 随着用户数量的一直减少,服务器运维工作量迅速减少,运维人员的工夫老本和资源老本也逐步回升。在流量峰值和非峰值时段,弹性计算实例不能无效地进行扩缩治理。因而,用户在高峰期的体验不尽人意。如果长时间保留弹性计算实例,则老本较高。在非顶峰时段会节约大量计算能力。导致老本节约。解决方案为了解决上述问题,客户应用阿里云函数计算 FC 的 CPU 和 GPU 减速实例来撑持 AI 服务。函数计算(FC)是面向函数的 Serverless FaaS 平台,为客户提供免运维,按量计费,反对高性能实例弹出,以及业界当先的 GPU 实例。 完满解决了客户的痛点: 免运维 IaaS:函数计算(FC)作为 Serverless 服务,能够罢黜底层服务器的治理。高弹性能力:函数计算(FC)提供秒级弹性能力,能够在流量波峰时疾速扩容,应答峰值压力。老本优化:依据 CPU 或 GPU 的应用工夫付费,无需长期保持实例,削减空窗期老本。客户价值阿里云函数计算(FC)给客户带来的价值如下: 稳定性:依靠阿里云弱小的 Serverless 底座,保障客户商用服务稳固运行,不产生重大故障。晋升用户体验,缩小用户散失:函数计算(FC)能够提供基于流量以及定时的弹性伸缩,帮客户短时间扩容,不影响用户体验。防止因为弹出服务器的工夫过长而引起的用户散失问题。降低成本:客户无需洽购,治理服务器等基础设施,升高运维老本。并且函数计算(FC)秒级扩容能够让客户只花最短时间的来裁减算力,这能够无效管制老本。客户证言开发并取得两次世界较量冠军的 AI 将棋引擎,负责“Kishin Analytics”首席工程师的 Kano 学生示意:“阿里云函数计算(FC)帮忙咱们升高了 IaaS 资源的老本。咱们期待行将推出的新 GPU 减速的 A10 服务性能实例,并冀望为职业将棋玩家提供更多高性能的服务。HEROZ 将持续专一于其专有的 AI“HEROZ Kishin”,进行深度学习等机器学习技术的钻研和开发,并将其理论利用于业务。HEROZ 旨在通过引领人工智能反动来发明将来。”开始应用函数计算 ...

April 17, 2023 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-OpenFunction-支持-Dapr-状态管理-202303310413

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.03.31-2023.04.13。 贡献者名单 新晋 KubeSphere Contributor本两周共有 5 位新晋 KubeSphere Contributor。感激各位对 KubeSphere 社区的奉献! 新晋 KubeSphere Talented Speaker2023 年 4 月 8 日,KubeSphere Meetup 深圳站圆满闭幕,欢送查看残缺流动回顾。 在此次 Meetup 中,共诞生了 4 位新的 KubeSphere Talented Speaker,他们别离是张晓辉、王刚峰、张家华、徐鹏。感激他们的精彩分享和奉献。 近期重要更新KubeSphere1. 修复告警规定资源匹配不精确的问题相干 PR: https://github.com/kubesphere/kubesphere/pull/5615 贡献者:chuan-you 2. 应用泛型代替弃用的 sets.String相干 PR: https://github.com/kubesphere/kubesphere/pull/5623 贡献者:iawia002 3. 回退 viper 版本到 v1.4.0相干 PR: https://github.com/kubesphere/kubesphere/pull/5626 贡献者:zhou1203 4. 降级 github.com/docker/docker 到 v20.10.24+incompatible 以解决潜在的 CVE相干 PR: https://github.com/kubesphere/kubesphere/pull/5627 ...

April 16, 2023 · 1 min · jiezi

关于云计算:瑞云科技副总经理黄金进受邀出席2023广东超聚变生态伙伴大会并作主题演讲

2月10日,2023广东超聚变生态搭档大会在广东深圳博林天瑞喜来登酒店胜利举办。 本次大会以“聚变焕新·数字湾区”为主题,通过合作伙伴分享,携手泛滥合作伙伴独特探讨行业趋势和热点话题,共建单干共赢生态,焕新数字湾区。 在本次大会上,瑞云科技副总经理黄金进受邀缺席本次大会并作了题为《瑞云科技&超聚变-公有视觉场景软硬联合市场机会》主题演讲,介绍了面向细分公有视觉场景,瑞云科技旗下多元化产品通过软硬件联合提供的市场机会。01 瑞云科技是国内当先的视觉云计算服务提供商在演讲中,黄金进首先介绍了瑞云科技的根本状况,瑞云科技是一个面向未来大规模AR/VR利用、云服务、云端设计、云端视觉展现以及教育等产业的根底平台。 随着5G的遍及,瑞云科技作为“新型基础设施”,专门针对视觉行业提供了一系列IaaS、PaaS及SaaS云服务,满足图形图像行业用户的业余需要,并反对用户在云端实现寰球协同工作,使用户解脱惨重的IT和计算设施投入,将更多的精力和资源放在内容创作和经营上,大大提高行业生产合作效率,并极大降低成本,从而推动整个行业疾速倒退。黄金进别离介绍了瑞云科技旗下产品,别离为 被誉为中国“自助式云渲染”先行者的云渲染农场「Renderbus云渲染平台」、元宇宙实时渲染解决方案「3DCAT元宇宙实时渲染云」、云端图形工作站「青椒云」、一站式企业大文件传输软件专家「镭速」和真高清近程控制软件「RayLink」。02 3DCAT元宇宙实时渲染云,一键赋能元宇宙黄金进对3DCAT元宇宙实时渲染云进行了具体介绍,3DCAT是基于云计算理念,将XR利用部署在云端运行,云端资源进行图形数据的实时计算和输入,并把运行后果用“流”(Streaming)的形式推送到终端出现的一种解决方案,终端用户可随时随地交互式拜访各种XR利用。黄金进还介绍到,3DCAT是弱小的三维利用运行平台,3DCAT提供弱小的图形实时渲染计算服务,平台装备弹性GPU资源集群,反对主动负载平衡和伸缩扩容,反对海量用户同时平安拜访利用,让任意设施,随时随地拜访在线三维利用。3DCAT领有 优良的CloudXR SaaS服务、集成了CloudXR技术, 可为用户提供高清晰度低延时的沉迷式XR利用串流服务。 用户无需部署工作站或外置XR追踪零碎,即可利用3DCAT云端渲染能力取得高清串流体验。同时3DCAT还集成了自主研发的RayStreaming协定和镭速传输零碎,将三维利用通过云流化的形式实时推送到终端,并与终端实时交互,更具沉迷性和可拜访性;在数据管道上叠加利用瑞云镭速传输零碎,可极大晋升文件传输速度。黄金进介绍,3DCAT实时渲染云已在 汽车三维可视化、修建家装工程、衰弱&医疗仿真、虚构仿真教学实验、数字孪生、元宇宙等畛域 提供业余的实时云渲染服务,帮忙不同行业客户实现云渲染赋能,晋升流传和视觉效果。在谈及3DCAT如何为细分公有场景提供市场机会时,黄金进从虚构仿实在训云平台、城市数字孪生渲染云平台和工业数字孪生渲染云平台三个方面进行了具体地介绍,3DCAT云渲染私有化计划可提供软硬一体部署形式,一站式解决客户终极需要。硬件品种丰盛,可依据用户需要灵便配置。 在演讲的最初,黄金进对瑞云科技和超聚变的单干关系进行了瞻望,黄金进示意超聚变是十分有实力的IT设施厂家,瑞云科技是国内当先的视觉云计算服务提供商。通过两家公司强强联手和软硬件产品联合,为客户提供面向三维制作的渲染农场解决方案、面向元宇宙的实时渲染解决方案、以及面向设计的云端图形工作站解决方案。 在 5G、云计算、数字孪生、虚拟现实、元宇宙等先进技术的推动下,单方对接下来的单干充满信心。黄金进认为,视觉行业将面临广大的倒退机会,瑞云科技和超聚变必将成为其中不可或缺的一部分。本文《瑞云科技副总经理黄金进受邀缺席2023广东超聚变生态搭档大会并作主题演讲》内容由3DCAT实时云渲染解决方案提供商整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/news/post-id-115

April 14, 2023 · 1 min · jiezi

关于云计算:让应用交付和管理统一KubeVela-亮点功能及核心技术回顾

自 2020 年 OAM(Open Application Model) 凋谢利用模型公布以来,KubeVela 经验了数十个版本的更新和演变,朝着现代化利用交付的高级性能一直倒退。明天,咱们将回顾 KubeVela 我的项目倒退至今的亮点性能和核心技术。 什么是 KubeVela?KubeVela 是一个面向现代化利用的交付与治理平台,它使得利用在面向混合、多云环境中的交付和运维变得更简略、高效和牢靠。它有以下三个次要性能: 基础设施无关KubeVela 可能将你的云原生应用程序部署到各种目的地,如 Kubernetes 多集群、不同的云平台和边缘设施。 可编程KubeVela 具备用于建模应用程序和交付过程的形象层。这些形象层容许用户应用可编程形式构建更高级别的可重用模块,用于应用程序交付,并在 KubeVela 零碎中集成任意第三方我的项目(如 FluxCD、Crossplane、Istio、Prometheus)。 以利用为核心KubeVela 面向业务利用开发专门设计,有丰盛的工具生态,包含 CLI、UI、GitOps、可观测性等,为应用程序的交付和运维减少了大量开箱即用的性能。 KubeVela 关注应用程序的整个生命周期,包含 Day-1 交付和 Day-2 运维阶段。它可能连贯各种继续集成工具,如 Jenkins 或 GitLab CI,并帮忙用户在混合环境中交付和运维应用程序。 为什么抉择 KubeVela?艰难和挑战现在,快速增长的云原生基础设施为用户部署应用程序提供了越来越多的能力,如高可用性和安全性,但也间接向应用程序开发人员裸露了越来越多的复杂性。 例如,Kubernetes 上的 Ingress 资源使用户可能轻松地对外裸露服务,但开发人员须要解决 Ingress 降级,当底层 Kubernetes 版本发生变化时,这须要对 Ingress 资源有肯定的理解。在各种云供应商之间进行混合部署可能会使这个问题变得更加艰难。 Open Application Model(凋谢利用模型)为了应答上述挑战并弥合应用程序应用和基础设施细节了解之间的差距,阿里云和微软 Azure 在 2020 年独特提出了凋谢利用模型(OAM)。其目标是为应用程序交付定义一个统一的应用程序模型,与平台和实现无关。 定义的应用程序模型为开发人员形容了应用程序由什么组成以及工作形式的接口。前者被称为 OAM 中的组件,通常用于对应用程序的工作负载进行建模。后者被定义为 OAM 中的个性,它为组件提供附加额定的性能。 作为 OAM 的 KubeVelaKubeVela 是(OAM)Open Application Model 的实现之一。在 KubeVela 中,形象层由 CUE 反对,这是一种新鲜的配置编程语言,能够形容简单的渲染逻辑,它在应用层面与 JSON 统一,是 JSON 的超集。形象层简化了 Kubernetes 中资源的配置,暗藏了实现的细节,并仅向业务开发人员裸露无限参数。应用 KubeVela 应用程序,开发人员能够轻松地专一于应用程序的核心逻辑,例如应该应用哪个容器镜像以及如何拜访服务。 ...

April 12, 2023 · 2 min · jiezi

关于云计算:使用篇丨链路追踪Tracing很简单链路实时分析监控与告警

在后面文章外面,咱们介绍了单链路的筛选与轨迹回溯,是从单次申请的视角来剖析问题,相似查问某个快递订单的物流轨迹。但单次申请无奈直观反映利用或接口整体服务状态,常常会因为网络抖动、宿主机 GC 等起因呈现偶发性、不可控的随机离群点。当一个问题产生时,利用负责人或稳定性负责人须要首先判断问题的理论影响面,从而决定下一步应急解决动作。因而,咱们须要综合一段时间内所有链路进行统计分析,这就好比咱们评估某个物流中转站点效率是否正当,不能只看某一个订单,而要看一段时间内所有订单均匀直达工夫与出错率。 统计分析是咱们察看、利用分布式链路追踪技术的重要伎俩。咱们既能够依据不同场景要求进行实时的后聚合剖析,也能够将罕用的剖析语句固化成规定生成预聚合指标,实现常态化监控与告警。绝对于链路多维筛选,统计分析须要明确剖析对象与聚合维度。其中,剖析对象决定了咱们对哪些指标进行聚合操作,比方申请量、耗时或错误率。而聚合维度决定了咱们对哪些特色进行统计比照,比方不同利用、接口、IP、用户类型的统计量比照。接下来,咱们先理解下剖析对象和聚合维度的具体概念,再介绍实时剖析与监控告警的具体用法。 01 剖析对象剖析对象,又称为度量值(Measure),决定了咱们对哪些指标进行聚合操作。常见的度量值包含“黄金三指标”——申请量、谬误和耗时。除此之外,音讯提早、缓存命中率或自定义度量值也是高频利用的剖析对象,咱们来逐个理解下。 (一)申请量申请量能够说是咱们最相熟的度量值之一。这个接口被调用了多少次?这一分钟的申请量与上一分钟相比有什么变动,与前一天相比有什么变动?这些问题都是咱们在日常运维过程中最相熟的对话。 申请量通常依照一个固定的工夫距离进行统计,比方按秒统计的申请量通常称之为 QPS(Queries Per Second),有些场景也会称之为 TPS(Transactions Per Second)。两者有一些细微差别,但含意基本相同,常常被混用。咱们能够应用 QPS 来掂量零碎的单位工夫吞吐能力,用以领导系统资源的调配调度;或者观测用户行为的变动,判断零碎是否出现异常。 如下图所示,创立订单接口每天上午 10 点和 12 点的申请量都会有一个周期性的突增,这种状况大概率是整点促销流动的失常体现,咱们在做资源容量评估时须要参考整点的峰值申请量,而不是零碎均匀申请量,否则每当流量突增时零碎可用性就可能大幅降落,影响用户体验。 上面第二张图的创立订单接口在 10 月 8 号凌晨 00:39 分有一个非常明显的上涨,并且前一天的曲线是比拟平滑的,这种景象大概率是接口异样导致的,曾经影响了用户的下单体验,须要深刻排查定位起因。 申请 QPS 的变化趋势反映了零碎吞吐能力的变动,是申请量最罕用的一种形式。但在某些离线计算场景,对短时间内的吞吐变动不敏感,更须要一个比拟大的工夫距离内的吞吐总量统计,比方一天或一周的申请解决总量。以便灵便调配离线计算资源。 谬误每一次链路申请都会对应着一个状态:胜利,或失败。一次失败的申请通常称之为谬误申请。单条谬误申请可能因为各种各样的偶发性起因不予关注。然而当谬误数累积到肯定水平,超过肯定阈值时,就必须要进行解决,否则会引发大面积的系统故障。 谬误指标除了像申请量一样,分为谬误 QPS 和谬误总量之外,还有一种比拟非凡的统计形式,就是错误率。错误率是指在单位工夫距离内谬误数占申请总数的比例。比方 A 接口一分钟内被调用了 10000 次,其中有 120 次是谬误调用,那么 A 接口这一分钟的谬误比率就是 120 / 10000 = 0.012,也就是 1.2%。 错误率是掂量零碎衰弱水平的要害指标,针对它的衰弱阈值设置不会受申请量的周期性变动影响。比方下单接口的申请量在白天达到峰值的 10000 QPS,在夜间的谷值只有 100 QPS,全天的申请量变动范畴在 100 ~ 10000 QPS 之间。相应的谬误量变动范畴在 0.2 ~ 20 QPS 之间,而错误率根本固定在 0.2% 左右。无论是应用固定阈值或同环比的形式,谬误数都很难准确反映零碎理论的衰弱水平,而错误率应用起来就简略、无效的多。比方设置错误率超过 1% 时就发送告警短信,超过 5% 就电话告诉稳定性负责人立刻排查。 ...

April 11, 2023 · 2 min · jiezi

关于云计算:Gartner最新报告分析超大规模边缘解决方案

当下,酝酿能量的超级边缘。最近,咱们在谈视频化狂飙、谈AIGC颠覆、谈算力动能有余,很少谈及边缘。但“边缘”恰好与这所有相干,且越发密不可分,它是将来技术倒退的极大影响因子。 “到2025年,超过70%的组织将为其⾄少⼀个边缘计算零碎,部署超⼤规模云边缘解决⽅案,并会联合其云部署。这比例远⾼于2022年的不到15%。” 这是Gartner在最近公布的Competitive Landscape : Hyperscale Edge Solution Providers 报告中,给出的大胆又间接的判断。 Gartner视角中的“边缘”价值“边缘是物和⼈与⽹络数字世界连贯的物理地位,它是数字化转型,以及⼈、物和企业之间新交互的要害推动因素。”Gartner的形容,极度符合当下的边缘之力。 由边缘倒退而来的边缘计算,正在出现疾速倒退之势,它满⾜了对凑近边缘解决数据的⽇益增⻓的需要。它还通过解决提早、带宽、⾃主性和隐衷要求,来补充数字业务⽤例的云计算,这就趁势揭开了“边缘”的意义和能力。 提到云计算,固有印象肯定是核心云。而边缘计算和核心云计算是相辅相成的,非相互竞争或排挤。下图显示,两种计算能够通过不同的⽅式解决不同的需要,从⽽发明新的价值。 核心云和边缘的关系 从核心到边缘,与Gartner所察看的统一,咱们发现: l “边缘”是趋于简略的解决门路 超⼤规模边缘正在成为在当今IT现代化和数字打算中,实现边缘计算以及解决数据主权需要的越来越简略的⽅法,因为用户在当今组织中的散布和遍及水平越来越⾼。 l “边缘”是公共云的最强助力 公共云性能失去当今超⼤规模边缘的补充,许多状况下,它在利⽤云到边缘模型的同时,也提供与公共云区域雷同的性能。 在此之上,波及一个概念,分布式云。 分布式云是⼀种新兴技术趋势,推动云外⽅法。分布式云满⾜了客户让云计算资源更靠近数据和业务流动发⽣的物理地位的需要,同时保留了公共云的集中管理能⼒。 分布式云间断体 从核心云到分布式云,从云计算到边缘计算,成就了边缘云的存在,能够说是一种最具亲和力的云计算存在状态,而其酝酿的价值肯定在超大规模之上来施展。 正如Gartner所述, “5G为通信服务提供商提供了⽀持新的边缘计算⽤例的机会,而超⼤规模云提供商正在竞相成为电信边缘基础设施的领先者。” 6家“寰球超大规模边缘供应商”Gartner提到,“随着超级边缘(也称为超⼤规模边缘)变得⼴泛可⽤,它们将在短期内与单个超⼤规模企业及其特许经营权相关联。这将产⽣对‘多重超⼤规模’边缘架构和采纳模型的需要,相似于在云世界中的多云采⽤模型。” 在5G代开的连贯通道之下,更关上了一种能够称之为“超级边缘”的边缘解决方案和产品新世界。 与传统边缘不同,超级边缘构建在超⼤规模云提供商提供的平台上,作为其分布式云解决⽅案的⼀局部。5G的⾼速、低提早连贯将许多性能卸载到这些超级边缘,⽽不是依赖集中式云数据中⼼来解决某些超级计算和分布式⼯作负载,这便解决了传统边缘始终面临的延时挑战,尤其能够应答云游戏和高性能计算的利用场景。 供应商使⽤不同的⽅法来开发新产品以满⾜这些新的边缘计算要求。然⽽,所有超⼤规模云提供商都基于雷同的准则开发他们的产品,Gartner称之为“从云到边缘”的⽅法。 通过从云到边缘的⽅法,超⼤规模云提供商将公共云架构散发到边缘,从⽽实现核心和边缘之间的⼀致性。 从云端到边缘的办法 此次最新报告中,从寰球范畴内,Gartner指出了6家最具代表性的“寰球超大规模边缘供应商”,别离为:阿里云、AWS、谷歌云、IBM、微软天青、甲骨文,这6家各具声色,为边缘云赛道带来独特价值。 报告中指出,阿里云的云内容散发⽹络 (CDN) 业务,提供在阿⾥云的云边缘节点服务 (ENS) 上运⾏的规范边缘计算服务。带有CDN的ENS,提供了⽐以前的解决⽅案更⾼的收益,以及横向服务扩大、经营和保护以及为客户提供的按需付费选项。 正如Gartner所形容,阿里云基于CDN节点构建的全球化边缘基础设施,通过500+节点联合算网交融技术,实现寰球笼罩,聚焦在音视频、云游戏、云渲染、边缘组网、云网交融五类场景化解决方案。将来,更多的寰球节点还会转变为边缘计算(ENS)模式,带来更大的笼罩与价值。 与此同时,Gartner也指出,AWS的边缘产品组合通过多种选项部署到边缘,为客户提供⼀种混合体验;Google分布式云(GDC) 能够跨多个地位运⾏,包含⾕歌的⽹络边缘、运营商边缘、客户边缘和客户数据中⼼;IBM Cloud Satellite是IBM的出云解决⽅案,满⾜⾏业对以软件为中⼼的将来需要,以越来越灵便的⽅式将云服务扩大到不同的环境;微软⽀持多种边缘集成技术,包含连贯、治理、平安和云原⽣开发,并给予边缘高度多样化的需要,且特地关注垂直合作伙伴关系的建设;Oracle构建了OCI分布式云,并提供⼀套蕴含五个分布式云产品的套件,向寰球客户提供其分布式云服务。 从产品、性能的成熟度、市场的吸引力、市场的独特主张,Gartner提出的这6大寰球超大规模边缘供应商,着力不同,出现强劲的发展势头。 在寰球开释“超级边缘”的能量在寰球构建超级边缘之力,绝非一件简略的事。 阿里云实现了国内31个省的全面笼罩,也就是说,用户在中国大陆的这些区域内都能取得充分的算力撑持。在云计算基础设施服务方面,阿里云边缘云基于对立的飞天底座,提供一云多芯、一云多态的云计算架构,从核心向边缘辐射,让算力有限延长。 作为中国最大、技术当先、寰球笼罩的边缘云计算平台,阿里云边缘云在海内部署了60多个节点,笼罩海内30多个国家,以亚太区域为外围,在欧美、中东非等区域均能提供算力反对。 在边缘节点算力建设上,阿里云在寰球提供500多个强有力的全节点,具备边缘云多态计算、交融存储、交融网络等所有云能力,通过共计170万核的通用算力CPU核,和400P FLOPS的异构算力核,以满足更多边缘翻新场景的算力刚需。 随同寰球业务倒退,阿里云先后在韩国、泰国、德国、印尼、菲律宾和沙特新增了七座数据中心,面向宽广的海内用户提供云服务。同时,边缘云小型轻量和疾速交付的个性,使得其相较核心云而言,部署更为灵便、散布更为宽泛。 在网络传输层,就近用户侧部署边缘云,可有利于优化异地运营商的网络接入;通过专属网络连接边缘云与核心云,则有利于为下层业务发展屏蔽边缘云与核心云之间的简单网络环境。 在业务应用层,将中心化的云服务延展为云边协同的服务,不仅能够通过边缘算力和存储满足数据本地储存的需要,还能够通过利用本地下沉、边缘就近拜访等技术手段晋升业务体验,对传统核心云的服务造成恰到好处的补充。 实际数据显示,在寰球互联网用户增长最快、网络等基建程度绝对落后的新兴市场国家,采纳边缘云就近用户提供服务,能够将异地用户的业务拜访时延缩短50%以上,从而无力应答“长距离传输”和“最初一公里接入”为业务发展带来的挑战。 随着互联网出海进度的放慢,中国企业席卷寰球的脚步由国内延长至欧美、东南亚、印度,进而扩大至更广大的拉美、中东和非洲市场。在视频直播、游戏、在线教育等畛域,国内出海企业已日渐占据了海内市场的半壁江山。 得益于国内边缘云的商业化积攒和与出海企业的长期深刻单干,阿里云率先将边缘云的场景化服务能力由国内延长至海内,致力于在更广大的地区为出海企业提供与国内统一的技术支持和服务体验,助力企业业务寰球幅员的扩张。 写在最初在寰球,阿里云边缘云构建了泛在交融的算力网络,打造“一点接入、即取即用”的算力服务,为新兴企业、新兴场景注入真正落地的能源之源。 现在,寰球都沸腾在AIGC的风潮里,而“边缘”兴许会成为新内容状态的动能核心,它利用算网交融的能力,在边缘端和云边协同机制下,解决更简单的渲染和AI计算,以更自若的算力,让AIGC更自若地普惠。 不仅如此,边缘算力所领有的低时延、平安、隐衷等劣势,更合乎对AI创作所有权和隐私权之需。而“边缘”对AIGC时代的助攻,也只是咱们能预感的冰山一角。 能够确定的是,用户群日益扩散,需要突飞猛进,欲望的极限一直被突破,在每个边缘端一直被满足,这所有都为超⼤规模边缘提供商发明⼀系列的机会。 最初,把眼帘贬低,边缘云更像是新兴技术下的影响雷达,泛滥颠覆性技术的蔓延之势,总离不开边缘的存在。

April 10, 2023 · 1 min · jiezi

关于云计算:使用篇丨链路追踪Tracing其实很简单请求轨迹回溯与多维链路筛选

在日常生活中,咱们可能都经验过以下场景:去医院看病就诊,但预约页面迟迟无奈关上;新款手机公布日促销秒杀,下单页面始终卡住转菊花;游戏大版本更新,在线人数过多,导致人物始终在“漂移”。这些问题令产品体验变得十分差,有急躁的同学还会吐槽几句,没急躁的同学早已转身来到。试想一下,作为该零碎开发/运维人员,又该如何防止此类问题产生,或者疾速定位止损? 要害门路与多条链路比照本章咱们将以业务 Owner(小帅)的视角,逐渐理解分布式链路追踪的各种根底用法:小到单次用户申请的异样根因诊断,大到全局零碎的强弱依赖梳理,分布式链路追踪都能给予确定性答案。 小帅作为一家电商公司订单核心的业务 Owner,外围 KPI 就是保障创立订单 createOrder 接口的可用性,如响应时延低于 3s,成功率大于 99.9%。一旦该接口可用性呈现问题,会间接影响用户下单行为,造成业务资损,进而影响小帅的绩效和年终奖。 但创立订单接口间接或间接依赖多个其余零碎服务,如资金、地址、优惠、平安等。一旦某个上游零碎服务可用性呈现问题,也会造成创立订单失败或超时。为此,小帅特地头痛,每当创立订单接口不可用时,小帅都十分心急,却不知该如何定位根因,只能拉上所有上游接口负责人一起评估,不仅费时费力,低效排查也造成业务损失进一步扩充,常常被老板痛骂。 当小美理解这个状况后,举荐接入分布式链路追踪零碎,并通过一系列故障应急案例,领导如何利用 Tracing 定位问题,梳理危险,提前预警,切实进步了订单核心的可用性。小帅常常会遇到各种用户反馈的创立订单超时问题,以往对此类问题颇有些大刀阔斧。不过,接入分布式链路追踪零碎后,通过调用链精确回溯超时申请的调用轨迹,小帅就能够轻松定位耗时最长的接口信息,如下图所示,A 接口超时的次要起因是调用 D 接口导致的。 但如果是上面这种状况,A 调用 B,B 又调用 C。那么,导致 A 接口超时的根因到底是 B 接口,还是 C 接口呢? 为了辨别真正影响用户体验的 Span 耗时,咱们先来理解一下要害门路的概念。 要害门路如果一次 Span 调用有 t 段耗时在要害门路上,那么去掉这 t 段耗时,整条链路的总体耗时也会相应的缩短 t 段时间。仍以下面那条链路为例,灰色局部示意要害门路,缩短任意要害门路上的耗时都能够缩小整体耗时。此时,咱们能够判断 A 接口超时的次要起因是 C 接口导致的。 再来看另一种状况,如果 A 接口同一时间并行调用 B、C、D、E 接口,那么耗时最长的 D 接口就成为要害门路,如下图所示。 然而,如果咱们将 D 接口耗时缩小 t1+t2 两段工夫,整体耗时却只缩小了 t1 段时间,因为,当 D 接口耗时小于 B 接口时,D 接口就不再是要害门路,而是由 B 接口取代。这就如同主要矛盾被大幅缓解后,次要矛盾就变成了主要矛盾。 ...

April 7, 2023 · 2 min · jiezi

关于云计算:云计算时代前端如何保证开源代码的安全性

作者:京东批发  张梦雨 云技术和咱们的生存非亲非故,日常生活中拜访的网页,刷的短视频,用的云盘等都是云计算提供的服务。那在云计算时代,前端能够做什么呢? 一、云技术与前端在前端倒退初期,前端只需实现动态页面和交互的开发即可,而后将源文件给后端部署;之后前后端拆散,有了工程化的概念,前端须要本人去实现构建、打包、集成、部署,部署形式有通过CI/CD工具进行命令工具部署、Docker镜像部署、平台化部署等。随着nodejs、跨端技术的疾速倒退,进入大前端时代,前端工程师也能够做全栈开发,须要理解学习的端和技术越来越多。 前后端拆散后,各种前端框架层出不穷,百花齐放,随着三大框架的流行以及前端工程化的成熟,各端分工更加明确,此时,云计算在前端畛域起到了很重要的作用,次要是能够在云里拿一些资源来撑持业务开发,比方各种工程化工具、开源库等,实现代码的共享,进步了开发效率。 二、前端开源库置信作为前端大家都应用过Vue、React等耳熟能详的JavaScript框架,应用vue-cli、create-react-app等脚手架工具能疾速的生成一个可独立运行的Vue、React我的项目。因为它是能够独立运行的,所以须要依赖NodeJS,NodeJS是一个基于Chrome V8引擎的JavaScript运行环境,它能够使JavaScript运行在服务端。说到NodeJS,不得不提NPM。 NPM,全称Node Package Manager,是一个NodeJS包治理和散发工具,即包管理器,治理第三方依赖。它以多种形式主动解决我的项目依赖关系,提供了命令行工具,能够装置、卸载、更新三方包,配置我的项目设置,运行脚本等等。目前支流的包管理工具有npm、yarn、pnpm等。npm是 2010 年公布的nodejs依赖管理工具,yarn是 Facebook 于 2016 年 公布的代替npm的包管理工具,pnpm是 2017 年公布的一款代替npm包管理工具,具备速度快、节俭磁盘空间的特点。 NPM是JavaScript运行时环境Node.js的默认包管理器。采纳npm命令下载三方包,下载的包会在node_modules文件夹中,可进行按需引入,实现了代码共享。目前Github提供了很多开源NPM包,尽管用起来很不便,然而怎么保障包的安全性是一个始终在探讨的问题。 前段时间,npm开源库作者以反战为名,在node-ipc库中增加恶意代码,代码先是针对俄罗斯和白俄罗斯用户IP,尝试笼罩当前目录、父目录和根目录的所有文件,后改成了往桌面上写个 WITH-LOVE-FROM-AMERICA.txt 的宣言文件。这个事件受到了开源圈强烈的谴责,造成了很不好的影响。该供应链投毒事件同时也暴漏了JS/node/npm生态的软弱。该事件也对咱们起了警示作用,怎么防止开源库的安全隐患显得尤为重要。 三、开源库应用平安指南1. 防止下载未知或不可信的包在进行开源库的选型时,须要查看开源许可证,关注stars、 forks、 commit frequency、contributors 等相干指标,查看包的安全策略。 2. npm ci 代替 npm installnpm ci和npm install的区别次要在于执行npm ci命令时,我的项目必须要有package-lock.json文件,如果package-lock.json中的依赖与package.json中的依赖不匹配时,则将退出并显示谬误,该命令不会更改 package-lock.json和package.json。因而,当咱们进行CI(继续集成)/CD(继续部署)或生产公布时,尽量应用npm ci,它会严格依照package-lock.json文件中指定的包版本进行装置,避免因为版本问题产生问题。 3. 装置和应用npm包时,疏忽运行脚本,最小化攻击面当应用的包有新版本更新时,不要自觉降级,在降级之前查看下版本的更改日志、发行阐明和代码,关注其他人的应用体验。在装置软件包时,确保增加–ignore-scripts 后缀以禁止第三方软件包执行任何脚本。思考将 ignore-scripts 增加到.npmrc 我的项目文件或全局 npm 配置中。 4. 及时降级过期的依赖项自觉升级包版本不可取,然而当包版本过期不去降级也会带来一系列问题。npm outdated命令能够查看哪些包曾经过期了。其中黄色的依赖包对应package.json中指定的版本,红色的依赖包示意有可用的更新。 5. 应用平安工具来扫描npm包大家拿到我的项目之后执行npm install,之后将我的项目运行起来,简直没人关注装置了什么。平安问题不容忽视,接下来介绍的几个扫描工具能疾速帮你辨认我的项目中的依赖有哪些破绽。比拟罕用的扫描工具有npm audit、yarn audit、snyk等。 (1)npm audit 是npm的官网查看工具,npm6 新增的一个命令,破绽数据来自于GitHub Advisory Database,npm audit 对第三方包的扫描依赖于 package.json 和 package-lock.json 文件,如果没有这两个文件会报错。 ...

April 6, 2023 · 1 min · jiezi

关于云计算:编解码持续升级硬实力铸就视频云最优解

算力时代,视频云须要怎么的CPU?在数据爆发式增长及算法日益精进的大背景下,属于「算力」的时代俨然到来。随着视频成为互联网流量的配角,日趋饱和的音视频场景渗透率、人类对“感官之限”的谋求与冲破、更多元化的场景摸索及技术需要,为视频编码能力和底层算力及硬件反对带来更大的挑战。 “视频云作为音视频行业的基础设施,能极大地简化视频从采集、解决、编码、传输到散发的全链路流程。”正如阿里云视频云技术负责人在《芯事》访谈中所提到的,阿里云视频云与倚天710一起,正在踏上视频普惠千行百业的新征程。 点击链接查看视频:https://www.eefocus.com/video/1462707.html 视频云与倚天710的联合2022年北京冬奥会,阿里云承接了一项重要的工作,那就是撑持冬奥全面上云。为此,阿里云视频云推出了全新的云上翻新解决方案——阿里云聚“Alibaba Cloud ME”,这也是寰球第一次在奥运会上实现异地全息会面,是一次突破时空之距的革命性翻新。在感叹云上沉迷之旅的精妙之余,咱们不禁要问,阿里云视频云上路即狂奔的硬实力是什么?除了使命必达的奋斗精力和弱小的软件、算法撑持能力以外,阿里云视频云技术负责人致凡还提到了倚天710。 当咱们将眼光投射到倚天710上,会发现它诞生于2021年,是一款由平头哥自研的云芯片,通过一年多工夫的硬件部署和业务验证,倚天710实例已胜利利用到阿里巴巴团体的外围业务中,并服务多家出名互联网及科技公司。正是基于后期低劣的体现,倚天710已在阿里云数据中心部署,将来部署规模将持续扩充。 当然,没有一款芯片生来就如此弱小,视频云技术负责人谈到:“视频云和倚天710的联合是一段美妙的旅程,但两头还是经验了十分多的事件。” 回忆起这段旅程:“因为视频业务的增长速度是十分快的,研制一颗芯片的周期也十分长,不论是芯片研发、还是芯片落地后适配视频云业务成长,都是极具挑战的,但咱们一起做好了正视挑战、冲破壁垒的筹备。当第一版芯片流片回来后,芯片根本性能体现稳固,且因为Arm架构带来的原生劣势,再加上阿里云战争头哥的同学单方坐在一起,在理解芯片外部形成的根底下来做了很多算法调优后,可能让代码在芯片上跑得更快。 同时,倚天710还针对特定算法场景进行了指令集减速与优化,比方像SVE等矢量计算技术,其中BF16/INT8 mmla指令可实现高效的矩阵乘法运算,还反对Hash、CRC32等减速指令,能够让单条指令并行处理更多数据,大幅晋升视频编解码、AI编解码加强等场景性能,这是一个两边一起迭代的过程。” 所以,从最早的性能挑战传统架构CPU,到当初曾经远远超过传统架构CPU,倚天710的“变质”是一步一个脚印走过去的。视频云技术负责人认为:“这是一个十分好的案例,阿里云视频云的业务跟平头哥的芯片设计可能完满地联合在一起,利用各自的劣势让芯片设计进去,在视频行业中施展更大的作用。” 谈起平头哥和阿里云视频云业务的这次单干,就不能不提到一个大的产业背景,即视频云的爆发式增长。至于什么是视频云?“视频云就像是音视频行业的水和电,是底层的基础设施,能够大大简化视频从采集、解决、编码、传输到散发的链路。”这个比喻再失当不过。 社会视频化在狂飙从2017年开始,短视频的热度持续上升,加上近三年疫情下直播、视频会议、线上教学等畛域的崛起,社会视频化成为一种大趋势。依据CNNIC公布的第50次《中国互联网络倒退情况统计报告》数据显示,截至2022年6月,我国挪动互联网接入流量达1241亿GB,同比增长20.2%;另依据思科公布的数据显示,视频内容约占互联网总流量的90%,占挪动网络总流量的64%。 联合这两组数据,咱们能够得出视频正在成为互联网流量的配角,而爆炸性的数据量又将会对算力和存储提出更大的挑战。于是视频云的价值被凸显进去,并呈现出了一种不可逆的倒退态势。在这样的大背景下,寰球以互联网公司为主的科技企业纷纷转型,开启视频云技术的探索之旅,并在安防监控、近程医疗、批发电商以及金融机构等典型场景中失去落地。 以后,视频云产业曾经造成了绝对稳固的头部战队,包含微软、AWS、阿里云等支流云厂商。对于国内视频云的市场体量方面,依据IDC公布的数据显示,2022上半年中国视频云市场规模达到50.5亿美元,同比增长15.7%,预计到2026年,市场规模靠近300亿美元。值得一提的是,通过报告显示,阿里云视频云间断5年占据中国视频云整体市场份额第一,并且渗透率还在一直攀升。 视频产业倒逼技术迭代对于视频云产业来讲,以在线视频为例,从最早国外的Livestream、国内的斗鱼直播到当初,曾经经验了25年的历史,其实从技术的角度来看,整个行业倒退的速度没有设想中的快。比方,视频编码从H.264到H.265,再到H.266,均匀10年降级一代。为什么速度不是很快?因为它要解决的问题比拟多:算力、网络传输、规范等等。然而,咱们看到明天的视频产业倒退十分迅猛,这也倒逼技术要去实现疾速迭代。这几年曾经初显成果,比方当初编码器的降级迭代速度是5年,以前是10年,预计前面可能是3年。 为什么这里要强调编码?事实上,视频云是一个算力密集型行业,视频信息量很大,如果采纳和文本、图片一样的压缩模式,那么还原度是不够的,所以视频必须进行编码解决。编码要是做不好,不仅会损失视频品质,还会带来传输难度高的问题。从MPEG2开始,每一代视频编码的降级,其压缩率大概能够晋升50%,远低于视频分辨率每更新一代晋升4倍的速度,即便这样,每一代降级对CPU算力的需要,以及算法复杂度都会进步至多10倍以上,这对芯片的架构、芯片底层的指令集优化、芯片的存储器和cache构造都会带来新的挑战,很多外围的算法要用新的指令集从新写一遍,这意味着视频编码和芯片成长是须要同步的。 视频云须要怎么的CPU?通过后面的介绍,咱们理解到视频编码对算力的要求很高,因为咱们经常试图用算力换存储,用算力换传输带宽,所以咱们心愿算力越高越好。 那么如何晋升CPU的算力?首先要抉择好的内核架构。在视频畛域,传统架构曾经有三十几年的历史了,目前市占率仍然能达到90%以上的份额,但裹挟着惨重的向后兼容包袱。而Arm作为一种精简指令集,不仅没有历史包袱,还能够依据需要减少很多寄存器,同时从内存cache构造的设计和指令集的设计下面,可能更贴合须要大算力的视频解决需要。此外,不论是Hyper-Threading还是其余,采纳传统架构的CPU走的都是进步主频的路子,在视频解决时就会遇到一些问题,比方视频压缩的时候会分成I帧、P帧、B帧,每一帧的算力并不是平均分配的,就会带来对算力需要不稳固的问题。 所以为了让芯片不跑超频,就可能会做一些降频解决,这时候它的算力就可能达不到相应的编码需要。在理论业务中,因为视频业务不是单机运行的,会有很多的服务器集群配合来解决,为了避免CPU跑超等简单状况的呈现,就不得不把服务器集群的水位升高,这是传统架构CPU比拟大的问题。 然而,Arm整体的设计是比较稳定的,不论工作有多简单,都能实现稳固输入,做到良好的资源调配和水位调配,不必预留很多冗余来避免芯片跑超,这对于to B业务来说十分重要。除了主频高以外,传统架构CPU的核不多,通常是两个vCPU/HT共享一个物理核、1份ALU,但Arm能够实现128/256/512或更多的核,相似GPU的设计,如此一来,对于不同利用场景而言,就能够用少核应答低算力需要的场景,多核应答高算力需要的场景,实现更优的业务调配,升高投入老本。以倚天710为例,内含128核CPU,主频2.75GHz,可适配云的不同利用场景。 与此同时,随着数据上云越来越多,对于数据中心而言,功耗性能也是十分重要的,对运营者来说,低功耗就意味着低成本,除了软件层面的优化以外,倚天710能同时兼顾高性能和低功耗。 以上因素叠加,就让视频云的头部企业阿里云与倚天710的联合看起来瓜熟蒂落。以后,倚天710已大规模部署并提供云上服务,依据实际反馈,倚天710让阿里云平台的算力性价比晋升了超30%,单位算力功耗升高了60%,这是一个相当大的提高。 摸索一种均衡纵观视频云产业,人们对体验的极致谋求,将成为视频云继续深耕的能源。在云利用场景下,CPU的倒退之路将循着算力、I/O、网络协议适配、推理能力、从无到有的发明能力一直演进上来。将来,Arm会成为视频云中一种重要的架构,整体份额肯定会减少,但不会是惟一的架构,传统架构、异构的ASIC和FPGA都会有一席之地。而对于Arm架构而言,将来的改良方向是降低功耗、进步算力、做好专用性和通用性的抉择均衡。 同时,咱们要意识到,将来视频对算力的挑战是十分高的,简略地靠CPU的降级曾经满足不了需要,须要一些非凡的解决,包含越来越多的AI算法、专用算法,比方模型搜寻的算法等,再把通用的模块局部地固化在芯片外面,极大地晋升视频解决的效率。 所以在视频云市场,人们总是在做衡量,云芯片厂商要解决好芯片能效和通用性的关系,云服务商要在算力无限的状况下应用很多疾速算法。 而正如阿里云视频云技术负责人所强调的:“咱们的愿景都是一样的,就是让视频普惠各行各业,再反哺视频行业,实现更茁壮的倒退。”

April 4, 2023 · 1 min · jiezi

关于云计算:2023企业上云暨算云融合产业大会在京召开

2023年3月29-30日,由中国信息通信研究院(以下简称“中国信通院”)和中国通信标准化协会联结主办的2023企业上云暨算云交融产业大会在北京胜利召开。大会以“云融万物,算启将来”为主题,公布了2022年中国云计算倒退指数、中国算云算智指数,颁布了最新可信算力云服务评估后果。 工业和信息化部信息技术倒退司相干领导,宁夏回族自治区中卫市委常委、副市长郭爱迪,中国信通院副院长魏亮出席会议,中国工程院院士郑纬民通过视频形式致辞,大会由中国信通院云计算与大数据研究所所长何宝宏主持。 宁夏回族自治区中卫市委常委、副市长郭爱迪致辞 郭爱迪提到,中卫是一座年老而富裕暮气的城市,是沿黄城市带上的一颗璀璨明珠。近年来,中卫市一直抢抓倒退时机,紧抓“云+算力”两个关键环节,鼎力推动云计算产业倒退。通过十年不懈努力,中卫在国家布局一体化算力网络协同翻新体系中施展的作用越来越重要,劣势越来越突出。同时分享了中卫数字产业将来3个方面的倒退方向,一是建设国家“东数西算”示范基地;二是建设数字技术利用翻新基地;三是建设国家级数据供应链培养基地。 中国工程院院士郑纬民致辞 郑纬民指出,目前我国算、网根底夯实但短少与云计算的无效协同,算、网、云割裂倒退将加深我国科技翻新断层危险,钻研算网云协同零碎工作具备非常重大的意义。郑纬民提出三点倡议:一是发展算云交融相干产业钻研,围绕政策、条例、合规等问题发展分类钻研,晋升算云交融产业的认知程度,二是晋升算云交融外围技术水平,组织产业上下游企业对算云交融核心技术发展联结钻研与技术攻关,三是凋谢算网云产业生态。 中国信通院副院长魏亮解读《2022年中国云计算倒退指数》 魏亮对《2022年中国云计算倒退指数》进行了解读,并提到中国云计算倒退指数是掂量我国云计算倒退程度的综合指数体系,包含企业上云用云指数与技术交融赋能指数两大维度共六个子指数,旨在综合掂量我国云计算整体发展趋势。其中,企业上云用云指数反映我国各地区云计算的供应程度、利用深度、行业上云用云积极性、SaaS服务应用占比状况以及用户可感知的云服务体验品质;技术交融赋能指数反映通用计算、智算、超算等算力云化过程以及大数据、人工智能等新技术云化赋能程度。 混合云联结实验室等四家实验室成立 中国信通院云计算与大数据研究所所长何宝宏与天翼云、腾讯云、阿里云、挪动云等企业代表进行了签约,正式成立混合云联结实验室、泛在智能算力治理调度联结实验室、5G云原生与云网络翻新打算、算力网络翻新实验室。 可信算力云服务评估、可信云评估后果颁布 中国信通院云计算与大数据研究所副所长栗蔚公布了首批可信算力云服务评估后果,包含算力调度、智能计算、算网大脑、弹性算力等多畛域,共有19家企业的产品通过评估。此外,还颁布了最新可信云评估后果,共有20家企业的产品通过混合云、专有云、云网等评估。 2022算力云服务领航者打算评比后果颁布 会上还公布了2022算力云服务领航者打算评比后果。该打算分为计划组与品质组两大组别,涵盖技术赋能、标准化、模式翻新等方向。本次评比共有40个优良案例怀才不遇。 中国信通院云计算与大数据研究所副所长栗蔚主题演讲 会上,栗蔚发表了《深度上云,算云算智指数减速中枢操作系统建设》的演讲。栗蔚指出,明天的云计算倒退进入深水区,成为数字世界的中枢操作系统,算力云化重塑软硬一体算网云操作系统,算力云化指数通过通用算力、智能算力、超算算力三个维度,全面展示各区域算云交融现状,量化剖析各省云化过程;算智构建数字利用新界面,算智指数基于算智性能指数、利用指数、多样化指数,掂量各区域云化智能算力程度。 中国信通院专家主题演讲 中国信通院云计算与大数据研究所云计算部副主任闫丹分享《一云多芯产业倒退现状及态势钻研》。闫丹示意,随着企业数字化转型的减速,我国云计算利用迈入“深度上云”阶段,算力产业规模宏大,算力需要旺盛。一云多芯是解决算云交融零碎异构复杂性的重要解决方案,在整个产业链体系中起到承前启后、贯通生态的重要作用,钻研一云多芯意义重大。 中国信通院云计算与大数据研究所云计算部副主任刘如明分享《从云原生到算网云原生》。他示意,数字经济引擎作用凸显,企业数字化转型催生强劲算网需要,云原生技术作为算力网络落地撑持的重要技术之一,人造满足算力网络应用的外围诉求,继续拥抱云原生是算力网络应用倒退的重要门路。 中国信通院云计算与大数据研究所云计算部副主任苏越解读《算力云服务翻新产品案例集》。苏越示意,算力云服务领航者打算共计投递案例近三百份,受到业内宽泛关注。本次打算充沛调研摸底了算力云服务倒退过程,下步将继续发展此类流动,造成产业察看机制,助力我国算力云服务产业和算力经济衰弱有序倒退。 “一云多芯”利用翻新打算等启动 会上公布了多项重要打算和钻研我的项目,启动了“一云多芯”利用翻新打算和超算智算利用生态推动打算。此外,大会还邀请了产业各方嘉宾发表演讲。中国电信集团科技委委员、天翼云云网产品事业部总经理杨鑫带来了《打造自主可控云网算力构建数字中国基础设施》主题演讲;联通数字科技有限公司云计算事业部副总经理丁鼎带来了《匠心筑基,联通云7助力千行百业数字化转型》主题演讲;中国建设银行经营数据中心副主任常冬冬带来了《“建行云”助力行业数字化倒退实际》主题演讲;华为技术有限公司副总裁、数据存储产品线总裁周跃峰带来了《拥抱多云,构筑牢靠数据存储底座》主题演讲;中国移动集团首席专家、中国移动云能力核心技术部翻新核心总经理钱岭带来了《打造新型算力服务,助力企业数字化转型》主题演讲;北京电信算力核心副总经理纪叶带来了《算云交融,智领将来》主题演讲;国家超级计算天津核心总工程师冯景华带来了《交融算力云助力数字经济倒退》主题演讲;四川省数字经济钻研核心总工程师王丹琛带来了《天府算力构建数字经济倒退新范式》主题演讲。“2023企业上云暨算云交融产业大会”历时两天,除主论坛之外,还设置6个分论坛,内容涵盖算力网络、多样性算力、分布式算力、算力应用服务、算存交融、软硬一体云零碎等方面。后续,中国信通院将紧跟算云交融产业的发展趋势与产业热点,推动技术创新与利用落地,助力算力云服务整体程度的晋升,搭建产业各方沟通交流的平台,促成算力云服务产业倒退。

April 3, 2023 · 1 min · jiezi

关于云计算:达坦科技创业是一场灵魂深处的摇滚

“我读大学的时候玩乐队,弹奏最多的就是Guns N' Roses(枪花)乐队的歌曲。枪花1987年发行的第一张专辑叫《Appetite for Destruction》。尽管我不至于有覆灭欲,但都说翻新的实质其实是‘创造性地毁坏’,守业亦然。来到大公司后我间断投身科技守业,想要静心做底层技术的颠覆性翻新。想来也算是年老时谋求的摇滚精力跨时空的连续。” ——王璞 达坦科技创始人兼CEO 王璞:美国George Mason大学计算机博士、北大硕士、北航本科,领有多年云计算和大数据畛域的教训和积攒,善于分布式系统研发、海量数据处理、云计算产品设计及大规模机器学习等。2014年回国守业,创建数人云科技公司,专一容器技术在国内的落地和推广,2018年被上市公司收买。曾发表十余篇论文,共计被援用上千次,领有多项云计算专利、软著,并于2020年被评比为腾讯云TVP(最有价值专家)。下文用“Pu” 代替。 “魂系游戏和守业很类似,前者大量的离散叙事遍布于各个物件和NPC上,寻找主线剧情就好比守业时把客户的需要、公司的技术劣势、VUCA时代瞬息万变的市场变动和趋势等都链接起来,造成残缺的产品叙事并落地。两者的难度系数都很高,守业中的踩坑、犯错对应的是游戏中的‘死亡’,所以,‘不死精力’或者说‘Grit’(刚毅)是魂系游戏和投身守业企业玩家的必备素质。” ——施继成 达坦科技联结创始人兼CTO 施继成:复旦大学软件工程本硕,师从华为根底软件首席科学家、鸿蒙实验室主任陈海波传授。善于操作系统内核开发、分布式系统、嵌入式零碎,对分布式数据一致性有钻深的钻研,发表多篇操作系统内核相干论文,累计数百次援用。毕业后曾在谷歌中国、微软亚太和阿里巴巴等公司从事分布式计算和存储等相干工作。入选2022年度36氪S级创业者名册,荣获中国“企业工具与底层软件”畛域 “36位36岁以下创业者”名称。下文用“JC”代替。 缘起一件好的艺术创作,经常可能让人们透过作品感触到作者的精力世界与价值观;一家守业公司也往往是开创团队的外在映射。ChatGPT问世以来,有人把它类比为哥伦布发现了新大陆。现如今的守业就好比大航海时代的探险,最大的不确定性就是不晓得持续航行上来,后方到底是宝藏还是死亡。守业素来都是一件举步维艰的事件,守业胜利也永远是小概率事件,但仍然难以燃烧企业家的创业精神。不仅仅是因为其背地的财产价值,在诸多兼备社会责任的企业眼中,更多的是推动科学技术的倒退和产业提高,将技术和落地利用相结合,进而发明更多的社会价值。 达坦科技作为科技守业企业的一员,至今刚刚走过两个年头。咱们邀请两位联结创始人,一起给大家讲述达坦科技的故事。 咱们的故事Q:过后是在什么契机下决定要创建达坦科技呢? Pu: 首先我和继成过往的教训始终都是在云计算、分布式系统相干畛域。我本人始终是一个喜爱守业的人,上一家公司被收买之后尝试着在上市公司做高管,但说实话不喜爱。上市公司部门多组织简单,外面繁冗的流程、简单的人际关系,这些都不是我想要的,所以决定还是要进去守业,专一前沿技术,并且从守业最初期就特地关注团队的人才培养和文化建设,营造谋求极致的技术气氛。 既然守业必定还是心愿能赢,那就须要对将来的发展趋势有精确的判断。咱们的判断是整个互联网还会有新的增长曲线或者说新的浪潮。只有这个判断成立,那么对云计算和云存储的需要实践上就是持续上升的,甚至会有更大的增量空间。随着AI、Web3.0特地是ChatGPT的衰亡,咱们的判断也失去一些印证:比方ChatGPT要1万张GPU卡做训练,这须要相当大的计算和存储资源来撑持。那么DatenLord要做的就是冲破现有云计算的规模,实现从云计算到天空计算。能做本人善于并喜爱的事件,找到一群气味相投的人,挑战技术极限,做前沿技术的弄潮儿,没有什么比这个更让人兴奋的。 点击文章浏览《从云计算到天空计算》 JC:我从另一个角度补充一下。作为技术人员,可能深刻钻研技术是很令人开心的一件事件。技术人员往往更违心在感兴趣的畛域进行深挖,摸索其中的深刻问题,甚至是一些世界级的前沿技术和问题。当然这也须要破费大量的工夫和精力,短时间的速成往往是欲速则不达。咱们在开办 DatenLord 的时候就想做这么一家沉下心钻研技术的公司,置信也会吸引一群有同样谋求的人员退出咱们。 另外一方面,深刻的技术钻研和投入更可能造成技术壁垒,防止了企业间的同质化竞争,最终更可能从某一个畛域怀才不遇,这些对于一家 ToB 的科技型企业至关重要。 Q:为什么抉择“跨云”这个细分畛域? Pu: 跨云存储是十分有挑战的问题,达坦科技立志要做出世界级产品,咱们抉择的畛域也是业界公认的难点。 答复这个问题之前,咱们先看看云计算的现状:当初的云计算其实是一座座围城,用户一旦进入一座围城中就很难再翻越进去。例如用户一旦开始大规模应用公有云部署,一段时间之后想要上私有云就十分艰难;又或者用户一旦抉择了一家云计算厂商,之后想要迁徙到另外一家厂商老本就会很高。 因而,咱们认为将来的云计算会逾越现有云计算的边界——将来的云计算应该是“互相联通”的,这也就是UC Berkeley的Ion Stoica传授提出的天空计算。云计算的用户应该非常容易可能在多个云计算厂商之间进行切换,抉择适宜本人的服务,抉择性价比更高的服务。同时用户也可能在公有云和私有云间无缝连接,在计算性能拓展和安全性之间找到一个均衡。 JC: 是的,如何高效解决数据近程拜访的问题是上云碰到的最突出问题,有了高性能跨云数据拜访能力,即能够轻松上云又能够冲破云厂商的绑定,让客户真正享受到云计算带来的弹性便当。而想要能大幅度晋升跨云数据拜访性能,就须要做软硬件深度交融。目前软硬件交融畛域,不管对互联网公司、云计算巨头,还是老牌企业级IT厂商,都是极具挑战的场景。总之,达坦抉择跨云存储畛域,具备很高的技术门槛,即便对大厂来说也很有挑战。咱们跟巨头站在差不多的起跑线上,真正用技术实力来竞争。 Q:达坦科技心愿能带来什么样的价值呢? Pu: 我从市场和产业的角度说一下吧。一方面,随着云计算的遍及,企业客户对利用上云曾经造成共识,然而企业客户对于数据上云还有不少顾虑,会更偏向于将数据保留在可控的环境,比方公有数据中心。那企业应用上云后如何拜访近程公有数据中心的数据,成为云计算进一步遍及落地亟需解决的问题。 另一方面,随着云计算进一步倒退,业界根本公认无服务计算成为下一代云上利用的计算状态,无服务计算使得利用的部署调度更加灵便,然而数据无奈随利用任意迁徙,于是无服务计算大大增加了利用对于数据灵便拜访的需要,即不管利用部署在哪里都要能高效拜访到须要的数据,所以近程跨数据中心、跨地区甚至跨云数据拜访成为下一代云计算最大的挑战。 达坦想做的,就是解决这两个具备挑战性的问题,为用户提供高性能、平安的跨云数据拜访体验。 JC: 跨云存储是十分有挑战的场景,不仅要保障跨云数据拜访的性能,更要保障跨云拜访场景下,数据被竞争读写时依然能保证数据一致性(正确性),即跨云、跨数据中心的数据一致性。咱们以后曾经推出的DatenLord开源我的项目能够实现跨云、跨数据中心场景下近程数据高性能拜访,一方面不便企业客户的利用上云后拜访近程公有数据中心的数据,另一方面不便无服务计算的利用(跨云)拜访近程数据。 随着ChatGPT引爆整个科技领域,AGI的产品在颠覆搜索引擎的同时,也对存储提出了更高的要求。对咱们来说,既须要保障原有策略方向的稳固及疾速迭代落地,又须要疾速的学习和从新锚定市场需求发展趋势,调整航向。因而,咱们不仅在产品开发过程中应用了 AGI 的相干技术进行辅助,而且还在摸索为大模型机器学习提供高效存储的可能性。 抉择拥抱开源Q:为什么会抉择用开源的模式呢? JC: 一方面咱们开创团队全副是技术背景,作为技术人员,开源是深植于意识深处的,咱们认为当初的基础设施就应该是开源的,就如同有数胜利的先例一样,如 Linux,K8S 等。咱们团队也认为开源可能大大促成技术提高,只有一直地交换能力产出更好的技术产品。 另外一方面,咱们也想借助于开源的社区平台吸引更多优良的开发者参加到我的项目中来,Linux 曾经证实了寰球的开发者是如许得具备创造性,可能开发出什么级别的产品。因而咱们也置信开源带来的优良贡献者们也能使得这些我的项目更加欠缺,更加优良。 Pu: 是的,咱们的产品也是开源的。开源是一种高效的推广形式,能够帮忙用户以最低的老本来应用咱们的产品。 Q:DatenLord目前已有的开源我的项目有哪些?能够简略介绍下吗? JC: 达坦是一家拥抱开源的公司,在GitHub上有不少咱们的开源我的项目,DatenLord是咱们的主力开源我的项目,咱们把DatenLord用到的很多组件也独自开源进去: DatenLord跨云存储系统: https://github.com/datenlord/datenlordXline开源分布式KV存储系统:保证数据在跨数据中心、跨云拜访时的一致性,不便业务零碎实现多地多核心多活部署。 https://github.com/datenlord/XlineRDMA:跨云场景下,网络对数据拜访的性能影响最为突出,DatenLord采纳高性能网络RDMA来升高提早并进步带宽。RDMA方面咱们有多个相干的开源我的项目: async-rdma是用Rust封装的RDMA异步API库,它为编写RDMA应用程序提供高级形象和异步API接口。 https://github.com/datenlord/async-rdmaopen-rdma是RDMA协定的开源硬件实现,采纳Bluespec和SpinalHDL实现,目前次要实现了RoCEv2协定。此外,咱们还进行一些特定性能的拓展来晋升RDMA的传输效率。 https://github.com/datenlord/open-rdmaroce-sim是一套验证RDMA协定的软件框架,不便测试RDMA硬件的正确性,即是否合乎RoCEv2协定的要求。 https://github.com/datenlord/roce-simasync-dpdk:用Rust封装的DPDK异步API库,用于在虚拟化场景下基于DPDK实现高性能网络。 https://github.com/datenlord/async-dpdk欢送感兴趣的同学来交换单干。 企业文化Q:像软件在用的Rust、硬件的Bluespec、SpinalHDL这样的语言都很前沿,达坦为什么会抉择用这么前沿的技术语言? JC: ...

April 2, 2023 · 1 min · jiezi

关于云计算:Terraform-系列Terraform-项目的典型文件布局

系列文章 Terraform 系列文章 典型文件布局- modules/ - services/ - webserver-cluster/ - examples/ - main.tf - outputs.tf - vars.tf - user-data.sh - README.md - [ ] versions.tf- stage/ - vpc/ - services/ - frontend-app/ - backend-app/ - main.tf - outputs.tf - vars.tf - user-data.sh - README.md - [ ] provider.tf - [ ] versions.tf - [ ] terraform.tfvars(or `*.auto.tfvars`) - [ ] main.tfvars - data-storage/ - mysql/ - redis/- prod/ - vpc/ - services/ - frontend-app/ - backend-app/ - data-storage/ - mysql/ - redis/- mgmt/ - vpc/ - services/ - bastion-host/ - jenkins/- global/ - iam/ - s3/ - main.tf - outputs.tf - vars.tf - user-data.sh - README.md - [ ] provider.tf - [ ] versions.tf 提醒: ...

April 1, 2023 · 2 min · jiezi

关于云计算:靠近用户侧和数据算网融合实现极致协同

游弋自若的生产力,在边缘。IMMENSE、36氪|作者 1846年1月,纽约。 一行长短不一的电码顺着通信线路飞往130公里开外的费城,这是华尔街的巨头们首次应用电报传输讯息,更具备金钱象征的是,电力通信的胜利,彰显着电力从那一刻起开始成为新的生产力,有数新经济的可能性将会接踵而至。 在那之后的50年中,电力一直得以遍及,美国的重工业开始代替轻工业,电气、石油、化学等新兴产业也诞生于电力的根底上。 近200年后的明天,算力成为新的生产力,算法成为新的生产关系,生产资料即是数据。 但,正如电力破费了50年才走进人类生存,算力离无处不在也还有肯定间隔,最基本的起因在于:算力,是不够用的。 当下对于科技的最佳畅想中,进入元宇宙是必然。更有专家称:“以后这种情况与20世纪90年代初期的互联网截然不同。如果咱们不能积极参与其中,就可能错过元宇宙最佳机遇期。” 而想要在元宇宙中开一场演唱会、打一场沙滩排球,或是看一场画展,都对算力提出了翻天覆地的要求。有业内人士曾估算,如果将当初的算力晋升1000倍,才有可能达成《头等玩家》中的丝滑之感。 那么,在无限的算力下,如何最大化施展?让算力不只存在于巨星的闪耀,而是变为繁星之境呢? 01 跳动的算力,边缘把握的脉搏“我心愿,对神经系统所作的更深刻的数学研究,会影响咱们对数学本身各个方面的了解。”计算机之父冯·诺依曼在1958年出版的《计算机与人脑》一书中如此写道。 当咱们思考“须要怎么的算力基础设施”这个问题时,无妨和冯·诺依曼一样,同样回归计算的生物学根源,将计算机与神经系统类比,来取得灵感。 就像咱们用眼睛、耳朵和双手去感触世界,并对外界环境做出反馈一样,在数智经济时代,海量、多类型的数据,在工业、医疗、交通等丰盛的场景中产生,同时也须要对这些数据进行智能剖析,疾速实现智能决策以领导生产实践。 中国信息通信研究院在2022年公布的《中国算力倒退指数白皮书》中指出,2016-2021年我国算力规模均匀每年增长46%,对中国经济社会和产业能级的带动是大势之向。 面向宏大的数据处理,若抉择将海量、需实时处理的数据传回云计算中心,不仅会产生昂扬的带宽老本,还会因远距离的传输造成极大时延,从而影响终端的决策速度和体验。 为了寻找解决方案,能够参考人体神经系统在面对危险场景时,做出麻利反馈的应答模式。在数万年的进化之旅过后,人体给出的“危机解决计划”是遵循“就近”准则。 构想一下,手指被针扎到的霎时,短暂的1秒内,咱们是先缩回手,而后才感觉到疼痛。这是因为“缩手反射”作为简略的非条件反射,是由脊髓收回指令的,不需通过大脑皮层的深度信息加工。这样就大大晋升了咱们面对可能的危险时,做出反馈的效率,从而晋升存活概率。 同理,边缘算力也正是在以低延时、低成本,实现边端麻利作业、业务疾速迭代的需要下产生的。由此诞生的边缘云,最大的特色即是“就近”,即凑近用户侧和凑近数据。 具体而言,“边缘”是物、⼈与⽹络数字世界连贯的物理地位,它是数字化转型以及⼈、物和企业之间新交互的要害推动因素。以后,边缘计算已呈疾速倒退之势,它满⾜了对凑近边缘解决数据的⽇益增⻓的需要。 与集中式云计算不同,边缘云可提供弹性扩大的云服务能力,具备疾速响应、低提早和轻量计算等特点,目前成为私有云、专属云、公有云解决方案之后,云计算生态下不可或缺的新拼图。 据权威机构IDC《中国边缘云市场跟踪钻研》报告显示,2021年中国边缘云市场规模总计达50.4亿元人民币,其中,边缘私有云服务细分市场占比超过50%。2022上半年,中国边缘云总体市场规模达到30.7亿元人民币,同比增长50.8%,而边缘私有云增速更是高达56.2%。 在迅猛直上的边缘云市场,透过IDC最新数据,能够看到头部玩家汇集,其中,在最外围的私有云服务市场,阿里云边缘云继续占据国内第一,作为一股云上新权势,正在施展不可小觑的能量。 数据起源:《中国边缘云市场跟踪钻研,2022H1》 IDC Future Scape也提出预测,到2026年,50%中国企业的CIO将要求云和电信合作伙伴提供平安的云到边缘连接解决方案,可见其将来之势。 02 边缘云织网,算力捕鱼算力向各行各业浸透的过程,如果只是针对繁多企业的需要进行点状浸透,则远远达不到基础设施建设的长效作用。 对于数据来说,如果各个场景节点各自为战、就会变为数据孤岛。而将每一个节点串联成网,能力产生更规范的通用模板,也能够实现更大范畴的复用。 边缘计算的外围就是要做到连结和流动,通过数据传输能力、调度能力,正当兼顾云边资源,把算力流动起来,再依据场景新需要和工作负载的计算复杂度,调配算力节点,就能够让算力更为精准的满足不同节点的需要,数据也不再是凝固的结点。 而要实现上述的“流动”,关键在于打造算力网络。具体来说,是通过网络贯通数据生命周期,实现数据与算力的匹配,从而造成一张满足“散发”与“计算”的网,实现边缘与核心、边缘与客户端之间的无效协同,做到算力高效开释、算力灵便调度和边缘最优服务。 如此之上,须要一张“算网”。 在边缘结点算力建设上,阿里云在寰球提供500余个强有力的全节点,具备边缘云多态计算、交融存储、边缘数据库等所有云能力,通过共计170万核的通用算力CPU核,和400P FLOPS的异构算力核,来满足边缘场景的算力需要。 在网络及算网交融技术上,阿里云基于寰球3200多个边缘节点打造了通信级的寰球实时传输网络GRTN。 “算”和“网”双重布局的高效算力网络,带来了两方面的显性劣势: 其一,基于树网联合的动静网络,真正实现了延时的极致之巅。 个别状况下,传统网络散发的提早大概是5-6秒,而GRTN在国内的传输提早约是100毫秒,延时降落了95%以上,极大晋升了响应能力。这背地,是阿里云GRTN降级了散发体系,将传统CDN树状构造中的一级网络、二级网络汇聚后再做分层,相当于从原来的层级网络变为对等网络,再依据以后流或工作,生成最优的传输门路,从而造成树状和网状联合的动静网络。 其二,基于全分布式下沉,真正将运力与算力达到极致交融。 GRTN是基于全分布式下沉的,既有核心也有本地和边缘节点,再加上现场计算或一些交融的资源,阿里云把这些都纳入GRTN治理起来,并按需调用。 不同类型资源依照不同的个性能够划分为核心云资源、边缘云资源和多云交融资源。将不同的异构资源交融,适配不同的业务和场景,从而达到用整个分布式的所有资源构建起一张网,提供传输、计算服务。 具体实际中,GRTN能够在一张网中实现传输和计算工作。当GRTN遇到实时计算流需要时,能够依照用户定义的触发条件,在流节点左近有资源的容器纳管平台,进行匹配计算,解决之后再推回到本节点,实现接下来的散发。 这一高效机制,离不开阿里云分布式容器平台的底座,它可能弹性、可扩大地实现核心、边缘等多个节点的异构资源纳管,并辅以算子的托管和触发条件自定义管制。基于此,才有了GRTN可实现Serverless规范的集算子公布、托管、触发、降级于一体的分布式计算平台。 正所谓,边缘的网络是边缘存在的基本,而算力场景在边缘产生、在云边之间协同。 03 繁星之境,普惠之光从商业的实质来说,无论技术利用多前瞻、数据指标多光鲜,如果无奈为更大公约数的企业、用户应用,都只是象牙塔外面的一纸实践。 普惠的最大感知,游走于公众之端。 阿里云边缘云服务的冬奥会、淘宝天猫为例,大量H5页面渲染的计算工作从源站SSR服务器剥离进去,前置到了边缘节点上。简略来说,即是客户端申请达到边缘,由边缘节点渲染拼接出残缺的Web页面并返回给客户端加载。因为边缘节点十分凑近客户端,极大缩短了网络链路,边缘渲染让H5页面加载耗时升高50%以上,直线晋升了用户的晦涩感官体验。 更重要的是,冬奥会、淘宝天猫这类在寰球范畴发展的业务,繁多的SSR源站很难确保寰球每个区域的拜访都有好的网络品质,那么将渲染服务前置到寰球笼罩的边缘节点,可保障每个区域的用户体验。 业务的变革之象,是普惠的开始。 过来,因为不足全域的算力笼罩和多状态的算力反对,很多翻新场景受限于能力和老本,最终空有创意而难以落地。而现在,边缘的弱小算力能够实现终端算力上移或云上算力大量下移,反对更多翻新场景走上良性倒退的轨道。 阿里云边缘云基于算力和网络基础设施的能力延展,联合自有飞天操作系统的技术积攒,在边缘,云网交融的能力失去极大积淀。算网交融,在边缘结点之间,在边缘和核心Region之间、在边缘和客户端之间,实现极致协同。恰好基于此,企业能更好地满足场景化的用户需要,做自若的算力流动,而这种流动的灵活性同样促成了翻新场景的层出不穷。 音视频、云游戏、云渲染、主动驾驶等场景尤为典型、成长也更为显著。近几年,边缘云尤其激发了新锐的云游戏的利用,仅2021一年,阿里云边缘云所带动的云游戏并发峰值就晋升了十倍多,也驱动更多用户涌入到云游戏行业而一直变革。与此同时,在主动驾驶畛域,阿里云边缘云所打造的车云协同能力,通过异构资源多节点部署,实现车机和终端就近接入时延小于20ms,破解行业之困。 从变革到落地,直面而来的肯定是老本。 边缘云通过云边协同部署,将数据散发和上传解决终结在边缘,大幅缩短数据搬运的间隔,真正实现了对业务综合老本的优化。 以支付宝App为例,每次的App启动都随同着一次版本同步的申请,这类逻辑简略但并发微小的申请,往往须要数百台服务器撑持,并且须要依据各类大促流动做好资源的扩缩容治理以保障业务失常。而当初,这类超高并发但逻辑简略的API服务往往间接部署在边缘节点,阿里云遍布寰球的3200个边缘节点有短缺的计算和存储资源,且具备人造的弹性,能保障所有的申请分到有计算资源的边缘节点进行解决,而无需人工扩容服务器集群,同时也极大缩小了往返核心服务器的申请和流量,用普惠的边缘算力和流量的云-边-端架构,可升高80%的计算和流量老本。 老本、变革、体验,这所有让算力不再高高居上,而有了平庸的视角和支力。 在云计算基础设施服务方面,阿里云边缘云基于对立的飞天底座,提供一云多芯、一云多态的云计算架构,从核心向边缘辐射,让算力无处不在。 据IDC最新数据,2021-2026年边缘云市场年均复合增长率达到40%以上,除了基于边缘云资源的传输与散发体系,越来越多边云协同场景的呈现、以及传统行业用户对“即服务”模式接受程度的进步,正在继续为市场注入生机。 与此同时,来自Gartner的《Competitive Landscape: Hyperscale Edge Solu-tion Providers》报告也提出最新预测,“到2025年,超过70%的组织将为其⾄少⼀个边缘计算零碎,部署超⼤规模云边缘解决⽅案,并会联合其云部署,这比例远⾼于2022年的不到15%。” ...

March 31, 2023 · 1 min · jiezi

关于云计算:念一句咒语-AI-就帮我写一个应用我人麻了

原文链接:https://forum.laf.run/d/232作为人类,咱们时常会有本人独特的想法和脑洞大开的创意。然而,这些想法往往因为老本过高而无奈实现,毕竟每个人的能力和精力都是无限的,尤其是对于程序员而言,不可能善于所有技术栈。为了实现一个想法去破费大量的精力学习业务之外的常识是得失相当的,再加上目前 AI 曾经崛起,工夫会变成越来越重要的老本,哪有那么多工夫学那么多货色,反正迟早都要被 AI 战胜~ 如何将本人的想法疾速实现是以后 AI 浪潮下迫切需要关怀的问题,所有都要快,没有工夫缓缓折腾了,快就是劣势。 用 Laf 的确够快,很多小伙伴用 Laf 几分钟就写了一个残缺的利用,比方 3 分钟将 ChatGPT 接入飞书机器人、钉钉机器人、Siri 等等,甚至有人 3 分钟写出了一个待办事项 App,霎时驯服了女神。 但这还不够快。如何能力更快呢? 我能不能吟唱一句咒语,立马就能生成相应的代码? 这不是胡思乱想,Laf 真的做到了,只需接入 ChatGPT 并用 Laf 的官网文档进行训练,再施加一点点魔法,就能够依据用户的咒语写代码了。用了 Laf 之后,人人都是魔法师,人人皆是妙手仙姑,快来一起“念咒”吧! 开始念咒https://laf.dev先进入利用的开发页面,你会看到左上角新增了一个“应用 AI 辅助创立函数”按钮,同时还新增了一个 “试试 Laf AI” 入口,这两个入口关上的都是同一个窗口,咱们任选一个关上即可。 给函数起个名字,再念一句咒语: 点击「开始生成」,接下来就是见证奇观的时刻: 尊敬的人类,您的魔法已失效,已依据您的需要帮您生成了一个函数,请查收。 好!点击「确定」,进入 IDE,测试一下这个函数有没有问题。通过 POST 办法将 username 和 password 传进去。 而后点击右上角的运行,胜利! 果然很强,到汇合页面看看数据有没有写到数据库里: 很好,这就是我想要的后果。尽管 AI 并不能齐全代替我的编码工作,然而程序世界并没有多少新鲜事,一个残缺的软件工程并不需要多少开创性的编码工作,很多编码工作都是反复的,应用 AI 能够极大地提高咱们的效率,尤其是函数计算,每一个函数的每一个模块都能够通过念咒来让 AI 生成,咱们只须要在 AI 生成的代码上做一些修修补补的工作。 只有你的魔法足够弱小,咒语念的足够好,大部分状况下甚至连修补都不须要,间接点击公布,你的利用就上线了,你说香不香? 实现原理你可能会好奇 Laf 是怎么实现这个性能的,其实也不难,对接 ChatGPT 就完事了。然而也没有这么简略,毕竟 ChatGPT 的常识截止到 2021,而 Laf 始终在更新迭代,要想让他精确地生成咱们想要的函数代码,必须要用 Laf 我的项目的最新信息去训练他(包含需要文档、API 文档、官网文档等等)。 ...

March 31, 2023 · 1 min · jiezi

关于云计算:聚焦就近与轻计算阿里云边缘云连续3年领跑

国内权威征询公司IDC公布 《中国边缘云市场解读(2022H1)》报告 中国边缘私有云服务市场 阿里云间断三年 第一 顾名思义边缘云“边缘”, 是物、⼈与⽹络数字世界连贯的物理地位,它是数字化转型、以及⼈、物和企业之间新交互的要害推动因素。 2016-2021年我国算力规模均匀每年增长46% ,面对爆发式的算力之需,边缘计算已呈疾速倒退之势,它满⾜了对凑近边缘解决数据的⽇益增⻓的需要。 边缘算力正是在以低延时、低成本,实现边端麻利作业、业务疾速迭代的需要下产生的。由此诞生的边缘云,最大的特色即是 “就近” ,即凑近用户侧和凑近数据。 这与集中式云计算不同,边缘云可提供弹性扩大的云服务能力,具备疾速响应和轻量计算的特点。 “就近”的价值,“轻计算”的能力,必然要失去商业层的开释。 IDC认为,“边缘云”是服务商或用户基于业务需要,将私有云服务或公有云解决方案由多数或单个计算节点(核心节点)向边缘节点天然延长而造成的服务或解决方案,典型状态包含边缘云服务与边缘云解决方案两类。 毋庸置疑, “边缘私有云服务市场” 是该赛道的主战场,以阿里云ENS为重要代表的基础设施产品以及边缘容器,始终是该市场的次要组成部分,同时,函数计算、视图计算、以及基于边缘云资源的平安服务等同样具备强劲的增长后劲。 迅猛之势,规模之首IDC《中国边缘云市场跟踪钻研》报告显示,2021年中国边缘云市场规模总计达50.4亿元人民币,2022上半年,中国边缘云总体市场规模达到30.7亿元人民币,市场同比增长50.8%。 边缘云市场蕴含边缘私有云服务、边缘专属云服务、边缘云解决方案,IDC数据显示,在2022上半年,其市场规模别离达到17.1、4.4和9.2亿元人民币。在其中,边缘私有云服务为赛道奉献超过一半的市场份额,且增速高达56.2%,且IDC预计,在将来五年,边缘私有云仍然是整个边缘云的最重要组成部分。 趁势深刻,在私有云服务市场中,阿里云边缘云显得尤为突出,自IDC推出中国边缘云市场跟踪,曾经间断三年稳居首位。此次的最新数据显示,2022年上半年,其占据中国边缘私有云市场份额的15.5%,在头部玩家高度汇集的赛道之上,持续演出第一的引领角色。 “边缘”的规模意味着算力的遍及之力。 阿里云实现了国内31个省的全面笼罩,也就是说,用户在中国大陆的这些区域内都能取得充分的算力撑持。同时,阿里云边缘云在海内部署了60多个节点,笼罩海内30多个国家,以亚太区域为外围,在欧美、中东非等区域均能提供算力反对。 在边缘结点算力建设上,阿里云在寰球提供500多个强有力的全节点,具备边缘云多态计算、交融存储、边缘数据库等所有云能力,通过共计170万核的通用算力CPU核,和400P FLOPS的异构算力核,以满足边缘翻新场景的算力之需。 在云计算基础设施服务方面,阿里云边缘云基于对立的飞天底座,提供一云多芯、一云多态的云计算架构,从核心向边缘辐射,让算力无处不在。 中国的边缘云技术曾经走在了世界的最前沿,而阿里云边缘云的规模能力,也代表着中国边缘云行业的缩影。 50%中国企业的“边缘刚需”静观当下的边缘云市场,看似没有巨大的花火之象,其实不然。 IDC Future Scape此次仍然提出预测,到2026年,50%中国企业的CIO将要求云和电信合作伙伴提供平安的云到边缘连接解决方案。 可见其将来之势。 边缘为何有如此之强的“魔力”?在于它所牵动的价值:体验颠覆、业务变革、老本升高。 边缘云就近的特色,满足海量数据传输的就近门路。过来,传统网络散发的提早大概是5-6秒,但算网交融下的传输提早约是100ms,很多过来从核心或远距离,不能大规模数据传输的超清视频流,现在能够失去极好的反对。而主动驾驶场景下的车机和终端就近接入时延,也因边缘之力达到小于20ms。 同时,回看过来,咱们不足全域的算力笼罩和多状态的算力反对,很多翻新场景受限于能力和老本,空有创意而难以落地。现在,边缘的弱小算力能够实现终端算力上移或者云上算力大量下移,领有更多业务变革的空间和可能,如智能家居、智慧场馆、智慧批发、智慧厂区等泛滥场景都以此摸索冲破。 有了边缘云,在老本视角,更加显性。通过云边协同部署,数据的散发和上传解决终结在边缘,大幅缩短数据搬运的间隔,必然会带来业务综合老本的优化。利用普惠的边缘算力和流量的云-边-端架构,不同场景的算力和流量节俭能够达到80%以上。 不仅如此,边缘云的产品与服务状态也在跨越式演进。从最后的流量延长,拓延到更强的资源服务,如云主机、对象存储、容器、异构算力,而在此之上,翻新降级,摸索更多的视图计算、平安服务、边缘训练与推理等等。而边缘云的这条演进之路,更是如阿里云这样的实力服务商和对翻新满存期望的客户,独特摸索,推演而前。 依据IDC最新预测,2021-2026年的边缘云市场年均复合增长率达到40%以上,除了基于边缘云资源的传输与散发体系,越来越多边云协同场景的呈现、以及传统行业用户对“即服务”模式接受程度的进步,正在继续为市场注入生机。 能够看到,在互联网音视频和云游戏外,诸如安防视频数据的边缘存储、基于边缘节点的渲染、AI推理以及更宽泛的虚拟现实利用等新的边云协同场景涌现而出,这所有曾经对核心与边缘协同的数据存储形式、宽泛分布式的边缘算力提出了更多需要。 在边缘算力趋于刚需的背景下,从老本升高、体验颠覆,再到业务变革,边缘云为场景带来了诸多便当与可能,越来越多的客户正在构建起核心与边缘协同的分布式IT架构,基于宽泛边缘节点资源,重构局部或全副IT性能,实现基于边缘的数据闭环。 IDC此次也提出新预测,到2026年,中国边缘云总体市场规模将达到354亿人民币。 这是不可小觑的量级,更是不可估量的将来。

March 31, 2023 · 1 min · jiezi

关于云计算:资源管理新功能发布一资源中心支持全局资源搜索和管理

概述客户在云上通常保有多种云资源,多地区部署服务。对于大型企业客户来说,资源可能散布在不同的云账号内。多账号、多产品、多地区的资源构造给用户在资源管理上带来了肯定的挑战。当用户收到告警告诉,查找资源耗时繁琐;因为资源扩散不足对立视角,理解云上资源全貌很艰难;云上资源若要同步到云管平台,须要调各云产品的API,老本高、资源同步不及时;扩散的运维工具让问题排查、故障定位不便当。 资源核心反对跨账号、跨产品、跨地区的全局资源视图及资源搜寻能力。您能够查看和获取全局资源列表,对云上资源全貌了然于心。您能够基于地区、产品、资源类型、资源ID、资源名称或资源标签作为筛选条件进行资源搜寻。对于搜寻后果,反对一键跳转到对应云服务控制台进行下一步操作,让云上资源查找、治理更便捷。 点击资源管理控制台,可理解更多详情产品特点及劣势资源核心对用户屏蔽不同云产品的差异性,为您提供对立的资源查问服务。 外围价值: 1、云上资源查找更简略用户能够应用地区、产品、资源类型、资源ID、资源名称、资源标签、资源组作为查问条件,查找相干资源。 2、云上资源可视会集跨账号、跨产品、跨地区的资源信息。 跨账号阐明:如果用户应用资源目录治理云上多个账号,治理账号能够查看和搜寻资源目录内所有成员的云上资源。 3、进步运维管理效率反对从搜寻后果中,一键点击疾速导航到相应资源的服务控制台做进一步操作。 阐明:点击跳转到资源控制台的性能,不反对跨账号; 反对对选中的资源,批量设置标签、批量转移资源组。同时,资源核心和操作审计、配置审计等服务集成,反对用户在资源核心控制台资源详情页间接查看该资源的配置变更历史、操作日志记录,进步定位资源和问题排查的效率。 产品原理简介 资源数据的获取形式 资源核心通过调用云产品的资源查问或列出API,来获取用户的云资源数据。在您首次应用资源核心时须要先开明资源核心,开明后零碎会主动创立一个名为AliyunServiceRoleForResourceMetaCenter服务关联角色,资源核心将应用该角色获取您的云上资源信息并构建您的资源核心。 资源核心对用户资源的每次检索,都可通过操作审计服务查问日志记录。如下图操作者显示为aliyunserviceroleforresourcemetacenter的RAM角色,即为资源核心更新检索您的云上资源的申请日志。 资源数据的鉴权 用户在资源核心中,仅能查看被授予了拜访权限的云资源。如果RAM用户仅具备资源核心应用权限,而没有云资源的拜访权限时,该RAM用户在资源核心中无奈查看到任何云资源数据。此时,您须要为RAM用户授予对应云资源的权限。例如:您心愿RAM用户能够在资源核心仅查看VPC实例,您须要为RAM用户授予零碎权限策略AliyunVPCReadOnlyAccess。 一个云账号内的云资源,可能属于不同的项目组。若您心愿不同项目组的成员,仅能查看和治理项目组内的资源。 此时您能够通过资源组对资源进行分组治理,将不同我的项目的资源划分到不同的资源组,并给我的项目成员授予对应资源组的权限。 如上图的示例,用户A在资源核心中,仅能看到资源组1和资源组2的资源列表。用户B在资源核心中,仅能查看资源组3中的资源列表。满足云上用户分组自治,数据隔离的诉求。 资源数据的更新机制 操作审计服务会记录用户对云资源的增删改查操作。资源核心在获取到操作审计中某云资源的变更事件时,会触发资源核心对该云资源的实时更新。因而当资源产生变更时,资源核心通常会在几分钟内检索并更新您的资源数据,通过此机制可大幅晋升资源核心数据的更新时效性。 资源核心反对的云产品 资源核心反对的云服务范畴,请参见已反对资源核心的云产品列表。跨账号资源搜寻如果您应用资源目录治理多个阿里云账号,应用跨账号资源搜寻性能,资源目录治理账号或委派治理账号能够查看和检索资源目录内所有成员的云上资源。您能够分层分级查看不同节点、不同账号、不同资源组内的云资源,云上资源全局可见。 原文链接 本文为阿里云原创内容,未经容许不得转载。

March 29, 2023 · 1 min · jiezi

关于云计算:借AI之势打破创意与想象的边界

IMMENSE、36氪|作者 01 “将来是属于AI的”3月2日,内容创作圈大地震。 就在3月2日凌晨,OpenAI发表凋谢ChatGPT本体模型API,其价格为1k tokens/$0.002。也就是说,从这一天开始,任何企业都能让ChatGPT为本人打工,而价格仅仅是每输入100万个单词18元人民币(2.7美元) 。 如果对这个价格没有概念的话,举个例子。往年,河南省鹤壁市淇县某机动车培修店招聘文案编辑,店里开出的最低薪酬是2000元/月,学历不限。 图片方面,早在ChatGPT走红之前,AI绘画早已引发了艺术圈的一场大地震。 去年9月,一幅由AI创作的绘画作品 《太空歌剧院》 取得美国科罗拉多州艺术博览会数字艺术类别冠军,简直标记着AI作画的“AlphaGo时刻”。 《太空歌剧院》(Théâtre D'opéra Spatial) 这幅作品是基于AI生成的画作加上人类画师的前期绘制,这一点被业内人士大为诟病,指摘作者以AI为噱头,实际上仍旧须要人类加工。 这些质疑AI作画能力的人疏忽了一个重要因素——进化。 人们往往极大低估了AI大模型的学习与提高能力。仅仅在几年之前,人工智能还是被戏称为“人工智障”的存在。人们时常拿间或呈现的“翻车”案例证实AI与人类的差距,却疏忽了这项技术在最近数年间突飞猛进的进化能力。 在知乎“AI绘画半年了,到目前为止,AI绘画让多少画师就业了?将来又会有多少?”的这条问题底下,3202人点赞了同一条答复: “AI对美术行业的冲击是微小的,这个效应会在将来两三年随着显卡降级大暴发,美术行业会变的卷中卷,50%的人可能面临转行。” “……我只是在做劝退而已,我心愿新人不要跳火坑了,将来是属于AI的。” 兴许有人认为,文字与图片都是高度结构化的信息,可能被轻易代替无可非议。然而,视频内容信息量大、非结构性数据多,是AI尚未攻克的坚硬堡垒,也是内容创作者最初一块自留地。 事实并非如此。 早些年DeepFake换脸带来的恐慌暂且不管,近年间,谷歌、Meta(Facebook)陆续公布Phenaki、Imagen Video、Make-A-Video AI视频主动生成模型,其成果有时足以以假乱真。 没有创作者可能和这样的力量抗争。 02 “没有人的文化,毫无意义”在ChatGPT刚火起来那阵子,网上流传过一个笑话: “快进到10年当前,乙方计划全副由ChatGPT生成,甲方计划全副由ChatGPT审核。单方单干大半年,一点工作没干过。” 这个笑话引人发笑的荒诞之处不言而喻——单方的工作都没有意义。 如果更进一步思考,什么是意义? 独一无二,在今年春节档爆款电影《漂泊地球2》中,一句广为流传的台词给出了答案:“没有人的文化,毫无意义。 ” 是的,ChatGPT实质上仍旧是为人类所设计、制作、应用的工具,认为这项技术将会代替人类文明实际上是一种轻重倒置。 就像历史上其他人认为狐疑自我存在意义的时刻一样,在工业革命之后,电视、计算机、手机、互联网、云计算,这种种新兴科技产品都曾在不同时间段引发过人们的恐慌。 人工智能也不例外。早在1997年,IBM的深蓝计算机就已在国际象棋较量中战胜了世界冠军卡斯帕罗夫。寰球在深蓝博得较量之后陷入了兴奋与恐慌,“机器将会在将来取代人类,霸占地球”的舆论层出不穷。 可事实上,20多年过来了,现在咱们每一个人的智能手机算力都足以与当年的深蓝相匹敌,但人类文明并没有因而而终结。 正如美国政治记者与作家诺曼·卡曾斯在其1935~1974年所撰写的《人的抉择》一书中所载:文化的建设,靠的不是机器,而是思维。 21世纪的明天,机器霸占人类文明的事件岂但没有产生,科技、工业、自动化的提高反而让边远山区通水通电,让大规模生产日用品的价格低到人人可享,让每一个人的生存都比咱们两个世纪以前最优渥的先人都要更便捷、更丰腴、更自在。 即使是现在引发大量恐慌的ChatGPT类AIGC技术,也在一直被使用于普惠人类、升高服务门槛的中央。 比方,基于人口统计学、相干的病史或流行病学危险因素,Glass.health AI可能辅助医生更疾速、更精确地诊断病人; 而基于AI文档剖析技术,Humata.ai可能疾速帮忙用户提取文档中的有价值信息,升高技术文档、法律文档等业余文件的浏览难度,让不足相干训练的普罗公众可能更好地爱护本身利益; 基于AI文本摘要和TTS技术生成的口播文案,AI绘画生成的贴纸、特效等一直利用在短视频生产畛域,进一步升高了短视频生产门槛,越来越多的内容创作者搭上了短视频的“慢车”。 其余对于AI写作、AI绘画、AI视频等的AI创作工具则更是层出不穷。小到脚本错别字查看,大到分镜设计与画面排版,已经困难重重的内容创作环节被一直拆解重构,升高入门门槛。 而AI与AI使用者的关系,也在这一次次的工具迭代之中,被时代所一直解构、重组、赋予了新的外延。 举个例子,2021年5月,安徽的一名小伙子忽然在网络上走红。 此前的几年间,通过AI技术,他累计帮忙了超过500人“复活”了亲人们的老照片。那些泛黄含糊的照片通过他一顿操作,不仅变得更清晰亮堂,还能朝着电脑前的亲人眨眼、微笑、摆头。 看着本人6岁时就逝世的父亲从新在电脑屏幕上“活过来”,那些哭得情难自禁的情景,兴许才是AI与文化的实在意义。 03 是颠覆者,更是解放者在祛除了对AI的盲目崇拜与自觉恐怖之后,咱们终于能够略微感性地对待AIGC这回事。 始终以来,在内容创作的过程中,都存在着大量的反复动作,它们繁琐、冗余、耗时极长却又实质上与创作无关。 比方,文稿校对者为了找出错别字,一次又一次地反复浏览一篇文章,读得眼睛都发酸、发胀。 再比方,画家灵感爆发,在画布上挥毫而就一幅巨作,而后花上十倍的工夫对整幅画面的每一处细节反复勾线、加暗影、卡灵通、勾线、加暗影、卡灵通…… 视频制作则更是重灾区。视频拍摄的原始素材动辄长达几十、甚至几百小时,前期剪辑师不仅要用肉眼逐个观看,还要一而再再而三地对其进行反复辨认、筛选、剪辑切割,在AI呈现之前还要用耳朵一遍遍听原片内容,手动增加字幕。 这些过程既无趣,又简短,而且与真正的人类创造力简直毫无关系。创作者们的大量精力都被扩散到了这些反复环节,真正用来创作的局部少之又少。 AIGC对于内容创作者的意义,正是将他们解放出来,让创作者的精力更好地用于摸索创意极限,而反复、繁杂的工作交给AIGC,让创作者的产能不再受到制约,让优质内容可能爆炸式增长。 听起来这一天仿佛很边远,但实际上,由AI辅助生成的创意内容曾经来到了咱们身边。 去年冬奥期间,央视体育新媒体和总台技术团队联结阿里云视频云、达摩院,打造了“AI云智剪”智能视频剪辑工具。 基于阿里AI视频了解技术EMC2与阿里云弱小的流媒体解决能力,AI云智剪可能实时解析并提取赛事视频中的运动员信息、精彩动作、镜头类型、赛程信息、运动员特点等,并主动生成多种类型的集锦视频,大规模解放剪辑师压力。 去年整个冬奥期间,阿里AI云智剪共生产出39878段素材,时长超过200小时,笼罩超200场较量。 除了AI视频生成之外,通过和云计算联合,AIGC还可能从本源上颠覆电视台与演播室的工作流程,将本来宏大、简单、低廉的演播环节,全副集成在一台一般的手机上。 比方,在间断多届的全国两会期间,人民日报新媒体记者的手机里就装进了一款内容创作增效“神器”:两会“AI编辑部”挪动版。 这是基于阿里云视频云的“AI编辑部” 衍生而来的定制化智能媒体生产产品。通过“AI编辑部”,记者所拍摄的现场视频素材既能由5G网络同步回传前方,也能由记者在后方即时剪辑。从发现线索、获取素材,到拍摄制作、审核签发,以及发动直播、连麦访谈等系列动作,都能通过一部手机实时实现。 在以后的AIGC畛域,AI全自动生成的文字与图片,在不少时刻都简直能达到“以假乱真”的成果。在视频制作畛域,比照文字、图片,视频的信息量最大、非结构化数据最多,AI须要对于视频内人物、物品、场景、关系等高阶信息进行了解,加之视频制作自身对于审美、节奏、画面、BGM的极高要求…… AI全自动生成过程尽管略显漫长,但并不是那么天方夜谭的将来。 冬奥会的AI云智剪,面向特定的赛事场景,限定了素材集的范畴,套用成熟的编排模式,由AI负责素材的预处理,并按预设模版进行编排,这是AIGC的序曲,实现了视频全智能生产的第一个阶段。 AIGC的第二个阶段,AI除了负责素材的预处理,还能实现本属于视频创意环节的编排工作,从而实现智能批量混剪。 ...

March 29, 2023 · 1 min · jiezi

关于云计算:龙蜥白皮书精选跨云边端的只读文件系统-EROFS

文/徐静波 01 背景概述在云原生、桌面、终端等应用领域,为了高效可信构建,散发和运行镜像,解决方案个别偏向抉择只读计划,其劣势在于散发和签名校验、写爱护、器件故障牢靠复原等。通用文件系统如 EXT4 和 XFS 往往不能充沛满足镜像极致大小、压缩、去重及可复现构建等需要,且通用文件系统冷门个性会减少格局复杂度,影响散发和执行环节的安全性和可控性,因而打造 Linux下高性能自蕴含内核只读文件系统能更好地服务容器、终端、集群 OS 等业务场景。 02 技术计划EROFS 是为高性能只读场景量身打造的内核文件系统,提供了多层镜像、通明压缩、块去重、原生按需加载、FSDAX 内存间接拜访等个性,于 Linux 5.4 正式合入Linux主线。在容器镜像畛域,通过与 CNCF Dragonfly 的 Nydus 镜像服务深度交融,打造了 RAFSv6、FS-Cache 等技术,服务容器 runC、Kata 等场景,将来还将发力 page cache 内存共享进一步提供内存超卖能力。在终端畛域已成为 Android Open Source Project 举荐的零碎分区文件系统格局。 技术劣势: Linux 内核原生,通过压缩,块去重,字节滚动压缩去重节俭镜像存储空间。原地解压等技术进一步优化运行态内存占用,晋升性能。提供内核原生按需加载能力,从源头解决 FUSE 额定拷贝和上下文切换开销。利用场景:容器/App/零碎镜像、软件包治理、AI 数据散发、函数计算、秘密计算、无盘启动、装置器等。 03 基于 EROFS + FS-Cache 优化 Nydus 镜像按需加载EROFS over FS-Cache 是龙蜥社区牵头为 Nydus 和 EROFS 开发的下一代容器镜像按需加载技术,同时也是 Linux 内核原生的镜像按需加载个性,于 5.19 合入内核社区主线。该计划将按需加载的缓存治理通过 FS-Cache 框架下沉到内核态执行,当镜像已在本地缓存时,相比用户态计划可无效防止内核态/ 用户态上下文切换和内存拷贝;当缓存未命中时,再告诉用户态通过网络获取数据,做到真正的“按需”,非按需场景下实现简直无损的性能和稳定性。 在按需加载场景,EROFS over FS-Cache 相比 FUSE 性能更优(注:数据为三次测试取平均值): ...

March 28, 2023 · 1 min · jiezi

关于云计算:CNStack-网络插件hybridnet-的设计与实现

CNStack 是阿里云推出的一款凋谢的一站式企业级云原生技术中台。在异构的混合云基础设施上,对资源进行对立纳管和优化调度,以凋谢的、云原生的形式为平台及业务零碎提供生产可用的产品及组件,帮忙用户打造满足大规模、高性能、合规性和业务连续性等要求的分布式应用零碎,晋升企业数字化转型的整体效力。hybridnet 是 CNStack 应用的容器网络实现,同时也是阿里云推出的唯二开源通用 K8s 网络插件实现之一。 开源仓库地址:https://github.com/alibaba/hybridnet解释下“通用”俩字,阿里云目前存在两种开源 K8s 网络插件实现:terway、hybridnet。与 hybridnet 网络插件不同,terway 网络插件是与阿里云基础设施紧密结合的,并不思考在非阿里云私有云基础设施环境部署的状况,而 hybridnet 更像是相似 flannel、calico 的社区解决方案,反对在任意环境拉起和部署。本文会详细描述 hybridnet 网络插件的设计与实现。 背景从诞生到当初,在阿里外部 hybridnet 始终承载的是“私有化交付基石”的角色,即为以 K8s 为交付媒介的 PaaS/SaaS 产品提供在客户线下机房的网络部署、运维能力,其性质看起来也就和 “为所有人提供 K8s 网络” 更加相似,咱们对 hybridnet 的冀望有几点: 架构简略、性能稳固。对于要交付到客户线下机房的产品,一旦呈现问题,排查老本是十分高的,稳定性是重中之重。“On Anywhere” 部署。这的确是一开始的冀望,听起来不堪设想,但某种程度上的确实现了。灵便。可能满足不同客户性能需要以及就宽泛通用场景进行性能扩大。运维简略。负责交付施行的同学可能疾速上手。当然,社区也存在泛滥优良的网络插件实现,咱们也对其进行了理解和调研,总结下最终没有采纳的起因: 社区网络插件的网络模式是绝对简略的,不是 overlay 就是 underlay,看下来没法既实现 “On Anywhere” 部署,又满足客户对于 underlay 网络场景的需要(性能或者网络买通)。对于 underlay 网络场景需要,社区提供的支流解决形式始终是 “只提供通过 bgp 宣告路由” 的形式,这种形式对没有进行 bgp 组网的公司并不是很敌对,咱们仍须要没有 bgp 条件环境下的容器网络实现(也就是 vlan 形式),这方面社区并没有十分成熟的计划。大部分社区网络插件的 ip 调配是 “为节点调配网段” 的模型,仿佛并没有思考处于 “传统运维” 过渡到 “云原生运维” 阶段用户可能存在的“须要容器固定 ip 被拜访”的场景,也难以扩大实现。局部社区网络插件的技术体系(ovs、ebpf)在运维、二次开发方面的门槛和老本比拟高。设计与实现如何 “On Anywhere”在设计之初,须要想明确的一个问题是:如何既实现 “On Anywhere” 部署又满足客户对于 underlay 网络场景的需要?首先咱们要了解 overlay、underlay 在交付场景下的不同意义。 ...

March 27, 2023 · 7 min · jiezi

关于云计算:智能选路系统与架构

01 背景阿里云作为亚太第一云厂商,须要服务各种各样的细分畛域客户,例如 3C、游戏、网页减速等客户。近年来,随着视频征询类客户的蓬勃发展(头条),低提早、高可用的寰球网络需要也越来越旺盛。因而,在“全站减速”架构设计之初,就须要思考如何为海量客户构建差异化的低提早网络。 阿里云目前曾经建设有 2800+个寰球节点,但这些节点的带宽能力、互联互通能力、对 TCP/QUIC 等传输协定兼容能力都不尽相同。因而,如何在这种简单的、多维束缚的网络环境中抉择适合的网络通道(即智能选路),就变得非常重要了。 02 海量客户的智能选路从图论的角度看,CDN 节点、客户源站相似于图中的节点(node),节点间网络、回源网络相似于图中的 edge,由这两者组成的有向图 G(node, edge),就是智能选路须要求解的选集。 所以智能选路零碎实质上是:在有向图 G 中寻找最“短”门路的过程。尽管这个“短”会叠加上很多定语,例如:在带宽容许的状况下,在跳数限度的状况下(因为跳数越多,老本越高)。但为了简化问题,能够先不思考这些定语,即有限资源场景下的智能选路。这在产品上线晚期,客户少、带宽等资源占用少的时候,是比拟实用的。 1.最短门路 介绍智能选路零碎绕不开的一点,就是最短门路算法的选型。思考到理论公网中,是不会存在负权重的场景,因而只须要在 Dijkstra(单源最短门路,以下简称 D 算法)、Floyd(多源最短门路,以下简称 F 算法)中抉择即可。 乍一看,要解决海量客户的智能选路问题,仿佛就应该抉择 F 算法,但认真想想其实应该组合应用。智能选路是要解决客户端到源站的最短门路问题,它是不须要计算不同源站间的最短距离的,即它不是一个 P2P 的选路问题。随着客户源站数量的一直增长,算法所需的邻接矩阵会越来越稠密,这时候 D 算法的性能劣势就展示进去了。 当然 F 算法也不是一无是处的。把智能选路合成为 2 个子问题:CDN 节点间最短问题 + 回源网络最短问题,思考 CDN 节点间网络是强连通的浓密网络,因而求解过程用 F 算法会比 D 算法更快。在求解全链路最短问题是时再应用 D 算法。这种算法组合能获取 1 个数量级的计算耗时缩短(当然,晋升多少其实也取决于客户源站数量级)。 2.多样门路 从高可用(即零碎稳定性)的角度看,任意 2 点间只给出 1 条最短门路是不够的。因为一旦这条门路上的光线被挖断、节点因故障下线等影响,都会导致客户服务的短时间不可用。 上述影响是比拟常见,也比拟容易构想到的问题,但其实还有数据提早(工夫)问题,因为智能选路零碎构建的网络拓扑不可能是齐全实时的,总是有肯定提早存在的。如果 T-1 时刻的网络较好,但 T 时刻网络异样时,智能选路零碎用 T-1 时刻的网络拓扑计算的选路后果必定是有问题的,而网络异样又是难以预测的,因而减少冗余的门路就显得极为重要了。 所以原则上,起码要同时提供 2 条绝对较短的门路。这在学术上个别称之为 k-shortest 门路问题。间接套用学术界的算法会有一些比拟蹩脚的问题:1)只有 k 是大于 1 的值,求解耗时个别呈指数级上涨,会导致计算太慢(即故障切换时也慢);2)学术届个别都是思考严格意义的第 2 短、第 3 短门路等,不思考门路重叠的问题。在理论公网传输的场景中,一旦挖断的光纤是主备门路的公共段,还是会导致客户服务的短时不可用。因而须要工程化的高效的、多样的备门路能被筛选进去。 ...

March 27, 2023 · 1 min · jiezi

关于云计算:基础篇丨链路追踪Tracing其实很简单

一、分布式链路追踪的起源当周末躺在被窝里,点外卖时;双 11 的零点,疯狂提交订单时;假期和基友激情开黑,五杀超神…在这个精彩纷呈的互联网世界里,这些利用背地又暗藏着什么?每一次点击行为在 IT 世界里会流经哪些节点,调用哪些服务,带来哪些变动?这所有庞杂且精细,超出了人力摸索的边界,而分布式链路追踪就是追溯申请在 IT 零碎间流转门路与状态的一门技术。接下来,让咱们通过对分布式链路追踪的来理解这个 IT 世界! 说到分布式链路追踪,就绕不开分布式系统与微服务的衰亡。晚期 IT 零碎非常简单,简直所有程序都运行在同一个节点,相互之间也没有什么依赖。但随着硬件技术突飞猛进,硬件老本大幅降落,软件复杂度却越来越高。繁多零碎性能无奈满足简单的数据计算工作,而软件逻辑的复杂性也导致保护老本大幅回升。另外,单节点的可靠性也难以保障,不可避免的会偶然呈现宕机等行为,影响软件的可用性。“性能、可维护性和可用性”这三大因素促使了分布式系统与微服务的诞生。 为了解决上述问题,人们很天然想到:既然一个硬件节点无奈很好的运行软件,那能不能够通过多个节点来共同完成?并且为不同节点分派不同工作去提高效率。就好比通过不同角色分工协同的汽车生产流水线,分布式系统与微服务的理念亦是如此,如下图所示。 分布式系统与微服务自诞生就被广泛应用,次要得益于以下劣势: 扩展性分布式系统人造具备“按需扩大”的能力,比方双 11 大促前通过增加机器实现疾速程度扩容,大促完结后开释机器,充分利用云计算的分时复用能力,节约老本。利用微服务,还能够实现按需精准扩容,比方登录服务扩容 10 倍,下单服务扩容3倍,最大化的节俭资源。 可靠性分布式系统能够无效抵制“单点危险”,不会因为某一个节点的故障,影响整体的服务可用性。联合流量调度、离群实例摘除和弹性扩容等技术,甚至能够实现故障自愈。 可维护性分布式系统可维护性更强,一方面咱们将一个简单服务拆分成多个简略的微服务,每个微服务的逻辑都更加清晰、更易了解。就好比咱们写代码,将一个几百行的简单函数重形成若干个简略函数,代码可读性就会直线回升。另一方面,一些通用的微服务能够被高度复用,无需反复开发和保护,比方你在开发一个电商 APP,能够间接调用第三方提供的领取、物流等服务接口,整体开发和保护效率将大幅晋升。 尽管分布式系统与微服务具备十分显著劣势,但凡事无利必有弊,它们在无效解决原有问题根底上,也为零碎开发和运维带来了新挑战,次要包含以下几点: 模糊性随着零碎的分布式水平越来越高,异样表象与根因之间的逻辑联系变得更加含糊,问题诊断的难度急剧回升。比方 A、B 两个服务共享同一个数据库实例,当 A 服务在压测期间,大量占用数据库的服务端连贯和计算资源,会导致 B 服务呈现连贯超时或响应变慢等问题。如果 B 服务是通过 C 服务间接依赖该数据库实例,问题的定位就会变得更加艰难。 不统一尽管分布式应用从总体上变的更加牢靠,然而每一个独立节点的状态却难以保障。导致这种不统一的起因有很多,比方前文提到的单机故障这种预期外的不统一,或者利用 Owner 执行分批公布或流量灰度时导致的预期内行为不统一。这种不一致性导致咱们难以确定一个用户申请在零碎内的精确执行门路与行为逻辑,可能引发不可预知的逻辑劫难。 去中心化当你的零碎领有上千个微服务镜像运行在数百台机器实例上,你该如何梳理它们之间的依赖关系,又该如何找到外围业务的要害执行门路?特地是在分布式的场景下,你没有一个中心化的节点(Master)来保留每个服务之间的依赖与调度状态,每个独立节点都在自行其是,无奈分辨本人在整个零碎中的地位,只能“盲人摸象、管中窥豹”,不足全局视图。 分布式系统与微服务带来的新挑战无疑让人头痛,但也带来了新技术的倒退契机,科技的倒退总是这样周而复始,螺旋式回升。它们带来的新问题,促使了分布式链路追踪的诞生,使你可能无效的察看全局,追踪流量。咱们将在下个章节理解分布式链路追踪的诞生历程与核心理念。 二、分布式链路追踪的诞生为了应答分布式环境下的不统一、模糊性等前文提到的各类问题问题,人们试图通过申请粒度的轨迹追踪与数据透传,实现节点间的确定性关联,分布式链路追踪技术也由此诞生。 里程碑事件:Google Dapper分布式链路追踪诞生的标志性事件就是 Google Dapper 论文的发表。2010 年 4 月,Benjamin H. Sigelman 等人在 Google Technical Report 上发表了《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,揭开了分布式链路追踪的技术大幕,开启了一段全新技术浪潮。 Dapper 首先明确了分布式链路追踪的两个指标:任意部署和继续监测。进而给出了三个具体的设计准则: 低开销:确保外围零碎不会因为额定的性能开销回绝应用。利用级通明:对利用开发通明,无需开发人员的帮助,升高接入门槛,进步迭代效率。可扩大:在将来相当长一段时间内,随着业务的高速倒退,依然能够无效运行。上面几张图展现了 Dapper 对链路透传、调用链构造和数据采集流程的形容,咱们将在后续章节具体开展介绍,对 Dapper 感兴趣的同学倡议间接浏览原作。 ...

March 24, 2023 · 2 min · jiezi

关于云计算:应对网络不可靠挑战用-OpenYurt-实现边缘业务连续性

背景OpenYurt 我的项目的使命是将 Kubernetes 在云端弱小的管控能力下放到边缘测,把海量的异构边缘资源纳入进一个对立的边缘计算平台中。但边缘场景的一些特点并不合乎为在云上运行而设计的 Kubernetes 的预设。这也正是 OpenYurt 须要解决的问题。边缘自治能力就是在这样的背景下诞生的。 与平安稳固的云上网络环境不同,在边缘场景中,边缘节点与云上的节点通常是不在一个网络立体内,须要通过公网与云端连贯。公网连贯带来了几方面的问题,比方昂扬的公网流量老本,跨网域通信能力的需要以及本文所关注的公网连贯的不稳定性问题。这些在 OpenYurt 体系里都失去了很好的解决。 咱们明天次要想和大家分享 OpenYurt 社区针对最初一个问题的思考,以及针对其而设计的 OpenYurt 边缘自治能力。 Kubernetes 在不稳固网络环境下的问题咱们先看看原生 Kubernetes 在不稳固网络环境下会如何体现。当一个 Node 节点网络连接中断,那么接下来在 Kubernetes 集群会有一系列的动作来解决这个事件[1]。 Node 节点上的 kubelet 在 10s 内发现网络问题,并且更新 NodeStatus,然而因为网络断开无奈上报到 Control Plane。Control Plane 的 NodeLifeCycle Controller 在 40s 内接管不到 Node 的心跳,该节点状态被调整为 Not Ready,不会再有新的 Pod 调度到该节点上。Control Plane 的 NodeLifeCycle Controller 在 5min 内接管不到 Node 的心跳,开始驱赶 Node 节点上所有的 Pod。当一个节点无奈上报心跳,Kubernetes 集群据此判断该节点存在异样,作为异样资源它不再适宜反对下层的利用。这样的做法对于数据中心里全天 24h 随时在线的机器是适合的,但在网络环境简单的边缘场景里,这样的策略就有待商讨了。 首先,在一些边缘场景中,边缘节点须要被动地中断网络连接来反对断网保护的需要,此时原生 Kubernetes 会驱赶边缘容器,一些边缘组件也会因为 APIServer 无奈连贯,资源同步失败而报错,甚至退出,这显然是无奈承受的。更深刻一些,节点无奈上报心跳这个景象背地可能有两方面的起因,要么是机器故障带着所有的 workload 一起挂掉了,要么是机器仍在失常运行但网络断连。Kubernetes 对这两种状况不做别离,间接将没有心跳的节点置为 Not Ready。但在边缘场景中,网络断连是一种常见的场景甚至需要,咱们能不能分辨出这两类起因,仅在节点故障时才对 Pod 进行迁徙重建。 ...

March 24, 2023 · 1 min · jiezi

关于云计算:火山引擎边缘渲染驱动游戏体验升级

[中国,南京,2023 年 3 月 2 日] 以“算网交融,加数互联”为主题的 2023 中国移动互联网行业峰会在南京举办,火山引擎介绍了基于边缘云的渲染新利用,继续驱动游戏体验降级,减速赋能泛数字化场景降级。 火山引擎边缘云高级产品总监沈建发示意:“「激发发明,开释潜能」是火山引擎的使命,咱们将以寰球当先的智能技术引擎,为千行百业提供弱小、平安、稳固的产品及服务,助力企业打造数字化降级过程中的云上增长新动力。” “基于边缘云的渲染”已成游戏行业共识,成为确定性发展趋势近几年,国产动漫正在悄悄崛起,越来越多的年老电影人都投入到了国漫创作中,观众也对国产动漫更加期待。在《“十四五”数字经济倒退布局》中明确提出要倒退互动视频、沉迷式视频、云游戏等翻新业务。 依据艾瑞征询公布的《2022 年中国云游戏行业钻研报告》中显示,2021 年中国云游戏市场规模约为 34 亿元,同比增长 54.5%,同时在 2021 年里,中国云游戏均匀月活用户规模达到 7000 万人,同比增长 32.7%。相较玩家对云游戏的高度激情,大部分云游戏平台上的内容还稍显冷清,不仅上线的新游戏数量少,且其中的云游戏更是百里挑一。 面对这样的状况,一方面是云游戏技术不成熟所导致;另一方面,大多数云游戏平台无奈让用户的体验造成闭环,也使得用户难以留存,产品价值空间放大。 除此之外,时延、游戏体验是云游戏倒退的重要属性,保障游戏的品质也将是云游戏的一大难点。如何基于边缘计算来构建渲染服务为云游戏玩家带来沉迷式的体验? 在更凑近用户的地位,做深场景:边缘计算作为整体的算力底座,提供通用、高效、低时延的算力资源。以视频的“内容属性”与游戏的“交互属性”相结合,保障用户稳固、无设施限度、高品质、超低时延的游戏体验。All in one 的异构算力,极致体验:基于边缘云原生操作系统,提供边缘计算节点、边缘容器、边缘函数等 All in one 的异构算力解决方案,满足渲染、云游戏等不同场景的多样化算力和网络需要。超强沉迷感的云游戏,冲破藩篱:区别于端游、网游和手游等,云游戏的游戏资源、运行、渲染都须要在云端实现,相当于用户在云端玩游戏,边缘计算提供高性能的图像渲染算力,从而保障用户在游戏中体验的逼真度。关键技术一直成熟和利用场景验证通过,让云游戏新体验触手可及业务倒退,从内容触达演进为体验触达 在应用层:边缘渲染农场和边缘实时渲染,基于边缘云原生操作系统构建的 PaaS 和 SaaS 平台,通过智能调度、资源编排等外围能力,配合优化的网络传输协定和实时音视频通信协定,为影视动画制作、虚构培训、数字人、云游戏、AR/VR 等场景提供高质量的实时渲染和离线渲染能力。在平台层:边缘计算云平台底座覆盖全国各省市的边缘计算节点,反对多种 CPU/GPU 算力规格、反对就近接入,为渲染业务提供短缺的算力撑持;根底资源层则提供 100Ge/25Ge 的智能网卡、并提供反对复线、多线等多种网络状态,保障低时延的交互体验。边缘渲染农场,减速内容创作生命周期 边缘渲染农场能极大地缩短内容创作过程中所须要的渲染工夫。在设计师传统的本地三维设计流程中,提交渲染这一步,从提交用户本机转化为提交边缘渲染农场,农场实现渲染并疾速返回后果。用户只有实现“接入、上传、渲染、下载”四步,即可轻松拿到渲染后果。平台基于边缘云海量、弹性的资源,实现百万渲染帧队列轻松编排、工作就近调度、多节点并行渲染等外围能力,来进一步保障用户的渲染体验,极大进步影视动画、家装设计的渲染效率。边缘实时渲染,媲美本地性能的云渲染服务 边缘实时渲染,能媲美本地性能的极致云渲染体验。用户通过浏览器链接或 SDK 即可轻松拜访利用,解放用户对终端硬件的依赖,极大升高用户接入老本;基于自研的实时音视频推拉流和弱网反抗策略,并反对最高 4K60fps 视频流输入,保障最佳画质体验;同时实时渲染上云后产品生态可进一步扩大,可实现利用互联,反对多人同屏互动、操作受权等能力。满足我的项目多人实操演示、内容共享的需要。通过亲用户 IP 的近场调度、动静扩缩容等个性,极大升高机器资产老本。 总结沈建发示意,火山引擎边缘渲染已在影视动画、游戏、影视特效等多个场景落地,以优质、高效的渲染服务能力助力业务晋升渲染效率,解脱资源解放。 将来,火山引擎心愿携手各界合作伙伴,在动画渲染、虚构主播、云游戏等畛域摸索更多可能性,诚邀大家一起,共创边缘渲染新生态。 参考数据: 2022年中国云游戏行业钻研报告

March 24, 2023 · 1 min · jiezi

关于云计算:窄带高清画质增强之生成式细节修复

作者:兮墨 阿里云窄带高清实质上是一种转码品质优化技术,是一套以人眼的主观感触最优为基准的视频编码技术,钻研的是在带宽受限的状况下,如何谋求最佳的视觉感触,即人眼感触的主观品质最优。而画面质量晋升则是通过应用失当的画质加强技术以达到。 咱们先来看两个窄带高清画质加强技术晋升源视频画质的客户案例:百视 TV APP NBA 直播转码画质加强以及江苏挪动 FIFA2022 世界杯直播转码画质加强。 https://v.youku.com/v_show/id_XNTk1MjUxNzg4OA==.html 右侧为窄带高清画质加强输入 视频仅限于演示技术计划成果 https://v.youku.com/v_show/id_XNTk1MDY4NjUzMg==.html 右侧为窄带高清画质加强输入 视频仅限于演示技术计划成果 01 视频高清化已成大趋势视频是信息出现和流传的次要载体。从晚期的 625 线模仿电视信号,到起初的 VCD、DVD、蓝光、超大尺寸电视等,用户对高品质画面无止境的谋求推动着视频技术的不断进步和产业的蓬勃发展。据预测,将来集体消费者网络流量的 80%以上和行业利用流量的 70%以上都将是视频数据。 当下,随着视频拍摄和视频播放显示设施的软/硬件配置和性能一直降级,消费者对于视频画质的要求越来越高:从 360p 到 720p 再到 1080p,当初正全面跃升至 4K,并且 8K 的脚步正在迫近。在视频娱乐场景中,视频画质是影响用户互动体验的关键因素,高清视频往往比低清视频蕴含更多的细节和信息,给用户的视频互动带来更好的体验,这也促成了用户在视频娱乐中对视频画质的要求越来越高。视频消费者一旦适应了高清视频所带来和以往不一样的感触和体验,例如:高清视频能够将光线、质感、人物皮肤、纹理等细节还原得更为实在,对于“渣”画质的容忍度就会越来越低。 作为翻新的排头兵,互联网视频网站正拿出各种应答伎俩满足消费者的需要,晋升画质俨然成为视频网站争取 IP 之外的新战场。当下,国内外支流的视频网站/APP 曾经全面遍及 1080p,1080p 曾经成为一种标配;一些视频平台,例如爱优腾、B 站、YouTube,局部节目内容也提供了 4K 版本。 02 窄带高清云转码助力“最初一公里”的画质优化视频从采集到最终散发再到终端消费者进行播放观看,两头要经验简单的视频解决和传输链路。残缺的解决和传输链路通常包含以下几个环节: l 采集/编码:内容提供方采集的视频首先会被编码为特定的格局; l 编辑/剪辑/重编码:对原始素材进行多样化的编辑/剪辑操作,进行二次创作,而后重编码输入;有的业务场景可能会蕴含屡次剪辑解决;剪辑/编码实现的视频会被上传至服务端; l 云服务端转码:视频在上传到云服务器后,为适应不同的网络环境和播放终端通常会在云端进行转码(本文所探讨的窄带高清转码即产生在该环节,以更高的压缩比出现更高质量的视频); l 云公布:CDN 内容散发网络 l 播放端:视频经由内容散发网络(CDN)减速散发,通过解码最终在内容生产方的终端设备上实现播放。 l 多平台播放:手机,Pad,OTT,IPTV,Web 图 1 视频解决和传输链路 从视频解决角度来看,窄带高清云转码是视频内容触达终端消费者的最初一个解决环节;从客观现实上来说,是视频内容生产生产全链路的“最初一公里”。 从传输角度来看,在视频生产和生产全链路,各环节之间数据的流转有多种形式:SDI 有线线缆形式、无线蜂窝挪动通信、互联网以及卫星通信等。不同数据传输计划在传输环境稳定性和带宽存在微小的差别,因而,为了能在带宽受限的链路上进行稳固的视频传输,必然要对视频信号进行深度编码压缩,而编码压缩势必会带来不同水平的画质伤害。 举个例子:常见的视频流规格:1080p, 60 fps, YUV 4:2:0, 8-bit,raw data 码率为 192010801.5860 = 1.49Gbps ...

March 24, 2023 · 3 min · jiezi

关于云计算:新品发布-Cloudpods-398-版本上线

Cloudpods是一个开源的Golang实现的云原生的多云和混合云交融平台。Cloudpods不仅能够治理本地的虚拟机和物理机资源,还能够治理其余私有云和公有云平台的资源。 Cloudpods由北京云联壹云技术有限公司主导开发,并于2019年9月于Github开源。Cloudpods采纳外围开源模式,其商业版本云联壹云企业版(YunionCloud)自2017年开始研发,曾经服务了上百家企业客户。 3月17日,Cloudpods 新版本 v3.9.8 正式公布。本次更新次要反对虚拟机整机更换块存储及其他一些修复优化,以下为版本更新详情: 1、新性能 【主机】虚拟机反对整机更换块存储【网络】IP子网反对更换二层网络【主机】图形化GPU卡反对【监控】资源查问依据我的项目标签联动 2、性能优化 【主机】主机迁徙抉择宿主机列表同时展现不可用列表及起因【主机】新建虚拟机磁盘同时展现磁盘介质【监控】优化查问逻辑,缩小查问工夫【物理机】转换为宿主机的节点不再进行电源状态检测【部署】重新部署集群不再须要手动关上 operator '-sync-user' 选项【镜像】容许基于已有的磁盘镜像组合创立主机镜像 3、问题修复 【主机】修复镜像格局辨认谬误问题【主机】修复资源详情页信息在更新后未及时刷新的问题【主机】修复Google云信息同步异样的问题【网络】修复DNS名称资源同步问题【网络】修复vpcagent同步疏忽无虚拟机的反亲合组问题【网络】修复删除虚拟机的虚构网卡时未清理虚构网卡关联的EIP记录问题【容器】修复删除集群出现异常失败导致服务重启问题【调度】修复存储过滤失败的起因没有展现进去【部署】修复局部机器装置 5.4 内核启动呈现黑屏的问题【认证】修复短信登录时未验证验证码问题【认证】修复管理员重置用户MFA时未重置MFA的复原问题【镜像】修复GCP镜像缓存同步逻辑谬误问题【主机】修复基于模板创立的VMware主机的磁盘大小调配谬误问题 点击浏览原文 GitHub:https://github.com/yunionio/docs

March 21, 2023 · 1 min · jiezi

关于云计算:函数计算导论-AI-时代助燃剂

开始之前开始之前请先鉴赏各家私有云的函数计算(自行鉴赏,笔者不发表任何评论) 阿里云: 腾讯云: Laf: 函数计算价值每个企业都应该标配一个函数计算平台,不论是间接应用私有云还是波及敏感数据须要公有部署,因为函数计算能够为企业夸大的节俭大量老本,极大效率的晋升业务更新迭代速度,帮忙企业更快倒退。 传统形式函数计算价值利用开发周期以月为单位天/小时/分钟利用迭代速度是企业高速倒退的灵魂参加人员开发/运维开发&AI原先须要一个组做的事,借助函数计算可能只须要若干开发人员,借助 AI 能力甚至只须要懂需要的人参加人员要求业余要求高业余要求低能写业务逻辑的就行,不须要太业余的常识。资源要求浪费资源/利用率低资源利用率极高资源均匀利用 30% 以下的基础设施借助函数计算都可降本 50% 以上。利用开发周期比方我司开发一些功能模块很多真的就是分钟级,而且复用性极强,比方各种三分钟系列: 三分钟实现注册登录三分钟接入微信领取三分钟实现 chatGPT这里不是写个 demo 玩玩,而是真的能够提供线上服务的能力,最重要这三分钟不是写完代码,而是蕴含了代码在线上运行!写完即公布,点击保留,关机走人。 所以基于函数计算去开发利用,开发周期的单位都是以分钟/小时/天来计算。我的合伙人马斯洛同学常常在和他人散会教他人怎么做时就把货色给写完了,效率高到夸大。 这很像一个齐全可定制化的业务中台,不是简略拿到一个业务接口,而是拿到之后很不便就能够定制。比方给你个微信领取接口 不如给你个微信领取 function, 有了 function 你就很轻松加本人的领取逻辑了。 参加人员应用函数计算一个人顶一个团队丝毫不夸大,首先就是运维人员在这个模型中是不存在的,连运维的动作都不存在,就像你公布一篇博客须要运维动作或者运维人员帮你吗?既然公布博客能够不须要为什么公布业务代码须要? 其次什么 devops 什么容器 kubernetes,对不起老夫只会一把梭,k8s 单词怎么拼老夫都不晓得,也不须要晓得。 函数计算现实状况下又顺便干掉了企业外部的 devops 团队。所以现实的状况是企业只须要保留大量的开发人员,他们只关怀业务逻辑,这剩下来的人力老本是夸大的,这样玩大多数企业都可裁员 50%,须要是公有云可能须要额定投入 1 集体来保护这个函数计算的平台即可。 最现实的状况是开发人员也不须要了,会写需要即可,AI 全副生成代码,这一天必定不远了(笔者也是开发者,美团外卖账号都注册好了,AI 短期还没法送外卖) 人一多必然减少沟通协调这些隐性老本,这是不太能看的到然而巨高老本。 人员要求以前须要月薪大几万能力写出平安稳固高并发的程序,当初月薪 3k 的人真能写,函数计算平台解决其它问题,什么高并发横向伸缩平台全解决了。 AI 又进一步升高了对人的要求,我其实不怎么会写 typescripts,以后在 AI 的帮忙下写出生产可用的代码简直没问题。要害是 AI 还在进化,技术爆炸式进化,三年之内 AI 的编码能力会让人类可望不可即,人类更多是给 AI 打打杂,AI 是主程。 资源要求凡是资源利用率在 30% 以下的,都有十分大的降本空间,应用函数计算的降本可不是降一点点,而是老本“脚脖子斩”。 比方一个场景须要部署 5000 个小利用,传统形式怎么的得搞 500 台虚拟机,一台 10 个密度不低了,10个还有很麻烦的治理问题了,利用之间还要求不能打架。 而用函数计算,能够夸大的塞到 10 台服务器上。低频利用一个节点跑个 500 个函数很失常。 还齐全不必关怀利用的治理和隔离高可用等问题。 ...

March 20, 2023 · 1 min · jiezi

关于云计算:混合多云第一课多云多活为何被称为技术皇冠上的明珠

当今科技的倒退正在推动着产业格局的演进,而产业改革的外围则是信息技术的使用。比方说物联网、5g、人工智能等等。那么信息时代的这种数据的爆炸性增长,给企业业务的连续性带来了微小的挑战,而传统的灾备核心存在着建设老本高,切换工夫长,以及灾备核心的资源不能充分利用等一些有余。所以目前多云多活的这种技术正在逐步衰亡,那么为什么多云多活被称为技术皇冠上的明珠呢?上面我想分享一下京东在这方面的一些实际,京东是如何去做这种多云多活的以及京东的一些产业实际案例,我将分为以下4个方面来讲。 第一个就是说咱们多云多活的一个产业价值,第二个是讲咱们技术皇冠上的打磨之旅,咱们有哪些艰难,以及咱们京东科技是如何克服这些艰难的。第三个讲的是说从技术的理念构建到产品的标准化,咱们是如何把这样一个简单的流程进行串联起来,并且作为一个标准化产品,让客户可能简略的去应用。 最初再分享一下咱们在具体的一些产业实际的案例。 1.多云多活的产业价值是什么?科技让咱们生存变得更加美妙,咱们能够足不出户的进行购物领取,那坐在家中就能够等着咱们快递送上门,然而如果说咱们的零碎产生故障,社会或者集体会造成一些微小的损失。以下是咱们近期寰球所产生的一些影响比拟重大的一些案例。 在2020年,东京证券交易所因为软件故障,导致于全日本的交易所开业了,一天影响达到数千亿日元,同年的10月,那么法国的一个IT公司也是因为勒索导致它的寰球服务的中断,公司的损失达到了这种4,000万欧元,公司的CEO也引咎辞职。 有机构做过一个统计,统计了每个行业在蒙受到这种IT零碎中断状况下的均匀损失。在金融服务和信用卡受权咱们能看到都是上百万美元,那么在其余的购物视频点播等等,它的损失达到了10万美元,这是几年前美国的一个数据,在咱们中国可能损失就更大了。 咱们有什么方法来抵挡?那么办法就是建设一个灾备零碎,灾备零碎可能无效的升高企业遇到一些意外故障的时候的业务中断。 咱们中国的一个联盟做过一个调查报告,在建设了容灾体系的状况下,业务停机的损失升高了3.4倍,那么损失的金额从以前的102万美元升高到30万美元,数据失落的损失升高了3.5倍,从均匀的78万美元升高到了23万美元。 尽管容灾体系的建设可能无效的升高企业的损失,然而企业业务连续性的晋升其实并不是一件容易的事件,IDC已经做过一个考察,发现企业在建设进步它的业务连续性方面遇到了一些挑战,比如是说传统的的灾备核心,它的资源利用率有余,不能间接带来生产力的晋升,通过灾备核心进行业务切换,那么切换的工夫比拟长,很难满足一些对业务连续性要求比拟刻薄的这种行业的需要,比方说金融保险等等。 其次这种灾备零碎建设,还有老本过高,建设艰难,治理艰难,应用艰难等一系列的问题,所以这种企业建设这种灾备核心也不是一件容易的事件。 咱们看一下这种业务连续性的演进。 最开始咱们可能就是一个单体利用,业务不是在一个机器上,那么如果这个机器呈现故障或者业务产生bug,挂了之后,那么整个零碎就进行了,是最原始的一个利用。 随后咱们把利用进行了拆分,咱们把利用部署在多个机器下面,这样即便机器产生故障也不影响,同时咱们利用的实例还能够部署多套,即便有一套产生故障之后也不影响整体的对外服务。同时为了进一步晋升这种效率,咱们还把这种机器或者利用去跨机架去部署,如果机架产生问题,也不会导致咱们整个业务中断。这是起初引进的一个单机机房的SOA架构,这种架构并不能去抵挡咱们整个机房的一个故障,比方说整个机房的电源产生故障了,或者它的网络产生故障了等等,这个时候又衍生出一种同城双活的这种架构。 咱们把利用部署在两个机房外面去,数据做主从同步,利用去写主集群,这种形式能够躲避咱们机房的故障,在面对一些对业务要求性更高的一些行业,比方说这种银行证券等行业,这种形式它没法去抵挡自然灾害,比方说咱们整个城市受到了地震或者受到了这种暴风的袭击,导致这种业务中断,所以前面咱们又衍生出两地三核心架构,在异地建设第三个灾备核心,做异地的备份和业务的备份。 那么在这种状况下,灾备核心往往是不提供服务的,只是在同城业务产生艰难的状况下进行切换,这种状况工夫比拟长,难以满足很多业务的要求。 近些年因为云计算技术的衰亡,所以咱们又开始这种多云多活的这种建设,把数据进行分片进行拆分,每个机房分片数据,而后业务要进行流量划分,那么当某一个机房呈现故障之后,它的业务流量可能在分钟级之内切换到其余机房外面去,对于用户来说,甚至说可能感触不到这种故障的产生,就是咱们最近的这种多云多活的一个架构。 好,为什么咱们要做多云多活?因为咱们通过通过考察发现,多云当初是寰球IT的支流的趋势, Flex考察发现,寰球曾经有92%的企业曾经采纳了多云的策略。 多云策略是将来企业的次要的方向,企业要充沛去利用多云所提供的这种种能力去倒退它的业务,没有任何一朵云可能去满足所有业务,用户就产生了多云需要。 IDC考察也同样表明了,将来的用户的业务会急剧的回升,它倡议用户关注跨云或者边缘的连贯,以及集成。工信部上面的信通院的考察也表明,无论是用户还是企业,都心愿可能有交融多个云厂商提供多云服务的一个产品呈现,帮忙用户进行多云的部署和数字化策略。 咱们可能看到:多云不仅是寰球的一个趋势,多云在国内曾经逐步的衰亡了,从大型企业到很多政务云,他们都曾经采纳这种多云的架构,对于繁多的云厂商来说,采纳多云的策略,它的收益会更加显著。 咱们看一下企业的用云现状。 那么最右边是一个单云,用户的所有的业务都跑在一朵云上,这种状况下用户就跟这种云强绑定,往往丢失了议价权,老本会比拟昂扬,同时也受到这种单云故障的危险,如果云产生故障,那么它整个业务就是一个停滞状态,所以这种状况下用户的风险性比拟高。 很多企业意识到了单云的危险,又采纳多个云的这种形式,把他们的多种业务散布在多个云上,然而每个业务只在一朵云上,这种状况下他们业务还是会接受到肯定的威逼,比方说咱们某个外围业务在某个云上,如果说这朵云产生故障,那么这一部分业务同样会陷于停滞状态,这种状况下,用户的议价权和老本也受到肯定水平的绑定,所以各个业务造成一种烟囱状,不能协同作战。 那么第三种咱们称之为真多云,这种形式下多个云做了一个形象,提供对立的运行的资源,用户会在下面建设对立PaaS组件和应用入口,各个业务能够依据它的业务的抉择或须要散布在多个云上,任何一朵云产生故障的话都不影响整体服务,这个咱们称之为多云,这也是最现实的一种形式,但这种形式存在着老本投入大,技术门槛高这样一个问题。 咱们已经做过一个考察,采纳这种多个云的企业这种形式,他们其实也认为他们在云的应用方面也不是特地称心。 比方说在价格维度,他们议价权会比拟弱,云厂商往往会跟他们绑定这种资源的用量, 其次在政策维度可能受到监管合规、反垄断或者、平安的因素,在技术维度如果你跟一个营销商绑定的越久,那么技术栈的深度绑定其实不利于它的翻新和倒退,同样业务维度的丰盛度和品质也比拟受限,对于一些中小客户来说,在它的受器重的水平会比拟低,它在运维方面响应的速度会比较慢,同样也会升高用户自身的一个业务连续性。 从出海维度,业务笼罩与开明方面也受到肯定限度,那么绑定的越久,那么技术与企业的这种危险的在一直加剧,这是采纳多个云的企业的一些观点和痛点。 咱们看一下咱们京东认为的多云应该是什么样的一种形式,咱们认为真正多云应该是在以下5个层面进行买通。 第一个咱们称之为机房通,机房通不仅仅是指机房之间,还有网络互通,而且还要指咱们如果在机房之间部署各种监控去监控你这种网络的品质,你的提早你的带宽等等,并且能够在这种机房的根底之上和多云根底之上,去划分咱们的各种AZ可用区和Region进行进一步的这种形象。 其次是网络通,网络通常指的是咱们岂但要Underlay的网络,Overlay的网络,包含咱们的容器网络,也要彼此买通,不便咱们的利用进行各种档次的拜访。 第三个是指数据通,通指的是咱们的数据在云上可能去自在的去漂移,自在的去挪动,咱们的数据可能从一朵云同步到另外一朵云去,而不受限制,这个数据通其实也是咱们跨云利用多活的一个根底。 那么第四个是利用通,指的是我的利用可能去跨云的去公布、去部署,咱们的利用多活也是处于这种利用通这样一个档次,能够把握利用部署在多个云上并行的去进行治理。 第五个是指的是治理通,治理通指的是说咱们的资源从资源层面的治理,从咱们的运维层面、经营层面以及平安层面都有一个对立的管控措施。 所以咱们认为只有实现了在机房通、网络通、数据通、利用通和治理通这5通,能力是一个真正的多云的架构。 咱们再看一下多云多活的价值。 首先来说多云多活对于用户来说,它可能使用户的业务连续性有保障,还可能管制用户的故障半径,缩小因为繁多机房或者繁多云厂商产生故障,而给业务带来业务中断的危险。 第二个是多云多活,能够做咱们多云策略的一个很好的撑持,当你的业务扩散在不同云上,那么就能够依据各种不同云的技术和技术栈,它的劣势采纳不同的形式,能够很好的去撑持多云策略,业务就更加灵便。你不会被云厂商进行某个方面的绑定,同时你还能够去防止它的定价解放、技术的绑定等等。 第三个是能够帮忙用户进行无效老本的管制。那么传统的灾备核心,灾备只是提供这种冷备的形式,通常不提供生产力,或者说只用于一些这种只读的形式。多云多活,它的多个数据中心能够同时对外提供服务,可能让咱们这种资源利用率失去最大水平的晋升。其次它还能够依据不同厂商的价格和策略,动静的在多个云外面去调整它的流量,而且这种调整代价极低,所以咱们能够依据各个流量价格去动静去调配咱们流量,充沛去实现咱们老本的一个最优化。 第四个还能够很不便的进行业务的弹性伸缩,那么各个数据中心那么都是能够读写的,都是能够随时进行扩容的,而且流量的这种调整反对各种的分流策略,能够很灵便的依据业务的需要进行调整。 2.要实现“多云多活”,须要解决哪些外围难题? 那么第二点咱们看一下,为什么说咱们是技术皇冠上的明珠? 多云多活的打磨之旅是怎么样的? 多云多活尽管有下面咱们所提及的种种长处,然而多云多活的建设其实也面临着很大的艰难。 第一个就是说异构多云的资源,咱们怎么去对立的去纳管?每朵云对外接口、API、产品状态都是不一样的,如果要去适配的话难度会比拟大。 其次是说多云多地区,它的之间的数据实际性如何进行漂移的,数据时效性怎么保障,一致性怎么去保障,这是第二个问题。 第三个就是说多云之间咱们可能做流量去怎么去进行调度,有些什么样的纠错和保护措施。 第四个是说咱们当初是很多企业采纳这种微服务的形式,咱们的微服务框架是怎么去反对多云方面等等。这4个问题是咱们在多云多活建设所面临的4个次要问题。 先看一下多云的对立管控问题,对于多云的管控,咱们进行了一个把整个多云管控形象出一个咱们称之为Open Cloud的这样一个形象层,由形象层负责去对接上面底层的各个云厂商,而Open Cloud对上提供对立的接口和API对接各种利用,包含咱们这种企业的利用,包含咱们这种多云多活,都是在Open Cloud上进行对立的接口对接的。 这样的益处就是说用户不必再去逐个的去适配每个云厂商的千差万别的接口了,而只需关注业务的本身倒退就能够了。除此之外,咱们的Open Cloud也帮忙用户能够从新替换布局能力,。当然从管控层面进行对立形象之后,对于用户来说就治理管控更加容易了,也升高了用户的这种运维老本。 看一下具体的一个图。 ...

March 20, 2023 · 1 min · jiezi

关于云计算:工作一年我重新理解了重构

前言很久之前团队师兄向我举荐了《重构:改善既有代码的设计》这本书,粗略翻阅看到很多重构的细节技巧,但过后还处于未接触过工程代码,只关注代码性能,不太思考前期保护的阶段,读起来感觉枯燥无味,简直没有共鸣,始终没有细细浏览。在工作一年后,终于在师兄的督促下,利用一个月左右的早起时光读完了这本书,播种很多,感激师兄的督促,感激这本书陪伴我找回了浏览习惯。把这本书举荐给曾经接触了工程代码、工作一年左右的新同学,置信有了肯定的教训积攒,再联合日常我的项目实际中遇到的问题,对这本书的内容会有很多本人的思考感悟。 重构的定义书中给出了重构的定义:对软件内部结构的一种调整,目标是在不扭转软件可察看前提下,进步其可了解性,升高其批改老本。 每个人对重构有本人的了解,我了解的重构:重构是一种在不扭转代码自身执行成果的前提下,让代码变得更加整洁易懂的形式。代码不仅要让机器可能实现预期的解决逻辑,更要可能面向开发人员简洁易懂,便于前期保护降级。 为什么要重构我对书中的一句话印象很粗浅,“缩小反复代码,保障一种行为表述的逻辑只在一个中央呈现,即便程序自身的运行工夫、逻辑不会有任何扭转,但缩小反复代码能够进步可读性,升高日后批改的难度,是优良设计的基本”。回忆在刚毕业工作不久时,我也曾对同组师兄的代码重构意见有所纳闷,重构自身可能不会扭转代码理论的执行逻辑,也不肯定会对性能产生优化,为什么肯定要对代码的整洁度、可复用性如此执着?联合书中的答案以及本人工作中的领会,次要有以下几点: 2.1 晋升开发效率在日常研发过程中,首先须要了解已有代码,再在已有代码根底上进行性能迭代降级。在开发过程中,大部分工夫用于浏览已有代码,代码的可读性必然会影响开发效率。而在我的项目进度缓和的状况下,为保障性能失常上线,常常会呈现过程中的代码,可读性不强。如果没有后续重构优化,在我的项目实现一段时间后,当初的开发同学都很难在短时间内从代码看出当初设计时次要的出发点和以及须要留神的点,后续保护老本高。因而,通过重构加强代码的可读性,更便于后续保护降级,也有助于大部分问题通过CR阶段得以发现、解决。 2.2 升高批改危险代码的简洁水平越高、可读性越强,批改危险越低。在理论我的项目开发过程中,因为工夫紧、工期赶,优先保障性能失常,往往衡量之下决定先上线后续再重构,但随着工夫的推移理论后续再进行批改的可能性很低,暂且不谈后续重构自身的ROI,对于蚂蚁这种极器重稳定性的公司,后续的批改无疑会带来可能的危险,秉持着“上线稳固运行了那么久的代码,能不动尽量不要动”的思维,当初的长期版本很有可能就是最终版本,长此以往,零碎累积的长期代码、反复代码越来越多,升高了可读性,导致后续的保护老本极高。因而,必要的重构短期看可能会减少额定老本投入,但长期来看重构能够升高批改危险。 重构实际3.1 缩小反复代码思前想后,重构例子的第一条,也是集体认为最重要的一条,就是缩小反复代码。如果零碎中反复代码意味着减少批改危险:当须要批改反复代码中的某些性能,本来只应须要批改一个函数,但因为存在反复代码,批改点就会由1处减少为多处,漏改、改错的危险大大增加。缩小反复代码次要有两种办法,一是及时删除代码迁徙等操作造成的无流量的反复文件、反复代码;二是缩小代码耦合水平,尽可能应用繁多性能、可复用的办法,保持复用准则。 问题背景:在开发过程中,未对之前的代码进行提炼复用,存在反复代码。在开发时对于刚刚接触这部分代码的同学减少了浏览老本,在批改反复的那局部代码时,存在漏改、多处改变不统一的危险。 public PhotoHomeInitRes photoHomeInit() { if (!photoDrm.inUserPhotoWhitelist(SessionUtil.getUserId())) { LoggerUtil.info(LOGGER, "[PhotoFacade] 用户暂无应用权限,userId=", SessionUtil.getUserId()); throw new BizException(ResultEnum.NO_ACCESS_AUTH); } PhotoHomeInitRes res = new PhotoHomeInitRes(); InnerRes innerRes = photoAppService.renderHomePage(); res.setSuccess(true); res.setTemplateInfoList(innerRes.getTemplateInfoList()); return res;}public CheckStorageRes checkStorage() { if (!photoDrm.inUserPhotoWhitelist(SessionUtil.getUserId())) { LoggerUtil.info(LOGGER, "[PhotoFacade] 用户暂无应用权限,userId=", SessionUtil.getUserId()); throw new BizException(ResultEnum.NO_ACCESS_AUTH); } CheckStorageRes checkStorageRes = new CheckStorageRes(); checkStorageRes.setCanSave(photoAppService.checkPhotoStorage(SessionUtil.getUserId())); checkStorageRes.setSuccess(true); return checkStorageRes;}重构办法:及时清理无用代码、缩小反复代码。 public PhotoHomeInitRes photoHomeInit() { photoAppService.checkUserPhotoWhitelist(SessionUtil.getUserId()); PhotoHomeInitRes res = new PhotoHomeInitRes(); InnerRes innerRes = photoAppService.renderHomePage(); res.setSuccess(true); res.setTemplateInfoList(innerRes.getTemplateInfoList()); return res;}public CheckStorageRes checkStorage() { photoAppService.checkUserPhotoWhitelist(SessionUtil.getUserId()); CheckStorageRes checkStorageRes = new CheckStorageRes(); checkStorageRes.setCanSave(photoAppService.checkPhotoStorage(SessionUtil.getUserId())); checkStorageRes.setSuccess(true); return checkStorageRes;}public boolean checkUserPhotoWhitelist(String userId) { if (!photoDrm.openMainSwitchOn(userId) && !photoDrm.inUserPhotoWhitelist(userId)) { LoggerUtil.info(LOGGER, "[PhotoFacade] 用户暂无应用权限, userId=", userId); throw new BizException(ResultEnum.NO_ACCESS_AUTH); } return true;}咱们在零碎中或多或少都看到过未复用已有代码产生的反复代码或者曾经无流量的代码,但对造成背景不理解,出于稳定性思考,不敢贸然清理,工夫久了沉积越来越多。因而,咱们在日常开发过程中,对我的项目产生的无用代码、反复代码要及时清理,避免造成前面同学在看代码时的困惑,以及不够相熟背景的同学改变相干代码时漏改、错改的危险。 ...

March 20, 2023 · 3 min · jiezi

关于云计算:KubeSphere-社区双周报-OpenFunction-v100-发布-202303030316

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.03.03-2023.03.16。 贡献者名单 新晋贡献者本两周共有 6 位新晋 contributor,包含近期在社区公布过 KubeSphere 相干文章的非代码贡献者。感激各位对 KubeSphere 社区的奉献! 近期重要更新KubeSphere1. 新增 iam.kubesphere.io/v1beta1 API相干 PR: https://github.com/kubesphere/kubesphere/pull/5502 贡献者:zhou1203 2. 修复 dynamic resource API 异样响应的问题相干 PR: https://github.com/kubesphere/kubesphere/pull/5573 贡献者:wansir 3. 修复 ks-apiserver 配置重载未校验的问题相干 PR: https://github.com/kubesphere/kubesphere/pull/5564 贡献者:Fritzmomoto OpenFunction1. 公布 OpenFunction v1.0.0Release: https://github.com/OpenFunction/OpenFunction/releases/tag/v1.0.0 贡献者: wrongerror 2. 修复 java 异步函数在 dapr-proxy 模式下运行失败的问题相干 PR: https://github.com/OpenFunction/functions-framework-java/pull/8 社区动静案例分享无锡广电新媒体云原生容器化平台实际 T3 出行云原生容器化平台实际 技术文章应用 KubeSphere 部署 K8s 集群及 KubeEdge 实战指南在 KubeSphere 中开启新一代云原生数仓 Databend产品动静OpenFunction v1.0.0 公布:集成 WasmEdge,反对 Wasm 函数和更残缺的 CI/CD ...

March 18, 2023 · 1 min · jiezi

关于云计算:协同存储为边缘计算创造更大价值

01 数据的暴发为存储带来继续挑战在5G时代下,视频和图片因其弱小的信息承载力,曾经成为数据内容的次要载体和信息流传的次要形式。而5G的大带宽、低时延、广连贯的个性激活了云游戏、物联网、视频监控等场景利用,从生产互联网到产业互联网的延长,更加促成了终端利用和数据的暴发。 这些终端和数据具备地位扩散、规模大、以及价值密度绝对较低等特点,典型的如:视频监控录像/截图、云游戏录像、海量长期日志文件等。一方面,咱们须要提供就近、低提早的数据接入与存储能力,另一方面,咱们须要在边缘进行数据的精细化治理,与计算相结合,剖析其中的要害片段以及其结构化信息。 这样的场景和需要对计算和存储的形式带来了严厉挑战和根本性变动。 02 基于边缘云构建地位无感的协同存储服务用户在应用对象存储时,针对海量数据,提出了大流量、就近、低提早的要求,边缘云在这些方面具备人造劣势,但边缘云的对象存储在应用形式和体验上存在显著有余。相较于传统核心云的region化应用形式,边缘云的单点规模较小,并且节点数多了几个量级。 如果每个边缘云节点独立进行对象存储服务,无异于将简单的逻辑交给用户,用户应用时将面临节点资源管理、资源读写调度、单节点可用性运维等诸多简单问题。这会对用户业务带来微小的挑战,任何节点状态的变动,都可能带来业务的感知,解决不好甚至会对业务造成重大影响。 以摄像头数据上云为例,传统的形式,用户须要感知终端设备的地理位置,并且须要去保护海量终端设备和云上地址的对应关系,一旦呈现单点故障,用户须要做大量的动作来进行调度和迁徙。 传统的数据上云架构 而现实的架构中,用户无需关怀具体的云上地位,心愿与云只有一个交互面,就能实现全网设施的就近、低提早接入,并且无需关怀云上单节点的负载、水位、异样等状况。 现实的数据上云架构 边缘计算孵化了地位无感的协同存储(EOS)服务,通过核心管控和多个边缘节点进行协同,将散布在各地边缘节点的物理存储资源,组成一个逻辑对立的对象存储资源池。用户无需关怀读写地位和单节点可用性带来的运维和调度问题,即可失去与应用私有云对象存储统一的接口体验,以及由数量泛滥的边缘存储资源整合而带来的大容量、高弹性的存储资源池。 03 协同存储外围模块 协同存储采纳了典型的云边协同架构,其外围蕴含核心管控与边缘节点两局部,其中,核心管控蕴含以下治理模块: 元数据管理:汇聚全网的元数据进行对立治理,与文件读写调度、文件生命周期等联动;资源调度:负责逻辑存储桶与物理存储桶的映射关系治理,依据节点状态、水位进行全局资源动静布局;读写调度:依据用户地理位置、所需资源量、文件散布等因素进行全局文件读写调度;多点数据协同:对节点数据进行跨节点复制或数据迁徙,进步整体服务可用性;边缘节点蕴含以下治理模块: 节点网关:提供节点文件读写服务,如存储协定兼容、http/ https拜访反对、动静配置、跨域治理、流控、日志监控等。边缘管控与核心管控协同实现残缺的管控逻辑,同时在节点范畴内具备肯定的边缘自治能力;负责节点内存储管理、跨节点数据复制/迁徙等操作;负责节点内多引擎容灾。存储引擎:提供根底的存储能力(文件读写等)以及文件容灾能力(EC、三正本等)。04协同存储的关键技术 基于边缘节点构建的地位无感分布式协同存储,关键技术在于以下几点: 节点对立纳管与调度 对用户而言,和边缘云只有一个交互面,协同存储将多个物理节点形象为一个逻辑节点,通过全网资源的对立纳管,进行多维度的协同调度,过程中会综合地理位置、节点带宽、存储空间、设施亲和性等泛滥因素,从而实现服务的高可用以及数据的就近存取,同时,协同存储提供了灵便的接入和调度策略供业务按需应用(全国、区域、运营商、单节点、自定义节点范畴)。 文件读写调度协同存储物理文件存储在边缘节点,存储空间、文件元信息等汇聚到核心,进行对立的治理和检索。 应用形式上,文件写入和读取均可采纳302调度形式,写入对立域名,协同存储通过地理位置、节点水位等综合调度后,将申请跳转到实在的物理节点进行读写,用户无需关怀终端所在位置,即可疾速就近、低提早接入。 实时的节点状态和容量监测协同存储会对单个节点进行实时状态与水位检测,当单点不可写时,会主动将申请迁徙到其余节点,实现服务无感漂移和切换,单点复原后疾速复制同步。 跨节点多正本为了应答节点割接、容灾等场景,协同存储提供了跨节点多正本的冗余能力,将数据进行节点间错峰同步。当单点不可用时,协同存储会进行流量的疾速转移,同时也能够在访问量大时进行多节点读负载平衡,整个过程用户无感知。 边缘对立的存储拜访网关在整体架构上,协同存储通过边缘对立网关进行异构资源的适配,不论是从API、SDK还是受权体系,齐全兼容现有的应用形式,这对于海量的数据源来说,只须要简略配置,便能够疾速将数据上传到协同存储,从而确保给用户云边一体化的应用体验,同时去除了Region概念,间接采纳了对立的域名接入和治理形式,真正实现了只上一朵云、只存一朵云。 目前协同存储曾经在泛滥场景着落地,典型的如监控设施的截图/录像上传、车载场景的数据就近写入等。将来,咱们将与边缘算力进行更加紧密结合,助力网、算、存一体化的边缘计算体系倒退。协同存储的演进,必将为边缘更多场景的落地提供无力撑持,为边缘计算带来更多的可能性。

March 15, 2023 · 1 min · jiezi

关于云计算:8个云成本优化的最佳实践

在《2022年云计算现状报告》中,国内出名软件资产治理商 Flexera 通过对近千家企业进行考察得出数据:企业均匀节约32%的云业务收入。随后,在2023年的报告中,FinOps 12年来首次超过平安,成为诸多企业关注的头等大事。  本文咱们将开展聊聊企业乃至开发人员如何进行云老本优化。  1、设置指标洞察老本异样查看云计算成本须要监控工具以及事后定义好的指标。以下列出了其中一些比拟重要的云老本指标,供您参考:  Uptime:零碎为用户申请提供服务的工夫CPU 利用率:用于实现特定工作或解决用户申请的所需算力的百分比内存应用:私有云、公有云及混合云环境中内存的应用状况每分钟的申请数量:基于云的利用每分钟收到的用户申请的数量磁盘使用率:跟踪某个节点上应用的磁盘容量,并确定存储容量是否可能满足工作负载均匀确认工夫:零碎响应用户申请所须要的工夫提早:申请工夫到响应工夫的距离均匀故障间隔时间(MTBF):零碎或应用程序产生故障之间的均匀间隔时间均匀修复工夫(MTTR):在产生故障后零碎复原服务所需工夫。MTTR 越短意味着宕机老本越小,有助于云老本优化 2、借助热力求理解零碎外部正在产生什么热力求是一种可视化工具,它能够展现计算需要的顶峰和低谷。借助这一信息,你能够预估某项服务是否能够在特定工夫敞开而不影响其余服务和业务。  借助热力求甄别出此类资源并配置调度,使其只在须要时才运行,进而无需对未应用的服务进行反对,升高云计算成本。例如,热力求会通知你在周末时你是否能够平安地敞开开发服务器。  3、抉择预留实例或spot instance在云计算中,如果企业违心做出某些衡量,那么就可能找到比按需资源(On-demand Resources)更便宜的代替计划。如果条件容许,能够思考以下折扣计划:  预留实例:企业如果事后承诺在1到3年内应用一定量的资源,那么能够通过预留实例来节俭云资源。依据平台和其余变量的不同,相比于按需资源,预留实例能够节俭高达80%的费用。支流的云厂商都会提供该定价模式。预留实例适宜具备稳固、可预测容量的工作负载。Spot Instance:开发人员能够以大幅折扣的高价取得未应用的容量。是否可能凭借这一定价模式节俭费用次要取决于所购买的资源类型以及购买时的价格。Spot Instance 的缺点是它们可能会被忽然切断,这次要由地区的整体容量需要确定。因而,此类实例最好用于无状态工作负载、批处理作业和其余能够容许中断的工作。 4、正当调整计算服务企业须要针对云服务的全局视图以不便对其进行正当调整,正当调整是一个重要的外围流程,波及计算实例剖析、辨认闲置资源以及停用某些实例以优化云老本等。因而,可能须要对 IT 去中心化或确保每个部门在云环境中应用的是同一个账号。  借助细粒度的可见性,能够辨认出超额配置或者闲置的资源。而当老本在某个特定的期间内超过事后设定的百分比时,相干的观测工具会向你发出通知。企业也能够配置该工具,如在某个工夫点后终止未应用的资产,这能够对云老本进行进一步优化。  卓有成效的调整能够节俭高达70%的云老本。  5、SDLC 的每个阶段都进行老本优化云老本并不是在构建和公布产品之后才须要思考的问题,而应该将老本优化纳入整个软件开发生命周期。以下是是将云老本优化集成到SDLC的4个步骤:  Plan:应用数据证实估算的合理性,并通过老本数据为技术债权相干决策和产品路线图提供信息。这种做法有助于缩小突发性的额定收入,并且能够依据须要灵便且迅速地调整估算。部署和操作:迅速发现意外指出,并调整老本和估算设计和搭建:记录所有必要的数据,以便在最佳资源应用的根底上为架构决策提供信息。Review:按团队、性能和产品从新评估老本,以依据业务动作报告业务收入和投资回报率(ROI) 将老本优化左移到每个阶段能够最大化云的投资回报率。  6、防止云蔓延(Cloud Sprawl)云蔓延(Cloud sprawl)是指一种不受管制的云资源增殖的状况,是许多企业云计算账单飙升的罪魁祸首。当企业未能打消不再是其整体策略一部分的云服务时,他们就会持续为这些服务付费。  举个例子,存储实例会继续积攒,特地是用于数据保护或从计算实例剥离进去时。此时,如果云服务器实例没有被删除,那么相干的存储可能会被忽视。因而,须要辨认不再须要的存储并且思考与企业数据保留策略统一的删除打算。  想要最小化蔓延的危险,须要通过基础设施、利用监控和管理工具,对云环境构建正当的可见性。另外,须要设置企业策略确定如何以及何时对不再须要的云资源进行解决。并且应用自动化配置来敞开旧的工作负载。  除了云策略外,亲密监控云账单和合同以及时发现组织是否在为不须要的云服务付费。  7、采纳云原生设计应用更具老本效益的零碎来代替现有的云零碎以充分利用云的独特劣势。例如,能够设计一个有主动弹性伸缩性能的零碎来确保你只为应用的服务器付费。  你能够利用一些工具和业余文档来帮忙你设计零碎并且应用云原生准则降低成本。云原生设计须要非凡技能,所以你可能须要一些领导能力实现它,而且个别状况下,企业只会批改现有的云基础架构而不会从头开始设计。  你的设计应该均衡性能、云优化以及基于企业优先级和指标的其余思考因素。比方,云端中一个麻利的 DevOps 流水线兴许并不会降低成本。  8、打消影子IT(Shadow IT)当员工自行注册并应用公司的云资源用于集体用处时,这被称为影子IT,这在无心中大大增加了云老本。  影子IT除了减少老本外,还会导致成千上万的数据拜访,这会带来微小的平安危险。因而,培训员工理解影子IT的危险是至关重要的,同时企业还应该采取措施避免未经受权的云拜访,例如,定期审计并阻止未经批准的应用程序。  总结云老本优化并不是偷工减料和缩小开销,而是采纳一种策略性的办法来发明价值并且晋升业务体现。借助正确的工具和办法,企业能够节俭大量的老本、优化资源利用率并且交付更好的客户体验。所以,无论是初创企业还是大型团体,将云老本优化作为重中之重,将会看到业务在云计算的助力下展翅腾飞。

March 15, 2023 · 1 min · jiezi

关于云计算:定位任意时刻性能问题持续性能分析实践解析

01 继续性能分析简介更好的利用性能,能够提供更好的用户体验,能够升高企业IT老本,能够让零碎更稳固和牢靠。在利用性能分析技术呈现以前,开发人员排查问题只能依赖各种日志和监控,这须要提前在利用代码中埋点,岂但对利用代码侵入性较大且可能因为埋点不全而无奈提供足够信息,诊断问题十分费时,很多时候无奈找出起因。 随着利用性能分析技术呈现,开发人员能够很不便的找出应用程序性能瓶颈(如CPU利用率高、内存占用低等),从而进行优化。但因为晚期利用性能分析技术开销较大,只能在开发环境而不能在生产长时间开启,生产环境出问题时很可能没有被记录下来,开发人员在开发环境模拟和复现问题很艰难,导致解决问题的效率很低,也很有可能无奈解决。 近些年来,性能分析技术继续倒退,性能越来越丰盛,开销也显著改善,达到生产环境继续开启水准,不过离宽泛遍及还存在诸多阻碍。性能分析个别过程有三步:生产环境抓取、保留性能分析文件、性能分析文件可视化。当利用体量较大时,这3个步骤每步都存在着难度,须要解决大量计算、存储、产品设计等多方面问题。 ARMS Continuous Profiler[1]应运而生,由阿里云ARMS(利用实时监控服务[2])团队和Dragonwell[3]团队联结研发。它基于以后最成熟的性能分析技术,将整个性能分析过程产品化,适宜在生成环境继续开启。与惯例性能分析相比,ARMS Continuous Profiler减少工夫维度,外围性能如下: 定位任意时刻的性能问题(比方CPU占用高、内存占用高)反对两个时段的性能比照,找出利用演进过程中的性能差别观测利用的调用栈,以便更好的扫视和了解代码设计02 ARMS 继续性能剖析性能演示咱们举例来说明如何用ARMS继续性能剖析来解决问题。 常见场景一:CPU 热点解析问题景象以某图书馆的服务利用举例,其Java过程占用大量CPU,接口响应工夫达到了十多秒,利用性能很差。 找出热点办法因为以后利用CPU占用很高,因而咱们间接在性能剖析类型中抉择CPU Time菜单门路:ARMS控制台 -> 利用首页 -> 利用诊断 -> CPU&内存诊断 从火焰图咱们能够看到,java.util.LinedList.node(int)办法占用了85%的CPU,对应的业务代码办法是DemoController.countAllBookPages(List),联合代码,能够发现,这个办法对于对象很多的汇合性能很差,因为要从头或者从尾部一一遍历。 修复问题定位到起因后,咱们能够通过两个解决方案进行修复。第一个办法是将LinkedList批改为下标拜访形式更高效的ArrayList 第二个办法是将LinkedList的遍历算法从一般for循环批改为加强的for循环 性能验证将修复后的代码重新部署,以雷同压力别离压测两种计划,能够看到接口响应工夫显著降落,Java过程CPU利用率显著降落。 常见场景二:内存申请热点问题景象以某图书馆的服务利用举例,其Java过程占用大量CPU,接口响应工夫达到十多秒,利用性能很差。 找出热点办法因为以后利用CPU占用很高,咱们间接在性能剖析类型中抉择:CPU Time菜单门路:ARMS控制台 -> 利用首页 -> 利用诊断 -> CPU&内存诊断 从CPU热点办法,咱们发现Java过程89%的工夫都在做GC,阐明利用存在很大的内存压力。咱们下一步抉择内存热点分析。 从上图的内存申请热点火焰图,咱们能够找到过来一段时间所有内存申请中,DemoController.queryAllBooks办法占了99%,进一步查看,能够发现业务代码创立了2万个大对象并保留到了List。 注:这个办法原本应该从数据库中读取2万本书,这里进行了简化,但成果雷同,都是在堆中创立了一个占用大量内存的List 修复问题这个接口原本想实现的是按分页查问书籍列表,但因为实现谬误,误将所有书籍都查出来了而后最终只返回了指定分页的局部,所以能够间接从数据库中用分页的形式查问,这样就能够防止大量的Java内存占用。 性能验证将修复后的代码重新部署,以前雷同压力进行压测,能够看到接口响应工夫显著降落,Java过程CPU利用率显著降落。 03 ARMS 继续性能剖析的设计和实现1、产品设计产品整体分为3个局部,第一个局部负责在利用端收集性能分析数据,第二个局部用于传输和存储分析后果文件,第三局部用于查问和展现。 第一个局部次要应用Java Flight Recorder[4]、async-profiler[5],咱们会依据Java版本状况主动抉择其一,其外围性能是周期性对应用程序进行采样,并且不会因为平安点问题导致后果不精确。下图是对一个线程采样6次的例子,能够看到每次采样霎时的调用栈。最终保留为JFR格局的文件。 第二个局部比拟重要的是JFR Analyzer,其外围性能是读取JFR文件,对其进行解析、计算和聚合,最终生成便于查问和展现的两头后果。第三个局部的外围性能是将分析后果展现为表格或火焰图,也要反对比照能力。 ...

March 14, 2023 · 1 min · jiezi

关于云计算:云原生周刊边缘计算会吞噬云吗-2023313

文章举荐边缘计算吞噬云?这篇文章探讨了边缘计算对传统云计算的潜在冲击。 边缘计算是一种新型的计算架构,它将计算挪动到离数据源和终端设备更近的中央,从而提供更快的响应工夫和更好的用户体验。相比之下,云计算是一种集中式的计算模式,用户通过互联网将数据发送到云服务器进行解决和存储。作者认为,在高带宽、低提早的环境下,边缘计算可能成为更好的抉择。 文章还提到了一些行业的利用案例,如工业自动化和医疗保健。在这些畛域,实时性和可靠性是十分重要的,边缘计算的劣势能够帮忙企业实现更好的业务效率和客户体验。 然而,文章也指出边缘计算仍面临一些挑战,如设施平安问题、数据隐衷问题等。因而,企业须要认真衡量边缘计算和云计算的利弊,依据具体的业务需要来抉择适合的计算架构。 什么是 Argo CD?Kubernetes 实用教程该篇文章对于想要理解或体验 GitOps 和 Argo CD 的读者来说是一篇十分有价值的文章。它详尽地介绍了 Argo CD 的架构,部署形式和应用办法,并提供了一些实际案例供读者参考。 分步指南:开始应用 Weave 在 Kubernetes 上运行容器该文章提供了一个详尽的 Weave Net 和 Weave Scope 部署和治理指南,实用于那些筹备在 Kubernetes 中治理容器化应用程序的运维工程师和开发人员。 Kubernetes Pod:初学者基础知识这篇文章介绍了 Kubernetes 中的 Pod,重点论述了 Pod 是什么、它的组成、如何创立和治理 Pod 以及它们在 Kubernetes 中的作用。 开源我的项目举荐Tyk OperatorTyk Operator 能够将 Tyk Gateway 配置为规范 Kubernetes Ingress 的间接替代品。您能够应用它来治理您的 API 定义和安全策略。它还实用于 Classic Portal,因而您能够以申明形式治理您的 Classic Portal。 Tyk Operator 目前处于测试阶段。 PlutoPluto 是一个实用程序,可帮忙用户在其代码存储库和 helm 版本中找到已弃用的 Kubernetes apiVersions。 Grafana TankaGrafana Tanka 是 Kubernetes 集群的弱小配置实用程序,由独特的 Jsonnet 语言驱动。 ...

March 14, 2023 · 1 min · jiezi

关于云计算:4万字阿里云大型体育赛事云上实战精选电子书发布

顶级赛事的技术精髓,就在这一册。亚运会风声已起,转瞬的体育年余音犹在。技术也在其中,不凡演进。 对公众而言,体育竞技场始终是聚览的热地,2022的超级体育年里,冬奥会、NBA、世界杯热度贯通,云上技术突破时空之限,屏幕前的每个观众都是技术的受益者,能够享受如临现场,乃至超过现场。 对此,云技术思考的重点,是如何保障低提早、超高清、深沉迷、强互动的极致观赛体验,纵览所有顶级赛事,在云之上的视频云和边缘云技术创新,为不同赛事定制了多元而极致的赛事体验。 为了更好的展示顶级赛事的云技术利用,咱们打造这一册《超过感官,沉迷赛场——大型体育赛事云上实战精选集》电子书,分享超4万字的赛事技术实战集锦。 01 六大顶级赛事贯通以“云”之力,破赛事之境。 后疫情时代,赛事直播体验一直被降级。世界杯、NBA、北京冬奥会、东京奥运会、英雄联盟S10、CUBA,作为赛事的六大顶流代表,异彩纷呈。 本书精选了阿里云在六大赛事中的场景技术创新,深度刻画帧级同步、超清还原、虚实交融的新一代沉迷式极致体验标杆。 这其中,超低延时直播RTS、互动虚构演播、Cloud ME实时全息交互、自在视角、窄带高清、AI云智剪、电竞AI技术七大经典利用,均展示在顶级赛事中,冲破体验之限。 02 三项赛事技术冲破以“云”之力,创技术之新。 电子书出现超低延时直播RTS、零解决、自在视角三项行业先锋技术的打磨锻炼过程,为音视频行业提供最佳实际案例与技术倒退的演进方向。 RTS:世界杯延时缩至1秒过来,大型体育赛事直播延时通常在15s以上,尤其是世界杯这样的顶级赛事,还面临着用户数量多、网络简单多样的状况,带来热点赛程流量陡增、直播卡顿延时等泛滥挑战。 阿里云超低延时直播RTS,对视频直播进行全链路延时监控、CDN传输协定革新和UDP等底层技术优化,反对在千万级并发场景下毫秒级延时直播的能力,保障低延时、低卡顿的极致直播观看体验。 RTS的亚秒级延时和卓越的抗弱网能力,大幅晋升了传输效率,在雷同卡顿率下,延时升高80%,将世界杯直播端到端延时缩短至1秒。 AliRTC“零解决”:奥运的黑科技内核2022北京奥运会举办期间正值Covid-19肆虐,在物理空间限度下,人们更加渴望摸索实在会面感,播种沉迷交互体验,由此,阿里云音视频通信AliRTC应运而生。 依靠于“云解决+端渲染”技术,AliRTC“零解决”解决方案,让硬件端只进行简略的采集、传输、播放,同时,所有简单工作全副集中在云上实现,让终端实现“零解决”。 基于AliRTC,影像画面传输和解决的全过程,仅需在眨眼间的200毫秒内即可实现,毫无延时顿感,为体育赛事的实时全息互动打下坚实基础。 自在视角:随心导播看CUBA第二十三届CUBA中国大学生篮球联赛期,阿里云与优酷、中国电信强强联合,通过5G+边缘计算+“自在视角”,充分发挥多角度、多细节、自在观看的特点,帮忙观众更平面地追踪球赛的精彩霎时。 所谓“自在视角”,是将多台摄像机盘绕部署采集的视频内容,编排整合后回传至核心云或边缘节点,进行视频流3D渲染重建,并实时传送给观众,让观众能够在150度的范畴内随心滑动,观看“本人导播的专属较量”。 03 四个百年奥运「首次」以“云”之力,挥人文之光。 “奥运120多年历史,是人类更高更快更强的拼搏史,也是科技利用的演变史。基于数字化,奥运正焕发着新荣耀。”国际奥委会主席托马斯·巴赫说。 阿里云视频云全面助力“奥运上云”和全新发明云上的所有,电子书收录了百年奥运史上浓墨重彩的泛滥“第一次”。 Cloud ME:奥运首次多人异地全息会面为保障北京冬奥会的顺利举办,阿里云聚“Alibaba Cloud ME”,第一次在百年奥运史上逾越物理空间,出现多人异地近程全息会面的“云聚”时刻。 在实时传输协定、QoS抗丢包策略和阿里云音视频通信网络的保障下,Cloud ME实现包含转码、渲染、场景重建、光影解决等简单流程,实现真人1:1等比“发丝级”复刻,塑造全实在交互的沉迷感。 互动虚构演播:奥运首次实时沉迷报道全新的云导播互动虚构演播计划,是百年奥运以来的首次启用,全程助力CGTN打造奥运赛事报道的沉迷式体验。 互动虚构演播采纳国内首个纯云端实景抠像合流技术,并首次买通了RTC和GRTN网络,达到广电级导播能力。 仅需“两部手机+一台电脑”,即可随时随地开展采访直播与转播,互动虚构演播变革了媒体生产与流传的技术链路,也将沉迷式直播的互动成果全面晋升到新的境界。 AI云智剪:国内首个多层级短视频生产技术北京冬奥会期间,AI编辑部“云智剪”提供的云上智能生产能力——AI云智剪首登冬奥赛场,对视频内容进行多维度解析,实现精彩素材生成,同时基于跨视频集锦生产能力,第一工夫为观众生产主题集锦视频。 此外,针对奥运赛事内容,AI云智剪设定了丰盛的美学主题智能模板,通过智能化视频云技术,全面捕获赛事瞬息间的美学光影。 奥运首次全面上云:体验身临其境2022北京冬奥会是首个全面上云的冬奥会,赛事问题、赛事转播、信息公布等信息系统迁徙至阿里云上,实现外围信息系统100%上云。 其中,“奥运转播云”为转播方提供云上解决方案,实现了高清电视直播和网络渠道直播同时在云上转播,将精彩赛事送达至寰球数十亿观众。 与此同时,云上转播冲破了传统的2k,全程以4k超高清格局转播,局部重要赛事以8k格局转播,让观众“身临其境”。 04 五大AI利用解码以“云”之力,乘AI之势。 随着人工智能技术的日趋完善,AI在大型体育赛中施展着至关重要的作用,场景化翻新程度也一直晋升,电子书出现了阿里云在大型体育赛事中的五大AI翻新利用。 球星智能集锦:世界杯追星神器利用视频AI+云剪辑+媒资治理的技术,赛后生成球星集锦视频,不仅可为生产方疾速提供素材,还可满足球迷们的“追星”需要。 球星智能集锦基于多模态交融的视频AI技术,联合人物、语音和文本辨认输入视频AI工夫线,从而对原始素材进行剪辑合成。 与传统的人工制作形式相比,阿里云智能集锦技术可在赛后分钟级生成集锦视频,速度晋升10倍以上。 窄带高清:NBA高清最优解窄带高清2.0技术,从人眼视觉模型登程,将编码器的优化指标从经典的“保真度最高”调整为“主观体验最好”。 通过引入AI自适应亮度、对比度和色调加强算法,智能化加强赛场画面中较柔和及灰暗色彩的强度,为低码率的源视频加强整体画面色调表现力,打造极致晦涩、视觉丰满、深度沉迷的观看体验。 AI云智剪:北京冬奥新内容生产力AI与机器学习在体育媒体视频生产畛域的利用是产业的大势所趋。在北京冬奥会期间,“AI云智剪”施展微小价值,俨然成为科技冬奥新内容的生产力。 通过对赛事内容的精彩信息进行定义、提取,从较量视频、解说词音频、人物场记等各个维度进行辨认与剖析,并利用多模态交融技术,实现简单场景下的特色集锦成果。 云化转播车:东京奥运全链路智能计划东京奥运会期间,阿里云采纳“5G+4K+AI+云”的云化转播车计划,通过云制作技术赋予现有电视转播车云上生产的能力,晋升内容制作效率,升高制作老本,孵化新内容状态。 该计划适宜网络媒体、OGC、广电融媒等新媒体高清HD直播场景,相较于传统的EFP制作流程,具备便捷、稳固、低成本的特点,更能够通过智能化的伎俩实现智能抠像、动漫化、多主体宰割等亮点利用。 游戏直播实时字幕:S10电竞流量明码在英雄联盟S10赛事中,由阿里云视频云导播台提供的寰球首个游戏直播实时字幕技术,热力反对电比赛事,吸引有数流量。 实时字幕针对特定游戏场景进行特定的语音辨认,并实时展现在直播流中,让散发端的观众能够借助字、音、画多维度信息了解视频内容。 该技术由阿里云视频云与达摩院独特研发实现,通过特定游戏场景训练模型和全链路解决方案,晋升游戏直播的体验感,从而疏导更多泛电竞受众。 在云之上,超现实体验的大门缓缓拉开,将来,更震撼、更微妙、更酣畅淋漓的音视频全景体验跃然纸上。 本次推出的电子书为「Cloud Imagine」首册场景篇,将来,咱们将陆续推出「Cloud Imagine」系列电子书,围绕场景、围绕技术、围绕翻新。 本期更多精彩内容,就在《超过感官,沉迷赛场——大型体育赛事云上实战精选集》电子书,欢送收费下载。 ...

March 13, 2023 · 1 min · jiezi

关于云计算:OpenYurt-v12-新版本深度解读三五步搭建一个OpenYurt集群

OpenYurt 作为业界首个无侵入云原生边缘计算平台近期迎来了 v1.2.0 版本的公布,在 Kubernetes 无侵入、云边端全协同、跨网络域通信等个性上继续发力,深刻打造 OpenYurt + Kubernetes 实现海量边缘计算业务的继续交付与高效运维治理能力。 背景Kubernetes 作为云原生最根底的我的项目,目前曾经取得开发者与企业的宽泛认可并激发低落的参加激情,OpenYurt 进一步将云原生体系技术扩大到边缘场景,其自身的复杂性以及边缘场景的多样性以致大多数开发者难以在短时间内应用并且参加到 OpenYurt 我的项目中来。其中对于 OpenYurt 的装置部署成为横在云原生从业者、社区参与者以及对边缘云原生感兴趣的开发者背后的一道难关。 在 OpenYurt v1.2.0 版本中进一步优化了 OpenYurt 装置过程,不再对原生 Kubernetes 的配置有任何批改,基于 Kubernetes+OpenYurt 实现云原生体系的边缘计算平台,将边缘设施与算力以云原生的形式对立治理。 OpenYurt 装置部署优化在最新公布的 v1.2.0 版本中,OpenYurt 的装置与部署流程做了大量的优化,如图所示,将原流程的十个步骤缩减为五个步骤,在最新的版本中无需对原生 Kubernetes 组件做任何配置上的调整。 新的装置部署步骤如下: 初始化一个 Kubernetes 集群,并且装置 Flannel 插件以及 CoreDNS;给云端节点打标签,与边缘节点做辨别(云端节点个别部署核心管控、可观测组件) ;部署 OpenYurt 管控组件,Yurt-Controller-Manager 组件负责自治节点上 Pod 的生命周期治理以及边缘侧组件的证书审批,Yurt-App-Manager 组件为跨地区资源及业务管理器,以节点池(一组节点)为单位履行单元化治理。部署跨网络域通信组件 Raven,Raven 通过在云边构建 VPN 隧道实现跨网络域的通信,其中 Raven-Controller-Manager 负责网关节点的治理,Raven-Agent 负责构建 VPN 以及治理路由。接入边缘节点,举荐应用最新的 Yurtadm 一键接入边缘节点,将主动部署边缘自治组件 Yurt-Hub。 部署的具体操作步骤,能够参考 OpenYurt 官网社区网站的装置指南。 装置指南:https://openyurt.io/zh/docs/installation/manually-setup/受害于 OpenYurt 装置部署优化的 Prometheus 实际鉴于在 v1.2 版本 Raven 组件性能的进一步欠缺,Prometheus 以及 MetricsServer 等观测与监控的部署流程将与在原生 Kubernetes 集群上的装置部署流程保持一致,不再依赖 Yurt-Tunnel 和 CoreDNS 的非凡配置。然而相比于原生 Kubernetes 在数据传输的形式产生有肯定的区别。如图所示,云端到网关(Gateway)或独自的边缘节点的监控指标数据将通过 Raven 构建的 VPN 隧道进行通信,对一般节点的监控指标数据将被转发到网关节点上通过 VPN 隧道道传输到云端的观测与监控组件。 ...

March 13, 2023 · 1 min · jiezi

关于云计算:FinOps-首次超越安全成为企业头等大事|云计算趋势报告

随着云计算在过来十年中的广泛应用,云计算用户所面临的一个继续不变的趋势是:平安始终是用户面临的首要挑战。然而,这种状况正在产生转变。  出名IT软件企业 Flexera 对云计算决策者进行年度调研曾经继续12年,而往年平安问题首次没有成为最大挑战。在3月8日公布的《Flexera 2023年云计算现状报告》中显示,82%的受访者示意,他们面临的最大挑战是治理云收入,而认为安全性是首要挑战的受访者占比79%。  呈现这一转变的起因可能是企业在云平安方面变得越来越得心应手,同时须要治理因为更依赖云服务而带来的更高开销。78%的受访者示意,不足资源或专业知识是企业采纳云计算面临的首要挑战,这也是当今企业面临的第三大云计算挑战。   近一半(45%)受访者示意,因为经济不确定性,他们预计的云使用量和收入要比原打算中的略高或大幅度提高。因而,云老本治理的关注度兴许并不令人意外。现在的经济波动意味着,只管云的应用和收入仍然放弃强劲增长,但企业对与之相干的费用越来越敏感。  与此同时,企业仍在继续谋求我的项目翻新和持重的支出增长。这对他们对云的依赖有什么影响?往年的报告,即 Flexera 对云用户(私有云、公有云和多云)开展的第12次年度调研,收集了寰球范畴内750名IT专业人士和部门负责人的问卷,肯定水平上代表了各行各业的用例,以阐明当今云计算的趋势。  对云的依赖继续加深随着采纳云技术正逐步变成支流,目前有超过一半的工作负载和数据都在私有云内。将近三分之二(65%)的受访者示意,他们所就任的企业是私有云的重度用户,高于2022年报告中的63%。  11%的受访者示意他们正在应用繁多的私有云。大多数受访者(86%)则应用多云(其中,12%应用多个私有云,72%应用混合云)。与去年相比,对多云的依赖稍微升高。  在应用多云的受访者中,前两种多云实现形式别离是不同云上的利用隔离(占比44%)和云之间的劫难复原(DR)或故障转移(占比42%)。在受考察的所有企业中,应用最多的多云工具是平安工具(占比30%),紧随其后的是老本优化(FinOps)工具(占比29%)。在大型企业中(即员工数量超过1000人),对这些工具的依赖显著减少,其中68%应用 FinOps 工具,63%应用平安工具。  大概四分之一(24%)的受访者每年在私有云方面的收入超过1200万美元。近五分之一(18%)的受访者示意,他们目前的云计算收入曾经超出了原来的估算。30%的受访者预计将来12个月内的云计算收入也将会持续增长。  云计算畛域的强烈竞争仍在持续AWS 和微软 Azure 仍然是云厂商中的领导者。他们依然在强烈抢夺市场领导者位置,同时相比于其余友商而言他们的当先劣势始终在不断扩大。  在2022年的报告中,Azure 在占有率方面超过了 AWS。2023年的报告中,AWS 再次占据领先地位:46%的企业受访者在 AWS 中运行重要的工作负载,而 Azure 的数据则是41%。  企业的云应用程度、私有云服务厂商的采纳状况表明,随着组织的成熟倒退,它们更偏向于抉择市场领导者。因而,AWS 在长期应用云且是云的重度用户的组织中依然更为常见。  在谈到预期增长量最大的私有云供应商时,依据目前正在尝试或打算应用的受访者数量来掂量,谷歌云平台和甲骨文云基础设施并列,各占28%。   管制云老本仍旧是挑战据受访者团队外部预计,节约的云计算收入为28%,比2022年报告中的32%略有降落。但老本优化和缩小节约的需要依然存在。  将工作负载迁徙到私有云依然有挑战,最终会导致成本上升。最次要的云迁徙挑战包含理解应用程序的依赖项(49%)、评估技术可行性(46%)以及调整规模或抉择最佳实例(42%)。  迁徙之后也存在挑战,如管理应用程序和优化老本,这也表明了在迁徙过程中所有阶段以最佳形式优化云老本的重要性。  当波及到云老本治理时,责任通常由组织内的多个团队独特承当。与去年相比,供应商治理和财务/会计团队对云费用的责任正在缩小。取而代之的是,这些责任正在向 FinOps 团队转移。  FinOps 是云老本治理的实际,其优先级正在逐渐晋升。将近四分之三(72%)的受访者示意其组织外部有专门的 FinOps 团队,另外14%的受访者提到在将来12个月内打算组建一个 FinOps 团队。  改善云计算成本优化其中包含应用云厂商提供的折扣,目前大概有三分之二的受访者示意没有应用这些折扣。单体经济模型(或称最小盈利单元)是 FinOps 用来掂量云收入效率的一个要害指标,施行起来可能具备挑战性,但39%的企业曾经施行了单体经济模型来进行云老本剖析。这个数字在将来几年可能会减少。  参考链接:https://www.infoworld.com/article/3689813/cloud-trends-2023-c...

March 10, 2023 · 1 min · jiezi

关于云计算:在-KubeSphere-中开启新一代云原生数仓-Databend

作者:尚卓燃(https://github.com/PsiACE),Databend 研发工程师,Apache OpenDAL (Incubating) PPMC。前言Databend 是一款齐全面向云对象存储的新一代云原生数据仓库,专为弹性和高效设计,为您的大规模剖析需要保驾护航。Databend 同时是一款合乎 Apache-2.0 协定的开源软件,除了拜访云服务(https://app.databend.com/)之外,用户还能够本人部署 Databend 生产集群以满足工作负载须要。 Databend 的典型应用场景包含: 实时剖析平台,日志的疾速查问与可视化。云数据仓库,历史订单数据的多维度剖析和报表生成。混合云架构,对立治理和解决不同起源和格局的数据。老本和性能敏感的 OLAP 场景,动静调整存储和计算资源。KubeSphere 是在 Kubernetes 之上构建的以利用为核心的多租户容器平台,提供全栈的 IT 自动化运维的能力,能够治理多个节点上的容器化利用,提供高可用性、弹性扩缩容、服务发现、负载平衡等性能。 利用 KubeSphere 部署和治理 Databend 具备以下长处: 应用 Helm Charts 部署 Databend 集群,简化利用治理、部署过程和参数设置。利用 Kubernetes 的个性来实现 Databend 集群的主动复原、程度扩大、负载平衡等。与 Kubernetes 上的其余服务或利用轻松集成和交互,如 MinIO、Prometheus、Grafana 等。本文将会介绍如何应用 KubeSphere 创立和部署 Databend 高可用集群,并应用 QingStor 作为底层存储服务。 配置对象存储对象存储是一种存储模型,它把数据作为对象来治理和拜访,而不是文件或块。对象存储的长处包含:可扩展性、低成本、高可用性等。 Databend 齐全面向对象存储而设计,在缩小复杂性和老本的同时进步灵活性和效率。Databend 反对多种对象存储服务,如 AWS S3、Azure Blob、Google Cloud Storage、HDFS、Alibaba Cloud OSS、Tencent Cloud COS 等。您能够依据业务的需要和偏好抉择适合的服务来寄存你的数据。 这里咱们以青云 QingStor 为例,介绍与 S3 兼容的对象存储相干配置的事后筹备工作。 创立 Bucket对象存储服务(QingStor)提供了一个有限容量的在线文件存储和拜访平台。每个用户可创立多个存储空间(Bucket);您能够将任意类型文件通过控制台或 QingStor API 上传至一个存储空间(Bucket)中;存储空间(Bucket)反对访问控制,您能够将本人的存储空间(Bucket)凋谢给指定的用户,或所有用户。登录青云控制台,选中对象存储服务,新建用于验证的 bucket 。 ...

March 9, 2023 · 4 min · jiezi

关于云计算:基于应用理解的协议栈优化

作者:余兵 挪动互联网时代,不同的利用谋求的产品体验差异性很大。 利用商店和图片等下载类型业务谋求速度、越快越好,短视频关注起播、拖拽响应速度和观看过程卡不卡,直播谋求画质清晰、高码率和直播过程晦涩;而游戏则是谋求低延时,网络稳固、不掉线。 如何保障不同类型利用的差异化产品体验是挪动互联网时代的一个微小的难题。 01 传统协定栈技术与有余协定栈是底层通信技术,处在 OSI 模型的第四层,协定栈优化技术旨通过克服协定缺点和改进协定机制,晋升内容散发效率,改善产品体验。 传统的协定栈优化思路是以“快”破万法,谋求速度的极致,从速度视角去解所有利用的产品体验问题,这对于下载相似的业务实用,但对于直播、点播和游戏等业务确是不实用的,会呈现产品体验不好的景象。 点播和直播关注卡不卡、晦涩与否,最外围的技术是保障播放器缓存不空,继续一直的有数据播放,和传输速度快慢并无间接关系;游戏信令关注低延时,对带宽需求量很小,但对丢包和网络抖动及其敏感,对于丢包感知、丢包复原技术要求极高。 显然,速度的解法,并不能满足挪动互联网下所有利用产品体验需要,协定栈优化技术需迭代要降级。其中最重要、最外围的技术是协定栈了解利用,了解利用的传输特色、了解利用要害体验指标、了解要害体验指标背地的性能瓶颈,及其造成性能瓶颈的影响因素个各个影响因素奉献的权重比例。 除了了解利用外,协定栈优化技术还须要扩大与延长协定栈对利用传输过程的感知能力,感知后果与利用传输特色匹配,再定制差异化的拥塞管制和丢包复原算法。 02 了解利用的协定栈技术基于利用了解的协定栈,首先要了解不同利用的传输特色、要害体验指标、要害体验指标背地的性能瓶颈,及其造成性能瓶颈的影响因素和个各个影响因素奉献的权重比例;其次是对利用总结、分类,分成不同的业务类别,最初再针对不同的业务分类性的设计不同的算法策略。计划的核心思想是用不同的算法解决不同利用场景的产品体验优化。 利用分类和解法阿里 CDN 最近四年,始终在协定栈技术智能化路线上摸索,基于利用了解的协定栈技术是协定栈智能化的技术根底。针对阿里云 CDN 平台 130T 的业务规模做利用分类,分类规定根据两个维度:利用传输特色(不同的利用在业务特色的差异性会反馈到传输行为上)、利用要害体验指标(关注速度、卡顿率、低延时等不同的体验指标),最终将所有利用分成四类业务:信令业务、下载业务、点播业务、直播业务。 l 信令业务信令场景的传输特色是交互式、低延时、信息量少,比方游戏对战类、网站拜访类、钉钉、微信等 IM 通信工具文字和语音通话类业务。要害的利用体验指标是低延时、网络稳固、不抖动、不闪断,所以信令业务的产品体验优化解法是弱拥塞管制,强丢包复原。最外围的优化要领总结为“快传传补”,“快传”是指疾速的将数据报文发送到网络中,“快补”则是在拥塞检测、丢包复原技术上及时、实时,只有如此能力达到低延时的利用体验需要。 协定栈技术实质上是一种攻防技术,贪婪的拥塞管制是防御,负责“免疫”的丢包复原是进攻,防御与进攻并存,逆风时防御,戗风时进攻,信令场景优化要领“快传快补”正是如此。协定栈的优化策略必须攻防兼备,设计防御策略时,同样须要设计辅助的进攻策略,一个优良的拥塞控制算法,必然配套了一个优良的丢包复原算法,只有这样能力将协定栈技术演变到极致。 l 下载业务下载场景特色为数据量大、谋求下载速度,须要的带宽量大,冀望压着可用带宽跑,充分利用链路可用带宽,典型的利用有利用商店的 APP 下载,大文件下载、高清图片下周、手机操作系统升级包下载等。下载利用要害的体验指标是下载速度、下载耗时,所以下载业务的优化要领是“拥塞管制、细水长流”,继续一直的做好带宽预计,继续一直最大化利用链路探测带宽,能力保障下载类业务的产品体验,短视的冲破、取巧难将性能做到极致。 l 点播业务点播场景特色为动态的视频文件流(缓存在 CDN 边缘节点)、不关注下载速度,关注视频播放卡不卡,视频起播和拖拽响应速度,比方行业手淘、快手、抖音、小红书、优酷和蚂蚁支付宝第三 tab 页等平台上提供的短视频点播业务。要害体验度量指标是卡顿率,卡顿是播放器的行为,保障播放器缓存不空,继续一直的有数据播放是点播场景优化的要害难题。 l 直播业务直播场景特色为实时流、带宽需求量不大但有突发(和视频编码技术无关)、对网络丢包敏感、不关注下载速度,关注播放过程晦涩与否,比方行业的手淘、快手、抖音、虎牙、斗鱼等平台上提供的直播业务。直播业务的要害体验是播放晦涩、不卡顿,与点播业务的优化要领类似,区别是直播为实时流,阿里 CDN 的优化思路是弱拥塞管制,强丢包复原。 基于利用了解分类,阿里云 CDN 设计了一个协定栈算法容器,蕴含四大主算法,别离笼罩信令业务、下载业务、点播业务和直播业务,每个主算法蕴含三个子算法,提供了低中高三个不同等级的分级服务,最终满足各种利用的产品体验改善须要。 协定栈算法容器区别于原始 Linx 内核的算法模式——将不同思维、服务不同场景的算法设计为独立算法,阿里 CDN 联合利用核心式、对立管控需要,也为了能让算法和利用更加灵便匹配,咱们应用了一种新模式,设计了一个算法底座,底座上成长了 5 个主算法,主算法提供低中高三种不同级别的分级服务,最终造成了算法容器。 算法容器的构建逻辑如下: 首先,通用能力形象、底座化,形象拥塞管制和丢包复原技术作为算法容器的底座。拥塞管制和丢包复原是协定栈最外围的两大技术,近乎 95%的协定栈优化工作都集中在此。拥塞管制类别人的心脏,通过带宽预计和带宽应用,管制整个协定栈的启停;丢包复原则相似人的免疫系统,当网络呈现拥塞或呈现丢包时负责免疫修复。 其次,通用能力灵便、弹性化,不必的场景分类对拥塞管制和丢包复原依赖有差异。比方直播对于拥塞管制的依赖比拟弱,直播为实时流,须要带宽量绝对固定,贪婪式的拥塞管制算对直播产品体验优化成果弱,然而对于丢包复原的能力要求很高;下载业务对于拥塞管制的能力要求极高,须要拥塞控制算法尽力而为,丢包复原技术要求个别;再如信令业务,对带宽的需要趋于无,然而对丢包复原的能力要求极高。拥塞管制和丢包复原通能力灵便、弹性后,场景分类算法能够依照本人的需要抉择能力等级。 再次,场景分类主算法设计,主算法设计蕴含两局部要害类容:第一是基于利用场景特色的了解决策应用通用能力等级(拥塞管制和丢包恢复能力),第二局部是基于场景传输特色和性能瓶颈,迭代专用策略。 最初,算法服务分级的能力(阿里云 CDN 设计了低、中、高三档能力,演变为三个子算法),不同利用对于产品体验的要求有差别、对品质的敏感度也有差别,利用这种差别构建服务分级的能力,能够实现产品体验和老本双赢。比方 CDN 零碎外部的日志回传对实时性要求不高,能够给予最低档的优化服务;比方点播、直播、游戏等业务对产品体验要求十分高,能够给予最高的的产品体验优化;又比方 CDN 外部管控类服务对品质的敏感适中,给予两头档位的传输服务。 阿里CDN算法容器图 能力产品化交付技术能力交付的形式有很多,算法容器遵循了产品化模式交付规范,有如下性能或个性: 域名维度算法配置,反对不同域名配置不同算法: l 反对域名维度国家、省份、运营商、节点、工夫组合维度的算法配置,能够灵便的组合应用算法 l 域名策略 web 化配置、点鼠标实现域名算法配置 ...

March 9, 2023 · 1 min · jiezi

关于云计算:sealos-神奇功能-serverless-kubernetes-之-cloud-terminal

何为 serverless kubernetes顾名思义,就是不须要装置间接关上网页就能够间接应用的 kubernetes,是一个多租户共享 kubernetes 的租户模型,这样做的益处是对于用户的应用老本极低,而且无需装置 kubernetes, 且天生对多租户的隔离性做的很好。劣势是用户没有集群级别的管理权限,比方拜访节点,或者挂载主机目录,共享主机端口等,其实这也不是劣势,因为凋谢这些货色自身就是不平安的。 sealos 在这块做了十分多的优化,间接能做到在公网这种不可信的环境中让多租户平安的共享一个 kubernetes 集群,从而把 IT 老本打到骨折。 这是一个系列文章,咱们从 sealos 的一些根底性能开始介绍,本篇介绍的是 sealos 的 terminal 能力。 cloud terminal 应用教程cloud terminal 是一个跑在容器内的 web terminal, terminal 中曾经配置好了用户的 .kube/config,也蕴含了一些常用命令,简直能够用来拜访所有 sealos 曾经提供的利用的 API. tips: 目前 terminal 中不反对长久化文件,请务必保留好在外面编辑的一些文件。 拜访 API serverterminal 中曾经装置 kubectl, 也配置好用户的 kubeconfig. root@thpqxr0bh:~# kubectl get podNAME READY STATUS RESTARTS AGEacid-test-0 1/1 Running 0 37mterminal-8b66134e-5294-480f-b6c4-00243fc2488e-5cdc66697c-d5tss 1/1 Running 0 40m查看 .kube/config root@thpqxr0bh:~# cat .kube/config apiVersion: v1clusters:- cluster: server: https://kubernetes.default.svc.cluster.local:443 name: kubernetescontexts:- context: cluster: kubernetes user: 8b66134e-5294-480f-b6c4-00243fc2488e namespace: ns-8b66134e-5294-480f-b6c4-00243fc2488e name: 8b66134e-5294-480f-b6c4-00243fc2488ecurrent-context: 8b66134e-5294-480f-b6c4-00243fc2488ekind: Configpreferences: {}users:- name: 8b66134e-5294-480f-b6c4-00243fc2488e user: token: eyJhbGciOiJSUzI1NiIsImtpZCI6IjItUWxyLUc3X0FiNjF...这里如果把 server 地址批改成 https://cloud.sealos.io:6443 就能够近程拜访 apiserver, 如应用你本地的 terminal,或者集成到任意的 CI/CD 零碎中,只须要把文件内容拷贝到客户端的 ~/.kube/config 目录即可 ...

March 7, 2023 · 2 min · jiezi

关于云计算:谁说私有云不是云

说公有云不是云的大部分是带有利益立场的,站在本身利益角度去成心争光,诚然公有云在某些场景下的确没有私有云性能强,但说公有云不是云的就如同在说残疾人不是人。 公有云的确没有倒退的很健全,这不代表它就不是个货色,私有云唱的很厉害也不代表就真的很厉害,二者倒退至今都有缺点,我的倡议是谁也别黑谁。私有云讥笑公有云性能弱,公有云说私有云老本贵,其实脱离场景谈劣势都毫无意义。 云计算的实质 - 连贯计算资源云计算的实质在于将计算资源(包含硬件、软件和网络等)通过互联网等形式提供给用户应用。云计算通过虚拟化技术和自动化治理实现了资源的高效利用和灵便调配,使得用户可能依据须要随时获取所需的计算资源,同时也升高了企业的IT经营老本。 从这个角度来说,我哪怕在局域网中通过 ssh 连贯到了一台服务器上,在这一台上虚拟化出个几个虚拟机就曾经算是云计算了,只是很简陋而已。就像用网线连接起来两台计算机就是一个小型互联网了,这是云计算的实质。 所以连贯单个数据中心的算力资源只给本人用就是公有云,通过公网让大家都能用就是私有云。至于性能上私有云能做到的实践上公有云都能做到,只是个老本问题。 公有云性能弱,建设老本高到目前为止,任何一家企业想要在私有化环境中建设一个与AWS相似的零碎,每年都须要付出非常低廉的老本,简直只有两个抉择,洽购或自建。洽购不用说,起步上千万的老本,而自建单纯软件老本即使在 openstack 这样的软件上批改也须要 30人以上的团队。 这和私有去一比拟那的确感觉啥也不是,很毛糙很简陋。导致公有云被黑的很惨,各种无奈造成最佳实际。 都怪 openstack 烂泥扶不上墙,而 kubernetes 这个纨绔少年又没成年,接盘过程呈现了一个小断层。 即便如此 公有云还是云,我司开发环境就是 6 台洋垃圾组的集群,哪天不够用了间接买台 join 进来,坏了间接剔进来,弹性的很,满足咱们开发环境对云的所有诉求,要害总的老本 3000 块,这个场景是私有云怎么也做不到的,所以再强调一下场景的重要性。 而后强调一下软件的优质有多重要,如果明天 linux 操作系统非常复杂,十分不稳固,那肯定会呈现 redhat 就不叫操作系统的论调。你会发现不论在私有云上还是公有云的服务器上简直都在跑一样的 linux。所以公有云这不像云的鬼样子就能够归结为云操作系统自身不够优良,openstack 不行,kubernetes 只成为了一个 云 kernel,云操作系统发行版还才刚刚发芽。 这是现状不是将来。 私有云价格下不去说了很多公有云的不好,私有云也别在拐角乐呵,乌龟莫笑鳖,都在泥里歇。 私有云最大的问题就是贵,如果比物理硬件贵一点点是能够了解的,可是会算帐的人都晓得可能贵了近 10 倍,这就很夸大。 可能会解释,机房建设,空调,柴油机,专线等等。。。 不过说好的规模效应呢。买好服务器托管机房也还是便宜了好多。 所以细想其实是软件老本高,比方 IaaS 都干了啥,相当于把所有的硬件都用软件实现了一遍,路由器 交换机 虚构IP 虚拟机 磁盘 等等,可想而知软件的老本有多高。有人可能感觉软件老本会被规模效应摊薄,事实并非如此,这个是以机房的建设老本来计算的,而不是云总的客户体量来摊派,哪个机房建设软件交付的过程不得堆一堆人很长时间上,再加上各种服务器的管控节点,再加上预留资源,造就了永远下不去的低廉。 私有云的第二大问题是简单,明天甚至曾经呈现了业余用云的专家了,然而你发现大部分人用 windows 用 mac 都不太须要怎么教。是云真的简略不了吗?我想不是的,必定有方法让其简略的,只是目前的厂商们都没深刻思考明确这个事。 私有云的第三大问题是关闭,能造成事实标准的可能也就 s3 还行,这就导致绑定问题,可能哪个云产品数字不难看下个月就被下架了,又或者到割韭菜的时候就涨个价了等,开源我的项目肯定水平缓解了这些问题,不过云的事实标准没有造成仍旧是不成熟。 总之,公有云有很多问题,私有云到明天也没好到哪去。当然这也是现状,不是将来。 IaaS PaaS SaaS 三层云计算架构将沦亡大部分云厂商还是这三层架构,祝贺这样玩的都是造了量“更快的马车”,其实想想利用须要的真是把各种硬件的能力都用软件写一遍?齐全不是,业务的目标是稳固的跑起来,是不是虚拟机不重要,所以从下层的需要层面就曾经发生变化了。 如:我跑个 golang 程序能连个数据库就完了,我管你在不在 VPC 外面,你实现了一大堆路由器交换机,对不起我不须要,而且将来越来越多的开发者会意识到这点,网络你保障我能通能堵平安就够了。 ...

March 7, 2023 · 1 min · jiezi

关于云计算:云原生周刊开源赢了但它可持续吗

日前召开的 State of Open 会议上,开源“赢了”,但如果政府和企业不站进去确保生态系统在将来的弹性和可持续性,那么它依然会失败。 OpenUK 首席执行官 Amanda Brock 在开幕式上示意,数字化和开源在过来 5 到 10 年的提高晋升了工程师的位置,“使他们的位置达到了可能做出决策并成为影响者的程度。” 然而开源的胜利,以及对其安全性的担心,也吸引了政策制定者的更多关注以及提出更多新的法律和政府策略。 Google 基础设施副总裁 Eric Brewer 则示意:如果治理是使开源可继续倒退的拼图的一部分,那么另一部分就是政府口头,特地是在加强安全性和弹性方面。欧盟目前正在推动其网络弹性法案,而英国刚刚启动了对于开源弹性和平安的征询,白宫正在推动旨在爱护软件供应链(包含开源)的网络策略。 开源我的项目举荐KubediffKubediff 是 Kubernetes 的一个工具,能够向您展现运行配置和版本控制配置之间的差别。 KeelKeel 是一个用于自动化 Kubernetes 部署更新的工具。Keel 是无状态的、强壮的和轻量级的。 UpdatecliUpdatecli 是一个用于利用文件更新策略的工具。旨在从任何中央应用,每个应用程序“运行”检测是否须要应用自定义策略更新值,而后依据策略利用更改。 Logging operatorLogging operator 通过主动部署和配置 Kubernetes 日志记录管道来解决您在 Kubernetes 环境中与日志记录相干的问题。 文章举荐Ingress Controller 与 Load Balancer:哪个适宜您的 Kubernetes 环境?这篇文章比拟了 Kubernetes 环境中应用的负载平衡形式:Ingress Controller 和 Load Balancer。Ingress Controller 是一种基于 HTTP 和 HTTPS 的反向代理,容许咱们将流量转发到集群内的不同服务。 Load Balancer 则间接将流量调配到 Kubernetes 集群的节点上。作者别离论述了这两种形式的原理、应用场景、优缺点和适用性,以及它们之间的区别。 作者倡议在确定负载平衡计划之前,须要依据本人的理论需要和估算来决定应用哪种形式,同时须要思考到流量转发、健康检查、老本等因素。 WebAssembly 能解决 Serverless 的问题吗?这篇文章探讨了 WebAssembly 在解决 Serverless 应用程序的问题方面的后劲。作者指出 WebAssembly 的次要劣势是其高效的性能和跨平台的可移植性。只管 Serverless 平台曾经使开发者可能轻松部署和运行应用程序,然而现有的服务器架构依然存在许多艰难,如冷启动,性能提早和昂扬的存储老本。 ...

March 7, 2023 · 1 min · jiezi

关于云计算:OpenYurt-在龙源-CNStack-云边协同项目的应用

OpenYurt 介绍OpenYurt 是业界首个对云原生体系无侵入的智能边缘计算平台,具备全方位的“云、边、端一体化”能力,可能疾速实现海量边缘计算业务和异构算力的高效交付、运维及治理。其在云平台、云游戏、AI、IOT 畛域早已有泛滥落地用户。 OpenYurt 完满适配和解耦于原生 K8s 组件,例如 Kubelet、Kube-Proxy、CoreDNS 等。其外围能力为边缘节点的边云网络代理,由 Yurthub 组件提供,旨在保障跨云场景下的 K8s 节点失常纳管和运行,从而为边缘 IOT 设施赋予云原生能力。OpenYurt 通过生产验证,可反对上千节点以及上万 Pods 大规模集群的稳固生产能力。上面咱们将介绍其集成于 CNStack 云原生技术中台,落地于龙源电力企业的具体场景。 CNStack(云原生技术中台)介绍CNStack(云原生技术中台)是阿里云云原生最佳实际的输入载体,它能够在多云、混合云场景下集中纳管基础设施资源,对立编排和调度工作负载,帮忙客户高效构建高性能、高可用、高牢靠和平安合规的现代化利用,晋升企业数字化转型的整体效力。CNStack 致力于帮忙企业 IT 架构重组升维,提供用最低的老本构筑业务倒退护城河,产生更大的市场利润的技术原动力,CNStack 在过来两年继续打造企业级分布式基础设施 OS,帮忙利用开发者屏蔽底层计算、网络简单拓扑,和异构差异性,并通过适应性优化 IaaS+ 服务,向以业务为核心提供更多指标为导向的组合效用输入。 案例落地架构龙源电力领有七百多个服务器节点,散布于中国数十个省市,冀望引入高可用的云原生平台,实现“本部-省公司-场站” 三级服务器的对立纳管能力。并须要在核心节点实现对边缘节点容器进行对立的调度、监控、运维能力;并针对边缘场景,对弱网络、云边断网场景的服务稳定性提出要求。 3.1 案例边缘能力整体架构龙源场景具备规模大、节点多、业务容器数量宏大的特点,并因为节点之间物理间隔大和网络老本问题,导致边缘至核心站点的网络资源带宽小;另外,还存在核心站点断电保护时,保障边缘业务仍然失常工作的诉求。CNStack 云原生技术中台引入 OpenYurt v0.7.0 版本组件来反对这种场景。 咱们对于 OpenYurt 边缘组件的部署架构如下所示。 整个集群领有一个由多个节点组成的核心站点,负责整个集群的管控。同时,次要的业务工作负载位于数十个省市的上百个边缘节点中,如上述介绍,边缘节点至核心站点的网络带宽较小,网速大抵在 40KB/s 至2MB/s。 如上图所示,在核心站点上,部署了 CNStack 云原生技术中台提供的 K8s 根底组件例如 CoreDNS、Kube-Controller-Manager、APIServer ;以及集成的 OpenYurt 云端组件,包含负责边缘节点池资源生命周期治理和证书签发的 Yurt-Controller-Manger、负责反向运维能力反对的 Tunnel-Server 等组件。 在边缘站点上,也领有原生组件和 OpenYurt 边缘组件,其中边缘组件包含边缘 DNS 缓存服务 Local-DNS,其能够大幅缩小边缘利用查问 DNS 记录所耗费的跨站点流量,还有 Tunnel-Agent 组件。其中最重要的为 Yurthub 组件,其负责代理边缘节点内的 APIServer 申请,从而实现在云边网络临时断开的状况下,通过读本地缓存,保障代理的申请正确返回,维持根底组件和业务负载的失常工作;此外,它还负责心跳代理和容器内 APIServer 证书的重写与管制,从而保障业务直连 APIServer 申请也经由 Yurthub 转发。 ...

March 6, 2023 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-OpenFunction-v100rc0-发布

KubeSphere 社区双周报次要整顿展现新增的贡献者名单和证书、新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 本次双周报涵盖工夫为:2023.02.17-2023.03.02。 贡献者名单 新晋贡献者本两周共有 5 位新晋 contributor,包含近期在社区公布过 KubeSphere 相干文章的非代码贡献者。感激各位对 KubeSphere 社区的奉献! 讲师证书此两周内共组织一场线上直播,应用 eBPF 零老本落地分布式追踪,诞生一位讲师背阴,感激向老师的精彩分享! 近期重要更新KubeSphere1. 修复 ks-apiserver 配置重载后未校验的问题相干 PR: https://github.com/kubesphere/kubesphere/pull/5564 贡献者:Fritzmomoto 2. 新增 IAM v1beta1 API相干 PR: https://github.com/kubesphere/kubesphere/pull/5502 贡献者:zhou1203 3. 应用 batch/v1 代替 batch/v1beta1 以适配 K8s 1.25+相干 PR: https://github.com/kubesphere/kubesphere/pull/5562 贡献者:wansir 4. 修复 PrometheusRules 被意外笼罩的问题相干 PR: https://github.com/kubesphere/kubesphere/pull/5561 贡献者:junotx 5. 更新 github.com/projectcalico/calico 相干依赖相干 PR: https://github.com/kubesphere/kubesphere/pull/5557 贡献者:renyunkang 6. 减少 API 以反对用户名明码类型的第三方认证零碎相干 PR: https://github.com/kubesphere/kubesphere/pull/5534 ...

March 6, 2023 · 2 min · jiezi

关于云计算:解读场景化视频制作工具的实现过程

内容视频化正当其时,企业级智创工具发明新价值。全畛域的内容视频化已是显性之势,其不仅笼罩传媒行业,更多泛行业正在以视频化内容的多元姿势发明新的商业价值。于是,不仅新闻传媒行业在超前体验智能化视频发明的效力红利,更宽泛的行业畛域也在一直试水,以视频化的增益驱动,尝试翻新与发明。 然而,以后传统视频生产还面临着以下问题: l 协同能力低 视频创作的整个流水线环节中,每个角色都有固定的素材积淀,媒资素材散落,流水线各角色合作须要重复搬运;同时,视频创作存在多版本协同艰难的问题,齐全是离线的串联式协同,也就是无奈多人、异地、轻量的并行编辑工夫线。 l 生产效率低 在传统视频创作过程中,对于视频素材齐全依赖人工进行剖析、辨认和剪辑,大量的媒资原始素材也依赖人工打标归类,分类残缺度和效率都较低。 l 批量视频生产无奈标准化 在面对同类型视频生产时,传统视频创作只能通过设计资源的累加实现创作量的晋升,即次要依赖人工机械化反复制作,没有方法将设计和生产解耦。 l 投入老本高,剪辑环境受限 传统视频创作所依赖的端上剪辑软件洽购老本高,不仅须要较大的后期硬件投入及设计师继续的人力老本,还会受到剪辑工作环境固定的限度。 同时,新的视频化行业的视频制作需要也在不断涌现。 新的视频化行业的视频制作需要: l 实时性:视频内容信息疾速触达终端用户; l 协同性:业余剪辑工具实现跨平台的工程合作互通; l 规模化:应用专业化、可复用的模版实现海量视频标准化及规模化生产; l 智能化:相干智能AI能力加持辅助高效视频生产。 「智能媒体生产」就是聚焦在更海量、更实时、更智能的视频生产制作畛域,而实现这一能力冲破的要害,在于“云”。 所以,视频化无处不在,以云承载,以AI驱动,予之重塑。 01 新闻传媒场景——云端协同创作,新闻传媒全链变革 在新闻传媒畛域,新闻视频的生产对时效性要求极高,平台“首发”尤为重要。而因为传统的剪辑制作多是采纳离线串联的形式,需对新闻现场采集的视频素材进行重复搬运、剪辑等,新闻视频的制作须要较长的工夫,这就会与时效性产生肯定矛盾。除此之外,新闻视频还须要专业性和标准化的制作,比方须要对视频增加字幕、转场,退出标准化的片头片尾、媒体logo等,这对以后互联网厂商的内容创作工具来说难以满足。 对于此痛点,智能媒体生产为新闻传媒行业提供直播剪辑性能及配置了并行模式,将新闻内容的采、编、播过程均搬上云端实现。智能媒体生产还蕴含了直播快剪与精剪两种模式,能够高效实现直播的实时拆条,并对拆条后果在线精准剪辑及增加字幕、特效转场、片头片尾、logo等。 在成果上,直播拆条速度最高可达60倍速,高级剪辑的简单工夫线合成也可达20倍速,疾速实现将一条新闻稿转化为可投放的标准化精美新闻素材需要,通过全方位变革业余新闻生产与公布流程,让观众第一工夫直触现场。 02 赛事流动——边播边剪,批量化智造热点视频 在一些体育赛事及大型流动的直播场景中,如需对直播的精彩霎时制作集锦并在各平台及时公布并非易事,需先把直播视频下载到本地,进行剪辑制作后再散发,当中产生的时间差会大大影响二次创作和投放的效率。 智能媒体生产提供的“边播边剪”性能能够解决赛事流动直播场景中的这一痛点,不仅能够对直播流进行截选并及时拆剪,还能够提供快捷键操作和模版工厂,除此之外,智能媒体生产也有着较为深刻的AI场景剖析能力,以体育赛事为例,智能媒体生产能够精准辨认较量的非凡精彩时刻,在进步直播剪辑视频效率的同时,实现批量化智造热点视频。 除此之外,智能媒体生产的AI能力能够将视频内容做各种各样结构化的解析,比方为语音、文字、人像等造成丰盛且精准的关键字,为具备大量视频素材的赛事直播提供精准的媒资治理。AI结构化后的视频,能够大大助力视频的搜寻、举荐,以及视频的二次生产。 03 直播电商——批量营销,让直播间话题更具流传力 短视频在营销推广的市场占比越来越高,直播电商平台均在摸索新玩法,“批量生产”、“疾速裂变”和“过滤反复”是制作营销短视频的要害。但以后直播电商的营销推广面临着无奈将无限数量的根底素材大规模生成新视频的问题,以及无奈在直播时同步对直播内容进行营销投放。 智能媒体生产通过实时直播云剪、智能工作、模版工厂等外围能力,将直播电商的原始素材疾速视频化、批量化、去重化,即能够疾速将横屏的直播画面转成竖屏的视频,增加字幕、水印、贴纸动画、片头片尾等模版素材,疾速生成短视频进行投放,为直播削减流量。 04 互联网内容平台——图文视频化转型,内容二次化智创 在内容视频化时代,视频凭借低门槛、强感官冲击、高效连贯成为泛娱乐内容中应用时长最长,且增长最快的流传介质。互联网内容平台除了批量化制作自营音视频的需要,还具备将海量UGC、PGC传统图文内容向中、短视频转型创作的需要。 对此,智能媒体生产不仅反对自主灵便的手动业余剪辑、丑化及合成,更反对一键套用模板,疾速嵌入素材合成成片。同时,智能媒体生产官网提供了丰盛的素材、成果和多端互动的集成形式(可在Web端及挪动端疾速集成可视化交互编辑器),疾速帮忙互联网内容平台实现自营音视频的制作和内容视频化的市场趋势建设。 此外,对于不同用户的个性化内容生产需要,也反对用户自定义模板。通过模版工厂,疾速地把视频内容进行视频模版的自定义,针对习惯应用Adobe AE模版的设计师,智能媒体生产还反对将AE文件上传至平台,来进行后续的渲染合成服务。 05 在线教育——让考场更通明,让教学更乏味 受疫情影响,考试线上化及教育在线化的景象十分广泛。由此延长出两类需要:一是对考场视频的监控录制,二是对在线教育的直播视频进行分段剪辑和二次散发。 通过智能媒体生产,可将线上考试的云端监控录制实现实时拆片,并在录制完结后将重要片段拆条存档。同时,拆条片段可拼接造成多视角的全景监控录像,也可通过特效及模板,二次编辑生成可流传分享的精美视频。 在线教育场景下,智能媒体生产根据其AI能力对PPT拆条、关键词拆条以及分镜头拆条等,将直播长视频主动截取为多个短视频用于二次散发,记录精彩课堂霎时,让教学更乏味。 06 「视频+」服务——视频化内容服务,定制化更高效 随着全畛域的内容视频化趋势,泛滥行业对内容信息进行降级,将干燥图文进行视频化出现,满足当下用户的信息获取偏好,同时也可达到各畛域内容营销的价值。然而,面临有大规模量产视频需要的泛滥行业,无论是团队自建还是内部内容供应,都面临着投入产出比不高、生产周期长的难题。 除外,不同行业、不同畛域也在趋势摸索内容的视频化服务,但各行各业须要根据其畛域特点产出专业化、风格化、定制化的视频,以达到其精细化经营的内容服务需要,同时也须要满足批量化、及时性特点,从而以高定制、高体验服务平台用户,而这所有实现依赖于“智能生产” 。 以金融征询行业举例来讲,市场行情、资讯类内容不仅谋求时效性,波及到的图表和转场特效较多,须要UI设计和交互设计团队破费至多数天能力实现,耗时久且容易出错。同时,泛滥基金类产品信息动静,企业季报、年报等固定周期内容的散发,也是信息视频化服务的一大需要。 针对畛域痛点,阿里云视频云的【智能媒体生产】利用其云端剪辑的个性,通过智能的自动化创作及素材丰盛的模版工厂,能够针对不同场景,如:金融资讯推送、电商产品讲解、常识内容科普等各类格调的模版,实现内容、创意、技术的买通,在解决视频生产效率和老本问题的同时,大大提高信息的时效性。此外,【智能媒体生产】的 “虚构主播”性能也可解决真人主播录制的工夫老本及不确定性等问题,将视频智能化、标准化高效产出。 在全畛域内容视频化的显性趋势之下,视频化增益不断涌现,面对企业级视频生产市场性能需要繁冗、市场跨度大、交付形态各异的次要特点,智能媒体生产作为企业级智创工具,已经验了数十种行业客户实在场景的考验。 阿里云基于多年服务传媒行业的教训,以及云计算和人工智能畛域的积攒,正在革命性地重塑视频生产流程,助力企业和平台疾速定制视频批量生产合作流程。

March 2, 2023 · 1 min · jiezi

关于云计算:2分钟部署人生模拟器解锁人生新剧情

有奖体验隆重开启,双重处分! 【一重礼】2分钟实现人生重开模拟器自动化部署,即可得暴富水杯,先到先得! 【二重礼】邀请好友体验,还可领Macbook Air、索尼ps5、Switch、Cherry机械键盘等丰富大礼! 流动工夫:3月1日-3月31日 流动链接(倡议 PC 端拜访):https://developer.aliyun.com/adc/series/activity/March

March 2, 2023 · 1 min · jiezi

关于云计算:T3-出行云原生容器化平台实践

作者:林勇,就任于南京领行科技股份有限公司,负责云原生负责人,也是公司容器化我的项目的负责人。次要负责 T3 出行云原生生态相干的所有工作,如服务容器化、多 Kubernetes 集群建设、利用混部、降本增效、云原生可观测性基础设施建设等。公司简介T3 出行是南京领行科技股份有限公司打造的智慧出行生态平台,由中国第一汽车集团有限公司、东风汽车团体有限公司、重庆长安汽车股份有限公司发动,联结腾讯、阿里巴巴等互联网企业独特投资打造。公司以“成为最值得信赖的出行服务企业”为品牌愿景,“科技引领 愉悦出行”为使命,提倡“可信,更自在”的出行理念,致力为用户提供“可信、平安、品质”出行服务,让用户感触更加自在的出行体验。 背景介绍随着 T3 出行业务体量继续上涨,服务的稳定性须要系统化的保障。容器化革新将提供标准化的环境,基于利用运行环境实现残缺的版本控制,打消开发到生产的环境差别,保障利用生命周期内环境一致性和标准化。同时容器化环境能够让服务共享计算资源,并通过混部形式来进步整体计算资源的利用率,升高企业应用的基础设施经营老本。 容器化之前 T3 出行是传统的虚拟机模式,所有业务都部署在虚拟机上,整体产研通过堡垒机、传统的监控零碎、日志平台等进行日常利用的运维。而一旦服务容器化开始,咱们必然须要一个云原生的容器化治理平台,让 T3 出行整体产研从传统的虚拟机操作模式转变为云原生操作模式。同时,之前日常的利用运维模式须要应用多个平台进行合作,产研定位一个利用性能问题往往须要来回切换多个平台。所以咱们心愿容器化平台能够集成周边的配套,如日志查看、监控零碎,让产研尽量在一个平台内实现日常运维的工作;也能够作为平台工程的一部分,让产研在开发环境能够领有足够的权限创立、更新、删除非基线环境,而无需理解底层架构常识,通过自助化的环境能力能够让研发并行开发测试,最终让业务能够疾速、高效增长。 选型阐明咱们的选型思路基本上是依据性能、UI 体验、社区活跃度、学习老本这 4 点来的。首先必须要满足咱们对容器平台的需要(在背景介绍中曾经形容),其次是社区活跃度以及生态,最初是 UI 体验,在 UI 体验中蕴含了用户的学习老本,咱们心愿以低学习老本的形式让 T3 出行的研发更够疾速上手容器平台,同时也具备运维视角,如此就既满足了研发的利用视角纬度,也满足了运维的集群视角维度。咱们在选型期间比照了 Rancher、Openshift、KubeSphere,最终抉择了 KubeSphere 作为 T3 出行云原生容器平台。KubeSphere 定位是以利用为核心的容器平台,提供简略易用的操作界面,帮忙用户屏蔽掉那些技术细节,肯定水平上升高了学习老本。同时 Kubesphere 具备优良的容器治理能力、多集群反对能力、多租户能力、人造集成的可观测能力等,让咱们能够在一个平台上满足了日常运维所需。 实际过程多集群对立治理KubeSphere 多集群中角色分为主集群和成员集群,由 1 个主集群和多个成员集群组成,与咱们原先的集群布局不约而同。主集群咱们作为成员集群的管制面存在,通过主集群下发不同的管理策略给到成员集群。对于成员集群而言,咱们依据不同的环境、不同的租户性质也会划分到不同集群。如依据环境辨别,咱们会有开发集群、测试集群、预生产集群、生产集群;而依据租户性质,咱们会有一些对接三方业务的集群。 项目管理在很多传统的 DevOps 平台中,并没有与我的项目进行联动,服务往往只是关联了组织架构,当组织架构变动,服务的元信息就不精确了。而且,对于一个我的项目来说,常常会有跨部门单干的状况,而业务公布的视角却是在各自的部门下的,我的项目成员无奈在一个视图下看到我的项目的所有业务,在我的项目的合作过程中天然就减少了许多沟通老本。而 KubeSphere 就是基于我的项目维度对容器服务进行治理的,在 KubeSphere 中一个我的项目对应的就是 Kubernetes 一个 Namespace,租户之间的视图是隔离的,日常只须要在本人的我的项目视图下进行合作即可。 咱们的 DevOps 平台正在逐渐的往我的项目集成方向倒退,目前咱们是依照业务域进行对立治理,一个业务域代表了一个 KubeSphere 中的一个我的项目,业务域下会有多个相干的业务服务,无论组织架构如何变换,业务域始终不变。 多租户治理KubeSphere 中的多租户治理是基于企业空间维度来实现的,企业空间是用来治理我的项目、DevOps 我的项目、利用模板和利用仓库的一种逻辑单元。咱们能够在企业空间中管制资源拜访权限,也能够平安地在团队外部分享资源。企业空间能够关联多个集群中的多个我的项目,并对企业空间中的成员进行权限治理,援用 KubeSphere 官网配图便于大家直观的了解: 咱们是以业务域为我的项目维度进行对立治理,那么企业空间作为 KubeSphere 最小的租户治理单元天然是被咱们依照业务域进行划分。所以 T3 当下的多租户治理逻辑就是:企业空间(业务域)→ 集群(开发、测试等)→ 我的项目(业务域)。同时在企业空间中,咱们也形象出了部门治理纬度,应用 KubeSphere 的部门治理,便于咱们给不同的人员赋予不同集群(环境)操作权限。 ...

March 1, 2023 · 1 min · jiezi