关于云计算:推荐对标Discuz开源SNS系统Fresns上线手把手启用火山引擎ImageX

对标Discuz!开源SNS零碎Fresns上线 Fresns是一款收费开源的社交网络服务软件专为跨平台而打造的通用型社区产品,反对灵活多样的内容状态,能够满足多种经营场景,合乎时代潮流,更凋谢且更易于二次开发。 主程序的设计像是一个脚手架、一个框架,为扩大程序打好坚硬牢靠的根底,只含有身为社区不可或缺的根本 API 性能,其余扩大性能则由插件提供;插件作为一个独立功能模块,从零碎设计和业务封装的角度,采纳的是「命令字」作为通信模式,即一个插件模块包含多个命令字,内部通过命令字形式来调用插件的性能。对开发者来讲,模式简洁,容易开发;对系统通信来讲,插件通信模式简洁,通过相似 RPC 模式来调用即可。这种软件设计思维,从后续的框架扩大来看,单体框架能够撑持多插件,同时后续也能撑持多零碎多插件模式,并能以微服务的模式实现零碎之间的分布式调用。Fresns 模型构造模型构造是这一次耗时的最重要起因,因为是开源产品,为了开发者更好的参加,也为了使用者更稳固的运行,所以三思而行之后,我还是决定重构模型构造和代码标准。从新梳理后的主程序,插件开发者能够更不便地开发插件。对于次要数据集曾经封装好了 Models,对于罕用的辅助性能封装成了 Helpers,罕用的业务性能封装成了 Utilities,而对于跨业务跨语言的业务性能封装成了 Command Word 命令字(将来的 RPC 的根底)。这些封装都有具体的文档在官网供查阅,插件开发者能够间接调用,缩小开发量。针对客户端开发者,这一次 API 齐全遵循 RESTful 规范,构造清晰、符合标准、易于了解、扩大不便。 Fresns 中国版官网 fresns.cn 通过官网能够找到装置办法与反对;Fresns 国际版官网 fresns.org 如果用Fresns做一些社区论坛,当做一个零碎,是一个不错的抉择,同时,Fresns的作者还在一直的迭代更新,减少对小程序的反对; 介绍如何应用ImageX作为动态托管和减速图片加载的:本文曾经假如,你曾经装置好了 Fresns,而后再启用veImageX托管(之前曾经做过比照测试,相比于其余七牛、腾讯等,图像压缩算法应该是国内做好的,因而可能更节俭一点老本,加载速度也会更快); 开明服务拜访火山引擎官网 https://www.volcengine.com/pr... 注册并登录账号实名认证 https://console.volcengine.co...进入火山引擎控制台 https://console.volcengine.co...装置与配置给 Fresns 装置火山引擎 veImageX 插件 下载插件压缩包:https://github.com/ExerciseBo...将压缩包下载后,上传装置如图所示:Fresns 后盾 -> 利用核心 -> 装置利用 启用利用配置 ImageX 零碎 -> 存储设置 填写配置设置组设置含意存储配置存储服务商抉择 \`ImageX Integration\`| | Secret ID | 从 [VolcEngine IAM](https://console.volcengine.com/iam/keymanage/) 获取到的 access key ID || | Secret Key | 从 [VolcEngine IAM](https://console.volcengine.com/iam/keymanage/) 获取到的 access access key || | 存储配置名称 | 从 [VolcEngine ImageX](https://console.volcengine.com/imagex/service_manage/) 获取到的 Service ID || | 存储配置地区 | 从 [VolcEngine ImageX](https://console.volcengine.com/imagex/service_manage/) 获取到的服务区域 (1) || | 存储配置域名 | 在 [VolcEngine ImageX](https://console.volcengine.com/imagex/service_manage/) 设置的域名 || | 文件系统磁盘 | 抉择 \`remote\` || 性能配置 | 防盗链 Key | 地址鉴权密钥 (2) || | 防盗链签名有效期 | 请让这个值比你在 防盗链 Key 页面中设置的值小 || 图片解决性能配置 | 图片解决地位 | 抉择后缀模式 || | 其余空 | 以 \`~tplv~\` 结尾,以 文件扩展名 结尾的模板 || 视频解决性能配置 | 还没做完 | 还没做完 || 音频解决性能配置 | \- | 不反对,ImageX 不提供任何音频解决性能 || 在线预览配置 | \- | 反对,ImageX 能够存任何你喜爱的文件 |(1) 大概率是 \`cn-north-1\`、\`ap-singapore-1\`、\`us-east-1\` 三选一 ...

October 26, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊买个蓝牙打印机实时打印新提交的-PR-吧-20221024

开源我的项目举荐blue这个我的项目十分有意思,利用树莓派、蓝牙热敏打印机和 GitHub Actions 主动将新提交的 PR 或者 Issue 通过打印机打印进去,非常适合各个我的项目的维护者应用 Kubernetes-Volume-Autoscaler这是一个 Kubernetes 控制器,它会在 PVC 的容量行将被耗费殆尽时主动对其进行动静扩容,反对任意 Kubernetes 集群和云厂商托管集群。 ForesightForesight 是一个 GitHub App,它会通过可视化监控面板来展现 Workflow 的状态、持续时间和老本,以及耗费的 CPU、内存、存储和网络 I/O 资源。同时还会提供相应的 Workflow 优化倡议。 AppMapAppMap 是一款开源的运行时代码剖析工具,反对 Ruby,Java,Python 和 Javascript。它会跟踪代码的运行流程,并统计所有收集到的信息,最终将这些信息以交互式图表的模式出现,通过可视化图表能够直观地看到函数、网络服务、数据存储、平安、I/O 和依赖服务是如何一起工作的。 Alpaquita LinuxAlpaquita Linux 是一个基于 Alpine 的全新的 Linux 发行版,专门针对 JVM 进行了优化。 staticstatic 与 busybox、alpine 和 google/distroless 相似,都属于根底镜像领域,不过它是专门用来运行动态编译二进制文件的。 商业产品举荐LinenLinen 能够将 Slack 和 Discord 频道和内容同步到一个对 SEO 敌对的网站中,益处就是 Slack 或者 Discord 频道中所有的内容都能够通过搜索引擎搜寻到,防止反复发问,也会有更多的人通过搜索引擎发问的形式找到并退出你的频道。 云原生备份容灾服务云原生备份容灾服务是青云推出的面向 Kubernetes 混合云场景推出的一款备份容灾即服务产品,具备平安中立、牢靠迁徙、灵便易治理等个性,通过跨云的备份复原和容灾爱护,让外围的业务数据安全无忧。 文章举荐在 VMware vSphere 中构建 Kubernetes 存储环境置信很多小伙伴和企业在构建容器集群时都会思考存储选型问题,不论是块存储 / 文件存储 / 对象存储的抉择,亦或是一体机 / 裸机+外置存储 / 虚拟化+存储的纠结,都是在布局容器集群时的顾虑。对于原先就有虚拟化环境的用户来说,我是否间接搭建容器集群在虚拟化环境中,并间接应用现有的存储用于容器呢?本文将以 VMware vSphere CNS+KubeSphere 为工具在虚拟化环境搭建容器及存储环境。 ...

October 25, 2022 · 2 min · jiezi

关于云计算:数字云栖邀您共享极致计算与创新进化的科技盛宴

11月3日至5日,2022年杭州·云栖大会如期而至。 往年的云栖大会将围绕“计算·进化·将来”,带来2场重磅主论坛,70+场峰会和论坛,1000+项最新科技新品公布以及40000平米智能科技大展。 1000+数字科技领军者、数万名科技从业者和爱好者将重聚杭州·云栖小镇,独特描述数字将来的新图景。 阿里云边缘云计算翻新论坛将亮相云栖大会,带来一系列边缘云技术利用与交融翻新实际,更有边缘云与音视频技术展区的泛滥互动体验,与参会者一起见证这场顶级的数字科技盛会。 01边缘计算的翻新进化论边缘计算产业倒退有何趋势?边缘云如何赋能多产业的翻新交融倒退?云边端一体的视频云技术有何翻新利用?交融通信如何实现云原生驱动?11月3日下午13:30,阿里云将开启云栖大会《边缘云计算翻新论坛》,从策略与产业倒退、技术与翻新利用、场景实际与生态单干等维度分享阿里云边缘云的翻新成绩。 在本次论坛中,阿里云还将联结中国信通院公布边缘云技术白皮书,定义边缘云演进架构和技术方向,并携手单干客户晋升业务效力,助力数字翻新,独特摸索边缘云在不同场景下的交融翻新利用,凸显边缘云交融的技术劣势和新技术带来的新商业价值。 02边缘云与音视频的交融空间站听全球化边缘云技术诠释畅享低延时、强互动、超沉迷的云游戏用Pico一享8K超高清之感比照体验弱小的媒体解决能力感触虚实交融的实时交互云栖大会期间,阿里云将在线下「边缘云与音视频技术」展区,围绕“寰球边缘云基础设施”、“云游戏”、“8K VR视频”、“窄带超高清”、“虚构演播厅”五大版块与体验区,展示阿里云边缘云与音视频翻新交融的技术实力。戴Pico VR眼镜看8K超高清电影、与数字虚拟人同台云蹦迪……参会者还可通过各种智趣的音视频互动体验,沉迷式摸索边缘云翻新交融的无尽可能。 03全景式的数字翻新趋势往年的云栖科技展将实现全面降级,出现前沿科技、生产电子、数字中国等畛域的新技术、新产品、新实际,全景式展现各行各业的数字化成绩与数字科技的翻新趋势。 计算之力新一代云计算架构体系将首次亮相于云栖科技展,同时展出的还有多款自研硬件新品、多个科研院所的世界级前沿科技成果,充分体现了科学技术的无尽想象力。 进化之势在数字化的明天,阿里云一直颠覆传统,摸索数字翻新的全新思维和路径。往年的云栖科技展将全景式展示数字中国的最佳实际案例,打造线上与线下相结合的科技嘉年华。 将来之境云栖科技展还将展现各个领域极富感官体验的科技翻新成绩,独特描述极具想象力的科技将来。 同时,为开发者提供编程挑战赛、在线擂台赛、技术交换舞台的展馆同样值得期待,这些以开发者视角展现的内容,将会为开发者带来更具沉迷感的互动体验与奇思妙想的科技灵感。 来2022云栖大会,感触阿里云前沿科技的极致计算之力,体验全景式数字翻新的进化之势,畅想无穷可能的将来之境。期待与你共赴云栖之约!

October 21, 2022 · 1 min · jiezi

关于云计算:云舟说直播间数字可视化专场来袭

云数赋能 数字可视化山东思为科技赋能数据平台可视化

October 21, 2022 · 1 min · jiezi

关于云计算:在-VMware-vSphere-中构建-Kubernetes-存储环境

作者:马伟,青云科技容器参谋,云原生爱好者,目前专一于云原生技术,云原生畛域技术栈波及 Kubernetes、KubeSphere、kubekey等。置信很多小伙伴和企业在构建容器集群时都会思考存储选型问题,不论是块存储 / 文件存储 / 对象存储的抉择,亦或是一体机 / 裸机+外置存储 / 虚拟化+存储的纠结,都是在布局容器集群时的顾虑。对于原先就有虚拟化环境的用户来说,我是否间接搭建容器集群在虚拟化环境中,并间接应用现有的存储用于容器呢?本文将以 VMware vSphere CNS+KubeSphere 为工具在虚拟化环境搭建容器及存储环境。 vSphere CNSVMware vSphere Cloud Native Storage(CNS)是 VMware 联合 vSphere 和 K8s 提供容器卷治理的组件。K8s 存储有 in tree 和 out of tree 两种存储类型,in tree 存储如 AWS EBS,Ceph RBD 等。是 VMware in tree 存储 VCP 演进到 out of tree 存储提供的合乎 CSI 插件标准的容器存储。它由两局部形成: vCenter 的 CNS 管制平台。vCenter 调度底层虚拟化联合的存储平台创立容器存储卷。K8s 的 CSI 存储插件。对 vCenter 创立的卷进行附加 / 拆散 / 挂载等操作。 联合下面这张官网提供的图,能够了解为,当初我的 vSphere 虚拟化环境曾经筹备好了不同的存储(本地存储 /NAS/FC SAN/vSAN),我不必在乎存储是什么品牌,不须要思考这款存储是否有厂商反对的 CSI 插件,我能够基于业务类型,将不同的存储间接挂载给我不同业务的容器应用。 ...

October 21, 2022 · 3 min · jiezi

关于云计算:KubeSphere-集群配置-NFS-存储解决方案

作者:申红磊,QingCloud 容器解决方案架构师,开源我的项目爱好者,KubeSphere Member在正式浏览本文之前,先情谊揭示一下:不建议您在生产环境中应用 NFS 存储(特地是 Kubernetes 1.20 或以上版本),起因如下: selfLink was empty 在 K8s 集群 v1.20 之前都存在,在 v1.20 之后被删除问题。还有可能引起 failed to obtain lock 和 input/output error 等问题,从而导致 Pod CrashLoopBackOff。此外,局部利用不兼容 NFS,例如 Prometheus 等。装置 NFS Server#装置 NFS 服务器端$ sudo apt-get update #执行以下命令确保应用最新软件包$ sudo apt-get install nfs-kernel-server#装置 NFS 客户端$ sudo apt-get install nfs-common# yum$ yum install -y nfs-utils创立共享目录先查看配置文件 /etc/exports: $ cat /etc/exports# /etc/exports: the access control list for filesystems which may be exported# to NFS clients. See exports(5).## Example for NFSv2 and NFSv3:# /srv/homes hostname1(rw,sync,no_subtree_check) hostname2(ro,sync,no_subtree_check)## Example for NFSv4:# /srv/nfs4 gss/krb5i(rw,sync,fsid=0,crossmnt,no_subtree_check)# /srv/nfs4/homes gss/krb5i(rw,sync,no_subtree_check)创立共享指标并赋权: ...

October 21, 2022 · 4 min · jiezi

关于云计算:报告发布|双轮驱动重磅升级天猫联合瓴羊罗兰贝格发布天猫DTC企业经营指南-以人为本品牌致胜

去年双11前夕,天猫公布DTC新策略以及《天猫企业经营方法论》,引入货品驱动增长视角,助力企业“双轮驱动”。转瞬又到双11。在过来的一年,越来越多的企业由“粗放式增长”开始回归到“做好货、找对人”的商业逻辑实质上。很多人都不谋而合地提到了“DTC”模式,更多更具前瞻性的企业经营者曾经走在改革的路上。 在这样的背景之下,天猫邀请罗兰贝格并携手品牌客户、学术智库及生态搭档等,根据天猫消费市场中不同的生产决策因子,共建出企业DTC能力建设的四种不同门路,可能让企业以终为始,从消费者登程,匹配倒退本人的DTC能力。天猫联结瓴羊、罗兰贝格、上海交通大学安泰经济与治理学院,以及优良天猫生态服务商,一起公布《天猫DTC企业经营指南——以人为本,品牌致胜》,揭晓了DTC能力建设的第一个模型——品牌致胜模式,并联合品牌案例与前瞻性的行业钻研,提出了3个外围经营命题与13个要害口头,帮忙企业继续建设和放大品牌心智,造成本身长期的竞争劣势。 发布会上,罗兰贝格寰球管委会联席总裁戴璞(Denis Depoux)学生、上海交通大学安泰经济与治理学院罗继锋副教授、淘宝天猫商家品牌策略部总经理刘洋(安糖)女士、阿里巴巴瓴羊营销云负责人林鸣晖(默飞)学生别离就企业DTC倒退、品牌继续建设与翻新发表了主题演讲。此外,在圆桌探讨环节,淘宝天猫商家品牌策略部行业消费者经营负责人黄刚(卡尔)博士、罗兰贝格副合伙人蒋云莺女士、新略数智CEO道融学生、凯诘电商策略与数字核心负责人卜曦云学生、艾盛团体高级副总裁 资深合伙人丁玎女士、电通中国电商营销总经理Lucia Zhang女士就“品牌致胜模式下的企业DTC倒退”开展了深刻探讨。 罗兰贝格寰球管委会联席总裁戴璞(Denis Depoux)收场提出:“Sales organizations of tomorrow will embrace digitalization to transform along five avenues: new forms of engagement, tailored assortment, personalized communication, high productivity of deployed recourses and integrated execution. To act ahead of the competition in the digital channels, companies will need to cut through overlapping initiatives by putting new customer/consumer needs on their agenda, with a deeper channel segmentation in focus.” ...

October 20, 2022 · 1 min · jiezi

关于云计算:云计算敏捷团队的-10-个最佳实践工具

前言2020 年以来,随着国家在 “新基建” 畛域的政策导向,推动云计算自 2017 年后再次迎来了新一轮的倒退时机。同时,因为新冠疫情黑天鹅从根本上冲击了企业的业务模式乃至经营平安,促成企业减速实现数字化转型,也对云计算的利用效力提出了新的需要。 咱们察看到,随着企业数字化转型的进一步深入,云计算和云原生技术曾经成为了 CIO 和 CDO 们首要思考的业务增长因素之一。随之的,也有越来越多传统畛域的企业主们开始着手组建业余的云 IT 团队。能够说,在后疫情的明天,依靠于企业上云的数字化转型需要比以往任何时候都更加强烈。作为云计算麻利研发团队中的一员,笔者也正在亲身经历着这场改革,并心愿能够通过文章的模式来记录下一些心得与教训,抛砖引玉。 工欲善其事,必先利其器。本篇就先从我认为的 10 个云计算麻利团队最佳实际工具说起。 1. Docker在实际 Container 之前,当咱们要部署或更新一个应用程序时,就要运维共事对物理服务器进行频繁的配置批改。这并不是一件容易的工作,尤其在分布式软件架构要求的大规模服务器场景中,除了工作量沉重之外,往往须要面对较高的人为失误导致的故障危险。当初,咱们将这种 IT 模式归类为一种 “可变基础设施” 范式,即:在交付软件的时候,须要连带着对硬件服务器进行相应的适配变更。 绝对的,Container 提出的是一种 “不可变基础设施” 范例,这意味着当咱们采纳 Container 的形式进行软件交付时,能够不对物理服务器进行任何更改。这得益于 Container 的实质是一种操作系统虚拟化技术(OS-level virtualization),其带来的益处包含:更高的运行环境兼容性,以及更简略且可预测的部署过程,能够无效缓解甚至齐全避免可变基础架构中常见的问题,例如:配置漂移和雪花服务器。 Container 技术的诞生最早可追溯到 1979 年 Unix 引入的 chroot 技术,但直到 2013 年,dotCloud 公司(后改名 Docker)推出 Docker 技术并提出 “Build, Ship and Run” 和 “Build once, Run anywhere” 的口号后,才真正掀起了 IT 行业对 Container 技术的激情。 尽管,随着 Container 技术的倒退,Docker 早曾经不是惟一的抉择。Docker 公司甚至一度将企业业务线(Docker Enterprise)打包发售给了 Mirantis。但好在 Docker 公司及时转型专一于开发者群体,在开发者业务线(Docker Developer Desktop)上稳住了阵脚,至今仍是最受到麻利开发团队欢送的实际工具之一。 ...

October 19, 2022 · 3 min · jiezi

关于云计算:专访超次元|这家头部虚拟赛道公司如何借助3DCAT加速元宇宙建设

这几年,不论是VR虚拟现实,XR静止电竞,还是虚拟人直播、虚构云展等虚构流动利用场景等畛域的头部企业,都在通过技术端的冲破迭代和多样化的内容储备,进步用户体验。 超次元便是这个畛域的佼佼者之一,超次元是国内优良的综合性虚构流动利用运营商,提供蕴含虚拟人+虚拟空间+虚构内容在内的矩阵式虚拟化服务。超次元为B站打造的冰火歌回3D演唱会,已间断举办9届,超次元还间断服务BML 4年。 Vvorld(前3DV)是超次元集大成的外围产品,用户能够以虚拟化身+多人实时交互方式,参加漫展、蹦迪、演唱会等各种虚构流动。Vvorld还可与超次元本身VT、AS等虚拟人产品数据买通,且可通过VVD等配套UGC工具,打造数字资产,进行公布、交易,造成元宇宙UGC社区,笼罩手机/PC/网页/VR等各平台。 以上性能的实现,离不开实时云渲染的存在。而与超次元单干的,便是3DCAT元宇宙实时渲染云,超次元将Vvorld利用上传到3DCAT平台上,通过3DCAT元宇宙实时渲染云端弱小的图形渲染算力和高度自研的网络串流技术,将计算结果实时推送到用户终端,满足用户跨终端、可交互、超高清、沉迷式拜访Vvorld利用的需要。 运行在3DCAT上的超次元3DV虚构流动利用,大规模并发展现在2022第五届数字中国建设峰会·云生态大会上,取得了参会者和各界人士的宽泛好评。 为何超次元要打造Vvorld利用?为何抉择与3DCAT元宇宙实时渲染云单干?将来超次元还有哪些实时云渲染大并发虚构利用实际? 带着这样的问题,咱们在应用了3DCAT元宇宙实时云渲染技术的超次元Vvorld虚构流动利用里,由瑞云生态单干总监潘振杰采访了超次元的创始人陈坚,超次元陈坚给咱们解答了以上纳闷。 人物介绍陈坚,海南超次元数码科技有限公司创始人/CEO 20年虚构行业守业老兵,国内二次元AR/VR资深创业者,长于将技术和娱乐行业相交融。一手打造出国内当先的综合性虚拟化服务品牌-超次元,提供虚拟人+虚拟空间+虚构内容的服务矩阵,已服务500+企业级客户及超过55000名终端用户,为包含《阴阳师》《超过AI》、泠鸢等在内的600个国内外出名IP提供了虚拟化反对。往年,陈坚率领团队推出了全3D全实时的沉迷式虚构流动利用Vvorld,将为各类虚构流动提供撑持,与合作伙伴一起携手共建行业生态。 超次元:超过次元无界线,开启将来元宇宙3DCAT:超次元的虚构偶像均是二次元画风,坚叔您是从什么时候接触二次元文化的? 超次元陈坚:我会抉择这种画风,(是因为)我本人接触二次元十分久,我算一下,如果从看百变雄师开始算,我应该是大略1982或1983年开始接触。如果我把他定义到广义的二次元,应该是从1985年看七龙珠的动画开始算,所以我接触二次元的工夫可能比大部分的从业者的年龄都还要大。 3DCAT:是怎么的契机让您抉择开办超次元?并抉择自主研发3DV虚构流动利用,3DV这个名字的由来是什么? 超次元陈坚:实际上,从超次元的这个名字曾经能够感触到,咱们其实是心愿说开办一个能够超过次元界线的一个产品,所以咱们在大略2015年的时候,就以超次元作为品牌(应用)。起初是2021年的时候,把超次元这个品牌注册成企业。 <center>超次元虚拟世界自研产品矩阵</center> 3DV是咱们在2021年初立项的,其实就想发明一个齐全凋谢的虚拟世界,如同咱们当初这样子,咱们每个用户在外面有一个额定的虚拟化身,而后咱们能够彼此的在一个空间外面自在的交换,或者各种互动,也能够一起逛展等等。 <center>在Vvorld利用里,超次元陈坚和3DCAT潘振杰实时互动</center> 实际上咱们当初我的项目3DV只是一个代号,当初咱们曾经将这个我的项目正式命名为Vvorld。Vvorld的后面两个V就是将世界的W拆成两个V的字母,这个含意就是世界是由虚构和事实两局部来组成的。 3DCAT &超次元:强强联合,打造弱小虚构流动利用Vvorld3DCAT:您是从什么渠道晓得3DCAT的?本次单干的契机能够介绍一下吗? 超次元陈坚:瑞云云渲染,其实在业内是十分有名的,有名到什么水平,咱们还没开始正式做虚拟空间这个业务之前其实曾经据说过瑞云,瑞云过往在咱们印象中是全亚洲最大的云渲染算力核心,可能更多的是在影视特效云渲染方面。 <center>瑞云科技介绍</center> 咱们是在2020年的时候在一次展会接触到瑞云的3DCAT,也理解到原来瑞云当初除了影视的离线云渲染,也开始了实时云渲染,之后就始终有亲密关注瑞云,并寻求单干的机会。 <center>3DCAT元宇宙实时渲染解决方案介绍</center> 3DCAT:本次单干有哪些亮点?能够从艺术、技术方面论述一下。 超次元陈坚:第一个是瑞云的部署相当的便捷和人性化,3DCAT下面也开发了很多不便开发者的一些利用和性能,缩小咱们做适配的工作量,所以整个过程中咱们对接起来是十分晦涩的。 <center>3DCAT API核心,便于开发者适配</center> 而后第二个咱们晓得瑞云算力规模十分的惊人,那当初大家都会说云渲染老本很高,那的确当初因为有运营商,或者说带宽等等的一些老本,的确是比拟难把云渲染建到齐全意义上的白菜价,但瑞云在规模效应下面做了很多的工作,通过这种规模化的致力使得瑞云在行业上的老本劣势是非常明显的。 <center>3DCAT特点:边缘节点全笼罩</center> 3DCAT:单干过程中遇到哪些艰难,怎么解决? 超次元陈坚:在整个单干过程中,我感觉最大的艰难可能是当初所有的云渲染计划,也包含瑞云,可能大家最早的时候是从云游戏那边开始过去的,尽管说可能云游戏和云渲染的原理大同小异,但因为利用场景和产品不同,比方说云游戏,它不须要高频的变更包体,云游戏也不会有太多的在线热更资源(的需要)。然而这些在元宇宙利用或虚构流动外面是很常见的,这外面会有差异化。 那还有第二个,咱们遇到的难点是云游戏和元宇宙利用的交互方式不太一样,比方说基本上很少游戏是一边玩一边聊天,但当初基本上在元宇宙或虚拟空间外面简直都须要像咱们这样实时交换,须要语音和文字的这种高频输出。整个过程中,其实也非常感谢瑞云的同学,始终依据咱们开发者的需要来一直地迭代性能和接口,让咱们能够疾速创立出各种元宇宙利用,谢谢3DCAT。 <center>认真优化问题的瑞云小伙伴</center> 3DCAT:能够评估一下3DCAT实时渲染云服务吗?并提供您的倡议和意见 超次元陈坚:其实我这边的倡议还是方才提到的,因为元宇宙利用或者说虚构流动虚构社交也好,他的交互方式,以及他的交付形式跟游戏是不太一样的。如方才提到如果说咱们的交互外面有文字输出,有键盘输入,有语音输入,甚至可能将来还有那个动捕面捕的输出等等,那这块其实在云渲染下面也还有能够晋升的空间。 第二个是方才也提到除了交互还有交付,因为当初元宇宙利用和这种虚构流动,其实它的迭代频率反而是比个别商业游戏要大得多的,因为它要疾速应答流动的经营节奏,那咱们也心愿,比方说在自助部署或者分享,可能在端算下面很容易实现的,咱们要感激云端,云端的交付和业务流程都更加便捷,那咱们也心愿说瑞云这边能够给咱们开发者提供一些更加便捷的这种接口或API,让咱们缩小在这方面的反复工作。 超次元冀望与3DCAT单干进行大规模并发虚构流动的落地3DCAT:将来在元宇宙,包含虚拟空间这块,超次元的倒退是怎么样的?能够分享一下吗? 超次元陈坚:刚刚有提到说咱们(3DV)当初改名做Vvorld,也代表说咱们要做一个跟事实更好买通的虚拟世界,或者说数字世界。 咱们在后续的倒退布局外面有几个比拟重要的指标,一个是跟事实世界有更多的联动和连贯,因为在我眼里虚拟世界并不是事实世界的一个避风港或者说取代物,而它是和事实世界有更多的关联,或者说给事实世界提供更多元化的服务和体验。 第二个,咱们也会从产品的角度(去)让他从流程体验下面更靠近事实中的各种流动,比方说这次的这个展厅,那咱们前面也会退出更多3D化的展现,比方说在签到打卡下面咱们会退出一些更多拟真的体验等等。 那最初一点就是咱们会把咱们的动静工具凋谢进来,变成是能够由用户自在创作的方向,那等于整个Vvorld的虚拟世界,不只是有超次元本人的官网建设,其实是每一个有能力的用户,他都在下面能够开办出本人的空间、流动或内容,甚至有能力的他还能够把创立的这种虚构资产再销售给其余的用户,那咱们将来的布局次要是这几方面。 3DCAT:后续超次元是否有落地的场景,应用3DCAT元宇宙实时渲染云的大规模并发让更宽广的用户进入元宇宙里来? 超次元陈坚:在后续跟瑞云单干落地重点利用场景,咱们会往大并发的娱乐性流动方面做。 因为第一个是大并发的话,咱们对算力规模以及边际老本的需要必定是更加大的。而后第二个是很多大并发的娱乐性虚构流动,比方说大型的动漫游戏展、虚构音乐节或者是虚构嘉年华,它都会在一个十分集中的时间段内让用户高并发去进行流动,这种并发只可能以千为单位,甚至是以万单位,10万为单位我感觉也是一个不可企及的事件。所以这个规模效应,咱们心愿说能够施展出瑞云(算力弱小)劣势。 <center>冰火歌回3D演唱会</center> 而后第二个,在这种大型高并发的娱乐虚构流动上面对入口的多元化有更多要求,可能是从小程序的,H5页面的web端、原生APP或者原生的直播间都有可能成为入口,那所以云渲染能够说是会成为这种流动的刚需,所以咱们在致力跟瑞云3DCAT摸索怎么样让这种大并发和大规模的TOC虚构流动能够更好地落地。 本文《专访超次元|这家头部虚构赛道公司,如何借助3DCAT减速元宇宙建设?》内容由__3DCAT实时渲染解决方案提供商__整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/news/p... 举荐浏览 专访美象科技|中国数字孪生50强为何须要3DCAT实时渲染云的赋能? 【专访蓝景科技】5G+实时云渲染赋能数字孪生,共建元宇宙 专访深职院XR专家 | 实时云渲染赋能虚构仿实在训,打造5G+XR智慧教育平台 专访 | 滴滴青桔资深设计师首次揭秘“实时云渲染+云展厅”设计 ...

October 19, 2022 · 1 min · jiezi

关于云计算:奋楫十年-天翼云以科技创新刷新中国速度

每个时代都有各自标志性的生产力,这是时代的烙印,也是掂量经济社会倒退程度和品质的重要标尺。继热力、电力之后,算力成为现在数字时代新的外围生产力,以算力为外围的数字信息基础设施已成为国家战略性布局的要害组成部分,推动着传统产业转型降级,减速数字中国建设脚步,跑出了令世界注目的“中国速度”。 10月11日,《坐标中国》系列主题片第二十九期,“中国速度”之《锦囊妙计》正式上线,讲述了过来十年中国算力速度规模的飞跃式晋升,展示了天翼云作为云服务国家队,踊跃融入服务国家策略,以“算”为核心、“网”为根基,减速数字技术与经济、社会、民生深度交融,促成产业数字化、数字产业化,助力中国算力跑出“超高速”。 过来十年间,我国算力产业飞速发展,近五年均匀增速超过30%。2021年,中国算力外围产业规模超过1.5万亿元,其中云计算产业规模超过3000亿元,IDC服务市场规模超过1500亿元。截至2022年6月底,我国算力总规模超过150EFlops(每秒1.5万亿亿次浮点运算),全球排名第二。 往年2月,国家“东数西算”工程正式启动,打算在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等8地启动建设国家算力枢纽节点,并布局了10个国家数据中心集群。这将带动数据、算力的跨域流动,有助于实现产业跃升、均衡区域倒退,放慢数字经济的协调倒退。 作为算力基础设施和骨干传输网络的建设者,电信运营商曾经成为打造算力网络的主力军。目前,中国电信放慢布局云计算产业,“一城一池”累计笼罩超过160个地市,总体算力规模达到3.1EFLOPS(每秒310亿亿次浮点运算)。基于中国电信网络劣势和IDC资源,天翼云已造成了“2+4+31+X”的全国资源布局。 其中,2+4指在内蒙古、贵州,以及京津冀、长三角、粤港澳、川陕渝四大区域核心建设核心云;31则是在31省重点城市布局区域云;X是依照一城一池的规范推动边缘云300余个地市的笼罩。该布局与“东数西算”策略布局高度符合。 算力倒退的十年也是天翼云十年的倒退历程。在这十年中,天翼云从1.0演进到4.0,摸索出一条核心技术自主翻新之路。 ▪ 2012年,中国电信发表启动天翼云计算策略,正式进军云计算畛域,成为国内首家涉足云计算服务的运营商。 ▪ 2013年,中国电信内蒙古信息园正式开园,这是目前亚太地区最大的云服务基地。 ▪ 2014年,贵州信息园正式动工建设,成为中国北方最大的数据中心。蒙贵两大数据中心奠定了松软的根底,天翼云以此服务客户并拓展中国南北区域市场,业务疾速倒退。 ▪ 2017年,中国电信首次明确“2+31+X”云网交融策略布局,天翼云成为惟一一家在全国31省实现一省一池部署的云服务商,真正将云服务变成像水电一样的根底资源。 ▪ 2020年,中国电信公布“云改数转”策略,围绕京津冀、长三角、粤港澳、陕川渝4个重点区域,踊跃推动大数据基地、翻新孵化基地、数据中心、研发核心等一大批重点数据中心我的项目建设。至此,天翼云“2+4+31+X”的资源布局定型。 ▪ 2021年,天翼云公布4.0分布式云,实现了一云多态、一云多芯、一张云网、统一架构、对立调度、对立运维,实现了产品与技术的双降级,算力、存储、网络均晋升。同时,天翼云也全面推动“千城万池”策略,放慢算力全国部署。 ▪ 2021年12月,中国电信天翼云科技有限公司股权多元化改革框架协定签约暨公司揭牌典礼在京举行。会上,中国电信与中国电科、中国电子、中国诚通、中国国新等投资者独特签订了《天翼云科技有限公司增资扩股框架协定》。 ▪ 2022年,天翼云推出算力散发网络——“息壤”,它好比是一个算力传输的枢纽,在全国范畴内实现每分钟数万次、每天上千万次的算力兼顾和调度,可能在“东数西算”跨地区数据交互中疾速调度算力,满足各种畛域对算力的极致需要。 砥砺奋进十年,天翼云致力于推动算力普惠倒退和产业数字化转型,已为农业、工业、物流、金融、能源等多畛域客户提供上云服务,一直开释出新的经济增长动能和社会价值,减速中国算力奔跑向前。现如今,天翼云服务用户数量和市场规模不断扩大,稳居寰球运营商云第一、中国政务(私有云)第一、专属云服务市场第一。 磅礴算力发明“中国速度”,而算力速度仍在一直刷新。在推动我国成为寰球算力强国的路上,天翼云将以国家政策为引领,以科技翻新为驱动,迈出一直做强做优做大数字经济的持重步调。

October 18, 2022 · 1 min · jiezi

关于云计算:玩转云端-看天翼云iBox智能盒子如何实现边缘侧的神机妙算

在昨日播出的《坐标中国》系列主题片中国速度之《锦囊妙计》中中国高达150EFlops的总算力规模以及在20毫秒内传输2200公里的算力超高速我国算力倒退除了体现在超高速与大规模上更体现在智能化倒退中在AI和算力调度平台的赋能下智算能力一直下沉至边缘让生产生存中的各个场景更加高效、经济、便当 作为一款云边协同边缘智能计算产品,天翼云iBox边缘盒子(后称iBox)基于诸葛AI平台,可能为各类客户提供场景化AI算法,低成本、敏捷地响应需要。 iBox能够在诸多场景大显神通 以智慧工地为例,建筑施工是安全事故多发的高危行业之一。目前,我国有超过四千万人从事建筑施工工作,如何防治施工过程中的安全事故?传统的人工监控形式存在不及时、易忽略等问题,应用iBox智能边缘盒子可让AI解决大部分安全监管的问题。iBox既可能实时辨认有问题的图片,还可能将信息反馈给更加“聪慧”的核心云,并执行核心云一直优化的智能决策。那么,iBox是如何轻松实现工作的呢?   第一步智慧工地中通常装备了大量的摄像头,iBox的部署为摄像头配置了智能AI算法。摄像头1装置在出入口负责检测人脸和服务合规;摄像头2装置在工地周界,负责检测爬高、非法入侵;摄像头3装置在工地中,负责烟火辨认、脱岗睡岗、安全帽辨认…… 而摄像头采集的视频流可实时上传给iBox。 第二步接下来,iBox基于云端算法模型仓库对立治理AI模型,进行实时计算和推理,针对异样图片生成告警。 第三步同时,iBox将异样数据上传给核心云。此时,算力散发网络平台“息壤”已为iBox在核心云匹配了最佳资源池,用于存储异样数据。 第四步在对象存储池里,当iBox上传的异样数据积攒到肯定水平时,期待它的是一番“洗礼”。“息壤”会主动调度西部大规模计算节点的算力,对数据进行进一步训练,从而生成更加精准的推理模型。 第五步核心云将优化后的模型再次下发到iBox智能边缘盒子,用户现场的iBox将更加精准地推理。其中,iBox算法下发、治理均可在云端操作。 当该工地竣工,此设施还能够再部署下一个工地,摄像头的算法能够一键动静调整,继续赋能工地平安倒退。 AI轻松落地边缘离不开技术创新与无数次实际与改良始终以来云服务国家队天翼云把科技的种子播撒到智慧城市智慧制作、智慧教育等等畛域将来,天翼云也将与千行百业携手共创更加智能的数字将来

October 18, 2022 · 1 min · jiezi

关于云计算:数字先锋-铺设一条县域医疗康庄大道

算力能有多快?是20毫秒内传输2200公里的超高速算力离咱们有多近?是千行百业、随处可见的赋能身影  在10月11日播出的《坐标中国》系列主题片“中国速度”之《锦囊妙计》,展示了中国磅礴算力倒退的超常速度,以及赋能千行百业转型降级的弱小驱动力。算力曾经成为新的外围生产力,成为美妙数字生存的撑持和基座。 对于城乡居民来说,寻医问药始终是一件关乎幸福感的小事。近年来,我国高质量推动智慧医疗落地工作,天翼云作为云服务国家队,推动算力普惠,以先进技术助力打造多个县域医共体,在湖南澧县,在甘肃敦煌、凉州……一个个优质县域医共体的造成,让先进医疗资源下沉,极大地晋升了城乡居民的医疗体验。 作为全国首批严密型县域医共体建设试点县,澧县始终放慢推动卫生衰弱信息化建设。近期,由天翼云助力湖南省常德市澧县人民医院衰弱团体打造的“严密型医共体”,在“第三届基层卫生衰弱倒退与流传大会暨基层卫生重点工作教训交流会”中获评全国“严密型县域医共体建设优良案例”。澧县人民医院衰弱团体成为全国范畴内获此殊荣的15家医疗机构之一,也是湖南省惟一上榜的县域医疗卫生机构。 2019年以来,澧县卫健局采取银医单干模式,全面买通各类数据孤岛,建好医疗服务、衰弱服务、公卫服务、综合监管“四朵云”。澧县卫健局成立了澧县人民医院衰弱团体,携手天翼云推动严密型医共体建设和实际,独特打造了澧县“互联网+智慧医疗”医共体信息化平台,平台现已进入试运行阶段,大众可通过微信公众号,实现预约挂号、缴费、后果查问、衰弱征询、近程诊疗等一条龙的全流程“指尖”服务。  具体来说,天翼云依靠中国电信弱小的云网能力,遵循“需要驱动、统筹规划、交融翻新、衰弱倒退”的设计准则,为澧县医共体信息化平台制订了“一网四云五核心”的零碎架构,以“一城一池”本地云资源池进行承载,满足平台数据双活和平安爱护要求。  同时,天翼云以医疗云FIRST专网搭建的医共体内网,将县级医院、乡镇卫生院/社区卫生服务中心、村卫生室连接起来,造成“县-乡镇-村”三级医卫联动的基层医疗卫生信息系统,实现了全县基层医疗机构诊疗信息和医技信息的数字化,晋升了全县医疗数据互联互通和共享能力。 澧县人民医院衰弱团体下辖13家乡镇卫生院/社区服务中心,辐射湘鄂边10余县市。借助澧县卫健局翻新医共体平台,基层医院开明了近程影像、心电、病理平台,施行了近程会诊。居民衰弱档案也失去建设建全,目前已欠缺居民档案超过70万份,疑存档案、反复档案、待核实档案全副清零。现全县的衰弱档案反对受权浏览,居民只有指尖一点手机,就可实时把握本人的衰弱信息。 澧县医共体平台落成运行后,无效晋升了本地医疗服务水平与效率。如澧县做实家庭医生签约服务,实现重点人群签约率达100%;处理传染病主动预警信息70余次;实现食源性病例审核9千多例,圆满完成上半年心血管高危人群晚期筛查与综合干涉我的项目工作;推动老年衰弱服务,确定了澧县第三人民医院、澧南镇卫生院等13个医疗机构创立老年友善机构,启动了医养联合机构专项整治口头。 澧县还定期下派医生到基层医院出诊,使患者就医感触从“不安心”转变为“舒心”,无效弛缓医患关系,加强了居民幸福感。从治理的角度来看,政府部门以信息化平台为载体,晋升了集约化、智能化和精细化管理水平,实现了卫生治理由“被动”向“被动”转型。 近两年,澧县继续深刻推动综合医改,在医共体的根底上还联合医联体建设,推动“基层首诊、双向转诊、急慢分治、高低联动”的分级诊疗的深度单干,进一步提高了乡镇卫生院诊治能力和诊疗程度,构建了分级诊疗、正当诊疗和有序就医的新秩序。由此,居民就医实现了“小病在基层,大病不出县”。 澧县携手天翼云打造的“互联网+智慧医疗”医共体,造成了五共五同的“澧县模式”,实现了“责任共担、人才共享、财务共管 、药品共购、信息共通;事业同盟、倒退同步、服务同价、治理同治、文化同频”,同时也为其余县域医共体提供了可借鉴的教训。 数字化浪潮奔涌而来,千行百业上云用数赋智的过程一直提速,现在,医疗数字化曾经更快地向全国各个地区全方位浸透。天翼云将施展云网资源优势,携手合作伙伴共铸国云,继续通过云计算、大数据等先进技术买通城市与农村的资源与信息壁垒,进一步晋升县域及基层医疗能力,促成优质医疗资源普惠共享,为推动智慧医疗倒退与衰弱中国建设奉献科技翻新力量。 

October 18, 2022 · 1 min · jiezi

关于云计算:聚焦-DPU-技术研发与创新-天翼云打造全新一代云计算体系结构

9月2日,第二届SmartNIC&DPU技术创新峰会在北京召开。本次大会由江苏省将来网络翻新研究院和SDNLAB联结行业技术先锋力量、产业典型利用企业独特发动,围绕SmartNIC/DPU技术创新、产业利用等问题开展研究与交换。大会现场还公布了2022 SmartNIC & DPU Awards年度评比后果,天翼云DPU云核为根底打造的全新云计算体系结构荣获匠芯技术奖。 在SmartNIC&DPU技术分会场,天翼云科技有限公司资深研发专家刘禄仁分享了天翼云DPU技术的研发与实践经验。他示意,天翼云作为国内当先的云服务商,基于以后DPU技术演进路线,联合需要的零散化、动态变化以及对DPU产品线上运维问题的考量,以FPGA+CPU的架构作为切入点,胜利研发出天翼云DPU1.0产品,并以自研DPU云核为根底打造了为云而生的全新云计算体系结构。 以后,摩尔定律的放缓与寰球数据量暴发之间的矛盾正在迅速激化。IDC数据显示,寰球数据量在过来10年年均复合增长率靠近50%,并进一步预测每四个月对于算力的需要就会翻一倍。与此绝对的是,传统的数据中心架构难以满足大规模的算力需要,CPU性能每年仅晋升3%,造成了显著的“剪刀差”景象。在CPU无奈满足宏大算力需要的背景下,DPU应运而生。 DPU作为计算负载的引擎,间接成果是给CPU“减负”,可能进步数据中心的运算效率,缩小能耗节约,进而降低成本,在数字时代具备微小的商业价值与发展潜力。天翼云DPU1.0实现了虚拟化的零损耗,具备高性能、低提早、低抖动的个性,网络转发性能高达4000万PPS,存储云盘IOPS能够达到60W。此外,天翼云DPU1.0通过将传统运行在主机侧的利用转到DPU云核上,缩小大量的适配工作,在主机不同算力核和不同架构上可做到即插即用。 此外,从产品的研发到落地,天翼云DPU团队在网络、存储及RDMA方面也积攒了丰盛的实践经验。 在网络卸载方面,针对流表数量大、转发性能要求高、对SoC和FPGA的内存容量需要大、稳定性要求低等挑战,天翼云对rte_flow等次要数据结构进行压缩,并对流表地面计算,优化裁剪offload卸载门路的多层级缓存,从而反对4M流表,实现了内存优化;对所有流表进行合并计算,防止在硬件层执行包重注,使转发效率达到4000万PPS;基于硬件准确流表特点设计专用老化统计线程,加重OVS Revalidator压力;初步拆分OVS的统计和老化事务逻辑,优化硬件流表的老化统计上报实现逻辑,晋升软件OVS Revalidator执行效率;反对热降级、热迁徙及热复原,做到B/V/C全场景的并池,大幅晋升稳定性。 在存储卸载方面,针对经常出现的SoC异样重启、SPDK异样重启、热迁徙丢IO等景象,天翼云从中形象出独特个性,利用软件协同的思维,将SoC侧软件的失常行为和异样行为进行对立,组件启动时对立发送msg信息给硬件,硬件收到该msg会解析其内容,进而从硬件保留的queue指针信息进行剖析,在用户无感状态下实现全副异样的统一化解决。 在高性能网络方面,拥塞算法是RDMA的外围和要害,为进步RDMA网络的性能,天翼云聚焦下一代高效CC算法设计,以更好地防止拥塞、保障公平性,实现更疾速收敛、更低时延、更简略部署。针对不同利用场景,天翼云设计了2套算法eSurfing-CC: 针对智能网卡+商用交换机的组合,提出基于RTT+CNP的2段式端到端CC算法,具备被动拥塞管制、无需依赖交换机的配置、反对疾速启动疾速收敛等劣势;针对智能网卡+可编程交换机的组网场景,天翼云在交换机上部署CC算法,使交换机同样具备被动拥塞告诉能力和被动发包能力,能够无效升高端到端响应时延,同时简化建模和配置复杂度,进步零碎的可扩展性。 目前,基于天翼云DPU核心技术打造的多款产品已落地利用,以天翼云弹性裸金属服务器为例,该服务器兼具云服务器弹性和物理机性能,通过将网络、存储等性能卸载至DPU卡,可极大升高物理机侧CPU和内存等资源耗费,最终算力远超一般云主机,现已服务于金融、汽车等多行业企业。 随着5G时代数据量和传输速度的飞速增长,国内厂商争相进入DPU赛道。依据Canalys Cloud Channels Analysis预测,到2023年,中国DPU市场规模将达190亿人民币。能够预感,在数据中心流量一直加大的状况下,DPU帮忙数据中心晋升算力、降低成本与能耗的同时,将有更大的施展空间和广大的发展前景。  

October 18, 2022 · 1 min · jiezi

关于云计算:天翼云赋能智慧农业-新农人迎来好收成

 在四川德阳的田间,稻穗如浪花翻滚,其中有局部农田曾经实现了智慧化治理,通过高清摄像头、虫情测报仪、环境气象监测站监测作物成长。村民在手机上就能够理解到棚内土壤湿度、环境温度等各项数据,盘算作物最佳播种工夫。 在“中国薯都”甘肃省定西市,80余万亩马铃薯成熟进入采收季,农民正忙于分拣,筹备将马铃薯运往全国各地。不同于一般的马铃薯,定西马铃薯领有一份非凡的“简历”,采纳“电子合格证+追溯码”模式,全过程监管农产品品质平安,让消费者能够释怀食用。 金秋九月,各地农业生产秋管秋收正在井井有条地进行。这些新农人和丰硕的秋收成绩背地,是新兴技术对农业生产的深度赋能。天翼云作为云服务国家队,具备一套残缺且成熟的云产品生态体系,数字解决方案笼罩农业种植、成长、播种、销售的全产业链,为助推农村振兴提供松软牢靠的技术底座,在晋升农业产值的同时,也让更多农户共享数字普惠倒退红利。 在农村作物耕种方面,基于本身云网交融劣势,天翼云可提供田间微气候监测站、土壤墒情传感器、近程视频监控等高数据密度物联网设施搭建,让农户只有关上手机,就可能对土壤湿度、环境温度等各项数据指标一目了然,实现了智慧种植转型降级;同时,针对人工作业费时费力的状况,天翼云打造的植保作业无人车、运输作业无人车、遥控旋耕无人机、遥控施肥无人机等田间作业设施能够无效加重人力累赘,实现自动化种植。 在农作物成长过程中,如果不及时灌溉、施肥将导致食粮增产,天翼云通过在稻田周边作业的机器鸭、地面航行的无人机上部署大量的天-地-空摄像头等收集稻田高清图像数据,再依据这些海量数据建设水稻最佳成长模型,开掘水稻成长法则,造成水稻需水、需肥法则图,从而为农作物成长保驾护航,确保丰产丰登。 在农产品销售翻新方面,天翼云通过搭建“云端农场”,以云直播的形式实时展示作物种植状态,消费者可通过“云上点单、线下收菜”的形式,足不出户买到本人看着长大的陈腐蔬菜。同时,天翼云还能够助力打造农产品价格收集及公布零碎,在肯定范畴内采集市场价格、销售量、加工量等信息,农户可查看最新市场行情并预约售卖,让农产品找到销路的同时更能卖上好价格。 此外,在农村治理方面,以“天翼大喇叭”为代表的“村村享”数字农村平台的多项性能利用,在防疫抗疫、汛期应急指挥施展着重要作用;与此同时,这一平台更为基层治理提供了无效、便捷的路径,村民可随时查看政务公开、便民服务、精准扶贫、技能培训等信息,并能及时反馈意见及倡议,真正成为农村治理的“主人翁”。 农村振兴、农业现代化倒退有赖于各方的协同,也得益于政策的利好。年初,地方一号文件指出,要鼎力推动数字农村建设,推动农村振兴获得新进展。而在往年《政府工作报告》中进一步提出,建设数字信息基础设施,推动5G规模化利用,鼎力推动数字农村建设,助力农村振兴全面倒退。往年9月,农业农村部办公厅印发《农业现代化示范区数字化建设指南》指出,紧盯农业现代化主攻方向,面向农村振兴的重大需要,紧紧围绕推动数字技术与农业农村深度交融,重点推动四个方面共11项重点工作。 在多方合力推动下,一场“田间地头”的数字化改革悄悄产生,为我国农村建设带来了更多的活力和生机。云计算、人工智能等技术继续激活了数字潜能,放慢推动农业降级、农村提高、农民倒退,更为农村振兴削减了智慧底

October 18, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊野心很大的云原生数据库-SurrealDB

开源我的项目举荐SurrealDBSurrealDB 是一个开源的端到端云原生数据库,同时反对 Table、Document 和 Graph 等多种数据模型,对外提供 SurrealQL、GraphQL、Rest 与 WebSocket 等多种查问形式,反对实时查问和权限等高级个性,既能够嵌入式部署,也能够在云端扩大为分布式的数据库。 pg_watch_demo这个我的项目在 PostgreSQL 中通过 trigger 和 notify 模仿了 Etcd 的 watch 机制,蕴含以下性能: watch (*);从历史数据中读取 value。比方从 revision 中读取 key;批改 key;删除 key;通过 revision 或者 date retention 进行压缩(compact)。dnslookupdnslookup 是应用 Go 语言编写的 DNS 查问命令行客户端,反对 DOH、DOT、DOQ、DNSCrypt 等各种 DNS 协定。 FrankenPHPFrankenPHP 是应用 Go 编写的高性能、开源的 PHP 应用服务器,与 php-fpm 不同,FrankenPHP 只有一个二进制文件,应用常驻过程来和 PHP 利用进行交互,不须要在每次申请时创立并杀掉一个新的 PHP 过程。 RoadRunner另一款应用 Go 编写的 PHP 应用服务器,与 FrankenPHP 相似。 HelixHelix 是一个应用 Rust 语言编写的现代化文本编辑器,兼容 vim 的快捷键和操作体验,内置语法高亮等多种高级性能。 ...

October 18, 2022 · 2 min · jiezi

关于云计算:在-Kubernetes-中实现微服务应用监控

张坚,科大讯飞开发工程师,云原生爱好者。本篇文章咱们基于 Prometheus 和 Grafana 实现微服务利用监控。 KubeSphere 平台自身提供了监控性能,包含节点状态、集群资源使用率、Etcd、API Server 等监控,不过短少了利用级别的监控。引入依赖包在利用中引入监控所须要的 jar 包,蕴含 Prometheus 和 Actuator <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <dependency> <groupId>io.micrometer</groupId> <artifactId>micrometer-registry-prometheus</artifactId> </dependency>引入这 2 个包当前就通过 Prometheus 抓取到利用的监控信息。 批改利用配置,裸露监控端口management: endpoints: web: exposure: include: "*" base-path: / metrics: tags: application: ${spring.application.name}management.server.port:启用独立的端口来提供监控,未配置的状况下共用利用端口;management.metrics.tags.xxx:在统计信息中增加自定义的标签;management.endpoints.web.exposure.include:用于蕴含咱们要公开的端点列表 , 咱们这里设置为* 代表所有。management.endpoints.web.base-path:用于设置 Promethues 的监控门路,默认是通过 /actuator/prometheus 拜访,这样配置当前只须要通过 /prometheus 拜访配置实现后重启服务,通过浏览器拜访 localhost:8080/prometheus 即可抓取到 Prometheus 的监控数据,成果如下: 批改 Service 配置kind: ServiceapiVersion: v1metadata: name: spring-cloud-provider-service namespace: cloud-demo labels: app: spring-cloud-provider-service micrometer-prometheus-discovery: 'true'spec: ports: - name: metrics protocol: TCP port: 8080 targetPort: 8080 selector: app: spring-cloud-provider批改后端服务端的 Service ...

October 14, 2022 · 2 min · jiezi

关于云计算:使用-KubeSphere-实现微服务的灰度发布

前言明天来说一说,在 KubeSphere 中两个 " 小姐姐 " 如何来回切换,这是什么意思哩?其实就是互联网产品中罕用的灰度公布形式。 互联网产品须要疾速迭代上线,既要保障新性能运行失常,又要保证质量,一旦呈现问题能够很快管制场面,就须要设计一套灰度公布零碎。用大白话讲就是某个 APP 的新版本曾经开发实现了,而老版本用户正在失常应用着,这个时候要是间接上线新版本,那么所有的用户都会用新版本,然而这种状况下,一旦呈现问题,将导致所有的用户都不可用,所以会有策略的筛选一部分用户先用新版本,即便呈现问题,也只是一小部分用户,不便回滚到旧版本,晋升用户良好的体验性。 概述灰度公布(又名金丝雀公布)是指在黑与白之间,可能平滑过渡的一种公布形式。在其上能够进行 A/B testing,即让一部分用户持续用产品个性 A,一部分用户开始用产品个性 B,如果用户对 B 没有什么拥护意见,那么逐渐扩大范围,把所有用户都迁徙到 B 下面来。灰度公布能够保障整体零碎的稳固,在初始灰度的时候就能够发现、调整问题,以保障其影响度。 咱们假如这个 A/B,就是 A 小姐姐和 B 小姐姐。 KubeSphere 的微服务治理性能KubeSphere 基于 Istio 微服务框架提供可视化的微服务治理性能,如果您在 Kubernetes 上运行和伸缩微服务,您能够为您的分布式系统配置基于 Istio 的微服务治理性能。KubeSphere 提供对立的操作界面,便于您集成并治理各类工具,包含 Istio、Envoy 和 Jaeger 等。 流量治理 金丝雀公布提供灵便的灰度策略,将流量依照所配置的比例转发至以后不同的灰度版本蓝绿部署反对零宕机部署,让应用程序能够在独立的环境中测试新版本的性能和个性流量镜像模仿生产环境,将实时流量的正本发送给被镜像的服务熔断机制反对为服务设置对单个主机的调用限度在 KubeSphere 中利用治理能够以可插拔式形式开启。开启后如下: 筹备工作创立一个 SpringBoot 的我的项目用于测试,如下 pom.xml 文件: <?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.pkulaw</groupId> <artifactId>ServiceA</artifactId> <version>1.0-SNAPSHOT</version> <name>ServiceA</name> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.7.0</version> <relativePath/> <!-- lookup parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <java.version>1.8</java.version> <docker.image.prefix>springboot</docker.image.prefix> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> <!-- 引入Actuator监控依赖 --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-actuator</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </dependency> <dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.8.0</version> </dependency> </dependencies> <build> <finalName>ServiceA</finalName> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build></project>controller 代码: ...

October 14, 2022 · 2 min · jiezi

关于云计算:行业大咖秀第二期开播

数字化转型热浪席卷千行百业 潮起潮落之间 褶皱和裂缝在堤岸留存 填平沟壑任重而道远 作为数字经济的外围底座 “云”被寄予厚望 助力政企逾越横亘于前的“数字鸿沟”

October 14, 2022 · 1 min · jiezi

关于云计算:当代人假期这几种行为你中了几条

七天小长假眨眼间就过来了这个假期,有的人出门游山玩水有的人居家休闲放松度假的形式各不相同上面这几种当代人假期行为快来看看你中了几条? 出游行为大赏高速路上你堵了吗?每逢节假日,不论是回家省亲还是外出旅行,要面对的第一个难题,就是高速路上重大拥挤的长长队伍。什么,往年的你在高速上没堵? 这是怎么一回事?当天翼云基于跨摄像头追踪、密集物体挪动图像宰割、点云、夜间对象辨认、数字孪生技术等多种高精尖技术打造一体化解决方案,实现了车辆智能疏导,使高速收费站通行速度较之前晋升260%,交易时长由4s升高到1.65s,为游客带去无感通行体验,让路上的工夫少一点,高兴的工夫多亿点。 景区队伍你排了吗?用几天假期,短暂 “逃离城市”,去感触山水原始的美,去呼吸不一样的空气,实乃乐事。但放眼景区门口,买票排队、入园排队,不停地排排排给这份美妙打了折扣,往年你在景区门口排长队了吗? 在家里线上预订好门票,到景区刷脸入园,跟景区门口的长队说拜拜~这样的体验几乎不要太爽!天翼云建设智慧游览服务平台,让景区实现“扫码入园、全网预订、分时预约”的智慧化经营;助力景区上线人脸智能识别系统,做到智慧景区票务零碎和平安零碎的无缝对接,轻松解决人票核验问题;景区内的售货亭、游船等公共设施上云,管理者近程监控、游客自助领取,使景区服务“更上一层楼”。 宅家行为大赏酷炫动漫你追了吗?对于宅家一族来说,假期最高兴的事莫过于,躺在沙发上吃着薯片刷刷钟爱的动漫了,看着配角团队一路过五关斩六将,好像本人也像他们一样热血青春。这条是不是又中了?毕竟谁能回绝制作越来越精美的国漫呢! 近年来国产动画电影疾速崛起,酷炫精美的特效让人叹为观止,这背地也有着云渲染的一份功绩。天翼云为国产动画电影提供的云渲染技术,使传统渲染一星期能力制作实现的视频,可能在一天内实现,同时大幅升高资金耗费,为国产动画电影视效倒退提供云能源。 直播美景你看了吗?玩手机玩久了,关上慢直播洗洗眼睛吧!张家界的玻璃大桥、峨眉山蒸腾的云海、白雪皑皑的珠穆朗玛峰,人在家中坐,足不出户也可将万千美景尽收眼底。这个假期,你们是不是也在手机上“云游中国”了呢~ 出现一场晦涩完满的慢直播并不容易,慢直播对技术要求很高,24小时不间断直播须要维持画面的清晰稳固。天翼云基于遍布全国的边缘节点,为慢直播提供超高并发解决、超强流量调入能力,通过将宏大的视频数据缓存于就近节点处,并以更快的速度传输到终端,让用户取得更稳固、晦涩的观看体验。

October 11, 2022 · 1 min · jiezi

关于云计算:玩转云端-提升边缘应用交付效率天翼云Serverless边缘容器有妙招

随着5G、物联网时代的到来,智能终端设备数量急剧减少,云计算能力一直向边缘侧、设施侧下沉,与此同时,针对边缘计算利用的高效、麻利交付需要也随之产生。 Serverless作为一种构建和治理基于微服务架构的技术,可实现部署利用无需波及基础设施建设,主动构建、部署和启动服务,具备低成本、简运维、经济高效等劣势,为软件架构设计与应用服务部署带来了新的设计思路,在边缘计算场景中正失去广泛应用。 天翼云依靠本身CDN业务零碎过来多年的大规模利用部署、公布与治理的最佳实际,以及容器平台团队对业务利用规模化运维、经营的能力,推出企业级边缘容器产品——天翼云Serverless边缘容器服务(后称ESK),以更好地满足企业日趋多元化的边缘计算利用场景需要。  什么是ESK? 天翼云ESK是基于天翼云智能边缘云ECX、CDN节点资源、云原生技术和智能调度策略,打造的Serverless边缘容器平台。依靠ESK,用户无需治理和运维集群即可在凑近用户的边缘侧疾速创立Kubernetes 容器利用,满足各类分布式应用的托管需要,从而无效进步部署效率,升高运维投入,让客户聚焦业务利用。 ESK八项次要能力▪ 提供多种丰盛的资源部署类型和海量节点,用户可一键将业务部署至指定的区域或可用区,满足诸如业务对区域、节点或时延有特定要求的场景。▪ 基于平安容器构建,满足租户隔离、命名空间隔离、业务隔离的平安需要。▪ 反对专属虚构网络,VPC内实例可内网互访,并可与智能边缘云的虚机应用同一VPC,实现内网互通。同时可能通过弹性IP、SLB、NAT网关实现外网拜访。▪ 提供镜像托管服务,高可用平安的镜像仓库保障镜像不被泄露。同时也容许拉取用户公有或其余厂商的仓库中镜像,无缝对接第三方镜像仓库。▪ 反对灵便的容器配置,提供利用程度扩缩容、降级、进行、删除、销毁和监测等利用全生命周期治理能力。▪ Serverless架构免运维,无需关注集群和底层服务器,一站式部署和运维容器利用,真正实现开箱即用,聚焦业务利用。▪ 集成智能调度,提供灵便的调度策略,疾速满足用户场景化、多维度的算力调度需要。可将终端用户的申请和拜访调度至就近节点,满足边缘业务响应低时延的需要。▪ 提供麻利的运维和经营治理,提供残缺的监控告警、日志治理、控制台等运维工具。  ESK聚焦三大利用场景 突发类业务用户可通过ESK一键部署互联网突发业务,依据业务负载和流量,弹性扩缩容。目前ESK服务已全面承载天翼云CDN业务并稳固运行,胜利助力业务翻新,为构建和保障可弹性扩大的利用保驾护航。 边缘监测针对传统监测业务监控形式简略、监测区域面不够宽泛等有余,用户可通过ESK构建和部署边缘平安监测业务,实现利用一站式部署,并下发至全国海量边缘节点,帮忙用户理解实在的业务服务质量、拜访成果等。以后,ESK已利用于天翼云压测业务,作为压测业务的算力散发底座,助力业务疾速上线。 批量计算ESK实用于图像/视频渲染、多媒体闲时转码、切片服务、药物剖析、大数据、科学计算、基因测序、金融和交易数据分析等生命、迷信类计算,并反对业务随时启停,以及断点续算等无状态的利用场景,可能满足计算资源需要大、数据运算量极大,但对解决时效性不敏感的业务场景需要,同时具备高性价比。 通过扭转构建与交付应用程序的形式,ESK正继续推动边缘计算反动。面对边缘计算市场广大的前景,天翼云也将加大摸索企业级边缘容器产品和服务的脚步,以满足更加多元化的边缘计算利用场景,一直缩短产业数字化转型周期,减速算力普惠时代的到来。

October 11, 2022 · 1 min · jiezi

关于云计算:给传统零售企业穿上云武装

国庆节马上到了,每逢节假日,商家们总是卯足劲儿祭出促销大旗,渴望趁着节日热度冲刺一波业绩。数字时代下,这些促销流动也变得更加乏味且多样,已经的“过小节,逛大楼,千呼万拥挤破头”变成了“线上支付优惠券,动动手指实现交易”。 随着科技的飞速发展,线上生产模式慢慢成为支流,商场只有被动求变,能力在强烈的市场竞争中占有一席之地。云计算、大数据、数字孪生等技术能够帮忙百货企业买通消费者、商家和流量池之间的壁垒,建设起数字时代的新型生产生态体系。天翼云凭借云网安及IaaS层到PaaS层的全套服务,助力传统百货企业数字化转型降级,让传统批发企业焕发新活力。 一综合型商贸流通企业团体在线上生产模式的冲击下,呈现了业务下滑,利润降落的状况。面对眼前的倒退瓶颈,该团体踊跃推动数字化转型,打造线上小品牌,通过线上积淀客流、线下速达的引流、吸流、固流操作,实现了百货批发的升级换代。 在数字化转型过程中,该团体也面临着一些难点。数字化转型须要高效、稳固、牢靠的信息化底座,自建成本较大;新批发信息化零碎及数据安全是企业的命根子,绝不能呈现平安问题;秒杀、热销、直播等销售新手法须要高并发、高突发、高牢靠的场景反对。 天翼云从客户需要登程,提供了从IaaS层到PaaS层的全栈产品,为该客户打造了云网安、数据库、中间件、CDN一体化计划。 ▎在零碎层面,在天翼云私有云资源池上开明云主机、数据库服务器等产品,提供文件存储服务、对象存储服务等配套根底资源,满足客户新批发信息化零碎的疾速部署和拜访需要; ▎在网络层面,应用天翼云SD-WAN的主备跨域电路连通客户原有机房和天翼云私有云资源池,实现了网络层面平安及高可用,通过CDN全站减速服务、负载平衡服务实现了业务层面高可用; ▎在平安层面,为客户提供云上WAF、抗D、云堡垒机等一揽子平安产品,全面保障客户云上业务平安。 随着该解决方案疾速部署上线,天翼云全面满足了客户的底座资源需要、平安和网络保障需要,以及业务高并发、高突发、高牢靠的拜访需要。客户能够依据理论须要应用资源,不须要自建,随用随选,经济高效。云网安一体化设计,为客户构建安全可靠的云上平安体系。同时,天翼云属地运维服务一站式响应客户上云征询、资源开明、数据迁徙、云资源运维等全流程服务,让客户安心无忧。 新生产状态的呈现以及消费者消费观念的扭转,正在促使更多的传统批发企业进行数字化转型。天翼云将持续为传统企业赋能,助力更多实体商超以“云武装”全新亮相,制胜将来。

October 11, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊在浏览器中运行-Linux-系统-20221010

Confluent 官网曾经放出了《Kafka 权威指南第二版:大规模实时数据和流解决》,相比于第一版新增了以下内容: Kafka 治理客户端概述;API 更新到最新的 Apache Kafka 版本(2.5);平安和交易。 开源我的项目举荐WebVMWebVM 是通过 WebAssembly 技术运行在浏览器中的 Linux 虚拟机,并利用 Tailscale 进行联网。 KueueKueue 是开源的云原生作业队列控制器,它充分利用了 Kubernetes 现有组件的各种成熟的性能,比方节点主动伸缩由 cluster-autoscaler 负责,Pod 调度由 kube-scheduler 负责,作业生命周期治理由 kube-controller-manager 负责。同时提供了扩大 API 来正当分配资源配额,还提供了 hooks 用来集成其余定制的批处理作业 API。 KonfKonf 是一个轻量级 kubeconfig 管理工具,能够同时在不同的终端窗口中应用不同的 kubeconfig,也不会创立子 shell,速度很快。 mirrordmirrord 能够让你的本地利用间接对接到 Kubernetes 中,看起来就像是间接运行在 Kubernetes 中一样,但实际上不须要部署到 Kubernetes 中。还提供了 VS Code 插件与 IntelliJ 插件。 BadrobotBadrobot 是一款 Kubernetes Operator 平安审计工具,它会对高风险的配置清单进行危险剖析,查看相干权限是否不足平安限度,以及被攻打的 Operator 是否取得整个集群的管制权限。 文章举荐Isolates,microVMs 与 WebAssembly本文具体解读了 WebAssembly 相似技术的劣势与缺点,并指出 WebAssembly 与它们相比的过人之处,以及当下 WebAssembly 遇到的窘境。 ...

October 10, 2022 · 2 min · jiezi

关于云计算:KubeSphere-社区双周报-功能亮点抢鲜看-20220930

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上 / 线下流动和布道推广等一系列社区动静。 贡献者名单 新晋贡献者证书 新晋讲师证书此两周内进行了一场线上直播,直播预报 | Kubernetes 节点故障自救计划摸索,莫红波老师奉献了精彩的分享。 近期重要更新KubeSphere以下更新将在 KubeSphere v3.3.1 中可用,预计 10 月上旬公布,目前可下载 KubeSphere v3.3.1-rc.3 尝鲜。 1. 修复集群网关日志和资源状态显示异样的 bug相干 PR:https://github.com/kubesphere... 贡献者:hongzhouzi 2. 修复我的项目网关无奈失常降级的 bug相干 PR:https://github.com/kubesphere... 贡献者:hongzhouzi KubeKey以下更新已在 KubeKey v2.3.0-rc.3 中可用,欢送下载试用。 1. 反对迁徙 Container runtime相干 PR:https://github.com/kubesphere... 贡献者:zt1046656665 2. 增加 PodPidLimit相干 PR:https://github.com/kubesphere... 贡献者:zhouqiu0103 3. 离线装置反对用户申明额定的软件包依赖相干 PR:https://github.com/kubesphere... 贡献者:kuops 4. 降级 kube-ovn 至 1.10.6相干 PR:https://github.com/kubesphere... ...

October 8, 2022 · 1 min · jiezi

关于云计算:sealfs-一个世界冠军要开始写文件存储了

背景sealfs 的作者拿过很多编程较量的世界冠军或者十分好的名次: 2019.12 SSCAIT(国内星际争霸 AI 算法开发大赛)**在“排位赛”中世界综合排名第 3 位,以 84%的胜率在“近 50 场胜率排行榜”中最高排名第二位。2022.01 RLChina 智能体挑战赛 队长 冠军2018.08 天池阿里巴巴寰球调度算法大赛 冠军 总名次 1/21162017.05 2017 华为软件精英挑战赛 寰球总决赛二等奖,名次 2/10000+ 队长2022.03 AI 球球大作战:Go-Bigger 多智能体决策智能挑战赛 总名次 10/1434 队长2020.08 天池首届云原生编程挑战赛 赛道二外部赛道第一名,总名次 7/4031 队长当初是 sealos 的合伙人,sealfs 也是为 sealos 而生的,筹备做一个高性能分布式文件存储,如果整个 sealos 是云操作系统,那 sealfs 就是这个操作系统的磁盘。 sealfs 还有个平凡指标,就是在一年内拿下 io500 的榜首!心愿能胜利。 sealfs设计文档丝滑,高性能的分布式文件存储 为什么要为云原生构建新的分布式文件存储应用本地存储单点故障 云原生利用应用本地长久化存储带来的最大问题是单点故障,因为数据位于某个特定的节点,节点宕机会导致数据不可用,受绑定的利用无奈重启,也难以迁徙到其余节点。此外单节点磁盘故障甚至会呈现数据失落的问题。 目前对于一些数据可靠性要求高的利用,都在应用层实现了分布式架构,实质上是将复杂性交给了利用,对于简单的利用而言,老本过高。存储布局与扩容 利用本地存储意味着须要对每个节点进行容量布局,在节点故障时还须要对本来的分布式架构进行额定的迁徙配置,带来了微小的工作量和出错概率。 另一方面,本来的容量有余时,进行节点扩容也是本地存储无奈解决的难题。性能效率低下因为磁盘设施IO,本地存储的性能是存在瓶颈的,多利用共享磁盘时尤其显著。应用现有分布式存储性能只管实践上分布式存储的数据性能随着节点增多能够不受限制,但实际上还是受到几方面的影响。一是集群一致性带来的瓶颈,应用raft等协定的分布式计划存在的问题;二是数据调用流程缩短带来的内存拷贝老本,采纳fuse的泛滥文件系统带来的问题;三是元数据申请的瓶颈,典型的是GFS,大规模集群下目录遍历的老本十分高。配置配置简单,特地的节点扩容,许多限度要求非常刻薄。典型为GFS扩容极其简单。cephfs的稳定性较差。价格高性能的商业分布式存储价格昂贵,开源产品又大多无奈等量齐观。实用场景性能极致计划×牢靠数据体验 高性能的网络数据拜访 无分布式元数据的计划intercept残缺posix申请(link、rename、delete的高效实现)丝滑 数据可靠性数据服务高可用性存储节点可扩大用户接口与零碎调用流程对象存储、文件存储、块存储接口目前对于存储服务所提供的接口次要有三种,对象存储、文件存储和块存储。 日常应用遇到的大多数是文件存储,应用程序大多也是以文件为单位进行文件操作,申请交给文件系统。而块存储则位于文件系统之下,与存储设备间接对接,其拜访指标是存储设备的一段区间,文件存储的申请在解决之后被转换为块存储。二者在posix都提供了残缺的接口标准。在linux中零碎中,这两种类型的存储也被纳入了内核中,由内核来处理程序的零碎调用。 对象存储则是一类第三方的存储接口,提供单个文件的读写,典型的规范有aws-s3等。这类接口与linux零碎无关,拜访则须要独自的客户端。 本地文件(块)存储调用流程本地文件存储的一次调用流程包含:用户态申请VFS内核文件系统块设施驱动如果申请是块设施申请,则间接交给内核的块设施驱动(两头省略了两步,不影响)。能够看出无论哪种申请,都只进行一次内核用户态切换。 网络文件(块)存储调用流程fuse网络文件存储有许多不同的实现形式,最容易实现且易于应用的fuse。 在fuse中,通过网络进行文件存储的一次调用流程包含: 用户态申请VFS(切换)FUSE内核模块用户态client(切换)用户态servervfs(切换)内核文件系统块设施驱动过程中总共波及3次用户内核态切换,调用返回后则为6次,老本大大增加。 内核文件系统为了缩小调用次数,另一种实现计划则是间接在内核态实现文件系统,网络申请则在内核态实现。 用户态申请VFS(切换)内核态client用户态servervfs(切换)内核文件系统块设施驱动这种计划能够将切换次数缩小至2次,但毛病也不言而喻: 内核编程的调试简单须要为客户端装置额定内核模块零碎调用劫持此外还有一种计划。在上一节的图中,能够看到,用户申请并不是间接交给linux内核的,而是通过了glibc(或其余libc库)来提交零碎调用,这意味着能够在libc层替换零碎调用的地址,实现零碎调用劫持。 用户态申请零碎调用劫持client用户态servervfs(切换)内核文件系统块设施驱动这种状况下,用户内核态切换次数仅为一次,网络交互也齐全实现在用户态,无论是切换的代价还是编程老本都能够降到最低。遗憾的是,并不是所有的应用程序都是通过libc进行零碎调用的,例如golang的二进制程序,其不应用任何动静链接。 对象存储调用流程因为对象存储无关零碎调用,而是由第三方定义规范,所以无关任何用户内核态切换,没有这一层面上的限度。 这也是为什么开源的对象存储产品如此之多,且性能良好的局部起因了。 ...

September 27, 2022 · 1 min · jiezi

关于云计算:云行-加码算力网络布局天翼云发布南京3AZ节点

9月20日,以“乘云共上 融绘新篇”为主题的2022天翼云中国行·江苏站流动暨南京3AZ发布会在南京胜利举办。江苏省政府部门领导、各合作伙伴企业代表与天翼云共聚一堂,就云计算、人工智能等技术创新进行了深度探讨。现场,中国电信公布了天翼云南京3AZ节点,这代表着天翼云算力网络布局的进一步降级,将来将协同合作伙伴为江苏区域、乃至长三角千行百业数智化发展提供算力撑持,促成数字经济高质量倒退。目前,天翼云在华北、西安、苏州、南京等多地均有3AZ部署。 降级算力资源布局激发江苏数字倒退新生机江苏省工业和信息化厅二级巡视员常如平在致辞中示意,近年来,江苏省深刻施行新型信息基础设施建设、新一代信息产业翻新倒退、工业互联网平台培养、企业上云等一批重点工程,高水平建设智慧江苏,高标准打造智慧城市,造成了城市高质量倒退的新模式、新门路、新业态,全省信息化倒退程度和数字经济规模继续位居全国前列。 中国电信股份有限公司江苏分公司副总经理、天翼云科技有限公司江苏分公司常务副总经理叶凯示意,中国电信江苏分公司作为数字社会建设的主力军,踊跃推动5G基础设施建设,目前全省建成5G基站6.6万,可提供AI原子能力超过500个。同时,依靠5G+云+AI劣势资源,中国电信江苏分公司打造了近百个利用标杆。 华为技术有限公司电信零碎部副部长林毅分享了中国电信与华为在携手推动企业数字化转型方面取得的实践经验。林毅认为,5G+云+AI深刻OT,能力减速行业智能化,将算力和智能源源不断地输送给千行百业,实现智慧用数。江苏数字经济具备良好倒退根底,中国电信和华为、产业搭档一起携手,“翼”路同行,共绘江苏数字基础设施新范式。 会上,天翼云科技有限公司研发一部副总经理杨鑫对天翼云4.0区域能力降级进行了具体解读。他示意,本次公布的天翼云南京3AZ区域核心能力,是基于自研技术开发的一套欠缺的全栈云产品体系,具备资源池间大带宽互通、低时延及跨AZ容灾备份能力,具备自主可控、对立架构、对立底座、软硬协同、超高性能、高效运维等能力,为长三角区域内各行业客户提供优质、高可用的服务,带来上云新抉择,推动江苏区域内实现“网络降级、算力降级、智能降级”的当先倒退。  协同合作伙伴打造数字经济新格局在“互联网+政务服务”的引领下,我国政务信息化正朝着智慧政务的方向推动。基于云计算技术打造的“政务云”,为智慧政务插上腾飞的翅膀。中国电信集团政企客户事业群政务行业拓展部总监徐光,在介绍中国电信在政务云市场获得的问题时提到,中国电信数字政府外围平台曾经在全国10余个省、80多个地市落地。同时,中国电信致力于打造自主可控、平安可信的国云,已参加全国20多个省政务云、180多个地级市政务云的继续经营。 会上,华为云计算有限公司可信云首席架构师张锐刚分享了华为软件工程改革的体系架构,以及在应答开源危险、供应链平安环节上的实践经验。 同时,中国信息通信研究院技术与规范研究所副所长万屹作了“天翼云助力北斗产业新倒退”主题演讲。万屹示意,从2019年起,北斗导航公共服务平台始终部署于中国电信天翼云,稳固牢靠的云底座承载了每日超40亿次的定位申请,累计公益服务中国手机用户终端近7亿台。接下来,信通院将和中国电信强强联合,携手推动北斗产业的新倒退。 在与中国电信的生态单干方面,用友网络科技股份有限公司寰球生态单干本部生态倒退高级总监柴桦示意,基于单方深度策略单干关系,依靠用友商业翻新平台(用友BIP),用友将助力中国电信充分发挥5G定制网及云计算新技术,造成“高速运力+弱小算力+丰盛能力”的劣势。 近年来在经济新常态背景下,江苏省始终将实体经济作为倒退重点方向,并领有全国最大的制造业集群,数字技术的加持有利于进步当地经济增长品质效益、转换产业倒退动能。随着天翼云南京3AZ节点公布,江苏省域将有更多企业迈上“云端”,也按下了数字强省建设的快进键。  云上赋智华夏,数智起笔新章过千重峰峦,揽万里风波数字山河,云行无疆 

September 27, 2022 · 1 min · jiezi

关于云计算:天翼云ECK云边一体化

近日,IDC 公布的《中国边缘云市场解读,2022》报告显示,2021年中国边缘云市场规模总计50.4亿元,边缘私有云服务市场达到25.6亿元人民币。边缘云市场快速增长,无望成为新的蓝海。在边缘私有云服务市场中,天翼云ECX等基础设施产品是该市场次要组成部分,同时边缘容器、边缘函数计算等相干解决方案同样具备强劲的增长后劲。其中,天翼云边缘容器集群ECK入选该报告边缘私有云服务市场典型产品。 什么是ECK?数字经济时代,80%的人工智能决策将产生在边缘和端侧,爆炸式的计算需要在边缘侧源源不断地产生。为了增强对算力的对立纳管度量、对立编排调度,天翼云联合kubernetes云原生技术推出边缘容器集群ECK,面向云原生利用交付提供高性能可伸缩的容器利用治理服务。作为天翼云针对边缘计算场景推出的云边一体化计划,ECK深度整合了ECX智能边缘云的虚拟化、存储、网络和平安等能力。通过ECK,用户能够疾速创立云边一体化kubernetes集群,简化集群运维工作,从而专一于容器化利用的开发与治理,实现降本增效。 同时,作为一款面向混合云、多集群、边缘计算等场景的企业级云原生平台,天翼云ECK能够连贯并治理任意地区、任意基础设施上的Kubernetes集群,同时也反对通过容器平台创立Kubernetes集群,蕴含针对边缘计算场景下加强性能,反对通过云边一体化集群治理跨网域的边缘节点。 天翼云ECK七大性能▪ 集群治理:一键创立云边一体化的Kubernetes集群,反对混合集群部署和治理;▪ 节点治理:反对购买边缘云节点和纳管客户已有节点,反对多样异构资源纳管并对立治理;▪ 节点池治理:借助节点池批量治理节点,反对创立跨区域和不同规格的节点池,反对节点池IaaS资源弹性伸缩;▪ 利用治理:将容器利用疾速部署到边缘节点,并对利用进行全生命周期治理;▪ 弹性伸缩:反对节点和工作负载维度的弹性伸缩,可手动和主动弹性伸缩;▪ 利用商店:内置利用商店,反对一键部署helm利用,反对利用降级和回滚;▪ 算力调度:联合算力网络调度能力,可配置跨区域的全局算力调度策略及节点和Pod层级的调度策略。   多场景实用,推动算力普惠倒退为满足不同档次的用户疾速应用云上Kubernetes边缘容器集群服务,天翼云提供多种托管应用形式,包含边缘容器集群专有版(ECK专有版)、边缘容器集群托管版(ECK托管版)、容器治理平台专属公有云ECP,可广泛应用于电商平台、智慧楼宇、混合资源管理、企业数字化转型,以及机器学习等场景,满足企业不同场景下的业务需要。  以传统超市数字化转型场景为例,继续下沉的智能利用对超市边缘侧的智算能力提出极高要求。比方,云端AI监控范畴囊括了门店业务控制系统、场景建模零碎及根底设置管理系统等内容,大量的AI计算需要须要相应的算力撑持,传统超市亟需构建灵便、高效的算力调度和管控能力。  天翼云提供的ECK边缘云原生解决方案,通过对天翼云ECX(公共云边缘节点服务)、线下自建边缘网关节点、GPU节点等多种类型的边缘异构算力进行对立接入、对立调度,助力传统超市构建云、边、端一体化协同的AI监控零碎,使超市门店计算资源老本节俭 50%,新店开服效率晋升70%,实现全方位的降本增效,进而实现“人货场”数字化交融转型。  在边缘计算继续倒退的将来,天翼云还将一直优化ECK产品性能,促成企业实现云边协同高效倒退,助力工业互联网、物联网、车联网等边缘计算场景业务高效落地,减速普惠超算时代的到来。 

September 27, 2022 · 1 min · jiezi

关于云计算:存储资源盘活系统盘活物联网架构难题下

高效应对物联网架构难题,是进一步开释物联网技术动能的要害。从《物联网架构设计难?天翼云存储资源盘活零碎有妙招(上)》能够理解到,天翼云存储资源盘活零碎在解决物联网架构根本设计模式难题中领有泛滥劣势。那么在面对复合设计模式时,它又有哪些价值?  复合设计模式一:多零碎多零碎模式是指多个物联网零碎彼此独立运行的模式。每个零碎都有惟一的端点、网络和平台。通常,不同的物联网零碎彼此独立地倒退一段时间后,想要合并为一个组织时,会抉择这种模式,例如独立利用(如平安摄像零碎与工业控制系统)、独立业务部门、独立地区(如EMEA地区应用欧洲居民零碎,而北美地区应用美国居民零碎)。 多零碎模式适宜如下要求:①独立经营设计必须反对两个或多个组织独立运行本人的零碎。在这种状况下,地方IT部门应该定义一组规范,以缩小跨零碎的反复工作。例如,在单个商业物联网供应商平台上进行标准化,设计标准数据模型,创立物联网端点的首选列表,并建设通用的物联网治理策略;②外包经营组织能够抉择将操作外包给多个服务提供商(如平安供应商和暖通空调供应商)。在这种状况下,来自两个零碎的物联网端点能够共享雷同的组织设施(如电源、无线LAN),但物联网零碎是独立运行的;③部门数据隔离设计必须反对隔离部门之间信息替换限度,包含数据传输、转换、存储、剖析和拜访限度。 多零碎模式的最大难点是它建成之前如何让齐全独立的零碎交融。存储资源盘活零碎并不能齐全解决这些问题,但能够保障组织的存储系统以最低老本间接互通。 不同的零碎在交融之前有各自的存储系统,但交融后必然有数据交加和新增的治理数据,这部分数据可能存储在一个独立零碎,或多个独立零碎,或新零碎中。传统的分布式存储系统是难以相互兼容的,但存储资源盘活零碎能够。 存储资源盘活零碎可基于异构硬件进行部署,兼容x86、ARM、龙芯等平台设施。它作为一组用户态过程运行,不依赖任何特定版本的Linux内核或发行版,不依赖、不批改操作系统环境,不独占整个硬盘,不烦扰其余过程的执行。 因而,该软件能够与其余利用同时运行在同一Linux操作系统实例中。类比个人电脑程序,咱们能够称此性能为“绿色性能”。一方面,它在帮忙用户进步现有硬件资源利用率的前提下整合所有存储硬件,另一方面,它也升高了用户部署门槛,符合了多零碎模式的简单环境。  复合设计模式二:多平台多平台模式,实质上是在多零碎模式的根底上增加了对立治理平台。通常,多平台模式是由多零碎模式拓展而来的,它为设计人员提供了由多个孤立物联网系统集成的数据和剖析能力,便于扩大。 此模式常见于集成组织领有和经营多个物联网零碎、集成服务提供商领有和经营多个物联网零碎(如把视频监控数据与修建供暖制冷系统数据集成)、集成本身物联网与服务商的物联网(如把企业的无人机监控零碎和政府的天气监控系统集成)等场景。 多平台模式适宜如下要求:①跨业务部门整合该设计反对集成来自两个或多个物联网零碎的数据,这些零碎由不同的业务部门部署和经营。例如,比拟两个制作工厂的经营特色,其中每个工厂都由不同业务部门领有和经营的物联网零碎所管制;②跨供应商集成该设计反对集成不同供应商部署和经营的两个或多个物联网零碎的数据。例如,设计人员可能须要创立一个对立治理平台,将供应链物联网零碎中的数据与制作生产物联网系统集成在一起;③互补系统集成设计反对监控多个互补而独立的物联网零碎。例如,设计人员可能须要创立一个对立治理平台来监控两个智能城市物联网零碎的运行状态(如空气质量和交通路况)。 相比其余模式,多平台模式进一步趋势简单,此模式中的每个平台零碎都独立于其余平台,例如,水电物联网零碎和太阳能物联网零碎将持续彼此独立运行。这种状况下,任何简单的高级性能都很难做到对立适配。但能够预期的是,这些平台都是基于Linux服务器构建的,应用的都是HDD或者SSD硬盘。基于此,存储资源盘活零碎适配所有Linux服务器,提供iscsi底层服务的劣势显著。 除了在上述任何物联网设计模式中都能起到用武之地,天翼云存储资源盘活零碎绿色易部署的个性也反对各种环境下泛滥接入设施,可能将物联网各个因素串联起来。其弱小的存储性能和接口可解决工业设施繁多、软件闭源等痛点,赋能各层级平台满足物联网的全局认知。 此外,天翼云存储资源盘活零碎的安全性还可防止物联网产生“信息谬误导致事实谬误”的结果,彻底“盘活”物联网架构难题。 

September 27, 2022 · 1 min · jiezi

关于云计算:存储资源盘活系统盘活物联网架构难题上

物联网 Internet of things(IoT),是一种与物无关的互联网,通过射频辨认、红外感应器、全球定位系统、激光扫描器等信息传感设施,按约定的协定把任何物品与互联网相连接,进行信息替换和通信,以实现对物品的智能化辨认、定位、跟踪、监控和治理。物联网技术随同着计算机技术和互联网倒退而疾速倒退,逐步成为我国经济转型降级的一大突破点。 物联网技术促成万物互联,然而其技术多样性和集成复杂性让物联网架构成为设计中的难点。物联网,从架构上能够分为边缘和平台两局部。边缘是数据的产生端,例如照度表、传感器、电表、摄像头等;平台是数据的会集端,能够执行设施治理、流解决、高级剖析、工作负载、企业应用程序调用。由此能够推出物联网架构有三种根本设计模式:以边缘为核心、以平台为核心和混合边缘平台,以及两种复合设计模式:多零碎和多平台。 天翼云存储资源盘活零碎领有弱小的存储性能和接口,兼具绿色属性和安全性,可从容应对物联网不同架构设计难题。 上面咱们一起理解一下存储资源盘活零碎如何“盘活”物联网架构的三种根本设计模式。  根本架构设计模式一:以边缘为核心以边缘为核心的模式强调边缘层中各个边缘节点的独立性,使IoT 零碎可能在与网络或云断开连接的状况下长时间运行。该模式常利用于制作(如生产线管制)、发电(如核电站管制)、工业管制(如深水钻井)等场景。 以边缘为核心的模式适宜如下要求:①自主操作通过集中式零碎或内部连贯(如WAN)的伎俩,边缘节点反对自主运行,让所有解决都必须在边缘进行;②严格的性能要求该设计具备特定的边缘性能要求,例如,将平台层搁置在边缘能够通过进步边缘计算可伸缩性来进步性能,还能够缩小边缘到平台的提早;③数据驻留设计架构时,要思考当地法律(如数据必须存储在该地区),或者某些平安需要可能要求所有数据处理、存储和剖析都保留在边缘。 在以边缘为核心的模式中,边缘承当了大部分数据存储工作,边缘设施通常自带存储能力,然而很难承当汇聚整顿数据的性能。这就要用到边缘机房,边缘机房在部署时往往要应答物理条件简单、部署老本高、硬件形成多样等问题。 天翼云存储资源盘活零碎不仅领有传统硬件存储阵列的低提早和高可用性能劣势,还与分布式存储一样具备高可伸缩性和高吞吐量个性。其绿色个性升高了部署老本,反对硬件异构的个性大大提高了现有硬件资源的利用率,非常适合边缘环境。  根本架构设计模式二:以平台为核心以平台为核心的模式是指平台层提供大部分IoT解决、剖析和工作负荷,而边缘节点只承当最根本的数据处理、剖析、存储和通信工作。该模式常见于无人机服务(如包裹递送、目视查看)、农业传感器(如风速、空气温度、湿度)、智能城市传感器(如空气质量监测仪、智能垃圾压实机)等场景。 以平台为核心的模式适宜如下要求:①挪动端点该架构反对挪动端点接入物联网,在这种状况下,端点必须蕴含满足操作要求所需的所有传感器、解决、存储、通信和电源性能;②即插即用端点部署该架构中,只须要很少的部署步骤就能实现新的端点接入,在此模式中部署端点通常只须要通电、装置和网络配置;③端点性能受限当端点提供无限的IoT性能时,设计人员应该应用此模式。该模式通常不存在边缘平台提早问题,一方面因为数据量低或中等,一方面源于计算集中(如智能玩具、空调等场景)。 以平台为核心的模式下,最显著的特点就是数据产生端(边缘节点)和解决端(平台)拆散,且一个平台负责大量边缘节点产生的数据,这就须要保障数据传输效率(网络)与平台性能(云)。 物联网通常的数据读写场景是写入少、读取多,此时能够把存储资源盘活零碎别离部署在边缘与平台,在保障高可用的前提下实现弹性扩大。面对个别写入多、读取少的场景(例如依法保留3个月监控录像),天翼云存储资源盘活零碎能够无缝对接云端对象存储资源,实现存储空间的对立治理、按需应用和弹性扩大。对于数据安全性要求较高,敏感数据不合适上私有云的场景,也能够构建公有云,实现数据本地存储,进步数据访问速度。  根本架构设计模式三:混合边缘平台混合边缘平台模式是指一些工作负荷和解决在边缘层运行,一些工作负荷和解决在平台层上运行。该模式通过提供边缘计算(如流解决、边缘工作负载、数据分析)和边缘数据管理(如转换和存储)来实现高度分布式和可扩大的物联网零碎。该模式常见于工业管制(如网关连贯到数据历史库)、医疗利用(如网关连贯到心脏监护仪)、平安利用(如网关连贯到平安摄像头)等场景。 混合边缘平台模式适宜如下要求:①设计灵活性架构设计必须反对业务在边缘层和平台层部署解决,在三种根本设计模式中,该模式领有最大灵活性;②自主操作设计必须反对自治边缘操作,而无需应用任何集中式计算或 WAN 连贯,在这种状况下,网关能够治理边缘工作负载,这些工作负载能够长时间独立于平台放弃零碎运行;③严格的提早要求该设计具备特定的边缘提早束缚,网关能够运行容器化工作负载(如机器学习),能够满足严格的提早要求;④数据驻留设计必须反对限度数据物理地位的法律,此外,平安束缚可能要求所有数据处理、存储和剖析都保留在边缘。 在混合边缘平台模式中,网关中的IoT服务必须与平台中相应的IoT服务集成。例如,网关必须反对平台机制,以便在边缘协调容器化工作负载。天翼云存储资源盘活零碎的兼容性反对其在边缘机房、大数据中心等地部署,它所提供的丰盛的API与SDK能够实现该集成需要。 混合边缘平台模式场景通常极其器重性能与平安。天翼云存储资源盘活零碎的安全系数极高,它将文件打碎成若干数据块并进行分布式存储,具备良好的防篡改作用。多备份和纠删码数据冗余策略可能进一步提高安全性。 此外,存储资源盘活零碎解压后只需几个命令行就能够实现配置,还搭配直观的图形化界面,最大限度防止了因配置谬误而导致的平安问题。 面对内部事变导致能源供应不稳固的状况,存储资源盘活零碎可适应网络不稳固、电压电流不稳固等弱网弱电场景。 当服务器宕机时,存储资源盘活零碎能够在供电复原服务器重启后,无缝复原至断电前的运行状态,具备牢靠的自愈能力。 对于网络、电路不稳固的环境,存储资源盘活零碎可将数据从客户端间接写入磁盘,躲避断电后数据写入内存但未写入磁盘所引发的数据失落事变。 天翼云存储资源盘活零碎能够从容应对上述物联网架构中的三种根本设计模式难题,从而盘活物联网零碎。那么在复合设计模式中,天翼云存储资源盘活零碎又是如何大放荣耀的?请关注下期推文。 

September 27, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊你对-K8s-集群升级有信心吗

开源我的项目举荐GoNoGo在 Kubernetes 集群中,有多种因素会影响到附加组件的降级成功率,比方某些组件只反对特定的 API 或者特定的 Kubernetes 版本,某些组件废除了特定的 annotation。GoNoGo 这个我的项目能够创立一个对于降级查看的标准,你能够通过这个标准来查看要降级的版本,以此来取得降级胜利的自信指数。 wordpress-wasm这个我的项目通过 WebAssembly(WASM)和 Emscripten(WebAssembly 的一个开源编译工具链)实现了间接在浏览器中运行 Wordpress,无需 PHP 服务。 mirrordmirrord 能够让你的本地利用间接对接到 Kubernetes 中,看起来就像是间接运行在 Kubernetes 中一样,但实际上不须要部署到 Kubernetes 中。提供 VS Code 插件与 IntelliJ 插件。 文章举荐应用 KubeEdge 和 EdgeMesh 实现边缘简单网络场景下的节点通信KubeEdge 是面向边缘计算场景、专为边云协同设计的业界首个云原生边缘计算框架,残缺买通了边缘计算中云、边、设施协同的场景。EdgeMesh 的定位是 KubeEdge 用户数据面轻量化的通信组件,实现节点之间网络的 Mesh,为用户 KubeEdge 集群中的容器利用提供与 K8s Service 统一的服务发现与流量转发体验。本文介绍了如何应用 KubeEdge 和 EdgeMesh 实现边缘简单网络场景下的节点通信。 在 KubeSphere 中部署高可用 Redis 集群Redis 是在开发过程中常常用到的缓存中间件,在生产环境中为了思考稳定性和高可用性个别采纳集群模式的部署。惯例部署在虚拟机上的形式配置繁琐并且须要手动重启节点,而应用 K8s 部署有很多劣势,比方装置便捷,缩扩容不便,稳固高效等等。本文介绍了如何在 KubeSphere 中部署高可用 Redis 集群。 云原生动静SPIFFE 和 SPIRE 我的项目从 CNCF 孵化器毕业日前,CNCF 发表 SPIFFE 和 SPIRE 我的项目从孵化器毕业。至此,共有 18 个我的项目毕业。 ...

September 27, 2022 · 1 min · jiezi

关于云计算:你用对了么对象文件网关-VS-分布式文件存储

在近期的文章留言中,咱们看到一个很好的发问能够作为话题一起探讨。无关基于对象的两类文件存储,一类是“对象文件网关型”文件存储,即在对象存储的根底上提供文件接口,反对用户业务以文件的形式去应用对象存储。另一类则是分布式文件存储,即对象存储的应用只是整个文件系统性能的一部分,这种文件系统自身的性能是残缺的,且同时反对对象存储,来满足某些业务需要。针对这两类存储产品一些同学存有纳闷,比方: 纳闷一:产品架构的设计思路上到底有何不同?纳闷二:对象文件网关 VS 分布式文件存储架构的优劣势体现在哪里?纳闷三:这 2 种产品架构适宜怎么的利用场景和业务?如果凑巧你关注的也是以上这些问题,心愿这篇技术科普文能够很好地帮忙到你,也欢送大家留言。 家喻户晓,存储系统个别分为块存储、对象存储和文件存储三种。其中文件存储的应用最为宽泛,小到个人电脑、家用 NAS,大到传统 HPC、大数据平台、AI 等等,这些都是以应用文件接口为主。近几年,得益于存储空间大、成本低的劣势,对象存储扮演着越来越重要的角色。但用户业务往往不能间接应用对象存储,于是市面上呈现了一些理论应用的是对象存储但对外提供文件接口的号称文件存储的计划。 “对象文件网关型”文件存储,个别架构上能够划分为客户端、元数据服务和数据服务三大块: 1、客户端:个别都是基于 fuse 实现,长处是简略,毛病是会有肯定性能损耗(可参考论文 FAST'17 To FUSE or Not to FUSE,点击浏览原文获取链接)。 2、元数据服务:根本都是应用第三方数据库,比方 mysql、redis、tikv 等。 mysql 没有强统一集群计划,性能较差,因而个别不会选用。redis 以性能高著称,但内存占用极高,且有单点数据危险,不能反对较大数据规模。tikv 是强统一的分布式 kv,相对而言是个不错的抉择。但把握和保护 tikv 颇有挑战。3、数据服务:间接应用对象存储,比方 Amazon S3、阿里云 OSS 等。 能够看出,对象文件网关架构深度应用和依赖于第三方零碎,它将简单的 data io 交给对象存储,将更简单的 meta io 交给第三方数据库,比拟取巧,但也确实不失为一种无效的抉择。对象网关文件存储人造取得了这些劣势: 容量有限,用户能够在对象存储中寄存海量数据。老本绝对较低,对象存储往往用价格更低的硬盘(如大容量机械硬盘),且应用 EC 等更节俭空间的数据冗余算法。肯定的吞吐能力。也正因为这种架构设计,为“对象文件网关型”文件存储带来一些性能上的限度,最为突出的是随机写性能差,究其原因一是对象不反对批改,二是用户业务往往须要写数据。因而不同的对象文件网关零碎,采取了不同的应答办法: 办法一:躲避须要写入,尤其是随机写较多的业务。拥抱只读为主、数据量很大的业务,比方视频备份等。办法二:利用本地盘做数据缓存。不过这又引入了新的问题,次要是本地盘不足冗余,也不不便数据共享。那么,分布式文件存储系统的体现又是怎么的呢?首先它是基于 x86 架构设计的一款分布式文件存储系统,反对支流对象存储,个别用户会应用两种典型性能:数据分层和跨云数据整合。接下来,咱们逐个介绍下: 数据分层 定义热层在本地,冷层在对象存储。被读写的数据将主动落在热层,而未被拜访的数据,依据策略被断定为冷数据后,将被主动放到冷层,冷热层数据流动齐全对用户通明。 劣势: 这种设计思路能够了解为热层为数据读写提供极高的性能。比方 GPU 计算集群对存储性能要求极高,则热层能够部署 RDMA、NVMe 等高性能硬件去满足业务需要。而冷层又能够存储海量的冷数据,用以节俭存储老本。冷热层数据通明流动,做到业务无感知。用户既失去了热层高性能,同时又失去了冷层的大容量低成本。 跨云数据整合 私有云对象存储提供了十分优良的可拜访性,因而咱们能够基于这一特点,为文件系统实现数据在多云间灵便流动。比方以下列举就是咱们常常会遇到的一种场景: 1、用户在边缘节点产生数据,通过规范对象接口和工具将数据上传到私有云对象存储。 2、用户在计算中心 A 部署文件存储。建设和对应对象数据集的关联,将对象疾速地映射到文件系统中。用户读取和计算对象映射后的文件数据。数据按需加载,即拜访到某对象的数据时,才去读取这个对象的相干数据区段。计算实现后,用户能够抉择勾销关联,上传新产生的数据。3、用户在计算中心 B 时,也能通过数据链通性能,去关联和应用边缘节点产生的数据集。同时也能够去买通和应用计算中心 A 产生和上传的数据。 接下来,通过一张比照表来看下对象文件网关与分布式文件存储这两种架构的区别和所实用业务场景。 ...

September 26, 2022 · 1 min · jiezi

关于云计算:定义云时代的操作系统2022-云原生产业发展白皮书正式发布

云原生技术自2015年正式诞生以来,以一种势不可挡的趋势迅速席卷寰球的科技产业,并同时在互联网、金融、制作、批发等各行业遍地开花,推动了企业在数字化时代,实现以利用为核心的业务改革。 在终端用户产业,互联网公司的热门利用在云原生的撑持下,每天服务着寰球数十亿用户,并随时响应着人们的各种需要。金融、制作、批发等传统行业企业通过对传统IT零碎和利用的云原生化革新,在满足各种高并发、大流量业务场景需要的同时,还进一步通过云原生革新外部的经营管理系统,向过来多年业务倒退过程中积淀的经营管理模式发动改革,带动企业翻新倒退。 在科技产业,云原生以云操作系统为外围,引领了新一轮的信息技术反动,传统IT世界中的各类技术都曾经或正在呈现一个云原生的复刻版,一个全新的IT技术体系曾经浮现。与此同时,大数据、人工智能、区块链、边缘计算,以及近来大家热议的元宇宙等无望扭转人类社会的新兴技术,也都离不开云原生作为技术底座撑持其倒退。 云原生来到中国市场,在以后非凡的时代背景下,还为中国的信创产业建设提供了一个全新的方向。长期以来,中国的信创产业建设面临着IT生态体系不欠缺、技术水平落后等诸多问题,而云原生作为一种全新的技术体系,给中国的信创产业建设带来弯道超车的机会。并且咱们看到,中国的科技公司把握着当先的云原生技术,并且有曾经过验证的“云原生+信创”解决方案在疾速落地。 云原生给科技产业,及其终端用户产业带来的微小颠覆效应也给云原生技术自身削减了很多神秘色彩。云原生技术的实质是什么?云原生目前的倒退现状是怎么的?为何云原生能给科技产业,及其终端用户产业带来微小的颠覆效应?云原生能给中国的信息技术产业倒退带来什么样的可能?置信这些问题困惑着很多企业的管理者、政府部门的决策者,以及泛滥云原生畛域的从业者。 在此背景下,9月21日爱剖析联结「DaoCloud道客」正式公布《2022云原生产业倒退白皮书》(以下简称白皮书),本次白皮书的指标即是系统地解答上述问题。 白皮书首先说明了云原生的定义、源起与利用的现状,而后深度探讨了整个云原生产业的倒退逻辑,重点对云原生产业全景进行了解析,接下来白皮书剖析了云原生给中国信创产业带来了哪些新的时机,并重点展现了国内当先企业的云原生实际案例,白皮书的最初对云原生将来的发展趋势进行了推演和瞻望。 此次白皮书撰写过程中进行了大量的企业高管访谈和调研,心愿通过分享业余的钻研内容以及相干行业的胜利案例,可能为各个企业实现企业长期倒退,推动数字化转型提供决策参考。 01 云原生的定义、源起与利用现状 1.1 云原生的定义 对于云原生,业内存在着多种定义,但这些定义大多追随云原生的疾速倒退在一直迭代,且不同组织对于云原生也有着本人的了解和定义,这平添了云原生这一名词的迷惑性。 回归到云原生的实质,咱们认为,云原生是一套以云操作系统为外围的全新的IT技术体系,其包含了容器、Kubernetes、微服务、服务网格、DevOps、可观测等关键技术,可能笼罩软件开发、交付、部署和运维的全生命周期。基于云原生技术的IT零碎具备松耦合、自动化、弹性调度、按需分配计算资源、易于察看、容错性好等特点,因而企业能够利用云原生技术在私有云、公有云、混合云,以及本地数据中心等多种异构的基础设施之上为大规模的应用程序构建对立的运行环境,并容许应用程序依据动静的业务需要进行频繁且高效的调整或扩大。 云原生的基本指标是灵便调度、按需分配网络、计算、存储等基础设施资源,帮忙企业在数字化时代,以利用为核心,有效应对经营治理中业务需要疾速变动、业务零碎越来越简单、对IT资源的需要更弹性等不确定性因素带来的问题。 1.2 云原生的产生及其驱动因素 云原生作为一种IT技术体系,其产生和倒退离不开背地IT基础架构的演进。因而,为了深刻了解云原生,咱们须要首先了解IT基础架构的演进趋势,及其驱动因素。 回顾IT技术的发展史,咱们发现,自1950年代左右计算机诞生以来,IT基础架构以及相应技术栈的演变始终围绕着解决一个外围命题:如何以更高效的形式调配利用底层的硬件资源和治理下层的各类利用? 而上述问题的本源在于过来数十年间,IT零碎中底层资源供应与下层利用需要始终都在一直地变动,以及随之而来的两者之间的供需矛盾。在底层资源方面,自1960年代晶体管和集成电路呈现以来,芯片的计算能力始终遵循着摩尔定律,以指数级的形式增长至今;在下层利用方面,软件从最早服务于军方、科研机构的多数需要,逐步向人们的生产和生存畛域浸透,到明天软件无处不在,咱们已身处一个软件定义的世界。当资源供应与利用需要总是以不均衡的速率扩大,而又不足可能按需将资源绝对准确地调配给利用的工具时,两者之间的供需矛盾也随之产生。 为了和谐底层资源供应与下层利用需要之间的供需矛盾,操作系统应运而生。并且随同着操作系统的产生,以及之后继续的优化和迭代,IT的基础架构也顺次历经了五代的倒退:地方计算机、物理机、虚拟机、容器,以及目前正在衰亡的云原生。在这个过程中,IT零碎中资源分配的颗粒度越来越小,应用程序的开发和扩大也变得越来越麻利。 图 1:IT基础架构的代际演进趋势 1.3云原生在产业中的利用现状 白皮书在本章节,论述云原生技术体系给产业带来的价值,以及云原生目前在产业中的利用现状。 技术素来都只是解决问题的伎俩,技术背地蕴含的思维理念才是其产生和倒退的基本。云原生之所以能在产业中迅速风行,是因为在数字化时代,企业业务的落脚点次要都是数字化的利用,随着产业竞争加剧,企业在经营治理中广泛会面临对IT资源的需要更弹性、业务需要疾速变动、业务零碎越来越简单等问题。而云原生可能帮忙企业以利用为核心,从基础设施,到IT架构,到利用开发经营流程进行全方位的革新,从而实现利用现代化,以更好地应答上述的多种不确定性因素所带来的问题。 具体而言,云原生可能给企业的现代化利用带来以下三点外围价值: 图 2:云原生给现代化利用带来的外围价值 白皮书中认为,云原生给企业应用带来的微小价值,使得中国企业在这场云原生静止中也与世界放弃了同步。在国内市场,数字原生的互联网公司根本都将利用运行在云原生的环境中,而在互联网公司的示范引领下,近年来金融、制作、能源、政务、批发等传统行业企业纷纷放慢拥抱云原生。 在行业渗透率方面。依据爱剖析调研和测算的数据,云原生近两年在国内企业的渗透率正出现快速增长的趋势,但在不同行业中存在肯定差别。具体而言,在大型及股份制商业银行中,云原生的普及率超过所有传统行业,2021 年起简直全副的大型国有及股份制商业银行都曾经开始在外部应用云原生技术;而云原生在包含宽广城商行、农商行、保险、券商在内的金融机构,以及政务机构中的渗透率显著高于其余行业,并预计将从 2021 年的 40% 左右进一步增长至 2025 年的 90% 以上;制作、能源、批发、基金等行业对云原生的采纳绝对落后,预计云原生在这些行业的渗透率将从 2021 年的 20% 左右增长至 2025 年的 80% 左右。 图 3:云原生在国内各行业企业的渗透率 02 云原生产业的倒退逻辑与产业全景 2.1 Kubernetes是云原生技术的基石 Kubernetes是一个用来自动化部署和治理大规模容器化应用程序的软件系统,其根本设计思维是将服务器集群作为一个资源池进行对立治理,并用申明式API的形式部署和运行应用程序。具体而言,开发者在构建一个应用程序或服务时,会通过YAML文本文件申明该服务冀望的运行状态,如:“服务A须要10个实例,在3个节点(服务器)上运行,能够拜访B数据库。“甚至还能够进一步申明该利用冀望的运维状态,如:“当服务A的CPU使用量大于30% 时,请主动扩大出5个实例。” Kubernetes在希腊语中的意思是“舵手”,正如舵手的职责是执行船长命令,让轮船放弃正确的航向那样,Kubernetes在IT零碎中的外围职责即是执行开发者冀望服务运行的状态,并一直将集群中在运行的服务的理论状态与冀望状态进行比拟,当理论状态与冀望状态不匹配时,Kubernetes会通过创立或销毁容器和相干组件来进行协调,向冀望状态调整。通过这样的设计,Kubernetes以容器为根本治理单位,为利用和资源的治理带来以下劣势: 图 4:Kubernetes在利用和资源管理中的劣势 2.2 Kubernetes是云时代的操作系统 Kubernetes的实质是操作系统技术 通常,一个典型的操作系统具备高低两层能力。对下,操作系统须要接管硬件设施,对底层的基础设施进行对立治理;对上,操作系统须要治理下层的利用,对利用进行生命周期的治理。 Kubernetes兼具了上述这两层能力,其本质是操作系统技术,已在业内达成共识。在对下的资源管理方面,传统的操作系统如windows、Linux治理的是硬件服务器或虚拟机,而Kubernetes治理的是分布式的,多云异构的基础设施;在对上的利用治理方面,传统的操作系统治理的是利用的过程,而Kubernetes治理的是形成利用的标准化的容器。 由此,在云原生架构中,传统操作系统的作用被极大弱化,Kubernetes则承当着操作系统次要的性能,成为事实上的云操作系统。面对多云异构的基础设施以及大规模的容器化利用,传统操作系统的要害能力如设施治理、过程治理、文件治理、包治理,顺次被Kubernetes的散布式调度、容器治理、容器长久化、编排治理能力所代替。而传统操作系统内核的性能被极大地弱化,仅会在单个服务器上施展肯定作用,如物理设施的治理和肯定水平的过程治理、网络管理等。 图 5:云原生与传统IT架构中操作系统性能比照 2.3云时代的操作系统将重塑IT生态体系 IT技术倒退的历史法则通知咱们,一个成为支流的操作系统,背地必然有一个以操作系统为外围而构建生态体系作为撑持,并且这个生态体系须要蕴含能相互兼容适配的软硬件、以及相干业余服务。 PC时代的Wintel体系,以及挪动终端时代的iOS/Android体系就是其中的典型代表。在PC时代,微软和Intel推动了软硬件性能的深度适配,并且以Windows为外围,构建了数百个基于Windows的软件开发管理工具,以及上千万研发人员参加的寰球开发者社区,从而促使上亿软件开发者基于Windows开发了数百万个应用软件。在挪动终端时代,苹果和Google也别离以iOS和Android零碎为外围,构建了蕴含操作系统、ARM芯片、开发管理工具、利用商店以及各类利用的残缺生态体系。 而云原生产业倒退至今,围绕云操作系统Kubernetes成长出的全新的IT生态体系曾经初步成形。参照汇聚了全世界绝大部分云原生我的项目的CNCF云原生产业全景图,咱们发现,传统IT体系中围绕操作系统构建的数据库、中间件、运维治理、平安治理、应用软件,以及ISV和业余服务,都曾经或正在呈现云原生的复刻版。仅有的两点差异在于:1)Kubernetes将利用与基础设施进行理解耦,因而软硬件不再须要间接兼容,而是由全新设计的管理软件来定义基础设施;2)云原生体系下,利用开发与运维造成了一个不可分割的闭环,因而须要标准化和自动化的利用开发、测试和部署工具撑持。 2.4云原生产业全景解析 云原生的产业生态体系十分庞杂,最新的CNCF全景图蕴含了近30个细分类别,上千个云原生我的项目,并且还在一直疾速减少中,同时因为CNCF是从工程技术的角度对其进行的归类,导致CNCF的全景图难以体现出云原生产业的倒退逻辑以及生态体系内工具各自性能之间的关系,减少了其了解难度。 针对上述问题,白皮书依照残缺的IT生态体系的构造,即依照操作系统、基础设施、中间件、运维治理、平安治理、数据库,以及与云原生独有的利用定义与开发的分类形式,对CNCF的云原生全景图中的工具/组件进行了从新分类整理,并对次要的细分工具/组件所解决的问题进行具体解释。 图 6:依据IT生态体系结构从新梳理的云原生工具/组件分类 03 云原生给中国信创产业带来的时机3.1 中国信创产业建设的背景和倒退现状 长期以来,我国在信息技术畛域高度依赖微软、苹果、Google、Intel、Oracle、IBM等国外科技公司提供的操作系统、芯片、服务器、数据库、办公软件等软硬件产品和技术。然而,近年来,以微软黑屏事件、美国国安局棱镜门事件为代表寰球信息安全事件频发,以及中美反抗降级导致美国陆续将以华为、中兴为代表的上百家中国科技公司列入“实体清单”,采取技术进口管控等措施。这些事件让我国IT产业链因为在关键环节短少自主可控的核心技术可能会引发的信息安全和IT产业倒退的系统性危险暴露无遗,信创建设的必要性和紧迫性也由此产生。 在此背景下,中国近年来陆续出台了一系列政策,并逐步造成了围绕IT全产业链和全行业市场构建自主的IT产业生态的信创建设思路。 图 7:信创政策推动的IT全产业链和全行业IT系统升级 3.2 中国信创产业建设面临的挑战 只管信创产业建设有着美妙的出发点和愿景,并且近年来也获得了肯定的功效,但其整体的倒退却并不尽如人意。在实践中,存在着诸多制约信创产业建设推动的挑战。对此,咱们将其中最外围的问题,及其产生的起因梳理如下:图 8:信创产业建设面临的挑战  3.3 云原生+信创解决方案的劣势 以国内当先的云原生厂商「DaoCloud道客」提供的信创云操作系统为例,其将已有的云原生凋谢技术生态与信创体系相结合,构建了一个高性能的散布式调度零碎,可能对下反对异构基础设施对立纳管,为信创和非信创负载提供对立撑持;对上通过容器规范封装和调度,提供面向分布式应用的全生命周期治理,蕴含利用的编排调度、弹性扩大、继续交付、可观测性等。由此,信创云操作系统通过利用云原生技术,突破了原有的IT生态体系,在信创架构下重塑了一个残缺的IT零碎解决方案。 图 9:基于云原生技术的信创云操作系统  3.4 信创云操作系统的利用现状和倒退空间 白皮书中指出,宽泛的利用需要使得信创云操作系统成为一个规模微小,并具备很高的发展潜力的市场。依据工信部下属ICT钻研与咨询机构计世资讯统计的信创云平台市场规模的数据,联合爱剖析调研和测算,中国信创云操作系统市场规模在 2021 年约为 75 亿元,预计将来五年,信创云操作系统的市场规模将以 33.5% 的复合增长率放弃增长,到 2026 年将达到 314 亿元。 图 10:中国信创云操作系统市场规模及增速 ...

September 26, 2022 · 1 min · jiezi

关于云计算:在-KubeSphere-中部署高可用-Redis-集群

作者:余生大大,大数据开发工程师,云原生爱好者,KubeSphere 社区用户。前言Redis 是在开发过程中常常用到的缓存中间件,在生产环境中为了思考稳定性和高可用个别为集群模式的部署。 惯例部署在虚拟机上的形式配置繁琐并且须要手动重启节点,而应用 K8s 进行 Redis 集群的部署有以下长处: 装置便捷:应用镜像或者 yaml 配置文件即可一件装置主动调度:容器挂掉后会主动调度重启和资源分配缩扩容不便:在 扩容、缩容 方面的长处无需多说,一键伸缩稳固高效:K8s 在整个集群上进行调度,只有整个集群不挂掉总会调度到适合节点重启容器服务装置 Redis 集群我这里新建了一个 test-project 的我的项目空间来做 Redis 集群所有装置资源的搁置,后续在 DNS 上会用到我的项目空间名称,会标注这一部分,须要留神用本人的我的项目空间名。 装置集群大略分为以下几步: 配置 redis.conf 字典;创立 redis 服务;容器组配置;存储设置;高级设置。当初从第一步开始。 1.1 配置 redis.conf 字典在我的项目空间的 配置 → 配置字典 → 创立 进行配置字典的创立。 名称就叫 redis-conf 而后下一步 增加键值对数据。 key 值的内容为 redis.conf,value 值为: cluster-enabled yescluster-config-file nodes.confcluster-node-timeout 5000cluster-require-full-coverage nocluster-migration-barrier 1appendonly yes创立 Redis 服务在我的项目空间的 利用负载 → 服务 → 创立 进行 Redis 服务的创立。 抉择有状态服务,须要数据存储的服务根本都是有状态的服务。 根本设置里名称就叫 redis-cluster 而后进行重头戏,下一步的容器组配置。 ...

September 26, 2022 · 2 min · jiezi

关于云计算:利用-Kubernetes-内置-PodTemplate-管理-Jenkins-构建节点

作者:RickJenkins 能够很好地与 Kubernetes 集成,不论是控制器(controller)还是构建节点(agent),都能以 Pod 的模式运行在 Kubernetes 上。 相熟 Jenkins 的用户,都晓得 Jenkins 反对多种类型的构建节点,例如:固定配置、动静配置。而节点与控制器连贯的形式, 又包含:JNLP、SSH 等。对于曾经在全面拥抱容器技术的用户,大多数是通过连贯 Kubernetes 集群并动静启动、销毁 Pod 的形式来应用构建节点。 而随着构建节点的品种、数量增多后,如何更无效地保护这些基于 Kubernetes 的节点,则逐步成为一个问题。而在这篇文章中, 我将会介绍一种基于配置即代码的计划来治理、保护构建节点。 配置即代码(Configuration as Code,简称为:CasC),是一个十分赞的思路,它使得 Jenkins 用户不须要再一次次地关上 UI 界面去批改系统配置。 通过 UI 批改配置的长处是:借助页面上配置项的形容信息,能够绝对容易地了解其含意。但绝对应的毛病也是非常明显的:难以复用, 即使是完全相同的配置,也须要手动地在其余环境上再次操作;无奈追踪批改过程;产生谬误时无奈疾速回滚。借助 CasC 的能力, 咱们能够把 Jenkins 的系统配置保留到一个 Git 代码仓库中,以及 GitOps 工具(例如:Argo CD),最终使得批改 Jenkins 系统配置, 成为一件可控、便捷的工作。 不过,当 Jenkins 的变得配置简单当前,对应的 YAML 配置文件也可能会变得越来越大,难以保护。 回归到咱们心愿解决的外围问题上来,预期的计划是:只须要独自保护 PodTemplate 即可实现对 Jenkins 构建节点的保护。为了解决该问题, 咱们须要搞定 Jenkins 配置中的 PodTemplate 与 Kubernetes 中内置 PodTemplate 不统一的问题;以及如何动静加载 Jenkins 配置的问题。 为了解决上述的几个问题点,只须要部署一个 Deployment 即可。这个组件负责监听 Kubernetes 内置的 PodTemplate, 把其加载到 Jenkins 的系统配置(CasC YAML 文件)中,再调用 Jenkins API 从新加载配置。为了充沛地利用到 Kubernetes 的劣势, 咱们把 CasC 配置存储为 ConfigMap,并以卷(Volume)的模式挂载到 Jenkins 中。 ...

September 20, 2022 · 2 min · jiezi

关于云计算:基于-CoreDNS-和-K8s-构建云原生场景下的企业级-DNS

容器作为近些年最炽热的后端技术,放慢了很多企业的数字化转型过程。目前的企业,不是在应用云原生技术,就是在转向云原生技术的过程中。在容器化过程中,如何放弃业务的安稳迁徙,如何将现有的一些服务设施一并进行容器化迁徙,也是泛滥企业较为关注的点。 以 DNS 为例,如何构建一个云原生的企业 DNS 零碎? CoreDNS 简介CoreDNS 是一个 Go 语言编写的灵便可扩大的 DNS 服务器,在 Kubernetes 中,作为一个服务发现的配置核心,在 Kubernetes 中创立的 Service 和 Pod 都会在其中主动生成相应的 DNS 记录。Kubernetes 服务发现的个性,使 CoreDNS 很适宜作为企业云原生环境的 DNS 服务器,保障企业容器化和非容器化业务服务的稳固运行。 构建企业 DNS 服务器时,个别会有以下需要: 用户外网域名拜访服务;混合云业务迁徙、数据共享、容灾;开发代码 IP 写死导致架构可用性、弹性无奈实现;对立 DNS 治理需要,含上下级平台对接;DNS 劫持等网络安全危险;存量代码固定域名拜访;集群外域名拜访;相比于 Bind 开源计划或 Windows Server DNS 商业 DNS 服务器,CoreDNS 有以下劣势: 无商业许可要求,升高投资老本;轻量化,通过插件实现性能增加;反对 DNS,DNS over TLS,DNS over HTTP/2,DNS over gRPC 协定;提供 kubernetes 服务发现;反对对接 Route53/Google Cloud DNS/AzureDNS;反对集成 Prometheus, OpenTracing,OPA,带来更全面的运维体验;反对整合容器治理平台,提供对立 DNS 零碎运维。构建企业云原生 DNS 前,对 CoreDNS 做一个更深刻的理解。 CoreDNS 运行原理与插件介绍CoreDNS 基于 Caddy 框架实现模块化设计,每个插件承载相应的具体性能,对于 DNS 零碎而言,CoreDNS 应用 File,ETCD 插件等加载 DNS 记录,应用 Kubernetes 插件实现集群服务发现,内部 DNS 申请达到 CoreDNS 后,依据插件调用链顺次解决 DNS 申请。 ...

September 20, 2022 · 2 min · jiezi

关于云计算:云原生爱好者周刊使用-eBPF-实现-PostgreSQL-的可观测性

开源我的项目举荐CorootCoroot 是针对微服务架构的可观测性和故障剖析工具,它基于 eBPF 来可视化展现服务之间的映射关系,并对 PostgreSQL 的可观测性进行了强化,能够帮忙你疾速定位 PostgreSQL 的故障。 cachegrandcachegrand 是开源的现代化 Key-Value 数据库,与 Redis 等 Key-Value 数据库相比,它能够充分利用古代硬件的劣势,提供更弱小的性能和更多的灵活性。 MarkdocStripe 开源的文档零碎,提供了一个功能强大、灵便、基于 Markdown 的创作框架。 GatusGatus 是面向开发者的服务衰弱监控面板,能够应用 HTTP、ICMP、TCP 以及 DNS 查问来监控服务,反对应用状态码、响应工夫、证书过期工夫等条件来评估监控后果,并通过 Slack、PagerDuty、Discord、Twilio 等形式来发送告警。 文章举荐优化 Linkerd 的 Prometheus 指标Linkerd 应用 Prometheus 来监控指标,随着工作负载的减少,Grafana 的监控面板越来越卡,本文提供的解决方案对监控指标进行了拆分,短期存储的指标保留到 Victoria Metrics 中,长期存储的指标保留到 GCE 提供的 Monarch 中以此来进步 Linkerd 可观测性的稳定性和性能。 NebulaGraph 的云产品交付实际NebulaGraph 通过几年的倒退,目前曾经造成由云服务、可视化工具、图计算、大数据生态反对、工程相干的 Chaos 以及性能压测等产品形成的生态,本文围绕云服务开展,分享落地过程中的实践经验。 云原生动静Cloud Custodian 降级成为 CNCF 孵化我的项目CNCF 技术监督委员会(TOC)曾经投票承受 Cloud Custodian 作为 CNCF 孵化我的项目。 Cloud Custodian 是一种治理作为代码的工具,容许组织应用代码来治理和主动执行云平安、合规性、经营和老本优化的策略,而不会妨碍开发人员的速度。许多组织在生产中应用 Cloud Custodian,包含 Capital One、Code 42、Grupo、HBO Max、Intuit Inc、JP Morgan Chase & Co、Siemens、Premise Data 和 Zapier。 ...

September 20, 2022 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-功能亮点抢鲜看-20220916

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上 / 线下流动和布道推广等一系列社区动静。 贡献者名单 新晋贡献者证书 新晋讲师证书此两周内进行了两场线上直播,解密云原生数仓 Databend(直播回放 + PPT),直播预报 | 容器业务连续性保障的摸索与实际,两位讲师吴炳锡和曾常习别离奉献了精彩的分享。 近期重要更新KubeSphere以下更新将在 KubeSphere v3.3.1 中可用,预计 9 月下旬公布。 1. 修复利用仓库利用分页查问的 bug相干 PR:https://github.com/kubesphere... 贡献者:yongxingMa 2. 在审计日志中记录用户的启用和禁用操作相干 PR:https://github.com/kubesphere... 贡献者:wanjunlei 3. 修复集群受权过程中潜在的越权问题相干 PR:https://github.com/kubesphere..., https://github.com/kubesphere... 贡献者:zhou1203 KubeKey以下更新已在 KubeKey v2.3.0-rc.2 中可用,欢送下载试用。 1. 修复证书自动更新脚本的问题相干 PR:https://github.com/kubesphere... 贡献者:tanguofu 2. CAPKK 反对应用 ISO 本地镜像源装置软件依赖相干 PR:https://github.com/kubesphere... 贡献者:24sama 3. 创立集群反对平安加固相干 PR:https://github.com/kubesphere... 贡献者:zhouqiu0103 4. 反对配置 k3s registry相干 PR:https://github.com/kubesphere... ...

September 20, 2022 · 1 min · jiezi

关于云计算:玩转腾讯云手把手教你用RunInstances接口创建CVM时给公网IP和弹性网卡打标签

导语 | 本文推选自腾讯云开发者社区-【技思广益 · 腾讯技术人原创集】专栏。该专栏是腾讯云开发者社区为腾讯技术人与宽泛开发者打造的分享交换窗口。栏目邀约腾讯技术人分享原创的技术积淀,与宽泛开发者互启迪共成长。本文作者是腾讯技术人杨硕。\本文次要手动合成步骤对多个类型的资源打标签,心愿本文能对此方面感兴趣的开发者们提供一些教训和帮忙。需要:创立cvm的同时,cvm及其对应的云盘、公网IP(非eip)、弹性网卡都绑定雷同tag。 实现步骤: 调用RunInstances接口创立cvm时在TagSpecification局部给cvm和云盘打标签 https://console.cloud.tencent... 我本人的账号创立比拟早,在我的账号测试RunInstances接口是无奈间接给公网IP和弹性网卡打标签的。 https://cloud.tencent.com/doc... http://cloud.tencent.com/docu... 官网文档提到弹性网卡的前缀是eni,公网IP的前缀是eip,cvm的前缀是instance,RunInstances接口里绑定标签的文档明确指明cvm填instance,但没说其余的,我试了按弹性网卡的前缀eni和公网IP的前缀eip,填上会报错。 上面几张图是我用RunInstances测试过程中开了DryRun为true: 调用DescribeAddresses接口在Filters模块指定instance-id和address-type查到公网IP的ID和弹性网卡的ID http://console.cloud.tencent.... DescribeAddresses接口指定公网IP类型和cvm instanceid查到相干ID后,调用TagResources接口给公网IP和弹性网卡绑定标签 http://console.cloud.tencent.... http://cloud.tencent.com/docu... 如果你是腾讯技术内容创作者,腾讯云开发者社区诚邀您退出【腾讯云原创分享打算】,支付礼品,助力职级降职。

September 19, 2022 · 1 min · jiezi

关于云计算:NebulaGraph-的云产品交付实践

作者:乔雷,Vesoft.Inc 云原生技术专家NebulaGraph 介绍NebulaGraph 是由杭州悦数科技有限公司自主研发的一款开源分布式图数据库产品,善于解决千亿节点万亿条边的超大数据集,同时放弃毫秒级查问延时。得益于其 shared-nothing 以及存储与计算拆散的架构设计,NebulaGraph 具备在线程度扩缩容能力;原生分布式架构,应用 Raft 协定保证数据一致性,确保集群高可用;同时兼容 openCypher,可能无缝对接 Neo4j 用户,升高学习及迁徙老本。 NebulaGraph 通过几年的倒退,目前曾经造成由云服务、可视化工具、图计算、大数据生态反对、工程相干的 Chaos 以及性能压测等产品形成的生态,接下来会围绕云服务开展,分享落地过程中的实践经验。 交付模式NebulaGraph 在云上的交付模式分为自管模式、半托管模式与全托管模式三种。 自管模式自管模式基于各家云厂商的的资源堆栈编排产品交付,例如 AWS Cloudformation、Azure ResourceManager、Aliyun Resource Orchestration Service、GCP DeploymentManager 等等。自管模式的特点是所有资源部署在客户的租户内,用户本人运维治理,软件服务商负责将产品上架到 Marketplace,依照最佳实际给客户提供服务配置组装和一键部署的能力,相比于传统模式下以天计的交付周期,当初几分钟内就能够在云上部署一个图数据库。 半托管模式半托管模式是在自管模式的根底上为客户提供了代运维的能力,阿里云计算巢通过将利用公布为服务的形式,为服务商提供了一个智能简捷的服务公布和治理平台,笼罩了服务的整个生命周期,包含服务的交付、部署、运维等。当客户的集群呈现问题时,服务商运维人员的所有操作均被记录,资源操作通过 ActionTrail 记录日志,实例操作保留录屏,还原运维过程,做到运维平安合规可追溯,防止服务纠纷。 NebulaGraph 采纳存储与计算拆散的架构。存储计算拆散有诸多劣势,最间接的劣势就是,计算层和存储层能够依据各自的状况弹性扩容、缩容。存储计算拆散还带来了另一个劣势:使程度扩大成为可能,通过计算巢提供的弹性伸缩能力,保障本身扩缩容须要。 全托管模式全托管模式交付由服务商托管的图数据库产品,客户按需订阅付费,只需抉择产品规格与节点,NebulaGraph 全栈产品便可在几分钟内交付。客户无需关注底层资源的监控运维,数据库集群的稳定性保障工作,这些都将由服务商解决。 NebulaGraph DBaaS 依靠于 Kubernetes 构建,Kubernetes 的架构设计带来以下劣势:通过申明式 API 将整体运维复杂性下沉,交给 IaaS 层实现和继续优化;形象出 Loadbalance Service、Ingress、NodePool、PVC 等对象,帮忙应用层能够更好通过业务语义应用基础设施,无需关注底层实现差别;通过 CRD(Custom Resource Definition)/ Operator 等办法提供畛域相干的扩大实现,最大化 Kubernetes 的利用价值。 落地实际落地实际次要讲述全托管模式产品的架构演进,云原生技术与业务平台的交融。 IaC下图是 Azure 业务侧基础设施的架构,初始配置时对接到治理平台须要耗时几个小时,这在有大量用户申请订阅实例的状况下是齐全不能承受的。 因而,咱们想到了将基础设施模板化,先定义出 dev、test、prod 三种运行环境,再将资源划分为 VPC & Peering、Private DNS Zone、Kubernetes、Database、Container Registry、Bastion 等几个类别,应用 terraform 实现自动化配置。然而,仅实现这一步是远远不够的,为了满足客户侧 Kubernetes 集群及时弹性要求,咱们定义了 Cluster CRD,将 Cluster 的所有操作放入 Operator 里执行,terraform 的可执行文件与模板代码打包到容器镜像后由 Job 驱动运行,Operator 向 Job 注入云厂商、地区、子网等环境变量,业务集群的状态保留到 Cluster Status 里。到此,配置基础设施实现了手动向自动化的演进。 ...

September 19, 2022 · 2 min · jiezi

关于云计算:零信任安全SPIFFE-和-SPIRE-通用身份验证的标准和实现

最近正在读 《Solving the Bottom Turtle》 这本书,这篇是对局部内容的总结和思考,因为内容较多,会分几篇来发。 这本书的副标题是: a SPIFFE Way to Establish Trust in Your Infrastructure via Universal Identity.通过通用身份以 SPIFFE 的形式在基础设施中建设信赖。大家记住其中的有几个关键词:通用身份、SPIFFE 的形式、基础设施、建设信赖。 背景零信赖是一种异样炽热的平安模型,在之前翻译的文章中 《零信赖对 Kubernetes 意味着什么》,对什么是零信赖、为什么要施行零信赖,做了初步的介绍。 过来几十年风行的边界平安模型,曾经不在适宜现在分布式的微服务架构、简单多样的零碎环境以及不可避免的人为失误。从零信赖的准则来看,通过平安边界防护的人、零碎和网络流量是不可信的,因为“你可能不是你”,身份不可信。 可能有人会问不是有用户名明码、证书么?这些都可能存在泄露,尤其是工夫越长泄露的概率越高(在平安畛域,只有 0 和 100,所有做不到 100% 的平安,都将其视作 0。这也是笔者对零信赖的肤浅了解)。 零信赖模型的外围是重塑身份的调配和验证形式,身份是构建零信赖模型的基石。 身份事实世界的身份在说零碎身份之前,先说下事实中的身份。大家都有身份证(Identity Card),生存中用到身份证的场景也越来越多,很多的服务都会查验身份证。为什么身份证就能验证持有人的身份,首先身份证是由政府机构颁发的,在颁发前会查验过申请的人信息(证实你就是你),这个充沛可信的;身份证自身做了防伪解决,有特定的查验伎俩很难被伪造。这里有几个定义: 主体:人身份:惟一 ID。实际上身份证号这个惟一 ID 就是集体的身份,而姓名只是代称。身份证明文件:身份证,身份证号、姓名、性别、照片、有效期等等(申请时还会录入生物辨认信息)。颁发机构:政府机构。再者身份证仅限在国内应用,只有在国内被信赖,这个区域就是另一个定义“信赖域”。 出国就要应用另一种证件护照,护照是依照国际标准制作和颁发的,能够被其余国家承受,也就是能够信赖域间互信。这些互信的信赖域,就组成了信赖联盟。 这里一共提到了如下的定义: 主体身份身份证明文件颁发机构信赖域信赖联盟数字世界的身份数字世界的身份也有与事实世界相似的定义。 数字身份证明是数字世界的主体的身份证明文件,常见的有:X.509 证书、签名的 JWT 和 Kerberos 令牌等。数字身份证明能够应用明码技术进行验证。计算零碎能够应用数字身份证明通过验证,就像人应用身份证和护照一样。 为实现这些有一个十分风行的技术 Public Key Infrastructure (PKI) ,其定义了一系列的为创立、治理、散发、应用、存储、撤销数字证书和治理公钥加密所须要的角色、策略、硬件、软件和流程。 接下来简略介绍下 X.509,有教训的同学能够间接跳过。 X.509 概述1988 年 X.509 作为 PKI 的规范首次公布,X.509 假如有一套严格的层次化的证书颁发机构(CA,Certificate Authority)。申请者要提供证书签名申请(CSR,Certificate Signing Request。申请者通过本人的私钥签名创立的,外面蕴含了申请者的身份信息,进行用于验真的公钥、申请证书的名称、以及 CA 可能要求的其余身份信息等)。而后 CA 对该 CSR 进行签名转换成合格的证书发回申请方。 ...

September 16, 2022 · 3 min · jiezi

关于云计算:新品发布-Cloudpods-392-版本上线

Cloudpods是一个开源的Golang实现的云原生的多云和混合云交融平台。Cloudpods不仅能够治理本地的虚拟机和物理机资源,还能够治理其余私有云和公有云平台的资源。 Cloudpods由北京云联壹云技术有限公司主导开发,并于2019年9月于Github开源。Cloudpods采纳外围开源模式,其商业版本云联壹云企业版(YunionCloud)自2017年开始研发,曾经服务了上百家企业客户。 9月14日,Cloudpods 新版本 v3.9.2 正式公布。本次更新次要反对纳管高版本k8s及其他一些修复优化,以下为版本更新详情: 1、新性能 【主机】中标麒麟镜像反对【认证】反对通过手机号验证码登录(需配置短信告诉渠道)【容器】高版本k8s纳管反对【部署】反对通过Kubernetes Helm 装置云管平台【控制面板】使用率减少水波球款式2、性能优化 【监控】监控优化,反对SQL Server数据库监控【主机】迁徙过程优化【认证】MFA认证减少安卓离线包下载及Chrome插件疏导【主机】减少近程连贯信息查看【零碎】更多的资源列表字段反对排序3、问题修复 【监控】告警状态无奈更新问题修复【认证】集体核心展现多云免密登录异样问题修复【主机】KVM应用ceph磁盘报认证谬误【网络】VPCAgent同步平安组谬误【认证】SMTP邮件发送失败【调度】同时应用反亲和组和调度标签时后果不合乎预期【容器】集群创立虚拟机呈现磁盘调配失败的问题 GitHub:https://github.com/yunionio/c... 浏览原文

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊延迟加载任意-OCI-镜像-20220913

开源我的项目举荐SOCI SnapshotterSOCI Snapshotter 是一个 Containerd Snapshotter 插件,能够提早加载任意 OCI 镜像,不须要 Stargz Snapshotter 一样构建非凡格局的镜像能力提早加载。 Authentication Proxy这个我的项目应用 YARP (Yet Another Reverse Proxy) 来卸载网关代理的认证,上游的应用程序不须要增加任何与认证相干的代码。你能够应用它作为 API 网关,也能够作为 Pod 的 Sidecar 代理。 ParalusParalus 是开源的零信赖解决方案,能够自定义角色、身份提供商,以及创立不同权限的自定义规定等性能,反对 Kubernetes 多集群环境,能够管制所有集群的拜访权限。 Depot这个工具能够在云端近程构建 Docker 镜像,比 docker build 的构建速度更快,反对 Apple M1。 SieveSieve 能够通过注入故障以及检测休眠故障来帮忙开发者对 Kubernetes 的控制器主动进行可靠性测试,并且能够百分之百复现,开发者不须要对控制器做任何批改。 DockleDockle 是用于平安的容器镜像 Linter,能够帮忙咱们构建最佳实际的平安 Docker 镜像,易于上手。 文章举荐一文读懂 Prometheus 长期存储支流计划Prometheus 作为云原生时代崛起的标志性我的项目,曾经成为可观测畛域的事实标准。Prometheus 是单实例不可扩大的,那么如果用户须要采集更多的数据并且保留更长时间该抉择怎么的长期存储计划呢? 应用青云负载均衡器拜访云上 K8s 集群外部服务在 Kubernetes 集群中,网络是十分重要的基础设施。对于大规模的节点和容器来说,要保障网络的连通性、网络转发的高效,同时能做 IP 和 Port 自动化调配和治理,并提供给用户十分直观和简略的形式来拜访须要的利用,这是非常复杂且粗疏的设计。应用青云 LB 联合 Ingress 能够轻松实现拜访 K8s 集群外部服务。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊在-Linux-系统中运行-FreeBSD-子系统-20220905

开源我的项目举荐LSF这个我的项目能够在 Linux 零碎中运行 FreeBSD 子系统,实践上也反对其余类 Unix 零碎,能够跑在 Docker 容器中。 例如: (linux)$ docker build -t lsf .(linux)$ docker run -it --rm --security-opt seccomp=unconfined lsf# file /bin/sh/bin/sh: ELF 64-bit LSB pie executable, x86-64, version 1 (FreeBSD), dynamically linked, interpreter /libexec/ld-elf.so.1, for FreeBSD 13.1, FreeBSD-style, stripped# uname -aFreeBSD 177f2177ddab 13.1-RELEASE-p1 FreeBSD 13.1-RELEASE-p1 LSF amd64Phantun一款功能强大的 UDP 隧道工具,齐全应用 Rust 编写,通过 tun 网卡将 UDP 数据包混同成 TCP 数据包,进而绕过 UDP 屏蔽或 QoS。上面是它与 udp2raw 的性能测试比照: k8s-pod-restart-info-collector这是一款 Kubernetes 控制器,用来观测 Pod 的状态变动,并在 Pod 重启时收集 Pod 的重启起因、日志和事件,将其发送到 Slack 频道中。 ...

September 15, 2022 · 2 min · jiezi

关于云计算:云原生爱好者周刊使用-klock-给你的-K8s-资源上一把锁-20220829

开源我的项目举荐klockklock 是一个资源锁,通过 CRD 来锁定 Kubernetes 中的资源,以避免被误删除或者误更新。例如: apiVersion: klock.rnemet.dev/v1kind: Lockmetadata: name: lock-sample namespace: testspec: operations: - UPDATE - DELETE matcher: test: test这样你就无奈对打了标签 test: test 的资源执行更新或者删除操作。 ThreatMapperThreatMapper 是开源的云原生平安可观测性平台,它会在 Kubernetes 集群中寻找潜在威逼,并依据被利用的危险高下对其进行排序,也能够通过 ThreatGraph 可视化展现。 LBConfig Operator这是一个 Kubernetes Operator,应用 CR 来治理 Kubernetes 内部 Load Balancer 的配置和 IP 地址池。 BindPlane OPBindPlane OP 是开源的可观测性流水线,用来收集、优化并传送指标、日志和分布式追踪数据到任意接管方,从而缩小可观测性的部署和治理老本。 文章举荐应用 eBPF 从零实现 Kubernetes 的可观测性eBPF 曾经成为保护古代基础设施的关键技术,本文将会从零开发 eBPF 探针,并将其部署到 Kubernetes 集群中,用来收集 TCP 传输数据,并通过监控面板来展现服务吞吐量和依赖关系。 KubeSphere 网关的设计与实现本文具体解读了 KubeSphere 网关的设计与实现形式。 在 KubeSphere 中开启高度自动化的微服务可观测性Kubernetes 为开发者们带来了微小的微服务部署便当,但同时也将可观测性建设的重要性晋升到了前所未有的水平:大量微服务之间盘根错节的调用关系难以梳理,利用性能瓶颈链路难以排查,利用异样难以定位。而借助 Deepflow,就能够为微服务利用轻松开启高度自动化的全栈、全链路可观测性。本文介绍了如何在 KubeSphere 中轻松部署 DeepFlow,一键开启全栈全链路的可观测性。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊macOS-秒级启动虚拟机-20220822

开源我的项目举荐VirtVirt 是一个应用 macOS 原生虚拟化框架 Virtualization.framework 实现的轻量级虚拟机,虚拟机的操作系统是 Alpine 3.16,启动速度很快,简直是秒级启动。并且内置了 Podman 和 K3d 的装置脚本,可一键装置。 TelepresenceTelepresence 可能将本地的开发程序插入到 K8s 集群外部,使得程序的环境看起来像在 Pod 外部;并且在本地开发过程中,能够应用 K8s 外部所有的网络服务以及 DNS 名称。 K8s-gatekeeperK8s-gatekeeper 是一个应用 Casbin 实现的 Kubenretes Admission Webhook,用于管制 K8s 集群的拜访权限。 文章举荐利用 Kubernetes 内置 PodTemplate 治理 Jenkins 构建节点Jenkins 能够很好地与 Kubernetes 集成,不论是控制器(controller)还是构建节点(agent),都能以 Pod 的模式运行在 Kubernetes 上。Jenkins 反对多种类型的构建节点,例如:固定配置、动静配置。而节点与控制器连贯的形式,又包含:JNLP、SSH 等。对于曾经在全面拥抱容器技术的用户,大多数是通过连贯 Kubernetes 集群并动静启动、销毁 Pod 的形式来应用构建节点。而随着构建节点的品种、数量增多后,如何更无效地保护这些基于 Kubernetes 的节点,则逐步成为一个问题。本文介绍了一种基于配置即代码的计划来治理、保护 Jenkins 的构建节点。 应用 Docker Buildx 和 QEMU 构建多平台镜像本文介绍了如何应用 Docker 的 buildx 工具为 linux/amd64 和 linux/arm64 构建基于 debian 的镜像,并应用 QEMU 来模仿 ARM 环境,最终能够实现为多平台构建镜像。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊给你的-Kubernetes-集群打分-2022815

开源我的项目举荐PopeyePopeye 是一个简略的 CLI 工具,能够帮忙你剖析你集群的潜在问题,并且会进行评分。 k8spacketk8spacket 借助于 Grafana 的 Node Graph API 插件来可视化 Kubernetes 集群中的 TCP 数据包流向。 TracetestTracetest 是一个基于追踪的测试工具,它利用你现有的 Open Telemetry 分布式追踪所捕捉的数据,来生成超级弱小的集成测试。 FilibusterFilibuster 是一个服务级别的故障注入测试工具,用于在代码交付到生产环境之前辨认微服务利用的弹性问题。 WirelogdWirelogd 是一个 WireGuard 的日志收集工具,WireGuard 默认不打印 Peer 状态相干的日志,能够利用这个工具来进行收集。 $ journalctl -t wirelogd -fjuin 12 15:19:12 hostname wirelogd[15233]: {"level":"info","time":"2022-06-12T11:29:25+02:00","message":"start wirelogd"}juin 12 15:19:37 hostname wirelogd[15233]: {"level":"info","peer":{"interface":"wg0","public_key":"xr4lhgUWOQHTWf5rYTr2Ia0710xsCNaKAl8PtNTp3TQ=","endpoint":"203.0.113.162:57891","allowed_ips":"192.0.2.119"},"state":"active","time":"2022-06-12T11:28:01+02:00"}文章举荐GitOps 继续部署工具 Argo CD 入门教程本文介绍了 Argo CD 的劣势、架构和工作原理,并通过一个简略的示例对其性能进行演示,比方批改 Git 仓库内容后,能够主动触发更新。还能够通过 Event Source 和 Trigger 实现更多自动化部署的需要。 新东方外围业务全面容器化实际随着公司业务全面迁入 Kubernetes,在租户治理、对接镜像仓库、存储管理、服务扩缩容配置,监控日志等可观测、易运维、高可用方面带来了很大挑战。而从 0 到 1 自研一套性能全面的 Kubernetes 治理平台开发周期又太长了。目前开源的 KubeSphere 应用多租户形式治理和应用资源,集成了 CI/CD 等丰盛的云原生技术生态,轻松构建企业级 DevOps 架构,十分合乎公司的需要。为了将开发运维性能一站式治理,咱们抉择了 KubeSphere。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊使用树莓派组建-K8s-集群-20220808

开源我的项目举荐Raspberry Pi Kubernetes Cluster这是一个教育我的项目,旨在摸索如何在家中应用树莓派构建 Kubernetes 集群,并应用 Ansible 来自动化部署和配置。提供了十分具体的文档,从架构设计到装置步骤一应俱全。 kubesesskubesess 是应用 Rust 编写的基于 Session 的 Kubernetes context 和 nemsapce 管理工具,在一个终端窗口中切换 context 或者 namespace 并不会影响到另一个终端窗口。 OdigosOdigos 是一个可观测性管制立体,提供了一个可视化界面,只需点点鼠标就能够将 metrics、traces 和 logs 发送到其余可观测性服务。 文章举荐基于 JuiceFS 的 KubeSphere DevOps 我的项目数据迁徙计划KubeSphere 自公布以来已有 2 年之久,从 2.1.0 版本至目前最新版本 3.3。开发人员的编译构建都基于环境平台的 DevOps 性能(底层是 jenkins)实现,如果 DevOps 我的项目较多产生的流水线记录数据也会比拟多,记录的数据存储形式默认是基于 Openebs 去做的,存储介质依赖于 ECS 宿主机 local 本地磁盘的危险是比拟大的思考到宿主机硬盘的不可靠性,随时会产生宕机导致流水线记录数据失落造成重大影响。本教程通过本地研发平台测试通过了应用开源我的项目 juiceFS-CSI 且后端依靠 OSS 作为后端存储实现数据迁徙的测验。 给以后大环境中技术能力欠缺的工程师一些倡议从 2021 年下半年开始,咱们始终处于有史以来竞争最强烈的互联网待业市场中,对于技术能力高超的工程师来说,他们的工作机会并不会缩小,而且报酬也会越来越高,但能力欠缺的工程师日子就十分不好过了。本文基于以后的市场行情,给技术能力欠缺的高级工程师提供了很多有参考价值的倡议。 云原生动静Linus Torvalds 应用 Arm 驱动的 M2 MacBook Air 公布最新的 Linux 内核任何给定的 Linux 内核更新都会解决一些谬误,改善对现有硬件的反对,并在预期新硬件的状况下做出一些前瞻性的扭转,内核 5.19 版也不例外。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:OpenFunction-070-发布-OpenFunction-Gateway多语言及-Helm-安装支持

OpenFunction 是一个开源的云原生 FaaS(Function as aService,函数即服务)平台,旨在帮忙开发者专一于业务逻辑的研发。在过来的几个月里,OpenFunction 社区始终在致力工作,为 OpenFunction 0.7.0 版本的公布做筹备。明天,咱们非常高兴地发表OpenFunction 0.7.0 曾经正式公布了!感激社区各位小伙伴的奉献和反馈! OpenFunction 0.7.0 为您带来了许多新性能,包含新增 OpenFunction Gateway 作为同步函数入口、 新增 Java 和 NodeJS 同步函数和异步函数反对、新增 Helm 装置形式。同时, 咱们对 OpenFunction 依赖的组件都进行了版本升级。 OpenFunction GatewayOpenFunction 从 0.5.0 开始采纳 Kubernetes Ingress 来提供同步函数的对立入口,并且必须装置一个 nginx-ingress-controller。 在 OpenFunction 0.7.0 中,咱们基于 Kubernetes Gateway API 实现了 OpenFunction Gateway 代替之前基于Kubernetes Ingress 的 Domain 来拜访同步函数的办法。 OpenFunction Gateway 提供了更弱小、更灵便的函数网关,蕴含以下个性: 能够抉择任意反对 Kubernetes Gateway API 的 Gateway 实现,如 Contour, Istio, Apache APISIX, Envoy Gateway 等。能够抉择装置默认的 Gateway 实现(Contour), 此时 OpenFunction 将主动创立 Kubernetes Gateway。OpenFunction 也能够应用您环境中现有的 Kubernetes Gateway,只须要您在 OpenFunction Gateway 中援用它即可。能够自定义拜访函数的模式,如基于 host 的路由模式和基于 path 的路由模式,在您没有定义函数路由时 OpenFunction 默认提供基于 host 的路由模式来拜访函数。能够在函数路由局部自定义流量应该如何达到函数,OpenFunction 基于 Gateway API HTTPRoute 为您提供了弱小的函数路由性能。能够通过函数内部地址在集群内部拜访函数,只须要在OpenFunction Gateway 中配置好集群内部能够拜访的域名即可(同时反对 Magic DNS 和 Real DNS)。当初 OpenFunction 将流量间接转发到 Knative Revision 而不再通过 Knative 的 Gateway。 如果不须要间接拜访 Knative 服务, 您能够疏忽 Knative Domain 相干的谬误。未来,OpenFunction 将反对在函数的不同版本之间进行流量散发。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:云原生爱好者周刊电子书可观测性工程开放下载-20220801

开源我的项目举荐AyaAya 是一个重视可操作性和开发者体验的 eBPF 库,它不依赖于 libbpf 或 bcc,应用 Rust 从零开始构建,只应用 libc crate 来执行零碎调用。通过 BTF 的加持,并与 musl 进行链接,能够提供一个真正的一次编译,到处运行的解决方案。 SieveSieve 是一个自动化测试工具,专门用来测试 Kubernetes 控制器的可靠性(通过故障注入等形式)。 catp一个 Rust 写的小工具,能够显示某个后台程序的输入,原理是用 ptrace 拦挡零碎调用里的 syscall write。 PPZ.vscode这是一个 VS Code 插件,提供操作数据库的图形界面,反对多种数据库(目前:MySQL、MSSQL(SQL Server)、SQLite3(SQLite3 仅反对 windows)、PostgreSQL、CockroachDB、StoneDB(国产)、MariaDB 等)。 CloudNativePG看名字就晓得了,这是一个 Kubernetes Operator,用于在 Kubernetes 集群中部署并保护 PostgreSQL 集群。 WinBtrfsWinBtrfs 是 Btrfs 文件系统的 Windows 驱动,能够在 Windows XP 之后的任意 Windows 版本上运行。 Gravatar 寰球代理散发这是由 云梦泽深林 收费提供的 Gravatar 寰球代理散发服务,如果你的网站用到了 Gravatar,不防试试吧。 文章举荐基于 KubeSphere 流水线的 GitOps 最佳实际本文基于 KubeSphere v3.1.1 的流水线,依据作者的理论应用场景,实现了 GitOps 的服务公布流程。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:KubeSphere-网关的设计与实现解读

作者:泓舟子,KubeSphere 后端研发工程师,云原生爱好者,现专一于云原生微服务方向。KubeSphere 中为什么须要网关?如果须要将 K8s 集群内的服务裸露到内部拜访有那些形式呢?能够通过将 Service 设置成 NodePort 形式裸露进来或者通过 Ingress 形式。另外应用 Ingress 形式能够实现将申请散发到一个或多个 Service,能够同一个 IP 地址下裸露多个服务等劣势。 然而对于 Ingress 形式而言,在 K8s 中只是内置了 Ingress CRD(能够创立 Ingress 资源),没有内置 Ingress Controller,必须部署了 Ingress Controller 能力为 Ingress 资源提供内部拜访集群外部服务的能力。而 KubeSphere 中的网关就是 Ingress Controller 。 网关的设计KubeSphere v3.2 对网关进行了重构,在保留了原有网关性能的根底上减少了以下几点新性能: 启用集群和我的项目级别的网关:能够依据业务上的需要灵便抉择不同粒度的网关。增减网关正本数:灵便调整正本数达到更高的可用性。灵便配置 Ingress Controller 配置选项。可指定网关利用负载装置的地位:可抉择将网关利用负载装置的地位指定某固定命名空间或别离让其位于各自我的项目命名空间下。联合 KubeSphere 中的权限治理,若让资源位于各个我的项目命名空间下,领有该我的项目权限的用户也能查看到网关资源。网关日志:集中查问网关日志,将散布在各个正本的网关日志集中起来查问。网关监控指标:监控网关中的一些指标,包含申请总量/成功率/提早 等指标。网关的实现目前 K8s 反对和保护 AWS、 GCE 和 Nginx Ingress 控制器,KubeSphere 应用 Ingress Nginx Controller 作为默认的网关实现,没有做任何代码批改。 各个性能点的实现思路集群和我的项目级别的网关:这个通过传入参数笼罩默认的 Helm Chart Values 来实现并在代码逻辑里管制,如果启用了集群网关就不能启用我的项目网关了;若启用了我的项目网关又启用了集群网关,那么通过两个网关入口都能够拜访,只是这样会有两个 Ingress Controller 同时 Watch 雷同的 Ingress 对象。增减网关正本数&配置 Ingress Controller 配置选项:这个通过传入参数笼罩默认的 Helm Chart Values 来实现,实现过程用到的 Helm Operator 将在前面重点介绍。可指定网关利用负载装置的地位:可抉择将网关利用负载装置的地位指定某固定命名空间或别离让其位于各自我的项目命名空间下。这个在代码逻辑中管制,并做成了配置项,默认将所有资源装置在 kubesphere-controls-system 下。网关日志:应用到了 KubeSphere 中日志组件,日志组件会采集日志数据而后存储在 Elasticsearch 中,网关在查问日志过程就依据参数在 Elasticsearch 中查问日志。网关监控指标:应用到了 KubeSphere 中监控组件,KubeSphere 外部配置了 Prometheus 相干的参数采集 Ingress 相干指标,查问监控信息过程就依据监控组件中的 API 查问相干数据。上面重点介绍设计实现过程形象出的 CRD 和如何奇妙地用 Helm Operator 集成。 ...

September 15, 2022 · 3 min · jiezi

关于云计算:一文读懂-Prometheus-长期存储主流方案

嘉宾 | 霍秉杰整顿 | 西京刀客出品 | CSDN 云原生Prometheus 作为云原生时代崛起的标志性我的项目,曾经成为可观测畛域的事实标准。Prometheus 是单实例不可扩大的,那么如果用户须要采集更多的数据并且保留更长时间该抉择怎么的长期存储计划呢? 2022 年 8 月 9 日,在 CSDN 云原生系列在线峰会第 15 期“Prometheus 峰会”上,青云科技可观测与函数计算负责⼈霍秉杰分享了《Prometheus Long-Term Storage:海纳百川,有容乃大》。 Prometheus 简介及其局限性 云原生时代崛起的 Prometheus 曾经在可观测畛域失去了广泛应用,其影响力远远超出了云原生的领域,具备两个显著特点。 单实例,不可扩大Prometheus 的作者及社区外围开发者都秉承一个理念:Prometheus 只聚焦外围的性能,扩展性的性能留给社区解决,所以 Prometheus 自诞生至今都是单实例不可扩大的。 这对于很多从大数据时代走过去的工程师而言有点不堪设想,大数据畛域的很多开源我的项目比方 Elasticsearch、HBase、Cassandra 等无一不是多节点多角色的设计。 Prometheus 的外围开发者曾这样解释,Prometheus 联合 Go 语言的个性和劣势,使得 Prometheus 可能以更小的代价抓取并存储更多数据,而 Elasticsearch 或 Cassandra 等 Java 实现的大数据我的项目解决同样的数据量会耗费更多的资源。也就是说,单实例、不可扩大的 Prometheus 已弱小到能够满足大部分用户的需要。 Pull 模式抓取数据Prometheus 提倡用 Pull 模式获取数据,即 Prometheus 被动地去数据源拉取数据。对于不便于 Pull 的数据源,Prometheus 提供了 PushGateway 进行解决,但 PushGateway 在局部利用场景上存在限度。 只管单实例的 Prometheus 曾经足够弱小,但还是存在局部需要是其无奈满足的,如跨集群聚合、更长时间的存储等。为了扩大 Prometheus,社区给出了多种计划。 ...

September 15, 2022 · 3 min · jiezi

关于云计算:Istio-Ambient-Mesh-介绍

1 Ambient Mesh 介绍Istio 的传统模式是将 Envoy proxy 作为 sidecar 部署在工作负载的 Pod 中,尽管与重构应用程序相比,sidecar 具备显著的劣势,然而依然会产生一些限度: 侵入性:sidecar 必须通过批改 Kubernetes Pod 的配置和重定向流量来“注入”应用程序。因而,装置和降级 sidecar 须要重新启动 Pod,这将会对工作负载产生影响。资源利用率低:因为在每个工作负载 Pod 都注入了 sidecar 代理 ,因而 Pod 必须为 sidecar 预留足够的 CPU 和内存资源,从而导致整个集群的资源利用率有余。流量中断:流量捕捉和 HTTP 解决通常是由 Istio 的 sidecar 实现的,计算须要耗费大量的资源,并且可能会毁坏一些不合乎 HTTP 实现的应用程序。 Istio ambient mesh 是 Istio 的一个无 sidecar 的数据立体,旨在升高基础设施老本和进步性能。它的实质是拆散 sidecar proxy(Envoy)中的 L4 和 L7 性能,让一部分仅须要平安性能的用户能够最小阻力(低资源耗费、运维老本)地应用 Istio service mesh。 ambient mesh 将 Istio 的性能拆分为 2 个不同的档次: L4 平安覆盖层:用户能够应用 TCP 路由,mTLS 和无限的可观测性等性能。L7 解决层:用户能够按需启用 L7 性能,以取得 Istio 的全副性能,例如限速,故障注入,负载平衡,熔断等等。 ...

September 15, 2022 · 7 min · jiezi

关于云计算:在-K8s-集群上部署-RabbitMQ-实战

作者:老Z,云原生爱好者,目前专一于云原生运维,KubeSphere Ambassador。前言知识点定级:入门级RabbitMQ 单节点装置部署RabbitMQ 集群装置部署GitOps 运维思维演示服务器配置主机名IPCPU内存系统盘数据盘用处zdeops-master192.168.9.92440200Ansible 运维管制节点ks-k8s-master-0192.168.9.9141640200+200KubeSphere/k8s-master/k8s-worker/Cephks-k8s-master-1192.168.9.9241640200+200KubeSphere/k8s-master/k8s-worker/Cephks-k8s-master-2192.168.9.9341640200+200KubeSphere/k8s-master/k8s-worker/Cephstorage-node-0192.168.9.952840200+200ElasticSearch/GlusterFSstorage-node-0192.168.9.962840200+200ElasticSearch/GlusterFSstorage-node-0192.168.9.972840200+200ElasticSearch/GlusterFSharbor192.168.9.892840200Harbor共计822843202800 演示环境波及软件版本信息操作系统:CentOS-7.9-x86_64Ansible:2.8.20KubeSphere:3.3.0Kubernetes:v1.24.1Rook:v1.9.7Ceph: v16.2.9GlusterFS:9.5.1ElasticSearch:7.17.5Harbor:2.5.1RabbitMQ:3.9.22RabbitMQ Cluster Operator:1.14.0简介RabbitMQ 单节点如何在 K8s 集群上部署?RabbitMQ 集群如何在 K8s 集群上部署?60分钟带你实战入门。 单节点 RabbitMQ 部署思路梳理StatefulSetHeadless Service:外部服务用External Service:内部治理用Secrets:治理用户名和明码Image:DockerHub 官网提供的 rabbitmq:3.9.22-management(带 management 插件)筹备离线镜像此过程为可选项,离线内网环境可用,如果不配置内网镜像,后续的资源配置清单中留神更改容器的 image 为默认值。 在一台能同时拜访互联网和内网 Harbor 仓库的服务器上进行上面的操作。 下载镜像docker pull rabbitmq:3.9.22-management从新打 tagdocker tag rabbitmq:3.9.22-management registry.zdevops.com.cn/library/rabbitmq:3.9.22-management推送到公有镜像仓库docker push registry.zdevops.com.cn/library/rabbitmq:3.9.22-management清理长期镜像docker rmi rabbitmq:3.9.22-managementdocker rmi registry.zdevops.com.cn/library/rabbitmq:3.9.22-management资源配置清单rabbitmq-secret.yaml---kind: SecretapiVersion: v1metadata: name: rabbitmq-secret namespace: zdevopsdata: pass: UEA4OHcwcmQ= user: YWRtaW4=type: Opaquerabbitmq-sts.yaml---apiVersion: apps/v1kind: StatefulSetmetadata: name: rabbitmq namespace: zdevops labels: app: rabbitmqspec: replicas: 1 selector: matchLabels: app: rabbitmq template: metadata: creationTimestamp: null labels: app: rabbitmq spec: volumes: - name: host-time hostPath: path: /etc/localtime type: '' containers: - name: rabbitmq image: 'registry.zdevops.com.cn/library/rabbitmq:3.9.22-management' ports: - name: tcp-5672 containerPort: 5672 protocol: TCP - name: http-15672 containerPort: 15672 protocol: TCP env: - name: RABBITMQ_DEFAULT_USER valueFrom: secretKeyRef: name: rabbitmq-secret key: user - name: RABBITMQ_DEFAULT_PASS valueFrom: secretKeyRef: name: rabbitmq-secret key: pass resources: limits: cpu: '2' memory: 4000Mi requests: cpu: 100m memory: 500Mi volumeMounts: - name: host-time readOnly: true mountPath: /etc/localtime serviceName: rabbitmq-headless---apiVersion: v1kind: Servicemetadata: name: rabbitmq-headless namespace: zdevops labels: app: rabbitmqspec: ports: - name: tcp-rabbitmq-5672 protocol: TCP port: 5672 targetPort: 5672 selector: app: rabbitmq clusterIP: None type: ClusterIPrabbitmq-external.yaml---apiVersion: v1kind: Servicemetadata: name: rabbitmq-external namespace: zdevops labels: app: rabbitmq-externalspec: ports: - name: http-rabbitmq-external protocol: TCP port: 15672 targetPort: 15672 nodePort: 31672 selector: app: rabbitmq type: NodePortGitOps在运维开发服务器上操作 ...

September 15, 2022 · 4 min · jiezi

关于云计算:CKS-认证备考指南

作者:scwang18,次要负责技术架构,在容器云方向颇有钻研。前言CKA 和 CKS 是 Linux 基金会联结 CNCF 社区组织的云原生技术畛域权威的技术水平认证考试,考试采纳实操形式进行。CKS 全称是 Certified Kubernetes Security Specialist,它在一个模仿实在的环境中测试考生对 Kubernetes 和云平安的常识。在加入 CKS 考试之前,必须曾经通过 CKA(Kubernetes 管理员认证),在取得 CKA 证书之后才能够预约 CKS 考试。CKS 的考试难度绝对于 CKA 进步了很多,2 个小时的考试工夫很缓和,因为考试是在外网上进行,这两个考试又是实操考试,网络条件不好,很影响效率,如果不放松的话,很可能做不完所有实操题。揭示备考的同学善用考试软件提供的 notepad 性能,先把 yaml 文件或命令写到 notepad 里,再粘贴到 Terminal 里。 我因为上次 CKA 考试还是比较顺利,所以这次的 CKS 考试有点忽略了,搞忘带身份证和护照,CKA/CKS 考试须要身份证+护照 / 信用卡,因而跟监考老师沟通了很久工夫,最初批改了考试人姓名为中文,是用驾驶证实现的考试。意外之喜是 CKS 给我的证书是中文名的。 我这次考试的 Kubernetes 版本是 1.22,特意记录了一下考试会考到的知识点,分享给须要的同学。 补充:Kubernetes 1.25 开始,正式废止了 PSP,这个局部能够参考本文的记录。NetworkPolicy通常应用标签选择器来抉择 Pod,管制流量。所以要对 kubectl label 的应用办法熟悉起来。 $ kubectl label [--overwrite] (-f FILENAME | TYPE NAME) KEY_1=VAL_1 ... KEY_N=VAL_N [--resource-version=version] [options]网络策略的应用办法见正文: ...

September 15, 2022 · 5 min · jiezi

关于云计算:云原生爱好者周刊Prometheus-架构演进之路-20220726

Kubernetes 官网文档终于新增了对于多租户的最佳实际,尽管 Kubernetes 没有最终用户或租户的概念,但提供了多种性能来实现不同的租户需要,感兴趣的小伙伴能够参考一下。 开源我的项目举荐Prometheus 架构演进之路这个 PPT 应用精美的插图展现了 Prometheus 我的项目的倒退历程。 PulsarPulsar 是基于 eBPF 的高度模块化的物联网运行期平安代理框架。这名字和 Apache Pulsar 撞衫了吧~~ EpimetheusPrometheus 的 Fork 版本,应用 FrostDB 作为时序数据库。FrostDB 是比拟新的列式数据库。 tproxy这个工具能够用来剖析 MySQL 连接池以及惯例的 gRPC,当然也能够用来剖析任何 TCP 连贯。 pg_timetablepg_timetable 是 PostgreSQL 的高级作业调度器,与传统的作业调度零碎不同,它齐全由数据库驱动,并提供了一些比拟新鲜的概念,反对执行 PostgreSQL 命令和零碎利用的命令。例如: -- Run public.my_func() at 00:05 every day in August:SELECT timetable.add_job('execute-func', '5 0 * 8 *', 'SELECT public.my_func()');-- Run VACUUM at minute 23 past every 2nd hour from 0 through 20 every day:SELECT timetable.add_job('run-vacuum', '23 0-20/2 * * *', 'VACUUM');-- Refresh materialized view every 2 hours:SELECT timetable.add_job('refresh-matview', '@every 2 hours', 'REFRESH MATERIALIZED VIEW public.mat_view');-- Clear log table after pg_timetable restart:SELECT timetable.add_job('clear-log', '@reboot', 'TRUNCATE public.log');-- Reindex at midnight on Sundays with reindexdb utility:-- using default database under default user (no command line arguments)SELECT timetable.add_job('reindex-job', '0 0 * * 7', 'reindexdb', job_kind := 'PROGRAM');-- specifying target database and tables, and be verboseSELECT timetable.add_job('reindex-job', '0 0 * * 7', 'reindexdb', '["--table=foo", "--dbname=postgres", "--verbose"]'::jsonb, 'PROGRAM');-- passing password using environment variable through bash shellSELECT timetable.add_job('reindex-job', '0 0 * * 7', 'bash', '["-c", "PGPASSWORD=5m3R7K4754p4m reindexdb -U postgres -h 192.168.0.221 -v'::jsonb, 'PROGRAM'); 文章举荐应用 Vcluster 来缩小 Kubernetes 集群的分散性置信大家都会遇到这样的苦恼,随着我的项目的一直增多,开发与测试环境会越来越多,Kubernetes 集群也会越来越多,而且每个集群版本都不统一,反对的开源生态的组件版本也不统一,最终会导致集群资源利用率低下,大大增加了集群的复杂性。本文尝试应用 Vcluster 来解决这个问题。 ...

September 15, 2022 · 2 min · jiezi

关于云计算:KubeSphere-社区双周报-20220902

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上 / 线下流动和布道推广等一系列社区动静。 贡献者名单 新晋贡献者证书 新晋讲师证书近期,又有多位讲师参加了 KubeSphere 社区线上直播与线下 Meetup 流动,并在其中奉献了精彩的演讲分享。他们别离是:MinMin,周靖峰、柯煜昌、马金晶、柴树杉、邓愉悦、刘俊龙、邬小亮、仝鑫淼、Rowan Luo、林国辉、常震、朱亚光、龚永杰、许世威。感激各位讲师的反对和奉献! 近期重要更新KubeSphere以下更新将在 KubeSphere v3.3.1 中可用,预计 9 月中旬公布。 1. 修复数组越界的问题相干 PR:https://github.com/kubesphere... 贡献者:xyz-li 2. 修复 scheme 反复注册的问题相干 PR:https://github.com/kubesphere... 贡献者:iawia002 3. 设置 HelmRepo 的默认状态相干 PR:https://github.com/kubesphere... 贡献者:x893675 4. ks-installer 中集成 opensearch相干 PR:https://github.com/kubesphere...,https://github.com/kubesphere... ...

September 15, 2022 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-20220819

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上 / 线下流动和布道推广等一系列社区动静。 贡献者名单 新晋贡献者证书 近期重要更新KubeSphere以下更新将在 KubeSphere v3.3.1 中可用,预计 8 月底公布。 1. 修复联邦集群状态未正确更新的问题相干 PR:https://github.com/kubesphere... 贡献者:x893675 2. 修复谬误的网关监控数据查问条件相干 PR: https://github.com/kubesphere... 贡献者:iawia002 3. 修复谬误的 API 形容相干 PR:https://github.com/kubesphere... 贡献者:sxmatch 4. 集成 OpenSearch v1相干 PR:https://github.com/kubesphere... 贡献者:wenchajun 5. 加强告警全局规定组相干 PR:https://github.com/kubesphere... 贡献者:junotx 6. 修复容器日志查问生效的问题相干 PR:https://github.com/kubesphere... 贡献者:harrisonliu5 7. 反对 CD 目录从新搜寻相干 PR:https://github.com/kubesphere... 贡献者:EliChen95 KubeKey以下更新将在 KubeKey v2.3.0 中可用,预计下周公布。 1. 删除集群时反对删除 CRI 相干的所有配置和数据目录相干 PR:https://github.com/kubesphere... ...

September 15, 2022 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-20220809

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 贡献者名单 新晋贡献者证书 近期重要更新KubeSphere以下更新将在 KubeSphere v3.3.1 中可用,预计 8 月底公布。 1. 更新 ks-core 的 Helm Chart,修复 ks-controller-manager 因为短少 CRD 而引发的 Crash 问题相干 PR:https://github.com/kubesphere... 贡献者:wansir 2. 新增 API 反对切换告警告诉语言相干 PR:https://github.com/kubesphere... 贡献者:wanjunlei 3. 数据列表反对间接批改分页大小相干 PR:https://github.com/kubesphere... 贡献者:weili520 3. 反对设置工作负载的 Helm 和 Kustomize 参数相干 PR:https://github.com/kubesphere... 贡献者:EliChen95 4. 反对批改继续部署设置相干 PR:https://github.com/kubesphere... 贡献者:EliChen95 5. 修复不能为边缘节点创立部署的问题相干 PR:https://github.com/kubesphere... 贡献者:harrisonliu5 6. 修复创立服务时没有负载均衡器注解提醒的问题相干 PR:https://github.com/kubesphere... 贡献者:weili520 7. 修复登录明码可见的问题相干 PR:https://github.com/kubesphere... ...

September 15, 2022 · 1 min · jiezi

关于云计算:KubeSphere-社区双周报-20220722

KubeSphere 从诞生的第一天起便秉持着开源、凋谢的理念,并且以社区的形式成长,现在 KubeSphere 曾经成为寰球最受欢迎的开源容器平台之一。这些都离不开社区小伙伴的共同努力,你们为 KubeSphere 提出了很多建设性意见,也奉献了很多代码,非常感谢社区小伙伴们的付出。 为了帮忙社区的小伙伴们更好地把握 KubeSphere 社区的停顿,咱们决定每两周更新一次周报,即双周报。本双周报次要是整顿展现新增的贡献者名单,以及两周内提交过 Commit 的贡献者,并对近期重要的 PR 进行解析,同时还蕴含了线上/线下流动和布道推广等一系列社区动静。 贡献者名单 近期重要更新1. 优化了容器终端 SHELL 的优先级,bash 优先级最高,如果没有 bash 再调用 sh。相干 PR:https://github.com/kubesphere... 贡献者:tal66 2. 删除 Member 集群时反对删除与告诉相干的配置。相干 PR:https://github.com/kubesphere... 贡献者:wanjunlei 3. 修复 OIDC 登录 uid 不反对特殊字符的问题。相干 PR:https://github.com/kubesphere... 贡献者:najib-houcine 4. 集成了 Amazon 开源的 OpenSearch v2 版本。相干 PR:https://github.com/kubesphere... 贡献者: wenchajun 社区动静案例分享某保险企业业务容器化实际布道推广KubeSphere 3.3.0 离线装置教程基于 CoreDNS 和 K8s 构建云原生场景下的企业级 DNS基于云原生的私有化 PaaS 平台交付实际证书发放新 KubeSphere Talented Speaker 揭晓!快来支付你的专属证书!致谢新 KubeSphere Contributor!这里有一份证书等你支付!社区活动云原生技术交换 Meetup 广州站议题征集开启!KubeSphere 社区走进企业第二站 – 之江实验室线上直播当 KubeSphere 遇上最先进的开源数据库 PostgreSQL基于 KubeSphere & Crane 的老本优化实际 ...

September 15, 2022 · 1 min · jiezi

关于云计算:基于-JuiceFS-的-KubeSphere-DevOps-项目数据迁移方案

计划背景和目标KubeSphere 自公布以来已有 2 年之久,从 2.1.0 版本至目前最新版本 3.3。开发人员的编译构建都基于环境平台的 DevOps 性能(底层是 jenkins)实现,如果 DevOps 我的项目较多产生的流水线记录数据也会比拟多,记录的数据存储形式默认是基于 Openebs 去做的,存储介质依赖于 ECS 宿主机 local 本地磁盘的危险是比拟大的思考到宿主机硬盘的不可靠性,随时会产生宕机导致流水线记录数据失落造成重大影响。本教程通过本地研发平台测试通过了应用开源我的项目 juiceFS-CSI 且后端依靠 OSS 作为后端存储实现数据迁徙的测验。 前提条件:曾经装置好 KubeSphere 平台(本教程应用 KubeSphere 3.2.1、K8s 版本 1.21.5)。装置形式请参考官网:https://kubesphere.com.cn/docs/v3.3/曾经装置好 juiceFS-CSI 插件并且挂载好 OSS 后端、确认创立 PVC 时通过 SC 主动创立 PV 并绑定。装置形式请参考官网 : https://www.juicefs.com/docs/zh/community/introduction/(以上两者缺一不可)计划施行过程1. 找到 KubeSphere 平台的 Jenkins 应用的 PV 2. 确认目前 Local 磁盘保留的 Jenkins 门路(在 node1 节点上)/var/openebs/local/pvc-2143c5a8-9593-4e2a-8eb5-2f3a0c98219a3. 下载 JuiceFS 客户端获取最新的版本号。 $ JFS_LATEST_TAG=$(curl -s https://api.github.com/repos/juicedata/juicefs/releases/latest | grep 'tag_name' | cut -d '"' -f 4 | tr -d 'v')下载客户端到当前目录。 ...

September 15, 2022 · 1 min · jiezi

关于云计算:天翼云铸牢国云安全护航千行百业

随着数字化转型节奏一直放慢,越来越多企业将业务和数据迁徙到云平台上。企业在享受“上云用数赋智”带来的益处的同时,也面临新的平安挑战。天翼云作为云服务国家队,肩负着守护用户云上平安的重要责任和使命。平安可信,是国云的根本要求,也是国云的本质特征。天翼云时刻牢记使命、保持初心,打造平安可信外围竞争力,为用户提供全方位的网信平安保障能力,并从五个方面进行实际,铸牢国云平安,护航千行百业。 ✓一体化纵深防护体系天翼云构建了云网边端交融的纵深一体化防护体系,进一步夯实平台平安。此外,天翼云还为用户提供全栈的云上平安防护体系,通过云网交融构建云网态势感知零碎,实现网络安全云网协同、智能监测、秒级封堵,同时交融中国电信大网的防护能力,为用户输入骨干网业界当先的抗D服务。  ✓翻新冲破云原生平安技术随着云计算技术的一直倒退,新一代云计算技术云原生已成为行业支流,云原生技术的大量利用也为企业平安带来了新的挑战。天翼云保持云平安原生化,自主研发CloudOS 4.0云操作系统,交融云原生平安技术,打造零信赖、容器平安以及云原生数据安全等云原生平安能力,为国云平安奠定松软的技术根底。  ✓打造国云平安品牌天翼云始终保持总体国家网络安全观,保持以人民平安为核心的倒退思维,打造国云平安品牌“红盾”,以自主翻新为外围,通过深耕业务利用平安、网络安全、数据安全和云原生平安等外围畛域,将平安嵌入到各个利用场景,满足多云防护、网络安全防护、数据安全防护、平安合规、平安托管等云平安需要,守护人民利益,护航国家网信平安。  ✓平安护航千行百业天翼云致力于将平安能力普惠于民,帮忙用户发现安全隐患、提供平安合规上云倡议。同时天翼云还反对平安加固服务,为企业提供平安等保、密评、数据安全和平安托管等平安解决方案,建设并继续优化云平安进攻体系,保障用户业务平安、数据安全,打造平安上云最佳实际。  ✓共铸国云平安生态国云平安的打造须要生态搭档独特参加,基于天翼云自主研发能力,整合汇聚中国电信集团外部劣势资源,同时联合国内顶级平安厂商,增强单干,优势互补,欠缺云平安综合能力。依靠中国电信全国布局的劣势,天翼云联结MSP服务商一直推动属地化的团队建设,为用户提供面向全行业的定制化解决方案、平安经营、技术撑持等能力,疾速响应需要,继续晋升用户满意度。  天翼云保持建设网络强国、数字中国和保护网信平安,继续晋升云产品安全并丰盛云平安产品,为产业数字化转型提供上云撑持,让上云用户实现真正的平安无忧!翻新技术冲破,全面防护能力天翼云云原生平安产品 红盾系列铸牢数字经济平安底座护航千行百业云上业务平安 

September 14, 2022 · 1 min · jiezi

关于云计算:打造国云安全品牌铸牢企业云上安全防线

9月7日,2022年国家网络安全宣传周在安徽省合肥市举办。流动期间,中国电信天翼云举办了云原生平安产品“红盾”系列介绍会,会议以“红云天翼 平安普惠”为主题,具体介绍了“红盾”系列产品的次要性能及劣势等。数字经济时代,随同着云计算技术一直倒退和深刻利用,云上平安问题也日益凸显。天翼云科技有限公司网信安部副总经理朱良海示意,平安可信是国云的要求和本质特征,也是天翼云的外围竞争力。天翼云始终在思考和实际,从体系构建、技术创新、品牌打造、平安护航、生态共建五方面发力,铸牢国云平安,助力千行百业衰弱平安倒退。 作为云服务国家队,天翼云多年来不断完善本身平安产品体系和能力劣势,构建了云网交融的纵深一体化进攻体系。此次天翼云翻新冲破云原生平安关键技术所打造的“红盾”系列平安产品,将有助于进一步夯实国家层面的数字经济平安底座,推动企业云上业务平安倒退与翻新。  以“4+1+1=N”为理念,构建纵深进攻平安体系天翼云科技有限公司平安专家林顺东示意,天翼云以“4+1+1=N”为理念,基于云原生底座将平安能力整合至对立的平安平台,深耕云原生业务利用平安、网络安全、数据安全、云原生平安4大核心技术畛域,打造一体化云平安可信经营体系和零信赖架构,构建平安外围能力自主可控的技术壁垒。 通过一体化云平安可信经营体系,天翼云施展云网交融劣势,构建了平台+租户端到端一体化平安防护,助力客户实现自动化平安经营闭环,并满足监管合规要求。利用零信赖架构,天翼云建设了一套以身份平安为外围的信赖体系,带动技术架构、利用效力、平安可控的全方位晋升。基于“4+1+1”能力体系建设,天翼云红盾云原生平安产品可能满足云上企业端到端的平安防护的需要,在政务、金融、医疗等重点垂直畛域聚焦“N”类具体场景,致力于为政府和企业提供“云网数智安”一体化的综合解决方案。  五款外围产品,满足企业多元化云平安需要会上,天翼云科技有限公司平安高级产品经理杜茜介绍了云原生平安产品红盾系列所蕴含的Web利用防火墙(边缘云版)、DDoS高防(边缘云版)、网站平安监测、企业平安拜访、天翼云数据安全治理平台五款外围产品。 以天翼云Web利用防火墙为例,据Gartner报告显示,网络安全攻打有75%产生在Web应用层。天翼云Web利用防火墙(边缘云版)可通过WAF引擎实时检测歹意申请并及时处理,帮忙用户应答OWASP TOP10、爬虫、API攻打等网站及 Web业务平安防护问题,解决传统防护模式下性能瓶颈、业务欺诈、API平安场景可能造成的业务中断、网站解体、数据泄露等平安危险,从而保障网站平安,防止Web层攻打可能会带来的重大经济损失。 在具体实际方面,天翼云“红盾”已在学校线上教学、工业互联网平台搭建等多种场景中落地利用。在天翼云边缘“零信赖”云平台与福大爱普科技的单干中,单方通过部署零信赖平台,落地了全省首个通过“核心云+边缘云”云边协同形式承载的工业互联网平台及相干利用。数字经济倒退一直催生新业态与新模式,如何在日渐简单的数字环境中应答各层面平安挑战,成为企业的必答题。面向未来,天翼云红盾系列产品提供“原生同构”的内建式平安服务,横跨云网边端,内嵌场景化编排,同时提供围绕事先、事中、预先全面的平安防护,为分布式云时代下企业上云保驾护航,满足千行百业日益多元的云平安需要,助力企业数字化转型。 

September 14, 2022 · 1 min · jiezi

关于云计算:云上-OLAP-引擎查询性能评估框架设计与实现

作者:南京大学顾荣、吴侗雨背景私有云是一种为用户提供经济不便的计算资源的平台。随着云计算技术的疾速倒退,以及大数据查问需要的日益减少,很多私有云的云计算利用市场中,呈现了越来越多云上 OLAP 引擎服务。为了可能依据本人的业务需要抉择适合的 OLAP 引擎,并通过适合的配置使引擎在最佳状态运行,用户须要对以后应用的查问引擎性能进行评估。 以后 OLAP 引擎性能评估框架在云上部署应用时面临三个次要挑战: 1、对云环境适应能力弱。传统性能评估框架诞生时,尚未具备云上特有的 PaaS、IaaS、SaaS 个性,也不具备对存算拆散的适配反对。应用云上 OLAP 时,须要充分利用云计算个性剖析 OLAP 引擎性能。2、不具备简单工作负载的复现能力。工作负载由数据集、查问集、查问序列组成。传统的性能评估框架通常采纳固定的数据集和查问级,查问序列也次要以线性序列为主。古代 OLAP 查问场景的复杂化,对特定场景下的数据集和查问集的特色刻画、高并发简单场景反对等,提出了更高的要求。3、难以全面评估查问性能与上云老本。传统评估体系(如 TPC-H、TPC-DS)不体现老本因素,而在云上资源近乎有限的大环境里,不思考老本的评估会造成很大的偏见,甚至得出谬误的论断。云计算具备自定义租用服务器规模的个性,因而云上老本是可变、可设置的,其单价也随工夫稳定。用户既心愿 OLAP 查问能以最快的速度被执行,又心愿能尽可能节省成本,因而须要性能评估框架全面评估查问性能与上云老本,依据用户需要提供最具性价比的云服务器与 OLAP 引擎搭配形式。 针对上述问题,南京大学顾荣老师、吴侗雨博士等人与 Apache Kylin 社区团队联结钻研,设计开发一套云上 OLAP 引擎查问性能评估框架,名为 Raven。 Raven 被设计来帮忙用户答复一些OLAP引擎上云面临的理论而又重要的问题: -对于一份实在生产数据中的实在工作负载(数据载入+查问),哪个 OLAP 引擎在云上运行的IT老本更低?-给定一个查问速度的指标,在能达成的速度指标的前提下,哪个 OLAP 引擎在云上能给出更低的IT老本?-再加上思考数据载入速度的因素,状况又会如何? 本文将介绍本团队在设计与实现 Raven 时遇到的问题、对应的解决方案、以及以后的初步研究成果。 适应云架构的性能评估框架设计OLAP 引擎查问性能评估框架适配云架构时,实际上是在适配云上的 PaaS、IaaS、SaaS 个性。具体而言,云服务器的很多性能都以服务的形式出现给用户,用户只须要调用对应服务的接口,即可实现不同的目标,如云服务器创立、文件操作、性能指标获取、应用程序执行等。在文件操作中,因为云服务器采纳计算存储拆散的架构,一些数据可能须要通过服务从近程的云存储服务上拉取。 联合上述需要,Raven 的框架如图 1 所示。其执行步骤如下: 1、用户输出性能测试配置信息,触发性能测试启动模块,该模块负责依据用户配置创立启动云上 OLAP 性能测试所需的云服务器和计算环境。2、性能测试启动模块将工作负载、数据集、性能指标、引擎参数等信息传递给配置管制与散发模块,该模块负责将上述信息散发到对应的服务接口或模块上。3、配置管制与散发模块触发工作负载执行模块,工作负载执行模块启动配置好的 OLAP 引擎,并依据工作负载设置随工夫向 OLAP 引擎发送查问申请。4、OLAP 引擎向本地存储或云存储拉取数据集,执行查问。查问执行过程中,工作负载执行模块记录查问开始和完结的工夫戳,并启动资源管理服务,监控 OLAP 引擎查问期间的性能指标。查问完结时,工作负载执行模块将工夫戳和性能指标信息输入到云存储中。5、启动性能剖析评分模块,从近程云存储中拉取工夫戳和性能指标信息,导入用户自定义的评分模型,失去最终的性能评估后果。 上述设计的长处在于: 1、充分利用可自定义的云服务器数量和配置,容许用户自定义其心愿创立的集群环境。2、反对向近程的云存储服务读写数据,适应云环境的存算拆散架构。3、应用云服务提供商的资源管理服务,得以获取大量系统资源应用情况的信息。4、反对可插拔的引擎接口,用户可任意指定其所需测试的 OLAP 引擎及其配置。 理论应用时,用户的输出以一个.yaml 文件出现,可仿照如下格局: engine: kylinworkload: tpc-htest_plan: one-passmetrics: all ...

September 14, 2022 · 1 min · jiezi

关于云计算:k3s-上的-kubeovn-轻度体验

kube-ovn 从名字不难看出其是一款云原生的网络产品,将 SDN 等能力带入云原生畛域。让 ovn/ovs 的应用更容易,屏蔽了复杂度,升高了应用的难度,并与云原生进行了联合。 借助 OVS/OVN 在 SDN 畛域成熟的能力,Kube-OVN 将网络虚拟化的丰盛性能带入云原生畛域。目前已反对子网治理, 动态 IP 调配,分布式/集中式网关,Underlay/Overlay 混合网络, VPC 多租户网络,跨集群互联网络,QoS 治理, 多网卡治理,ACL 网络管制,流量镜像,ARM 反对, Windows 反对等诸多性能。装置 k3s参考官网的筹备工作文档,操作系统应用 Ubuntu 20.04 以及 k3s v1.23.8+k3s2。 在装置之前确保 /etc/cni/net.d/ 目录内容为空,不为空则清空其下的所有文件。kube-ovn 自身通过实现 cni 来管理网络。 在装置 k3s 须要禁用 k3s 默认的网络策略控制器和flannel 的后端(默认是 VXLAN): export INSTALL_K3S_VERSION=v1.23.8+k3s1curl -sfL https://get.k3s.io | sh -s - --flannel-backend=none --disable-network-policy --disable=traefik --write-kubeconfig-mode 644 --write-kubeconfig ~/.kube/config为了节俭资源,我也禁用了 traefik Ingress 控制器。 此时查看 pod 会发现都处于 Pending 状态,这是因为还没装置 CNI。 kubectl get po -ANAMESPACE NAME READY STATUS RESTARTS AGEkube-system local-path-provisioner-6c79684f77-llvhk 0/1 Pending 0 11skube-system metrics-server-7cd5fcb6b7-kxm5j 0/1 Pending 0 11skube-system coredns-d76bd69b-jd6gm 0/1 Pending 0 11s查看 node 提醒 container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized。 ...

September 6, 2022 · 3 min · jiezi

关于云计算:聚焦边缘计算场景打造云边端一体化容器云平台

随着大带宽、低延时、多连贯的利用场景迎来暴发,CDN的技术底座一直向边缘演进。以后边缘计算曾经成为企业要害增长因素,驱动寰球企业级基础架构市场持续增长,为构建分布式云提供最间接、间隔最近的算力反对。 8月26日的2022亚太内容散发大会暨CDN峰会上,阿里云技术专家徐若晨受邀作客【边缘计算论坛】并发表了题为《边缘容器云平台的摸索和实际》的精彩演讲,基于阿里云大规模边缘容器云平台开展介绍阿里云边缘容器云平台的倒退背景、历程、设计与架构,深刻解析了阿里云边缘容器云平台上的典型业务场景与实际案例,本文为整顿内容。 立足于用户视角 构建“云边端”一体化平台从用户视角登程,以后在边缘侧业务面临挑战泛滥: 自建边缘机房交付周期长、资产重;边缘集群常态化裁撤、割接,SLA难保障;单集群业务规模小、弹性差;属地性利用多,集群保护老本高、难度大;通过在核心和客户现场之间,构建起边缘云这一层服务,就可能解决以上问题。边缘云为用户带来的对应方面价值次要体现在: 晋升效率:为终端提供间隔更近、时延更低的算力资源,反对时效性强、交互性强的业务场景,实现秒级算力交付;降低成本:通过终端上移这一伎俩无效晋升局部业务灵活性,实现按量付费、弹性扩容,升高客户的老本;易运维:采纳云原生交付形式,晋升边缘利用可运维性,升高客户运维投入低时延、晋升用户体验:基于海量低延时的边缘集群资源笼罩,为客户提供时延更低的体验;基于“云-边-端”的架构模式,边缘云实现了云端算力下沉与终端算力上移: 云端算力下沉:通过将利用、算力分布式部署边缘,从而卸载掉核心Region外围服务的负载。思考到核心Region带宽的老本远高于边缘,因而对于带宽较大的业务,在边缘云实现流量的收敛再回到核心,可能大幅度缩减带宽的老本,为客户提供离终端更近的算力资源,晋升业务交互性与时效性;终端算力上移:对终端利用进行瘦身的同时为利用开发者提供标准化运维与云边体验统一的开发过程,帮忙疾速开发、迭代。比照终端利用,边缘云领有更加丰盛的生态,晋升业务灵活性。除此之外,边缘上提供专属GPU硬件,进一步优化利用性能。深度解析边缘容器云平台架构 精准应答技术挑战边缘容器云平台技术挑战边缘容器云平台的技术挑战次要是来自于三方面: 首先是集群规模小而多。受限于边缘的物理环境,单个集群的规模通常无限。随着资源的进一步下沉,终端算力的进一步上移,各类资源被纳管到边缘云中,资源规模迅速增长,边缘规模呈现出小型化、广覆盖的特点,为资源管控、弹性调度带来技术挑战;二是边缘环境简单。处于边缘的设施工作状态与条件比照数据中心更差,往往存在弱网、断网等状况,对于边缘自治、云边协同、边边协同、跨节点迁徙能力、故障逃逸能力提出较高要求;三是边缘基础设施异构。出于老本考量、业务定制化需要的考量,硬件操作系统、网络结构等方面存在显著异构场景,给资源的云化纳管工作造成艰难;边缘容器云平台架构 物理资源层包含多云交融资源、MEC、ARM阵列、自有节点、多云交融资源等,下层为资源建设与运维平台,提供根底的IaaS服务。 中间层从下往上,首先由异构资源纳管局部负责将IaaS资源以k8s节点模式接入k8s集群中;正如前文所述,繁多的或大量的k8s集群无奈包容所有资源,所以基于异构资源纳管层须要构建多集群治理与调度交融能力,为下层提供规范的k8s界面;在规范k8s界面的根底上进行边缘能力的增强,包含边缘容器镜像、边缘工作负载、边缘服务网格、边缘利用治理等。 最顶层是边缘能力凋谢层,通过提供OpenAPI、开发者工具、能力开放平台等,使得用户、开发者能够通过凋谢层去应用阿里云边缘容器平台的各项能力来治理本人的业务。针对中间层的边缘容器云平台将开展进行介绍: 异构资源纳管异构资源纳管外围性能是将边缘资源以k8s节点模式接入集群中,如图所示为标准化接入流程,适配了MEC、ARM等各种业务场景。接入过程中同时感知集群水位散布与边缘资源网络状态等多维度指标,抉择最优接入集群,基于组件预置等技术计划缩小接入过程中如组件装置、下载等工夫老本,减速接入流程。 多集群治理多集群治理流程如图所示,客户通过虚构集群创立工作负载与pod,基于全域交融调度器,实时感知资源集群状态抉择最优调度后果,将后果反馈租户虚构集群中,利用同步器进行向下同步生产工作。 过程中将k8s集群分为两类,资源集群与为租户创立的独立虚构集群。通过多层树状拓扑构造使每一个独立虚构集群可能通过原生k8s语义应用全域边缘资源,并且晋升了租户间的隔离性。 对于k8s集群的读操作通过对立事件总线实现,而非间接对k8s集群进行操作。因而每个k8s集群都能无效管制集群上的客户端数量,缩小服务器上list-watch的耗费,并且使零碎具备程度扩大能力。 全域交融调度在模型中作为k8s集群的总调度器,类比于大脑这一角色,无效实现了全域资源的多维度实时感知与多层次调度。 边缘个性加强因为边缘资源单集群数量较多,因而须要通过单元化治理的概念将其映射到边缘的多个集群上,同时实现单元间的并行散发,以此晋升业务公布效率。阿里云通过自研适配边缘场景的工作负载,对每一台机器上的每一个pod版本更新实现精准管制,使得零碎更符合边缘异构场景上的容器与多开场景。 基于阿里云内容散发网络的技术与生态劣势,构建出具备全网缓存与减速能力的边缘镜像服务,对于大规模流量并发提供反对,实现容器扩容,进步创立速度。 稳定性体系基于阿里云内容散发网络构建的管控命令流传网络,使管控命令能够低提早,高触达公开发到机器上执行。目前所有的云边管控操作都通过云边管控通道实现,在边缘节点出现异常的状况下,将依照异样上报,由核心进行解决策略匹配工作,熔断查看,最初将自动化解决策略下发至边缘节点造成闭环。 风控核心组件除去前文提到的熔断查看工作,还具备高危操作拦挡能力,如k8s集群中大量node删除、pod对象删除、工作负载删除、权限批改、大规模标签批改等,帮忙客户业务实现稳固运行,为零碎保驾护航。 两大典型业务场景 构建边缘容器云平台最佳实际核心业务下沉日志网关下沉场景,包含httpdns、内容平安辨认下沉,实质都是核心业务的下沉。 终端通过申请调度寻找边缘节点,通过边缘网关服务将日志上报到容器中,此处申请调度与容器调度是协同工作的。例如业务容器CPU内存耗费的水位,将会影响申请调度的策略生成,水位高的状况下对申请调度节点进行批改。此外,申请调度同时影响容器调度,例如在集群正本数不够的状况下,触发容器调度对容器进行扩容操作。二者互相协同工作实现日志下沉。 核心下沉场景业务逻辑实质是通过云边端协同操作,节俭核心带宽老本,升高接入延时,为客户打造最佳应用体验。 终端上云机顶盒上云是终端上云场景的一类典型利用场景,同类场景还包含云手机、云游戏等。 管理员通过利用管理中心,通过阿里云自研工作负载与多集群治理等形式将容器运行在边缘服务器上。如图所示为一组多开容器实例,通过自研工作负载精准管制每一个服务器上的每一个容器版本。同时,阿里云与英特尔单干,于服务器上安装Intel Server dGPU,对终端流化渲染性能实现进一步晋升。 终端上云场景中,外围利用上移帮忙终端瘦身,将更多的利用运维与治理开发工作集中在边缘,实现了对业务灵活性与使用性能的优化。 更多边缘云产品动静欢送关注公众号【阿里云Edge Plus】

September 5, 2022 · 1 min · jiezi

关于云计算:Docker-向全面集成-containerd-又迈进一步

Docker 在刚刚公布的 Docker Desktop 4.12.0 中,退出了试验个性:进一步集成 containerd,应用 containerd 来治理和存储镜像。 为什么说是“进一步集成”?这就要翻翻 Docker 和 containerd 的历史了。 containerd 的诞生containerd 最早呈现在 Docker Engine 中,起初为了将 Docker Engine 做得更加轻量、疾速和强壮,在 2016 年 Docker 将 containerd 从 daemon(dockerd) 中独立进去,并实现了与 daemon 的集成。独立进去的 containerd 全面反对 OCI(Open Container Initiative)资源的启动和生命周期的治理,也因而 containerd 能够反对 runc(前身是 Docker 中的 libcontainer,起初捐献给 LF)以外的其余 OCI 实现。2017 年 Docker 将 containerd 募捐给 CNCF;2019 年 2 月,containerd 毕业。 containerd 独立进去之后,发送到 Docker Engine 的申请: Docker daemon 实现镜像治理的操作(拉取、更新镜像)daemon 会为创立容器进行筹备工作(创立 OCI bundles):镜像的信息和运行时的信息。daemon 调用 containerd 的 API。收到申请的 containerd 不会间接去操作容器(不间接作为容器的父过程,避免 containerd 挂掉影响容器),而是先创立一个 container-shim 过程。container-shim 调用 runc cli 来运行容器,并启动 Unix domain socket 裸露 API 提供给 containerd进行容器的治理。随着 containerd 的一直演进,除了容器创立和容器申明周期治理以外,从 1.1 开始 containerd 退出了 CRI(Container Runtime Interface)的反对。 ...

September 5, 2022 · 2 min · jiezi

关于云计算:数据赋能智慧重庆巴适得很

提到重庆你首先会想到什么激情似火的火锅事实版的《千与千寻》穿楼而过的轻轨“8D魔幻之城”总能让人眼前一亮数据赋能、科技驱动现在重庆正在借助云数智的力量为基层治理赋能添彩在数字中国建设的疾速推动下,基层治理正在全面、深度地与数字化、智能化技术相交融,中共中央、国务院《对于增强基层治理体系和治理能力现代化建设的意见》为基层治理数字化倒退再次按下“减速键”。 以数据为外围,以城市大脑为底座撑持,重庆构建起“1+3+3+7+N”基层智慧治理数字化体系,即建设1个基层智慧治理平台,买通党务、政务、综合治理3类数据,贯通3级政府(市—区县—街镇)、7级治理(市—区县—街镇—社区—网格—物业—楼栋),打造N个基于数字孪生的基层智慧治理利用场景,满足各级运行调度利用,全面撑持基层“常态服务、动态治理”,社区只针对一个平台,兼顾“下面千条线”、联通“上面一根针”。一屏总览 “一张网”兜起社区大小事为进一步健全基层治理体系,晋升治理能力现代化程度,2021年9月,重庆搭建起基层智慧治理根底数据库,下沉各级各部门根底数据,采集上报基层鲜活数据,打造一张“能上能下”、“动静更新”的数据网。依靠“渝快政”宽泛笼罩公职人员、基层干部、网格员的个性,能够疾速建设各类固定、长期工作体系,打造一张高效组织网。各级政务部门派发的零碎以标准化、模块化的模式接入“渝快政”,实现数据互联互通,让“千条线”交融会集,造成一张便捷的业务网。 关上基层智慧治理平台,人、房、地、事、物、组织等数据跃然纸上。平台通过接入物联感知设施,造成数字孪生展现,无论是社区网格地图、辖区人口、辖区屋宇等根底信息,还是平安巡逻、垃圾分类、出租房治理等与社区生存非亲非故的内容,均可一屏纵览。“一屏观天下”让可视化运管大屏取代人工巡逻,社区工作人员犹如领有了一个24小时奔跑的“瞭望台”,隐患精准预警及时处理成为事实,社区动静时刻“尽在把握”。在重庆,一幅全场景基层智慧治理的蓝图正徐徐开展。数据赋能 “一张表”构建基层数据台账民有所需,数有所用,数据的汇聚共享是基层智慧治理的驱动力。然而基层工作繁冗简单,零碎多而不通,数据独立、数据采集难、数据反复等问题令有数基层工作者头大。为此,浪潮云联结数字重庆搭建“基层数据台账”,依靠重庆市政务云、市区两级智能中枢与街镇边缘云节点,施展边缘云服务、数据分析治理等技术劣势,建设对立基层数据采集规范,交融共享下级政府数据,搭建基层智慧治理根底数据库,通过市级数据下沉、区级数据共享和基层数据采集多种渠道,实现跨部门、跨层级的数据一体化,让数据“能上能下”,造成业务台账“一张表”,实现基层数据高效汇聚与实时共享。 目前,重庆已汇聚核心城区基层治理数据182类、1.5亿条,实现市、区县、街镇、社区四级共享数据,为基层智慧治理继续注入“源能源”。翻新利用 “一张图”架起智慧治理高速路基层工作者常言“下面千根线,上面一根针”,如何用“数据”这根针,串起基层治理中的万千事项,考验着平台服务能力。重庆以城市信息模型(CIM)为载体,把城市各类业余数据集成为治理“一张图”,实现实体城市向数字空间的全息投影,加强了基层治理灵活感知、疾速剖析、迅速处理能力。在渝中区,许多小区的楼道里都设置了烟感雾感报警器,通过探测烟雾浓度和环境温度,实现火灾声光报警提醒。车辆拥挤、垃圾桶满溢、低空抛物……这些社区常见的问题,同样会有警报揭示专人解决。社区工作人员好像有了“千里眼”“顺风耳”,治理更高效,服务更及时。目前,渝中区已有11个街道、79个社区正逐渐实现这样的智慧社区服务和治理,切实做到了为民服务“暖心”,便民服务“贴心”,安民服务“安心”。在重庆基层治理能力现代化建设路线上,浪潮云将携手数字重庆持续保持以激活数据因素为抓手,摸索数据因素服务新高地,充分发挥云数智的力量为基层治理赋能添彩,跑出数字重庆建设“加速度”。

September 2, 2022 · 1 min · jiezi

关于云计算:在-Kubernetes-上执行-GitHub-Actions-流水线作业

GitHub Actions 是一个功能强大、“收费” 的 CI(继续集成)工具。 与之前介绍的 Tekton 相似,GitHub Actions 的外围也是 Pipeline as Code 也就是所谓的流水线即代码。二者不同的是,GitHub Actions 自身就是一个 CI 平台,用户能够应用代码来定义流水线并在平台上运行;而 Tekton 自身是一个用于构建 CI/CD 平台的开源框架。 Pipeline as Code,既然与代码扯上了关系。那流水线的定义就可繁可简了,齐全看需要。小到一个 GitHub Pages,大到流程简单的我的项目都能够应用 GitHub Actions 来构建。 本篇文章不会介绍如何应用 GitHub Actions 的,如果还未用过的同学能够浏览下官网的文档。明天次要来分享下如何在 Kubernetes 上的自托管资源来执行流水线作业。 0x01 背景在介绍 GitHub Actions 的时候,收费带上了引号,为何?其作为一个 CI 工具,容许用户定义流水线并在平台上运行,须要耗费计算、存储、网络等资源,这些运行流水线的机器称为 Runner。GitHub 为不同类(等)型(级)的用户每月提供了不同的收费额度(额度用完后,每分钟 0.008 美元。),见下图。不同类型的主机,分钟数的耗费倍数也不同:Linux 为 1、macOS 为 10、Windows 为 2。 拿收费用户来看,每月 2000 分钟看似也不少。比方笔者集体就是拿来构建下博客动态页面,以及几个简略的利用,每个月也用不了太多。但对于企业或者组织来说,尤其是当流水线的触发频繁(每次代码提交触发)、或者我的项目的单元测试耗时很长(bug 引起的或者我的项目自身的复杂度所致),千里之行;始于足下也会变成一笔不小的开销。 那有没有方法应用本人的资源来运行流水线呢?有。GitHub Actions Runner 分为两种:Github 托管的 Runner 和自托管的 Runner。咱们能够将本人的资源作为自托管的 Runner 来运行流水线,而且还能够借助 Kubernetes 的能力来治理这些 Runner。 ...

September 2, 2022 · 4 min · jiezi

关于云计算:源码解析-kubectl-portforward-工作原理

本文的源码基于 Kubernetes v1.24.0,容器运行时应用 Containerd 1.5,从源码来剖析 kubectl port-forward 的工作原理。 通过 port-forward 流程的剖析,梳理出 kubectl -> api-server -> kubelet -> 容器运行时 的交互,理解 cri 的工作形式。 kubectl简略创立个 pod: kubectl run pipy --image flomesh/pipy:latest -n default在执行 kubectl forward 时增加参数 -v 9 打印日志。 kubectl port-forward pipy 8080 -v 9...I0807 21:45:58.457986 14495 round_trippers.go:466] curl -v -XPOST -H "User-Agent: kubectl/v1.24.3 (darwin/arm64) kubernetes/aef86a9" -H "X-Stream-Protocol-Version: portforward.k8s.io" 'https://192.168.1.12:6443/api/v1/namespaces/default/pods/pipy/portforward'I0807 21:45:58.484013 14495 round_trippers.go:553] POST https://192.168.1.12:6443/api/v1/namespaces/default/pods/pipy/portforward 101 Switching Protocols in 26 millisecondsI0807 21:45:58.484029 14495 round_trippers.go:570] HTTP Statistics: DNSLookup 0 ms Dial 0 ms TLSHandshake 0 ms Duration 26 msI0807 21:45:58.484035 14495 round_trippers.go:577] Response Headers:I0807 21:45:58.484040 14495 round_trippers.go:580] Upgrade: SPDY/3.1I0807 21:45:58.484044 14495 round_trippers.go:580] X-Stream-Protocol-Version: portforward.k8s.ioI0807 21:45:58.484047 14495 round_trippers.go:580] Date: Sun, 07 Aug 2022 13:45:58 GMTI0807 21:45:58.484051 14495 round_trippers.go:580] Connection: UpgradeForwarding from 127.0.0.1:8080 -> 8080Forwarding from [::1]:8080 -> 8080从日志能够看到申请的地址为 /api/v1/namespaces/default/pods/pipy/portforward,其中 portforward 为 pod 资源的子资源。 ...

August 30, 2022 · 2 min · jiezi

关于云计算:恭喜天翼云翼起飞战队在CCF国际AIOps挑战赛中夺得亚军

近日,2022 CCF国内AIOps挑战赛在北京圆满闭幕,由天翼云研发二部云终端根底平台团队组成的“翼腾飞”战队以优越的问题斩获本次挑战赛决赛亚军。 此次赛题设计源于AIOps的外围场景——故障疾速发现与诊断,较量数据基于微服务架构的模仿电商零碎,要求参赛选手在云环境下实现算法模型调优、线上评测等操作。 历经缓和强烈的角逐和层层提拔,寰球百支参赛队伍中仅有9支队伍怀才不遇,受邀携技术计划加入决赛现场问难。“翼腾飞”战队针对较量多模态数据,翻新设计了基于多模态数据协同的异样检测算法,从复赛到决赛一路过关斩将,最终夺得大赛亚军  作为惟一一支进入决赛的运营商队伍,天翼云将会把基于此次赛事所翻新设计的多模态监控数据分析和异样检测算法,利用到将来超大规模云平台治理和运维实际中,继续推动云计算产业技术倒退与降级。 

August 30, 2022 · 1 min · jiezi

关于云计算:云上交通翼路畅行

8月20日,中国交通运输协会成立40周年暨第一届中国综合交通倒退大会在北京召开。会议以“聚焦双大纲,助力新倒退”为主题,围绕交通运输行业热点话题发展深度研究和交换。天翼云科技有限公司研发三部研发总监苗亮亮缺席旅客联程运输高质量倒退论坛,并发表“翼流无感,美妙出行”主题演讲,介绍了天翼云赋能高质量运输的落地实际。 随着数字化转型逐步深刻,新兴技术在交通运输行业失去深度实际利用,在缓解交通拥堵、优化出行服务等方面施展了切实有效的助力。近年来,我国踊跃落实打造智慧交通、推动新型基础设施建设决策部署,一直提倡以先进信息技术赋能交通运输业倒退。 天翼云作为云服务国家队,敢于承当建设国家要害信息基础设施的重要使命,保持科技翻新,自主掌控云计算、大数据、AI等要害核心技术,成为企业要害业务、利用、数据的外围承载平台,为各行各业数字化转型提供普惠服务,推动国家经济社会全面数字化转型。 在交通运输行业,天翼云继续以当先技术赋能交通运输服务数字化,并打造了一众行业数字化转型示范样板,减速“智慧交通”落地。 会上,苗亮亮分享了天翼云为解决广州机场高速拥挤难题,打造全国首个基于数字孪生技术的无感通行收费站案例。广州机场高速公路是广州市区与广州北部及新白云国内机场的交通枢纽,连贯了许多重要的交通通道。 针对日渐重大的拥挤景象,天翼云基于国内当先自主研发的跨摄像头全程轨迹跟踪、车型辨认、车辆疏导、实景数字孪生技术打造技术底座,造成边、云、网、智一体化的解决方案,反对全时段、全天候通行,实现通行不加速,大幅提高出行效率。 该计划还具备免费异样揭示、逃费信息留存性能。采纳无感通行零碎后,车辆最高通行速度由20km/h进步到72km/h,交易时长由4s升高到1.65s,车辆通行能力由690次晋升到1030次,实现了防疫车辆提前放行,无效助力疫情防控工作及时高效推动。  公路设施设置的规范性和及时无效的日常巡逻是交通安全的重要保障。但面对百万公里级的路线巡逻,仅靠人工实现路线养护不仅效率低下,且无奈保障工人的安全性。 天翼云AI路线养护计划,翻新设置5G车载摄像头对路面进行实时监测,并将采集的高清视频进行回传,借助天翼云本地资源池劣势提供可扩大的海量GPU算力,为AI多路视频的剖析提供算力反对,实现了智能剖析实时判断路面病害,解决了过往路线养护人工巡检取证难、定位难和治理难的问题。 采纳特有的小样本辨认技术,实现高精度负样本辨认,不仅大幅度晋升了路面病害检测的准确性,同时也躲避了人工漏检状况的产生,缩小了巡路工人不必要的危险。  此外,天翼云基于分布式资源布局、联合边缘云平安减速能力打造翼脸通计划,实现亮码稳固在线。翼脸通产品采纳AI技术,能够在戴口罩的状况下进行人脸精准辨认,识别率更高,并且能够实现无停留辨认,保障人员通行效率。利用深层特征提取技术,无效解决衰弱码尖峰流量应答和平安防护的问题。 交通运输是国民经济的基础性、先导性、战略性产业。现在,我国交通运输业正处于新旧动能转换期间,通过数字化实现品质改革、效率改革,是推动交通运输智慧降级、践行交通强国策略的重要门路。天翼云将继续深耕云技术,助力买通人、车、路、网的数字闭环,驱动交通运输畛域数字化转型降级,为放慢建设交通强国添砖铺石。 

August 30, 2022 · 1 min · jiezi

关于云计算:另眼旁观-Linkerd-212-的发布服务网格标准的曙光

另眼旁观 Linkerd 2.12 的公布:服务网格规范的曙光? 8 月 24 日,创造服务网格的公司 Buoyant 公布了 Linkerd 2.12,这是时隔近一年的版本公布。不晓得大家的对新版本期待如何,在我来看新版本中的性能对于一年的工夫来说的确不算多,然而我想说的是 Linkerd 还是那个 Linkerd,还是秉持着一贯的 “Keep it simple” 的设计理念。 新版本的内容不一一介绍,其中最次要的性能:per-route 策略,相比上个版本基于端口的策略,扩大到了 per-route。 而我想说的特别之处也就是在 per-route 和策略上。 per-route 和策略有何特别之处?在《SMI 与 Gateway API 的 GAMMA 倡导意味着什么?》 层有过猜测:将来服务网格的规范有可能全副或者局部以 Kubernetes 原生 API 的形式存在。 “网关 API,之于集群是入口/进口网关,之于 Pod 是 inbound/outbound sidecar。” 当初来看,Linkerd 先迈出了这一步。 per-route路由(routing)是通过网络将流量从源地址传输到目的地的操作。不同的流量有不同的操作(路由),流量路由的前提是流量的辨认,艰深来讲就是申请的匹配。对服务网格中常见的 TCP 流量,有源地址、源端口、目标地址、目标端口等标识;对于 HTTP 流量,标识则更多:门路、报头、参数等等。 Linkerd 通过一个 CRD ServiceProfile 提供了 per-route 的 指标、重试和超时设置,该 CRD 中能够配置匹配规定来进行流量的辨认。在新的 per-route 策略中,则又引入了新的流量辨认机制 HTTPRoute 。这个 HTTPRoute 实际上是来自 Kubernetes Gateway API,以镜像的形式保护在 policy.linkerd.io/v1alpha1 包中。 ...

August 29, 2022 · 1 min · jiezi

关于云计算:使用-Containerlab-Kind-快速部署-Cilium-BGP-环境

1 前置常识1.1 Cilium 介绍Cilium 是一款基于 eBPF 技术的 Kubernetes CNI 插件,Cilium 在其官网上对产品的定位为 “eBPF-based Networking, Observability, Security”,致力于为容器工作负载提供基于 eBPF 的网络、可察看性和安全性的一系列解决方案。Cilium 通过应用 eBPF 技术在 Linux 外部动静插入一些管制逻辑,能够在不批改利用程序代码或容器配置的状况下进行利用和更新,从而实现网络、可察看性和安全性相干的性能。 1.2 Cilium BGP 介绍BGP(Border Gateway Protocol,边界网关协定)是一种用于 AS(Autonomous System,自治零碎)之间的动静路由协定。BGP 协定提供了丰盛灵便的路由控制策略,晚期次要用于互联网 AS 之间的互联。随着技术的倒退,当初 BGP 协定在数据中心也失去了宽泛的利用,古代数据中心网络通常基于 Spine-Leaf 架构,其中 BGP 可用于流传端点的可达性信息。 Leaf 层由接入交换机组成,这些替换机会对来自服务器的流量进行汇聚并间接连贯到 Spine 或网络外围,Spine 交换机以一种全网格拓扑与所有 Leaf 交换机实现互连。 随着 Kubernetes 在企业中的利用越来越多,这些端点有可能是 Kubernetes Pod,为了让 Kubernetes 集群内部的网络可能通过 BGP 协定动静获取到拜访的 Pod 的路由,显然 Cilium 应该引入对 BGP 协定的反对。 在 Cilium 最后在 1.10 版本中引入了 BGP,通过为利用调配 LoadBalancer 类型的 Service 并联合 MetalLB,从而向 BGP 街坊宣告路由信息。 ...

August 28, 2022 · 7 min · jiezi

关于云计算:谈谈我们是如何实践-OKR-的多年宝贵实践经验逼坑指南

咱们介绍环界云计算是一家做开源的公司,外围产品是 sealos 基于 kubernetes 云内核的云操作系统发型版。 laf 是咱们开发的函数计算我的项目。 欢送大家赏星~ 上面开始介绍咱们是如何实际 OKR 一句话总结指标这是整个公司长期做的事的总结形象和提炼,为 OKR 的制订提供策略指导意义,OKR 制订周期大略三个月,这三个月中的指标制订的根据是什么?所以一句话定义公司长期要做的事就十分重要。 例子:sealos 是以 kubernetes 为内核的云操作系统发行版,让云原生简略遍及 团队所有成员都必须把这句话刻在脑子里。 OKR 制订流程是组织内每个人先写本人对于公司下个季度 OKR,而后对焦,确定了公司的 OKR 之后再拆解到组织中每个人。 OKR 是什么意思O 指标:能够形象概括一点KR 要害后果:掂量指标是否达成的几个关键点 OKR 不谋求简单,要刻在脑海里(重点细节),KR 要可掂量OKR 不是考核工具,要设置的有挑战性能够有多个O, 然而超过3个根本就是不够聚焦,9个KR根本也是记不住,就没意义很多人写一大堆指标给老板看的感觉我厉害吧 空虚吧 其实犯了 OKR 大忌! 比方在加入奇绩创营的时候咱们定的 OKR: O : 实现 [sealos](https://github.com/labring/sealos) 市场匹配验证KR1: 实现 3 家企业客户签单,合同额100wKR2: 函数计算 500 注册用户KR3: github star 总数冲破 12k指标十分明确,指标是能够形象一些的,很多人把指标和衡量标准混同,肯定要能被记住每个 KR 都十分明确可掂量,用来判断这个指标是否达到了再看下咱们执行后果怎么样: 实现了1家签单,45w合同 (有点定高了,高估了本人,没关系)实现500+ 注册用户(最终做到了 600 用户,定低了,应该定1000用户)github star 11k的样子 (实现70% 80% 正合适)高估或者低估本人是很失常的事,多实际就会越来越精确。 很多人放心定高了实现不了怎么办?从而不敢把指标定高,这里就误会了 OKR。 重点: OKR 用来帮忙聚焦的而不是考核工具 ...

August 25, 2022 · 2 min · jiezi

关于云计算:华为云开天-aPaaS-平台的流使用体验

笔者在 SAP 成都研究院工作时,已经在规范产品开发和我的项目原型开发中,应用过 SAP 的工作流解决方案。最近得悉华为云开天 aPaaS 平台开启了公测,其中提到的一个亮点,就是其流性能,这让我来了趣味,于是申请了收费的公测账号来体验一番。 华为云开天 aPaaS 平台,顾名思义,和 SAP BTP 一样,都是一款企业级的 Platform-as-a-Service 解决方案,是华为云与其生态圈的 Partners 共建共享的行业教训聚合与开放平台。 华为云开天 aPaaS 平台的控制台,将性能导航栏搁置于屏幕的左部,点击对应的导航菜单之后,进入对应的性能操作页面。默认显示的是 Home Page,外面蕴含以后用户曾经创立的资源,蕴含流,API 生命周期治理,模型治理等等。 咱们点击 Create Flow From Template, 能够基于开天平台预置的规范模板,进行一些简略的配置工作,就能疾速创立属于本人的流。 点击 View All Template,就能看到目前平台预置的所有流的列表: 点击这个 Region 列表,能够查看平台目前反对的所有地区: 在这里进行控制台显示语言的切换: 咱们切换成更便于大家浏览的中文显示。 抉择 每早8点发送热点新闻到邮箱的模板,点击 创立流: 模板提醒向导,会弹出下列的流内容列表,提醒创建者,这个流次要蕴含三大部分: 打算:即流的触发条件全网热搜榜:即流执行过程中输入的内容,通过 API 的形式,读取当天的全网热搜榜网易126邮箱:流的接收者(recipient)这三大部分从类型上说都是开天平台的连接器: 每个连接器的具体用处,能够在连接器->公共连接器 菜单关上的界面里,找到对应的连接器,进入明细页面查看: 这里能够查看全网热搜榜的输出和输入参数的具体格局。 回到流的创立向导,点击持续按钮后,进入流的编辑界面。这里以图形化的形式,显示出流的上述三大组成部分。 咱们在流的编辑界面里逐个单击,即可对这些步骤进行定制化。首先单击名为反复执行的触发条件模块,这里能够对首次运行工夫,反复执行形式,反复周期等触发形式进行自定义设置。 把查看元数据的选项关上,即可看到咱们实现对这个触发条件模块的自定义编辑后,对应生成的 JSON 数据,这些数据正是华为云开天 aPaaS 平台运行引擎执行流的时候,须要解析的流对应步骤的元数据。 ...

August 25, 2022 · 1 min · jiezi

关于云计算:ArchSummit回顾从云原生到实时数据湖架构如何支撑业务发展

【点击理解更多网易技术】 数字化、自动化、智能化的主旋律下,架构的进化也在提速。在近日举办的ArchSummit寰球架构师峰会上,网易数帆高级技术专家、资深架构师裴斐和网易数帆高级技术专家周劲松别离分享了云原生业务革新和数据湖实时化的最新架构实际。 业务架构:“纵”“横”整合,云原生赋能业务革新云原生是架构的将来,然而传统业务零碎向云原生演进面临诸多痛点:在业务侧,存量业务革新不易,须要面对部署、网络、运维管控等简单因素;在技术侧,云原生基础设施能力尚存有余,并且在迁徙演进过程难以做到平滑、无感知。 为此,网易数帆提出了“纵”“横”架构实际。裴斐介绍,“纵”是解决技术难题,保障各类业务可落地,从工夫线角度,分经典技术栈(如Spring Cloud,Java 代理流量网关),新晋技术栈(如服务网格、多运行时),继续推动技术能力建设;“横”则是解决场景难题,保障各种场景可撑持、可演进、稳定性,一则扩充平台笼罩业务场景的度,晋升简单场景撑持能力,二则解决业务架构演进各阶段的撑持难题,如新老共存、互通、稳定性等。 以较为典型的微服务为例,在纵向技术方面,须要别离从微服务框架、服务网格动手,解决微服务框架的痛点与进化,以及服务网格的易用性与性能稳定性晋升;横向业务方面,要实现从微服务框架到服务网格的平滑演进。 具体而言,引入微服务框架面临适用范围无限、对业务侵入性大、引入框架带来的负担重、框架的降级老本高、治理能力无限、与云原生架构演进抵触等痛点。网易数帆微服务框架的“纵向进化”,通过利用性能监控(APM)习用的无侵入 Java Agent 技术实现,外围是将传统微服务框架须要引入到业务代码的诸多框架以字节码加强的形式整合在一个 Java Agent 中,实现了服务治理能力逻辑不侵入业务代码,最终业务能够一键接入服务注册发现、熔断降级、限流、监控、配置等全套微服务治理能力。 微服务的另一个纵向技术服务网格则更为简单,网易数帆聚焦于业务平滑接入和大规模业务集群撑持能力的打造,对于前者打造多协定反对、流量治理、外围组件热降级、治理能力加强及Envoy 网关等能力,对于后者实现了数据面性能、稳定性晋升,管制面大规模集群撑持和多级容灾能力。 在“横向业务”上,从微服务框架迁徙到服务网格,须要多注册核心、对立控制协议、无侵入Agent的能力,解决服务间相互发现和拜访、Agent和Sidecar对立配置与管控、架构降级撑持等问题。网易数帆提出了一个双引擎多模式服务治理的平台理念,用来领导微服务技术、架构相干的平台建设工作,反对遗留业务、交融状态业务以及新开发业务之间的相互发现、相互调用、对立治理,涵盖了Agent 模式、Sidecar 模式、Agent+Sidecar模式、多运行时模式、SDK 模式等多种治理模式。 裴斐最初总结了“纵”“横”架构整合过程的“三字诀”。首先是“快”,架构决策要果决和久远,制订面向未来的架构决策,机会把控上无效切入。其次是“深”,要对核心技术进行深耕,对架构演进过程中波及的多种技术,可能深刻掌控,以不变应万变。最初是“稳”,不论是初态、两头态、终态,架构演进计划要稳字当先,逐渐演进。 数据平台:流批一体,数据湖交融实时场景数据开发模型同样面临整合与平滑演进的问题。经典的Lambda架构,是企业在离线链路技术率先成熟的背景下低成本实现大数据实时化的得力助手,然而流批宰割的硬伤究竟随着数据规模的减少和业务实际的深刻而暴发,如数据孤岛、研发体系割裂、指标和语义二义性等,因此流批一体、湖仓一体成为近年来新的谋求。 如何在既有数据平台的根底上平滑、低成本地实现这一架构演进?网易数帆为此提出了格局兼容、引擎平权的架构思维,打造流式湖仓服务(Streaming LakeHouse Service),即在支流数据湖表格局(Iceberg、Delta、Hudi等)之上用一个表服务层将数据湖与各引擎桥接,反对流批一体,并造成了开源我的项目Arctic(http://github.com/NetEase/arctic)。 对于Arctic,格局兼容是指百分百兼容 Iceberg / Hive 的表格局和语法,引擎平权则是同时反对 Spark 和 Flink 读写数据,以及 Trino/Impala 查问数据。周劲松介绍,Arctic通过实时数据更新、流批一体性能封装等两大能力集的打造,不仅反对流批混用场景,更解决了湖仓数据管理和优化等一系列性能、性能问题。前者包含反对主键定义、提供唯一性保障、构造自优化保障读写效率等,后者包含毫秒级提早的实时写入/读取接口、分钟级提早在Optimize层面,Arctic的优化器通过Minor Optimize和Major Optimize相结合,别离对变更数据和根底数据进行优化(湖仓表数据变更通过三元组的元数据中心感知)。的批量写入/读取接口、Flink/Spark/Trino等引擎反对等。 其中,反对主键定义是Arctic与数据湖表格局配合的一个要害翻新,不仅有助于实现更加优化的 CDC,主键唯一性束缚也是Merge on read(读时合并)和optimize的根底,无论对于数据管理还是性能保障都至关重要。 在Optimize层面,Arctic的优化器通过Minor Optimize和Major Optimize相结合,别离对变更数据和根底数据进行优化(湖仓表数据变更通过三元组的元数据中心感知)。 此外,Arctic还提供了文件索引、hidden queue、多写一致性保障等性能,来确保这一架构在业务落地。 周劲松介绍,在某业务推送营销剖析中,通过Arctic技术的引入,业务将批量剖析切换到实时生产,实现生产流程复用,并且优化报表响应工夫取得了10~100倍的晋升。 小结如同ArchSummit的主题——“降级架构思维,撑持业务倒退”,无论业务架构还是数据平台,网易数帆架构实际紧扣业务倒退需要,以前沿技术价值变现为指标,由此,技术攻关、架构整合、平滑演进成为事实的诉求。在此背景下,唯有苦练内功,深刻了解技术实质,能力把握架构思维的降级,进而满足业务需要。【点击理解,品牌流动,真实有效】

August 25, 2022 · 1 min · jiezi

关于云计算:Kubernetes-125-发布博云带你玩转新特性

三个月转瞬即逝,Kubernetes 如约公布了 V1.25 版本,新版本在诸多畛域都有加强。Kubernetes 1.25 带来了 40 余项性能加强,其中 13 个性能成为稳固状态;10 个是对于现有性能的改良;15 个全新性能;还有 2 个废除性能。在性能加强的数量上,1.25 与之前的两个版本大致相同,Kubernetes 仍然在按本人的节奏稳步推动中。本文将在泛滥个性中抉择几个进行介绍,涵盖平安、存储、网络等畛域。 01 存储CSI Migration Kubernetes 的存储插件分为树内(in-tree)和树外(out-of-tree)两种。简略说 in-tree 是指在 Kubernetes 主仓库保护的插件,而 out-of-tree 是指独立保护的插件。在之前,Kubernetes 有很多插件都是 in-tree 的,这样会使得 Kubernetes 代码保护艰难,并且造成 Kubernetes 主库的臃肿,所以三年前 storage SIG 就开始从 Kubernetes 外围中迁徙 in-tree 的存储插件到里面,变为 out-of-tree 存储插件。V1.25 版本中,很多 in-tree 的存储插件都将被删除,包含 GlusterFS, flocker, quobyte, storageos 等,具体列表请参考 deprecations-and-removals-for-storage-drivers [1] 。举例而言,从 1.25 版本开始,用户在应用以下 yaml 对接 GFS 存储时,将失去正告信息“this feature will be removed soon after in a subsequent release”。 ...

August 23, 2022 · 2 min · jiezi

关于云计算:sealos-作者创业心路历程

写在结尾如果你是一个开发者或者创业者,读完这篇文章置信肯定会有所播种,本文讲述我整个守业过程中的点点滴滴,以及一些经验总结,让你当前能够更好的布局本人的职业,以及避开我已经遇到过的坑。 被陆奇团队发现2021年末,我的开源我的项目 sealos 霸榜了 github 趋势榜将近一周,而后奇绩创坛团队就通过一些路径找到了我,邀请我填写一个申请表,过后我并不想填,因为我并不知道奇绩创坛是个啥,起初电话和我沟通我才晓得原来是陆奇博士守业团队,做技术的人大部分都认可陆奇,我也是因为这个才违心填表的。 随后就是一个十分钟的快问快答的面试,毫无准备的状况下被灵魂拷问了一番,然而我貌似天生就是个创业者很多问题都对答如流。最初顺利的从 5000 个我的项目中怀才不遇进入孵化器。 陆奇博士灵魂三问你的守业初心是什么?你的外围能力是什么?你对将来的判断是什么?这三个问题形成了团队的基因。 守业过程中简直每天都面临着变动,但下面的三个点往往是不变的。 我的初心就是实现本人一个十分大的野心(是啥不不便走漏),而这次守业只是其中一个小步骤。Qi 又问我如果大厂当初投入你足够多的资源,齐全让你做当初想做的事,你还违心不违心进去守业,显然我也是不违心的,因为我在阿里的时候基本上自由度也是很高的,起因很简略,我感觉我发明的货色很酷,只有我本人才配领有她,不想生了孩子给他人养。持续问我如果大厂控股呢?也不违心,因为控股就丢失了超过大厂的可能性。 外围能力我答复的是吸引人的能力,我感觉肯定有人写代码比我更强,做市场比我更强,融资能力比我更强,所以我如果摈弃所有能力只剩下一个的话那就是吸引人的能力,在填写守业营申请表的时候我还是孤军一人,表格外面有一项是形容本人意识的厉害的人,我写了两个,一个间断创业者也是 laf 的作者,兜里 3000 块敢去守业的,我非常拜服,另一个是我见过写代码最厉害的,拿了很多冠军,不乏世界级较量的冠亚军,也是编程太厉害高中就间接被输送中科大了。 而这两个人顺利被我忽悠当初成为了我的合伙人。 之后我又吸引了半次元(被头条收买)的技术合伙人退出咱们。 对将来的判断就是我的创业项目是做云操作系统,将来云操作系统会像 linux 发行版那样遍及,可能有几家占有 90% 以上的市场。 判断的根本公理: 企业间接应用 linux 内核是不好用的,所以有 centos ubuntu 这样的发行版,把,单机操作系统把单机上的过程治理的很好。当初很多利用都是分布式的,而目前没有个十分易用低成本的云操作系统发行版。云的规范“内核” kubernetes 曾经造成,发行版跃然纸上所以将来也会有几家云操作系统厂商诞生,sealos 致力成为其中一个。 入营播种明确指标一句话形容你想做的事,如驰名的“让天下没有难做的生意”。而 sealos 的一句话概括就是《sealos 是以 kubernetes 为内核的云操作系统发行版,让云原生简略遍及》 这个很重要,在很多决策摇晃的时候想想这句话能够把你拉回来,晓得什么是最重要的,初心是什么,这也是尽可能不变的货色。 梳理分明你要做的事what: 你做的是什么货色why: 为什么这件事有价值how: 要怎么做成这件事why us: 为什么是你们团队做why now: 机会为什么是当初traction: 以后停顿是什么样子的路演日的时候要三分钟之内讲清楚让他人能听懂你的货色十分有挑战,根本你本人没梳理分明是不可能做的到的。 市场匹配这个过程很清晰的指出了技术守业企业最容易挂掉的中央,也就是逾越鸿沟的中央,指出了很多坑,以及在市场推广方面的很多分享。 在这里我感觉对我来说最大的扭转就是以前从技术视角对待问题,当初会更全局全面对待问题。而技术性团队走向市场的第一步就是要置信业余的力量,找到最合适的合伙人补救本人的市场短板。 破坏性翻新进入公众市场的那道鸿沟对我产品思维有很大的转变,比方 sealos 不把 kubernetes 当成目标而只是借助其能力提供给用户真正想要的货色,如果没有这种认知那做进去的齐全会是另外一个货色。 投资对接我在两周左右的工夫将近沟通了 50 多位投资人,这个过程非常重要,倒不是因为融资成不胜利,而是投资人是十分聪慧的一群人,他们的各种挑战肯定是有情理的,如果哪个问题你答复的不是很分明阐明可能你哪里就没思考到。 聊完之前和聊完之后我本人和团队对咱们做的事有了新的认知,商业模式,门路等等都变得十分清晰。 比方最开始的时候咱们的商业模式有 1,2,3,4 各种形式都能挣钱,看着如同很牛逼,但事实是一个公司特地是小公司肯定只有 1 个商业模式是最重要的,模式一多也就是不聚焦,是要出问题的。 所以简略可不知是产品简略,组织也要简略,商业模式也要简略。最终咱们决定 allin 基于开源的私有云。 ...

August 18, 2022 · 1 min · jiezi

关于云计算:阿里云无影发布生态共荣计划携手伙伴推动终端算力上云

2022 年 8 月 11 日,阿里云无影在飞天技术峰会上公布生态共荣打算,与首批生态搭档实现签约,将携手搭档共建基于无影架构的生态链,让更多客户共享云计算红利。 多家华南企业代表参加首批生态搭档签约:南凌科技股份有限公司、广州青莲网络科技有限公司 、广州市泺立能源科技有限公司、深圳市耐施菲信息科技有限公司、东莞金领云科技有限公司、广东创云科技有限公司、惠科股份有限公司。 图:阿里云飞天技术峰会无影生态共荣打算公布暨华南首批搭档签约 图:阿里云飞天技术峰会无影展现 无影生态共荣打算,致力于与搭档一起打造灵便、平安、易用的云上数字化办公空间,共享千亿终端算力上云蓝海市场。阿里云将通过全方位的政策反对、凋谢共荣的生态打造、无力的市场资源反对,对搭档进行全方位的激活和赋能。 全方位的政策反对:推出无影经销服务领航打算,秉承做强无影生态、做好线上线下服务的准则,合力晋升面向客户的服务能力,晋升分销类搭档的整体经营能力,建设征询式销售,联合客户利用场景,提供差异化服务,助力搭档从过来的分销转型成为经销加服务模式。携手具备无影销服能力的合作伙伴,利用自身资源,实现单干业务的无效落地转化,帮忙搭档通过产品级业务晋升能力,打造自闭环,晋升生态搭档盈利空间。 凋谢共荣的生态打造:无影致力于与各行各业的生态搭档一起构建欠缺的产品解决方案生态链和销售服务生态链,无影的生态单干是多层次,全方位的,将联结分销搭档、服务搭档、软件搭档、硬件搭档和集成类搭档共建生态圈。 无力的市场资源反对:无影将为搭档提供无力的市场资源反对,包含流动沙龙策动、展会展台设计、线上流传资源反对等,通过线上线下资源的全方位反对助力搭档激活市场。生态搭档是无影市场蓝图重要的组成部分,无影将与搭档独特以客户为核心发明 1+1>2 的协同效应,联结打造灵便、平安、易用的云上数字化办公空间,让企业办公更平安,让员工办公无边界,让先进生产力触手可及。 图:阿里云飞天技术峰会无影生态共荣打算公布暨华南首批搭档签约 在阿里云飞天技术峰会上,以聚焦核心技术,激活企业内生能源为理念,无影团队与行业内泛滥高新技术畛域的领军企业一起,独特探讨企业如何在新一代的云计算体系架构之上,激活在业务、技术、产品三个层面的内生能源,找到全新增长点和外围竞争力。 无影自 2020 年云栖大会公布以来,曾经在泛滥行业实现了商业冲破,在平安办公、人力外包、分支机构、教育实训等场景取得了数万客户的青眼,让泛滥企业无效开释生产力,实现业务云上翻新。 点击这里,理解并收费体验无影云桌面。

August 18, 2022 · 1 min · jiezi

关于云计算:有没有见过在-terminal-里用微信支付

sealos 是一款云操作系统发行版,能够非常简单的治理 kubernetes 的生命周期,以及像应用 win11 一样应用云,最近写 sealos cloud 的领取模块,发现能够通过命令行做微信领取,十分有意思,当初和大家分享一下如何做到的。 输出一条命令,终端会输入二维码,间接微信扫一扫就能够付钱,这对于极客来说真是福音,对于一个蔑视应用 GUI 的人来说岂不是很香?为了站在鄙视链顶端(API 鄙视 as code 鄙视 CLI 鄙视 GUI)岂能不反对这么酷的个性~ 应用场景: 想想你充爱奇艺会员的时候咔敲个命令,扫一扫搞定,女朋友在旁边不得亚麻呆住?想想当初很多屎山一样的前端页面,半天都找不到按钮在哪,一条命令充值岂不是很酸爽?想想你执行一个命令忽然提醒欠费蹦出个二维码让你充值执行想想数据库备份日志显示一个二维码,扫码持续备份上面开始教程: 应用微信 native 领取形式native 领取会向微信领取服务发送一条申请,微信领取会返回一个 codeurl, 间接把这个 codeurl 转化成二维码,即可用微信扫描领取。 咱们本人服务端写一个获取 code-url 的接口: ws.Route(ws.GET("/wechat/code-url").To(u.getCodeURL)func (u Payment) getCodeURL(request *restful.Request, response *restful.Response) {amount := request.QueryParameter("amount") user := request.QueryParameter("user") a, err := strconv.Atoi(amount) codeURL, err := WechatPay(int64(a), user, "", "", os.Getenv(CallbackURL)) _, err = response.Write([]byte(codeURL))}这里获取谁(user)充值多少 (amout) 钱, (省去了非核心逻辑) 领取申请实现: func WechatPay(amount int64, user, tradeNO, describe, callback string) (string, error) { mchID := os.Getenv(MchID) // 商户号 mchCertificateSerialNumber := os.Getenv(MchCertificateSerialNumber) // 商户证书序列号 mchAPIv3Key := os.Getenv(MchAPIv3Key) // 商户APIv3密钥 mchPrivateKey, err := utils.LoadPrivateKey(os.Getenv(WechatPrivateKey)) ctx := context.Background() opts := []core.ClientOption{ option.WithWechatPayAutoAuthCipher(mchID, mchCertificateSerialNumber, mchPrivateKey, mchAPIv3Key), } client, err := core.NewClient(ctx, opts...) svc := native.NativeApiService{Client: client} resp, _, err := svc.Prepay(ctx, native.PrepayRequest{ Appid: core.String(os.Getenv(AppID)), Mchid: core.String(os.Getenv(MchID)), Description: core.String(describe), OutTradeNo: core.String(tradeNO), TimeExpire: core.Time(time.Now()), Attach: core.String(user), NotifyUrl: core.String(callback), GoodsTag: core.String("sealos recharge"), SupportFapiao: core.Bool(false), Amount: &native.Amount{ Currency: core.String("CNY"), Total: core.Int64(amount), }, Detail: &native.Detail{ CostPrice: core.Int64(608800), GoodsDetail: []native.GoodsDetail{ { GoodsName: core.String("sealos cloud recharge"), MerchantGoodsId: core.String("ABC"), Quantity: core.Int64(1), UnitPrice: core.Int64(828800), WechatpayGoodsId: core.String("1001"), }}, }, SettleInfo: &native.SettleInfo{ ProfitSharing: core.Bool(false), }, }, ) return *resp.CodeUrl, nil}此接口会返回这样的一个字符串,也就是咱们须要转化成二维码的: ...

August 18, 2022 · 2 min · jiezi

关于云计算:数字时代云边端如何协同听听天翼云怎么说

8月10-12日,由中国信息通信研究院、中国通信标准化协会主办的“2022数字化转型倒退高峰论坛”在北京召开。大会颁布了首届“鼎新杯”数字化转型利用征集流动后果,在数字政府评估后果中,天翼云再获两项认证:天翼云通过专有云模式的政务云服务评估,天翼云数字中台通过数字政府智慧中台评估。天翼云“翼流”全域数字交融无感通行数字孪生收费站案例荣获行业交融利用三等奖。 在“云边端一体化赋能政企数字化转型”分论坛中,天翼云研发专家胡建锋发表了题为《云边端协同,减速行业数字化转型》的演讲,具体介绍了天翼云的算力资源、布局及利用实际。 数字经济时代,普惠的算力成为减速千行百业数字化转型的外围。针对泛在算力布局的总体目标,天翼云依靠“2+4+31+X +O”资源布局,打造了天翼云4.0分布式云,实现了一云多态、一云多芯、一张云网、统一架构、对立调度、对立运维。 基于“2+4+31+X +O”的算力布局,天翼云将算力进一步下沉至边缘,依据客户业务地位的不同,分为浅边缘ECX智能边缘云、深边缘iStack边缘一体机、最边缘iBox边缘盒子,由此实现泛在算力、全景笼罩、全新互联、全新服务的愿景和指标。 浅边缘ECX智能边缘云领有近400个节点,可提供IaaS层所需能力,具备低时延、高吞吐的性能,反对低成本部署、便捷交付与治理。同时,天翼云一城一池预置大量带宽接入骨干网,可就近提供边缘数据、视频接入。 深边缘iStack一体机基于超交融技术的软硬一体化解决方案,部署在边缘业务现场,可能提供大连贯、低延时、大带宽、本地化的场景化服务,解决客户“最初一公里”的连贯和计算供应问题。 最边缘iBox边缘盒子依靠智能本地算力节点,可能间接与设施端连贯,实现本地实时计算和推理。作为一款云边协同、可提供多种AI算法的智能产品,iBox可将人工智能利用于海量物联网数据中,为各类场景提供基于 AI 辨认模型的智能服务。  为将各种算力进行对立调度和散发,天翼云自研涵盖资源管理平台、算力调度引擎、算网大脑的算力散发网络,可能进行灵便的算力调度,助力客户实现按老本调度、按体验调度等多种调度策略,达到对算网资源的全局智能调度和优化,无效促成算力的流动,实现业务性能和老本的最优。 此外,天翼云在核心云和边缘云的云边协同方面也早有布局,并从三方面实现云边协同。▎在业务协同方面由云端实现AI训练,模型下发边缘实现业务推理,业务数据回传云端持续优化模型; ▎在资源协同方面云端调度边缘资源满足业务变动,也可对边缘利用进行部署和降级; ▎在网络协同方面云间高速让云边网络互通,通过SD-WAN控制器、163/DCI或独享云专线,实现资源平安互访。 基于云边资源正当治理调配,天翼云正一直推动分布式云时代减速到来。在云边协同计划具体利用场景方面,天翼云也早有实际: ▎在直播畛域中天翼云极速直播基于天翼云自研的算力底座,充分利用算力编排和算力调度的能力劣势,无效优化产品的研发和经营效率,助力极速直播的精细化经营。 ▎在工业畛域的产品质检环节天翼云iBox边缘盒子可主动发现缺点产品并被动告警,无效地升高时延,缩小生产损耗,助力工厂高效晋升产品品质。 目前,天翼云CDN和边缘计算已实现全栈多技术路线国产化,实现边缘云平台的自主可控。将来,天翼云将基于齐备的云边端产品及协同计划,使能企业业务翻新和倒退,进一步减速千行百业的数字化转型。 

August 16, 2022 · 1 min · jiezi

关于云计算:一不小心晋级CCF国际AIOps挑战赛决赛

近期,由天翼云研发二部云终端根底平台团队组成的“翼腾飞”战队,在2022 CCF国内AIOps挑战赛中,以第三名的问题强势升级决赛,并将于8月13日加入最终的决赛问难,作为惟一一支进入决赛的运营商队伍,此次升级意味着天翼云的智能运维能力已处于业内领先水平。 国内AIOps挑战赛由清华大学联结中国计算机学会(CCF)独特发动,是智能运维畛域的国内顶尖赛事,备受寰球关注。往年,挑战赛以“微服务架构电商零碎下故障辨认和分类”为赛题,吸引了海内外300多支队伍加入,包含来自上海交通大学、华中科技大学近千名运维畛域和AI畛域的高手参赛。 此次赛题设计源于AIOps的外围场景——故障疾速发现与诊断,较量数据基于微服务架构的模仿电商零碎,要求参赛选手在云环境下实现算法模型调优、线上评测等操作。 “翼腾飞”战队成员始终深耕于云终端底层平台的研发工作,同时在云平台运维中踊跃践行DevOps及AIOps等理念,在自动化、智能化运维方面积攒了丰盛教训。 此次参赛是天翼云“翼腾飞”战队针对较量多模态数据,翻新设计了基于多模态数据协同的异样检测算法,在复赛中一举夺得第三名的好问题并进入决赛。 就具体赛题而言,本次较量在测评阶段仿照生产环境监控数据的获取和检测模式,通过订阅kafka推送的实时监控数据流,要求选手自行设计疾速和高鲁棒性的异样检测算法和故障分类算法,实现精确、高效、通用的故障检测和故障分类。 一方面,主办方提供了海量多模态监控数据,包含应用服务的动静拓扑、实时调用链数据、实时业务黄金指标、性能指标(来自于容器、操作系统和JVM等)和日志,其中指标名称与指标所在对象的组合约有5000多种,每天的数据约有6G,与理论运维场景的数据量靠近,同时指标数据每天有将近800万行,日志和调用链每天的数据量各有上千万行,进行实时异样检测难度极大。  局部指标和日志数据进行可视化后的样例图 另一方面,赛事组织方在短时间内集中组织间断多天的实时测评,最初依据各参赛队伍提交的后果,对故障检测提早、故障检测准确率、检测召回率、定位准确率和分类准确率进行综合评分,这须要选手对算法计划继续进行疾速迭代优化。 对此,“翼腾飞”战队提出了一种多模态数据协同的检测模型,并采纳了无监督和有监督联合的算法体系,联合优良的代码工程实际以及多年云平台建设和运维教训,实现了故障疾速发现与诊断,获得了卓越的实际效果,充沛践行了“常识+数据+算法+算力”的AI 3.0理念,在海内外参赛选手中怀才不遇。 此次参赛推动了天翼云与业界优质研发团队及学术机构的切磋交换,同时也展现了天翼云多年的云平台建设和运维成绩。基于此次赛事所翻新设计的多模态监控数据分析和异样检测算法,也将利用到将来超大规模云平台治理和运维实际中。 对于决赛,“翼腾飞”战队充满信心,将与赛事选手共推AIOps的落地利用,让先进的数字技术与计划早日普惠公众。 

August 16, 2022 · 1 min · jiezi

关于云计算:科技赋能会展3DCAT助力广东旅博会元宇宙场景的首次搭建

由广东省文化和游览倒退与保障核心主办,岭南商旅团体广之旅承办的2022广东国内游览产业博览会(以下简称“旅博会”)于8月9-10日在广州东方宾馆举办,线上旅博会平台将与线下展览同步开启,并继续31天至9月8日。 旅博会自2009年开办以来已间断举办13届,是广东省着力打造的国内出名文旅展会品牌,已成为粤港澳大湾区乃至国内最具影响力的文旅展会之一。 <center>2022广东文旅推介大会系列流动新闻发布会现场</center> 聚焦以后游览市场倒退新变动,本届旅博会有六大亮点:超长31天线上展会周期、数字化解锁“元宇宙”新场景、科技与文旅深度交融、多维度展现文旅新趋势、大咖齐聚大湾区、惠民补贴笼罩更广。 而3DCAT实时渲染云在「数字化解锁“元宇宙”新场景」里也同样解锁了新利用和新机遇,继续用当先行业并高度自研的实时云渲染技术赋能旅博会,助力旅博会的数字化过程。 科技赋能会展 首次搭建沉迷式“元宇宙”场景自2020年疫情暴发以来,“线上+线下”双线驱动办展已成为新常态,本届旅博会把握转型倒退契机,摸索更适宜文旅行业个性的“云展览”模式,推动旅博会数字化倒退过程。 本届旅博会引入中国移动通信集团广东有限公司作为技术总反对,整合瑞云科技的3DCAT实时渲染能力与广东惠众信息科技的三维建模能力,打造沉迷式元宇宙平台建设的一揽子解决方案,联合5G、VR(虚拟现实)、裸眼3D、人工智能等技术出现展览展现成果,实现线上3D虚构漫游与360°全景相结合,次要设置云展示中心性能,实现云体验、云展览、云推介等一站式云服务,为参展商打造高效商务对接通路,为公众提供多样便民惠民服务。 其中,3DCAT反对的云展示中心将提供“3D元宇宙”和“720VR全景”两种版本的体验。 “3D元宇宙”以营造虚构体验为次要指标,基于5G技术实现1:1展馆复刻和线上线下联动,为公众提供丰盛的交互方式以及细腻新鲜的展厅体验。 “720VR全景”则通过轻量级VR全景体验技术,为大部分智能手机用户的快速访问、理解展会资讯发明最优条件。 扫码或点击链接参观线上旅博会http://lbh.avr-travel.com/ 沉迷式旅博会“元宇宙”场景由广东惠众信息科技负责内容建模设计,3DCAT实时渲染云提供业余高效的实时渲染云服务。 广东惠众信息科技有限公司利用空幻引擎,为沉迷式旅博会“元宇宙”场景打造了超高清可交互三维可视化旅博会内容,再通过3DCAT实时渲染云端弱小的图形渲染算力和高度自研的网络串流技术,将计算结果实时推送到用户终端。满足用户跨终端、可交互、超高清、沉迷式“元宇宙”逛展的需要。 运行在3DCAT实时渲染云的旅博会“元宇宙”场景内容,无需下载安装,灵便嵌入网站、APP、小程序等各类流量入口,反对海量用户平安拜访,主动负载平衡和伸缩扩容。 借助于5G+实时云渲染的技术,游客能够冲破时空和设施的局限,在任何中央身临其境般旅行旅博会,1:1实在还原的旅博会映入观众眼帘。同时3DCAT助力展会资源多重虚实场景引流,为现场观众出现极具科技感与互动感的数字文旅新场景。 3DCAT实时渲染云正在笼罩越来越多的数字内容互动畛域,为更多线上场景提供高互动性,高沉迷感、高清的产品体验,真正让XR利用触手可及,一键赋能元宇宙! 局部文字起源:广东旅博会公众号

August 15, 2022 · 1 min · jiezi

关于云计算:最多可省19阿里云第七代云服务器ECS中国大陆地域调价通知

始终以来,阿里云通过自研技术一直进步产品性能,升高产品应用门槛。为了激活企业翻新倒退,阿里云发表让利用户,针对中国大陆地区的第六代和第七代云服务器 ECS 进行调价,用户最高可节俭 19%,具体规格族包含计算型实例 c6&c7、通用型实例规格族 g6&g7、内存型实例规格族 r6&r7,大家可登录阿里云官网理解 ECS 最新流动,以优惠价格体验第七代云服务器 ECS。 扫描下方海报中的二维码或者点击这里,即刻体验第七代云服务器 ECS。

August 15, 2022 · 1 min · jiezi

关于云计算:龙智集团赢得2022年Atlassian与AWS云销售竞赛

近日,在Atlassian与亚马逊云科技( Amazon Web Services)联结举办的2022年云销售比赛中,龙智团体从泛滥竞争者中怀才不遇,成为优胜者之一。 面对企业上云的支流趋势,Atlassian与亚马逊云科技(AWS)心愿帮助更多企业实现上云指标,因而举办此次2022云销售比赛,并提供25万美元的奖金,为激励合作伙伴对新迁徙至Jira软件(JSW)云版、Confluence云版、Bitbucket云版或Jira Service Management云版的客户予以最大反对。 此次较量共有DACH区域(德语区国家)、EMEA区域(欧洲、中东、非洲三地区)、亚太地区以及北美地区四个地区的企业参赛,胜利帮助272家企业、717,000名新用户上云。 龙智团体凭借在Atlassian云版产品销售的优异体现及客户的好评博得了该比赛,在上云新客户排行榜中名落孙山。 目前,龙智团体领有Atlassian寰球认证集体21名,其中两名是Atlassian认证专家,龙智在日本东京、加拿大滑铁卢、中国香港和上海均设有分公司,为企业客户提供Atlassian产品(Jira, Confluence, JSM等)的征询、销售、培训、施行部署、运维和技术支持服务。 作为DevSecOps 解决方案提供商、Atlassian寰球白金合作伙伴,龙智团体秉承开放式的理念,集成Atlassian与其余寰球支流工具,胜利为金融、游戏、互联网、汽车、芯片、医疗等泛滥行业的企业落地大规模、麻利、平安的DevSecOps(研发平安经营一体化)解决方案,凭借业余的技术和服务享誉业界,受到客户宽泛的信赖与认可。 此外,龙智团体自主研发了多款Atlassian产品插件,笼罩工时治理、组织架构治理、附件监控、到期日揭示、并行审批等畛域。面对上云的趋势,龙智团体也推出了相应插件的云版,如Jira并行审批插件(Workflow Parallel Approval云版,帮忙企业更好地应用Atlassian云版产品,满足更多业务场景需要。目前,龙智团体自主研发的Atlassian产品插件曾经受到美国、英国、意大利、法国、匈牙利、土耳其等二十个国家和地区客户的青睐和信赖。 如需理解DevSecOps行业最新动静与音讯,请立刻分割DevSecOps研发平安经营一体化解决方案供应商——龙智:电话:400-775-5506邮箱:marketing@shdsd.com

August 12, 2022 · 1 min · jiezi

关于云计算:karmada-调度策略想要实现这三个组件必须了解-K8S-Internals-系列第-4-期

K8S Internals 系列:第四期在 Kubernetes 一统天下场面造成后,K8S 成为了云原生时代的新一代操作系统。K8S 让所有变得简略了,但本身逐步变得越来越简单。【K8S Internals 系列专栏】围绕 K8S 生态的诸多方面,将由博云容器云研发团队定期分享无关调度、平安、网络、性能、存储、利用场景等热点话题。心愿大家在享受 K8S 带来的高效便当的同时,又能够如庖丁解牛般领略其内核运行机制的魅力。 在上一期文章《K8S多集群治理很难?试试Karmada | K8S Internals系列第3期》中,咱们次要介绍了 karmada 架构及相干资源概念,理解了 karmada 的倒退历史。 家喻户晓,karmada 组件中有三个组件与调度密切相关,别离是 karmada-scheduler,karmada-descheduler 以及 karmada-scheduler-estimator,这三个组件的协同作用能够实现 karmada 的多种调度策略。本文咱们将次要介绍下这三个组件。 01karmada-schedulerkarmada-scheduler 的次要作用就是将 k8s 原生 API 资源对象(蕴含 CRD 资源)调度到成员集群上。咱们先看一下其与 k8s 集群的 kube-scheduler 的比照: 调度插件 karmada scheduler 在调度每个 k8s 原生 API 资源对象(蕴含 CRD 资源)时,会一一调用各扩大点上的插件: filter 扩大点上的调度算法插件将不满足 propagation policy 的成员集群过滤掉 karmada scheduler 对每个考查中的成员集群调用每个插件的Filter办法,该办法都能返回一个Result对象示意该插件的调度后果,其中的code代表待下发资源是否能调度到某个成员集群上,reason用来解释这个后果,err蕴含调度算法插件执行过程中遇到的谬误。// Filter checks if the API(CRD) of the resource is installed in the target cluster.func (p *APIInstalled) Filter(ctx context.Context, placement *policyv1alpha1.Placement, resource *workv1alpha2.ObjectReference, cluster *clusterv1alpha1.Cluster) *framework.Result {    if !helper.IsAPIEnabled(cluster.Status.APIEnablements, resource.APIVersion, resource.Kind) {        klog.V(2).Infof("Cluster(%s) not fit as missing API(%s, kind=%s)", cluster.Name, resource.APIVersion, resource.Kind)        return framework.NewResult(framework.Unschedulable, "no such API resource")    }    return framework.NewResult(framework.Success)}// NewResult makes a result out of the given arguments and returns its pointer.func NewResult(code Code, reasons ...string) *Result {    s := &Result{        code:    code,        reasons: reasons,    }    if code == Error {        s.err = errors.New(strings.Join(reasons, ","))    }    return s}score 扩大点上的调度算法插件为每个通过上一步过滤的集群计算评分karmada scheduler 对每个通过上一步过滤的成员集群调用每个插件的Score办法,该办法都能返回一个int64类型的评分后果。 const ( // MinClusterScore is the minimum score a Score plugin is expected to return. MinClusterScore int64 = 0 // MaxClusterScore is the maximum score a Score plugin is expected to return. MaxClusterScore int64 = 100)// Score calculates the score on the candidate cluster.// if cluster object is exist in resourceBinding.Spec.Clusters, Score is 100, otherwise it is 0.func (p *ClusterLocality) Score(ctx context.Context, placement *policyv1alpha1.Placement, spec *workv1alpha2.ResourceBindingSpec, cluster *clusterv1alpha1.Cluster) (int64, *framework.Result) { if len(spec.Clusters) == 0 { return framework.MinClusterScore, framework.NewResult(framework.Success) } replicas := util.GetSumOfReplicas(spec.Clusters) if replicas <= 0 { return framework.MinClusterScore, framework.NewResult(framework.Success) } // 再次触发调度时,已存在正本的集群得分更高 if spec.TargetContains(cluster.Name) { return framework.MaxClusterScore, framework.NewResult(framework.Success) } return framework.MinClusterScore, framework.NewResult(framework.Success)}最终依照第二步的评分高下抉择成员集群作为调度后果。目前 karmada 的调度算法插件:APIInstalled: 用于查看资源的API(CRD)是否装置在指标集群中。ClusterAffinity: 用于查看资源选择器是否与集群标签匹配。SpreadConstraint: 用于查看 Cluster.Spec 中的 spread 属性即Provider/Zone/Region字段。TaintToleration: 用于查看流传策略是否容忍集群的污点。ClusterLocality 是一个评分插件,为指标集群进行评分。 ...

August 12, 2022 · 3 min · jiezi

关于云计算:一起畅聊云操作系统龙蜥社区亮相阿里巴巴开源开放周完整议程来了

第一届阿里巴巴开源凋谢周是阿里巴巴联结开源办公室、支流媒体独特举办的系列线上分享会,流动于 2022 年 8 月 22 日-8 月 24 日通过线上直播模式,重点围绕五大要害畛域(操作系统、数据库、云原生、大数据、终端)的生态系统与阶段性成绩,与开发者、开源爱好者、关注开源畛域趋势等泛滥生态搭档独特践行凋谢共享的好科技。 龙蜥社区作为合作伙伴之一,打造了操作系统专场分享,敬请关注直播工夫和平台: 直播工夫: 2022 年 8 月 23 日(周二) 9:30-11:45 直播平台:bilibili、龙蜥社区交换群(入群形式见海报) 以下是本次专场论坛详情海报,请点击查看 欢送各位开发者扫码退出龙蜥社群(二维码见海报),提前扫码入群,第一工夫获取直播链接,流动当天观看直播还能够在线参加群抽奖~快快锁定本场技术分享盛宴!想要获取社区更多精彩演讲,还请继续关注龙蜥公众号【OpenAnolis龙蜥】不迷路! 对于第一届阿里巴巴开源凋谢周残缺议程,点击这里查看! —— 完 ——

August 10, 2022 · 1 min · jiezi

关于云计算:看得见风和日丽看不见风起云涌

气象预报与居民日常生活非亲非故。交通出行、农业生产、地质灾害防备等等,无不有赖于对气象的监测与提前预判。精准的预报,能够领导人们更好地生产和生存。 从过来“看云识天气”,到现在24小时暴雨预警准确率达90%,强对流天气预警工夫提前至40分钟,台风门路24小时预报误差一直放大……我国的气象预报能力正飞速晋升。 在飞速晋升的气象预测能力背地,离不开高性能计算集群HPC的撑持。基于HPC,天翼云携手同样与“云”打交道的气象工作单位,以科技翻新共推中国气象事业的数字化、信息化倒退。  HPC高性能计算集群轻松应答气象工作海量简单计算古代气象预报工作的原理:建设用来形容天气演变过程的方程组,输出代表不同大气状态的数据,在计算机上求解,用来预测天气。 然而气象工作畛域中的数据分外简单,再加上气象预报业务量激增、高时效性要求等,个别的计算机难以无效胜任气象畛域的计算工作。现阶段我国在气象数值预报中,更须要向着多模式耦合、分别率更高、汇合预报的方向进行一直停顿,这也使气象畛域对高性能计算技术的需要变得急迫。 高性能计算技术(HPC)是利用超级计算机和并行处理的形式疾速实现耗时较长的工作或同时实现多个工作,其在气象畛域中的利用极大地推动了我国气象畛域的信息化过程。 天翼云HPC解决方案依靠自研云操作系统CloudOS 4.0,为客户提供高性能、高牢靠、部署快捷、平安可信的计算服务,满足计算密集型、海量数据处理等计算需要,助力企业业务模式翻新。  善其事利其器天翼云推动气象科研成果落地某大学是一所以大气科学研究为特色的全国重点大学,由省政府、国家教育部等单位共建,有多个气象预测相干业余。作为重要的气象科研单位,该大学亟须高性能计算集群以解决气象科研业务中大型、简单的计算问题,并对计算平台构建提出了管制事件老本、升高运维繁琐水平等需要。 天翼云基于本身云网交融、专属定制等劣势,为该客户提供了不便、灵便、低成本投入的HPC解决方案,助力客户大幅升高一次性投资老本,疾速实现部署并投入科学研究。 在该计划中,天翼云提供了包含裸金属物理机、GPU服务器、云主机、IB网络等在内的云产品,在高性能、低时延、稳定性三方面获得了卓越功效。  ▪ 天翼云可依据不同的计算、内存需要提供多种计算规格抉择,并反对裸金属服务;▪ 天翼云提供极速网络,可将时延管制在5us以内,并提供平安接入,反对网络物理隔离与独立部署,充沛保障数据安全;▪ 天翼云的高速百兆入云专线,可保障上传气象数据高效稳固。 在天翼云的助力下,该大学取得了可复制、按需付费的高性能计算能力。在平安、便捷的计算环境下,该大学可能聚焦本身业务,一直推动气象科研成果的落地。 气象行业的科技翻新不止于此,相干政策提出要持续晋升国产超算技术利用能力。将来,天翼云将继续施展云服务国家队劣势,以高性能计算能力,赋能气象钻研与成绩利用,让数字技术惠及宽广人民大众。 

August 9, 2022 · 1 min · jiezi

关于云计算:暴雨天看天翼云如何快准稳防涝

近日,我国多地呈现强降雨、强对流天气。全国大部分地区有暴雨到大暴雨,其中局地有特大暴雨。  对于此次大范畴降雨,多地自然资源、应急治理、住建、水利、游览等部门在收到气象部门预报预警后,便踊跃利用数字技术发展各类防灾减灾救灾工作,切实保障人民大众生命财产平安。而在这其中,就蕴含了天翼云为水务部门带来的科技赋能,大大提高了汛期排水工作的效率。  始终以来,水务治理都是城市治理和倒退中不可或缺的一环。面对暴雨、台风的降临,如何无效缓解城市内涝景象,防止因极其天气造成市民出行不便,更是水务治理部门长期思考的问题。在过来,水务治理的过程中存在大量“数据孤岛”景象,管网、水表、水泵等设施的各类数据绝对独立,且不同零碎间兼容性不佳,数据之间、零碎之间无奈实现互联互通。正因为此,在城市面临由暴雨引发的内涝时,水务部门难以在第一工夫收到音讯并疾速解决。  依靠云网资源和技术自研的劣势,天翼云为水务部门带来了智慧解决方案,让其辞别了从前水务管网数据采集监测难对立、信息接管和解决提早的痛点。通过部署私有云,天翼云为该部门搭建起了智慧水务治理平台,让其实现了对系统和数据的对立治理。而依靠规格丰盛、按需开明、即开即用的云资源特点,天翼云以较低成本为该部门在最短时间构建了全新的治理利用,让水务部门无需一次性大额投入。除此之外,通过部署根底监控、操作系统监控和过程监控,天翼云还确保了水务部门云主机运行状态的全方位实时可视,不便后续工作人员运维工作疾速发展。  在天翼云的助力下,水务部门的业务失去了疾速降级,实现了排水治理精细化、决策调度科学化,并走上了水务管网建设经营智慧化的路线,能够轻松应答简单天气情况下的城市排水挑战。

August 9, 2022 · 1 min · jiezi

关于云计算:使用-veImageX-为-Flarum-论坛升级图片品质

应用了许久的 Flarum 始终想找一个相对来说比拟好用的图床插件,也尝试应用过许多款不同的 Flarum 图像上传插件都不太称心。在 2016 年前后有一款比拟牢靠的插件也在 2018 年前后进行了更新。通过调研,最近找到了字节跳动旗下的火山引擎 veImageX 集成插件,体验了几天,成果尚称心,也分享给大家。当然,依据官网介绍 ImageX 不仅反对图像处理还反对文件散发与托管等同于图床加静床的组合。 开明服务拜访火山引擎官网 https://www.volcengine.com/pr... 注册并登录账号实名认证 https://console.volcengine.co...进入火山引擎控制台 https://console.volcengine.co...装置与配置给 Flarum 装置火山引擎 veImageX 插件 https://discuss.flarum.org.cn... composer require ExerciseBook/fof-upload-imagex  应用指令装置插件 关上 Flarum 控制台开启插件   开启 FoF Upload 和 FoF Upload ImageX 插件。 填写 FoF Upload ImageX 插件的配置 登录根本信息     Access Key 和 Secret Key 是你的火山引擎账户的登录信息 服务根本信息     先在火山引擎控制台中申请一个图像处理服务,而后将该服务的根本信息填入插件配置 填写图像处理模板     我集体习惯预览图应用一个等比缩放到宽度为 640px 的模板作为小图解决模板,而大图解决模板留空。这种配置能够使得帖子的浏览图应用的是一个较小的尺寸,而点开大图显示的时候应用的是残缺尺寸,比拟人性化。     图像处理的模板,是 ImageX 提供的图像处理概念,能够在火山引擎 ImageX “图像处理配置”中进行配置,形如“tplv~xxxx.webp” 配置实现火山引擎集成插件之后,咱们来配置 fof/upload。   将 fof/upload 插件中的图像上传形式和加载形式均抉择 ImageX 后保留。 ...

August 4, 2022 · 1 min · jiezi

关于云计算:一朵云如何带来产业新变革

随着数字化转型过程一直推动,云计算市场规模不断扩大,“如何通过云服务为产业数字化改革赋能”成为各行业关注的话题。10月15日,天翼云科技有限公司研发一部副总经理杨鑫应邀出席2021年第六届IDC中国数字化转型年度盛典,并发表《云网数智安一体,赋能产业数字化改革》的主题演讲,分享了天翼云对企业数字化转型的了解与摸索。  平安可信是高质量数字化转型的要害因素。杨鑫示意,始终以来,天翼云都对平安能力高度重视,并对平安可信有三层了解:第一层,依法合规是提供数字化服务的底线,要听从网络安全法等相干法律法规,通过网信办、信通院等行业权威认证;第二层,平安可控是业务的保障和根底,要通过自主研发掌控技术基石;第三层,一体化平安是数字化转型降级的要害,要保障信息基础设施的平安。   作为央企云服务商,天翼云踊跃施展“云网数智安”的一体化能力劣势,实现了关键技术全栈自研冲破,其自研云操作系统Cloud OS 4.0,具备同源异构混合云平台能力,高性能云存储网络核心技术全面降级。在云原生数据库方面,天翼云有20余项关键技术冲破,承载7亿用户,反对千万级并发,并在云原生PaaS平台上集成50款PaaS组件,承载1600多套利用零碎。  不仅如此,衍生于天翼云自研大数据PaaS平台的诸葛AI平台,其集群规模从5000晋升至10000台,并推出基于国产化芯片的AI训练框架。在全域平安方面,天翼云45个资源池通过等保三认证,保障了云网交融平面防护。  雄安作为数字新城的榜样代表,天翼云全面助力“数字雄安”绿色智慧新城建设。到目前为止,天翼云曾经撑持超过40个业务单位,往年接入摄像头超过5000路,为下一步的雄安城市大脑和超算核心做好了根底。不仅如此,天翼云还助力九江数字政务建设,撑持邮储银行数字化、智能化转型,继续推动云能力在具体场景落地,减速企业数字化转型降级。  现在,数字经济曾经成为经济增长的重要拉动力量,数字化转型亦将为减速数字技术与经济交融注入新的能源。对此,天翼云将继续施展云网交融劣势,提供“云网数智安”一体化解决方案,夯实数字化转型底座,为推动数字中国建设作出新的奉献。 

August 3, 2022 · 1 min · jiezi

关于云计算:新品发布-Cloudpods-391-版本上线

历经近10个月的研发打磨,3.9版本终于公布了。次要更新如下: 1、新性能 【主机】反对ARM物理机纳管【主机】反对UEFI启动模式物理机纳管【主机】USB透传设施反对【主机】反对保留主机内存快照【主机】QEMU降级至v4.2.0【主机】反对主机备份和复原【多云】Nutanix公有云纳管【多云】品高云纳管【多云】反对阿里云、腾讯云及Azure平台的容器产品纳管【多云】反对阿里云表格存储实例的纳管【多云】反对AWS平台RDS新建和操作【网络】反对纳管阿里云ipv6网关【网络】反对公有云的网络拓扑展现【网络】反对阿里云、腾讯云VPC互联【网络】反对华为云、腾讯云及AWS对等链接【监控】致命等级告警加强,减少弹窗揭示【监控】反对Azure平台RDS、Redis及LB监控【主机】创立主机失败后主动更换同配置套餐(企业版)【计费】反对Azure平台RI实例剖析(企业版)【计费】反对Azure中国导入CPP并进行我的项目摊派(企业版)【计费】多维度剖析重构,同时反对账单标签(企业版)【计费】多维度费用报表反对(企业版)【计费】二次定价反对公有云(企业版)【认证】反对多层级组织架构和权限(企业版)2、性能优化 【零碎】费用模块数据加载速度优化【主机】新增镜像缓存状态及进度,更清晰理解主机创立状态【主机】虚拟机操作与性能抉择联动,只展现与用户应用相干的菜单【主机】虚拟机及宿主机减少hostname字段,name字段不再限度【监控】致命告警减少弹窗告诉形式【零碎】磁贴反对主动向上排列【主机】Webconsole控制台优化【部署】EIP网关反对自动化部署【多云】云账号同步重构,反对定时工作【多云】云账号同步反对仅同步局部资源,同步速度更快【多云】云账号减少账单工作显示(企业版)【计费】图表扩大,反对导出PDF及Excel(企业版)【计费】多维度剖析优化,反对多维度聚合查问(企业版)【计费】账单对接云上标签信息,反对基于标签剖析(企业版) GitHub: https://github.com/yunionio/c...

August 2, 2022 · 1 min · jiezi

关于云计算:一面数据-Hadoop-迁移云上架构设计与实践

背景一面数据创建于 2014 年,是一家当先的数据智能解决方案提供商,通过解读来自电商平台和社交媒体渠道的海量数据,提供实时、全面的数据洞察。长期服务寰球快消巨头(宝洁、联合利华、玛氏等),取得行业宽泛认可。公司与阿里、京东、字节单干共建多个我的项目,旗下知乎数据专栏“数据冰山”领有超30万粉丝。一面所属艾盛团体(Ascential)在伦敦证券交易所上市,在 120 多个国家为客户提供本地化业余服务。 公司在 2016 年线下机房部署了 CDH 集群,到 2021 年已存储和解决 PB 级的数据。公司自创建以来始终放弃每年翻一番的高增长,而比业务量增长更快的是 Hadoop 集群的数据量。 在这几年间,按 1 到 2 年布局的硬件,往往因数据增长超出预期而在半年后不得不再次扩容。每次扩容周期可达到一个月,除了破费大量精力跟进行政和技术流程,业务端也不得不安顿较多人日控制数据量。 为了升高运维难度,倒退可继续扩张的大数据处理计划,咱们从 2021 年 10 月份开始摸索取代现有Hadoop 集群的计划。过后提出了这些需要: 上云,弹性伸缩、灵便运维存储计算拆散尽量应用开源组件,防止云厂商绑定尽量升高业务迁徙工作量最终抉择的计划是应用阿里云 EMR + JuiceFS + 阿里云 OSS 来搭建存算拆散的大数据平台,将云下数据中心的业务逐渐迁徙上云。截至目前(2022 年 7 月)整体迁徙进度约 40%,打算在 2022 年内实现全副业务的搬迁,届时云上 EMR 的数据量预计会超过单正本 1 PB. 技术选型首先是决定应用哪家云厂商。因为业务需要,AWS、Azure 和阿里云都有在用,综合思考后认为阿里云最适宜,有这些因素: 物理间隔:阿里云在咱们线下机房同城有可用区,网络专线的提早小,成本低开源组件齐全:阿里云 EMR 上蕴含的开源组件很多很全,除了咱们重度应用的 Hive、Impala、Spark、Hue,也能不便集成 Presto、Hudi、Iceberg 等。咱们在调研时发现只有阿里云 EMR 自带了 Impala,AWS 和 Azure 要么版本低,要么要本人装置部署。阿里云的 EMR 自身也有应用 JindoFS 的存算拆散计划,但基于以下思考,咱们最终抉择了JuiceFS: JuiceFS 应用 Redis 和对象存储为底层存储,客户端齐全是无状态的,能够在不同环境拜访同一个文件系统,进步了计划的灵活性。而 JindoFS 元数据存储在 EMR 集群的本地硬盘,不便于保护、降级和迁徙。JuiceFS 的存储计划丰盛,而且反对不同计划的在线迁徙,进步了计划的可移植性。JindoFS 块数据只反对 OSS.JuiceFS 以开源社区为根底,反对所有私有云环境,不便前期扩大到多云架构。对于 JuiceFS间接截取官网文档的介绍: ...

July 28, 2022 · 3 min · jiezi

关于云计算:云行-让数据奔驰在云间天翼云助力贵州筑牢算力底座

 7月19日,主题为“云聚黔城 数智将来”的2022天翼云中国行·贵州站在贵阳启动。流动现场,举办了天翼云“一城一池”启动典礼、生态单干签约典礼。 今年初,“东数西算”工程正式启动,标记着国家首次将算力资源晋升至基础设施的策略高度。中国电信作为建设数字中国、网络强国的国家队、主力军,把“建设高速泛在、天地一体、云网交融、智能麻利、绿色低碳、平安可控的智能化综合性信息基础设施”作为职责使命,率先提出“网是根底、云为外围、网随云动、云网一体”的云网交融方向。贵州省副省长陶长海,省工信厅、国资委、大数据局、通信管理局次要负责人缺席流动。中国电信贵州公司党委书记、总经理黄智勇在会上示意,贵州云服务“首位产业”位置日益浮现,云网交融将为推动贵州数字经济倒退做出更大奉献。  “2+9+X”云数据中心助力贵州打造算力底座2021年,贵州获批建设全国一体化算力网络国家枢纽节点,跻身国家算力网八大外围节点,成为国家“东数西算”这一超级工程的重要算力洼地。 “作为全国算力布局的区域核心,贵州致力为‘东数西算’提供弱小的算力底座。”发布会上,天翼云科技有限公司总经理胡志强介绍,为全面晋升天翼云贵州服务水平,天翼云成立天翼云科技有限公司贵州分公司,设立专项服务团队,打造贵州“2+9+X”的云数据中心基础设施,将来,天翼云将在贵州加大算力投资,建设全国性的数据灾备核心和国产化外围节点,助力贵州打造全国算力外围枢纽节点,助推贵州数字经济高速倒退。   目前天翼云贵州资源池可提供调度算力资源150万核,存储近1600PB,贵安信息园曾经部署到全国23个外围城市的直连电路,为东部用户提供平安、高速、便捷的网络互联通道,让“东数西算”中不同地区的数据可能畅通无阻地飞驰在云间,实现数据之间的高速互联。  通过十年的技术积淀,天翼云已全面降级到4.0,实现一云多态、一云多芯、一张云网、统一架构、对立调度、对立运维,带来了算力、存储、网络的全面晋升。依靠5G+行业云+AI,天翼云重点笼罩社会治理、公共服务、生态环境、工业制作等产业上云场景。 云网交融助力千行百业数字化转型 2016年,中国电信率先提出“云网交融”倒退方向,携手华为继续引领云网交融产业翻新。 华为公司中国区副总裁郭海龙在会上示意,华为将判若两人地携手中国电信,加大技术创新,增强产业单干,为贵州政府和企业客户提供更好的服务,赋能各行各业。华为和贵州电信的单干将依靠当先的云网交融、弱小的研发能力、平安可信的产品和全栈的AI智能,助力贵州各行业数字化转型。 会上,中国电信贵州分公司党委书记、总经理黄智勇向与会嘉宾解说了天翼云全栈云产品体系,介绍了几朵“云”: 行业云引入行业头部企业,构建行业云平台,推动行业共性的利用零碎上云,促成行业资源整合和能力共享;企业公有云依照平安窃密和非凡监管要求,打造自主可控的公有云平台,确保数据安全。 中国电信贵州公司将以云、网、数、智、安、边、端的综合劣势,特地是基于天翼云弱小算力和产品劣势、高速泛在的网络劣势和属地撑持服务保障劣势,积极参与贵州数字经济建设之中,构建智慧城市生态体系,助力智慧黔城的倒退。 随着我国5G、大数据、云计算、人工智能等技术放慢遍及利用,数字经济展现出微小的发展潜力,成为经济高质量倒退的新动能。 天翼云作为推动数字经济倒退的主力军、云计算原创技术的策源地、建设新型基础设施的国家队,将继续加大投入,保持科技翻新与要害核心技术自主掌控,助力智慧贵州倒退,为推动数字中国建设做出新的更大奉献。 发布会当天还举办了三场专家讲坛,天翼云科技有限公司、华为公司、天翼云科技有限公司东北大区技术研发负责人作为主讲人,围绕天翼云4.0全面降级、携手共进引领贵州行业数智转型、渠道生态建设等主题,与参会嘉宾进行了分享交换。 

July 26, 2022 · 1 min · jiezi

关于云计算:更新|3DCAT实时云渲染-v212版本全新发布

3DCAT实时渲染云在近期公布了新的v2.1.2的版本,让咱们来看下做了哪些更新。 1. 整体UI的变更目前的UI格调更加好看,辨别开了3DCAT 利用控制中心和集体信息管理核心。 <center>3DCAT 利用控制中心</center> <center>集体管理中心</center> 2. 新增音讯告诉核心 音讯告诉核心能够告诉的类型为:包机信息、零碎告诉、利用治理 包机信息:创立包机时,会告诉至用户的音讯告诉栏 零碎告诉:如系统维护类告诉,会及时告知用户 利用治理:利用审核失败后的利用下架告诉 3. 超时断连设置 利用超过xx时长未应用时,会主动断连,防止资源节约。 4. 新增文件治理性能 利用公布后,可通过文件治理,批改利用版本信息。无需从新上传利用。 本文《更新|3DCAT实时云渲染 v2.1.2版本全新公布》内容由__3DCAT实时渲染解决方案提供商__整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/news/p...

July 26, 2022 · 1 min · jiezi

关于云计算:云流化和云桌面有什么关系

什么是云流化 云流化,也指实时云渲染,就是把十分重的图形计算放到云端,云端服务器能够配置较高端的GPU设施,通过云端服务器进行计算,进行实时编码,编码后将其“流化”,通过网络,把计算结果实时推送至终端(例如手机、PC、平板和XR设施)。 什么是云桌面 云桌面又称桌面虚拟化、云电脑,是代替传统电脑的一种新模式; 采纳云桌面后,用户无需再购买电脑主机,主机所蕴含的CPU、内存、硬盘等组件全副在后端的服务器中虚构进去,单台高性能服务器能够虚构1-50台不等的虚拟主机; 前端设施支流的是采纳瘦客户机(与电视机顶盒相似的设施)连贯显示器和键鼠,用户装置客户端后通过特有的通信协议拜访后端服务器上的虚拟机主机来实现交互式操作,达到与电脑统一的体验成果; 同时,云桌面不仅反对用于替换传统电脑,还反对手机、平板等其余智能设施在互联网上拜访,也是挪动办公的最新解决方案。瑞云科技旗下的青椒云便是云桌面的先进解决方案 云流化和云桌面不同点3DCAT发现很多客户在沟通中会认为云流化就是云桌面,也看到很多网友在搜寻二者的区别,当初3DCAT就简略说下云流化和云桌面的几点区别,不便大家更好的理解云流化(也叫实时云渲染或者像素流) 技术路线不同 从下面的定义便可知,云桌面实现的无需购买电脑主机的前提下,在前端设施通过网络便能够拜访在云端的桌面,能够实现拜访网页、工作等需要。主机所有的整机包含内存CPU等都会在云端虚构进去。 而云流化只虚拟化GPU,在云端应用GPU渲染,而后通过网络流化的形式,将计算结果推送到终端,所以这两者技术路线是显著不同的,更多推送的是实时渲染引擎如UE渲染的内容。 利用场景不同 云流化可利用的场景有数字孪生、智慧城市、汽车三维可视化、修建家装工程、衰弱&医疗仿真、虚构仿真教学实验、云游戏等畛域,而云桌面次要是使用在办公畛域。 应用便携度不同 云桌面往往要求在终端设备上下载特定的APP或者小程序,进行账号的登陆能力应用云桌面,而云流化往往只须要一个链接,关上即可拜访特定的利用进行体验。 价格不同 因为所需的算力不同,云桌面和云流化的价格上显然会有很大的不同。 云桌面是以小时计费,而云流化是更加轻量化应用的,所以往往以分钟计费 3DCAT实时渲染云3DCAT实时云渲染是在5G网络、云计算、游戏引擎等技术迅速倒退的前提下,为解决终端算力有余、画面体现较差、初期洽购老本低等问题应运而生的一套利用云端渲染3D利用并实时推送到终端的综合性解决方案。目前3DCAT也是国内外比比皆是的可能同时提供私有云+公有云的实时渲染平台。 3DCAT实时渲染云有以下劣势优良技术架构通过将重度计算置于云端、将实时计算结果推流到轻量化终端的形式,能够大幅升高终端计算压力,升高终端生产老本,而且用户能够体验到更加真切、炫酷的视觉效果; 2.反对多种终端和跨平台适配 云渲染形式只须要打包上传一种格局(exe),即可在多种终端和零碎上运行。只有终端(零碎)能关上浏览器即可拜访各种交互式利用; 利用内容以视频流的形式推向终端,能够实现终端无绳化、挪动化,尤其对于VR一体机来说,极大解放了用户的应用限度;数据安全更有保障计算模型和数据都部署在云端,对于客户端来说这是一种“零装置”的解决方案。最终用户不须要事后下载插件、大型可执行文件或内容文件,不须要装置任何货色。用户所生产的仅仅是流化数据——就像视频流一样。数据并不会下载,因而也就没有某些用户可能放心的平安问题了。同时,用户与利用数据隔离,云平台本身也领有多重保障; 利用对立部署在云端,便于内容的对立保护和治理。每次更新对用户无感,只须要关上利用即是最新版本; 反对私有云和公有云部署。可依据客户需要灵便配置。 本文《云流化和云桌面有什么关系》内容由__3DCAT实时渲染解决方案提供商__整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/share/...

July 26, 2022 · 1 min · jiezi

关于云计算:关于云XR介绍以及5G时代云化XR的发展机遇

XR技术进入全面沉迷化时代 基于云化XR技术将大幅升高XR终端设备的计算负荷和能耗,解脱线缆的解放,XR终端设备将变得更轻、更沉迷、更智能、更有利于商业化。 网络XR终端能力的晋升,将推动XR技术进入全沉迷时代。云化XR零碎将联合新一代网络、云计算、大数据、人工智能等技术,实现用户与环境的语音交互、手势交互、头部交互、眼神交互等简单服务。将在商业创意、工业生产、文化娱乐、教育培训、医疗卫生等畛域赋能,并助力各行业的数字化转型。 本地单机XR难以大规模倒退的因素 (1)__用户体验待晋升,无奈无效促成帮助和社交性能__:同时没有云化的XR终端存在佩戴惨重,舒适性欠缺的毛病。 (2)__用户生产老本高__:XR强交互类业务的场景辨认和混合渲染次要在本地主机和终端进行,对GPU资源要求很高,终端的性能和老本压力大。 (3)__内容不足对立散发平台__:很多优良的XR内容扩散在多个厂家,难以无效共享和疾速分发给用户;用户即便有XR头盔,也很少有内容丰盛且能不断更新的XR内容公布平台。 (4)__内容版权不足无效爱护__:内容以下载到本地居多,版权得不到无效爱护。 云XR无效解决制约XR倒退的痛点,同时强化了XR的社交和帮助属性,为数字媒体通信的倒退提供了弱小的助力,是以后XR产业最佳的规模化倒退之路 云XR次要特点 XR头显无绳化、XR利用所需的计算机视觉对象感知云化和计算机图形实时渲染云化、内容分享治理和存储云化。它将云计算、AI、云渲染、云计算机视觉的理念及技术引入到XR业务利用中,借助高速稳固的网络,将云端的显示输入和声音输入等通过编码压缩后传输到用户的终端设备,实现XR业务内容上云、辨认上云和渲染上云。 云XR的劣势 将计算复杂度高的辨认和渲染上云,大幅升高配置XR终端的人工智能和图形渲染的计算压力,使XR终端以轻量的形式和比拟低的生产老本让更多的用户更容易接受; 计算机图形渲染移到云上后,内容以视频流的形式通过网络推向用户,借助Wi-Fi、5G等网络技术,可将连贯终端的HDMI线减掉,实现终端无绳化、挪动化; 内容云化、集中化,便于内容的对立散发和版权治理。 5G给云XR利用规模倒退提供了时机 5G是通信技术的另一次改革。如果说2G向3G的转变实现了业务由语音通信向挪动宽带利用的逾越,那么4G向5G的转变将成为通信历史上最重大的改革,实现了由集体利用向行业利用的转变。 在5G时代,云XR取得了又一次腾飞的燃料。云XR之于传统流量入口,犹如三体之于地球,维度大幅晋升,必将开启新一代流量入口即视觉入口时代。同时,5G带来的技术劣势也促使云XR向新的阶段倒退,必将成为下一代计算平台以及新一代流量和场景入口,迈出重要的一步。这源于5G所带来的技术改革。 首先5G能够显著晋升带宽并且升高延时 其次,边缘计算平台的保障也很重要,5G网络将是以地方、区域、边缘数据中心为根底的弹性网络,虚拟化网元性能可依照场景部署在网络相应的地位上,MEC将次要部署在边缘DC,使得MEC与网元性能互相协同,为垂直利用提供网络边缘计算能力,实用于对时延、带宽要求特地高的业务场景 最初,业务平安和和业务品质失去了保障,5G网络场景下,外围网络切片技术,既对网络拓扑资源,如链路、节点、端口及网元外部资源如转发、计算、存储等资源,进行虚拟化造成虚构资源,并按需组织造成虚构网络。针对不同场景下不同的网络性能性能要求,网络切片把物理上的一张网络虚构成逻辑上的多个网络,以满足不同业务需要,这既加强了业务的隔离性,也进步了网络资源的应用效率。 5G云XR尚存的技术挑战和解决路径剖析 云XR是促成XR产业倒退的最佳模式之一,但它也会因为云化和传输门路的延长引入新的挑战。 从长期来看大部分云XR业务都会向强交互倒退。强交互云XR业务以多人合作AR、VR游戏和VR社交等为代表,强交互云XR须要采纳实时云渲染计划,将本地简单的计算、渲染移至云端,一方面实现XR终端更轻便、老本更低,另一方面,实现共享场景的更新和同步。对非云化的本地XR零碎相比,要满足MTP时延小于20ms曾经是一个不小的挑战;而云XR将实时渲染和辨认上云后,会进一步加剧时延难题 目前看业界针对以上挑战,除了借助5G网络先天的低延时劣势、以及MEC构架提供的边缘计算部署形式外,还须要在上面几个方面实现冲破。 • 以渲染、编解码和传输并行技术为技术冲破,实现一帧画面渲染、编解码、传输的并行处理,大幅节俭解决工夫,从而能升高云渲染及流化时延。 • 以疾速编解码技术为技术冲破,以就义压缩率换取编码工夫,实现疾速编解码。在压缩率50~150倍左右时,无效地将编解码的工夫管制在1~3毫秒,从而能升高云渲染及流化时延。 3DCAT实时渲染云:云XR的优良解决方案 为了迎接云XR的美妙图景,3DCAT实时渲染云始终站在最前沿,聚焦前沿技术,引领行业倒退。3DCAT基于云端弱小的图形渲染算力,渲染XR利用并实时推送到终端,为用户提供私有云+公有云解决方案3DCAT在云端部署了最新的NVIDIA RTX GPU,基于PBR物理拟真渲染,出现照片级品质,展示真切光影和细节。 将XR利用上云,带你进入元宇宙,注册立享125分钟实时云渲染收费体验。https://app.3dcat.live/register 本文《对于云XR介绍,以及5G时代云化XR的倒退时机》内容由__3DCAT实时渲染解决方案提供商__整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/share/...

July 26, 2022 · 1 min · jiezi

关于云计算:3DCAT-v213新版本发布这三大功能更新你不容错过

3DCAT实时渲染云在近期公布了新的私有云v2.1.3的版本,本次次要更新了利用页的三项性能「语音交互设置」、「多点触控」、「音频信号位深」。 小编将对这三项更新进行解说: 1. 调整语音通信机制新增【语音交互】性能,仅反对包机用户,该性能解决了利用内语音通信问题,在元宇宙会议里能够轻易和别人语音交换。 编辑利用-高级设置-语音交互 2.新增【音频信号位深】性能当用户的音频信号传输呈现问题时,可调整音频信号,来解决利用内的语音通信问题。(仅当编辑利用时失效) 可抉择S08、S16、S32、F32、F64这五个音频信号位深。 3. 新增终端的多点触控新增【多点触控】性能,用户可依据不同利用的需要,开启或敞开多点触控。关上此性能后即可在利用内同时进行多个操控。 如下图中,在开启【多点触控】前,只能进行后退后退,无奈同时跳跃。 <center>启多点触控前</center> 关上【多点触控】性能后,机器人能够在后退的同时跳跃,实现多点触控。 <center>启多点触控后</center> 在「已公布利用-编辑利用-高级设置」开启即可 <center>编辑利用-高级设置-多点触控</center> 4. 修复局部缺点高级设置点开时的加载页面迟缓;自定义治理点开时的加载页面迟缓;本文《3DCAT v2.1.3新版本公布,这三大性能更新你不容错过! 》内容由__3DCAT实时渲染解决方案提供商__整顿公布,如需转载,请注明出处及链接:https://www.3dcat.live/news/p...

July 25, 2022 · 1 min · jiezi

关于云计算:阿里云技术专家郝晨栋云上可观测能力问题的发现与定位实践

2022 年 7 月 4 日,【可观测,才牢靠——云上自动化运维 CloudOps 系列沙龙_第一弹】正式推出,第二位分享的讲师是阿里云弹性计算技术专家郝晨栋,他带来的分享主题是《云上可观测能力:问题的发现与定位实际》,以下是他的演讲内容整顿,供大家阅览: 01 云服务器可观测能力价值 云服务器可观测性是指,客户可能感知到服务器外部运行状况的能力,从而保障云上资源的可靠性。与传统 IT 运维相比,上云 IT 的应用形式和运维形式产生了一些变动。比方,传统 IT 运维场景下,客户会自购机房、自购机器,操作的是硬件资源;而上云后,客户通过 OpenAPI 操作各种计算资源。同时,传统场景下,业务规模受限于机房或物理机;而得益于云上的弹性能力,客户可能轻松将业务规模扩充到上百台或上千台服务器。 上云后的运维也减少了诸多挑战和难度,须要云服务器的可观测性来解决。 云服务器可观测的价值次要有以下三点: ① 晋升问题定位效率。通过自助服务疾速定位问题,可能做到有据可依。② 简化运维,不便把握云服务器的运行细节。③ 晋升资源可靠性,及时把握云服务器客户 OS 外部以及底层状态,防止黑盒。 阿里云针对晋升云服务器的可观测能力提供了很多支流工具集,蕴含衰弱诊断、零碎事件、云监控、ARMS 和操作审计。这些工具尽管定位和角度不一样,但其目标都是统一的,即为了让客户清晰感知到以后实例的衰弱状态,帮忙疾速发现问题,升高运维老本。 02 应用自服务工具定位和剖析典型问题 自服务工具 On-demand self-service 指用户可能自助获取计算资源或服务,而不用与服务供应商打交道。 客户在云上常常面临的典型问题有比方实例无奈启动、实例无奈连贯、操作不失效等。传统场景下,客户只能提交工单寻求售后反对,问题解决速度取决于客服对问题的了解水平或回复效率。 而在自服务场景下,咱们将典型的客户问题全副收纳到衰弱诊断工具集里,客户能够在管制台上自助发动诊断,进行问题解决,只需分钟级即可定位问题。 实例无奈启动个别有两方面起因: 其一是操作系统内问题,比方客户操作系统中病毒,一些要害文件被毁坏或删除,客户的误操作导致操作系统一些外围零碎服务没有开机启动,Fstab 文件配置谬误,也可能是镜像与规格抵触导致。针对操作系统内问题,目前衰弱指南工具能够疾速定位问题,并将对应修复计划推送给客户。 其二是云平台底层问题,此类问题较为少见,次要有库存有余、宿主机告警、控制系统异样、虚拟化异样以及磁盘扩缩容异样等。针对此类问题,诊断工具会向客户推送人工服务中转入口。同时,针对一些较为重大的谬误,会向客户推送问题上报入口,如果运维团队确认客户上报的问题十分重大,会被动触发运维动作,且步骤对客户齐全通明。 实例无奈启动的状况下,阿里云诊断工具如何实现对实例操作系统外部的探测? 以个人电脑操作系统为例,比方个人电脑坏了当前,通常会应用 U 盘作为修复盘,启动时进行调整,启动 U 盘再进行重装系统或修复,最初将修复盘卸载,电脑即可失常启动。 诊断工具的工作原理相似,如上图左下方所示。如果客户操作系统无奈失常启动,诊断工具会为客户挂载一块修复盘,并且会生成用于登录修复盘的长期明码等。修复盘挂载好当前,主动为客户启动实例,原先的系统盘会作为数据盘挂在当初的实例下,而后进行实时探测。如果发现问题,会给客户举荐具体的修复计划,客户能够依据修复计划解决问题。原先零碎盘内的问题解决当前,将修复盘卸载,即可失常启动,整个流程对客户齐全通明。 实例无奈近程链接次要起因为 ECS 两个服务器之间无奈连通以及 ECS 实例与公网 IP 无奈连通。诊断工具反对三种类型输出,能够抉择 ECS 实例、网卡或公网 IP。 诊断工具会列出发动端和目标端之间的要害门路,比方实例账户自身状态、实例操作系统、以后实例所在交换机等要害门路,顺次探测每个要害门路是否连通,最终得出结论。 要害门路能够分为两大类,实例配置类和操作系统内配置,其中实例配置类包含实例欠费、Vswitch 未放行流量、实例被锁定等;操作系统类次要借助云助手实时下发开源诊断命令,如果发现操作系统内存在问题,则会在修复计划里告知用户。网络连通性诊断报告里会显示无奈连通的要害门路及其起因。 实例变更操作不失效指客户在管制台上做了一些变更,但后果与预期不符。这一类的问题难度较大,变更动作十分多,没有失效的起因也十分多。目前自服务诊断工具曾经反对的诊断能力有云盘扩容未失效、重置明码不失效、实例变配不失效以及实例续费生效。 比方客户云盘超过容量,在管制台上做了扩容,从 40G 扩容到 100G 。管制台上曾经显示为 100G,但仍然须要客户进入 OS 里做一些扩容命令能力真正失效,否则会导致业务受损。诊断工具有专门针对云盘扩容的专项诊断,如果发现客户理论失效磁盘与扩容大小不统一,会给用户推送扩容倡议,防止客户业务受到侵害。 ...

July 25, 2022 · 1 min · jiezi

关于云计算:基于云原生的私有化-PaaS-平台交付实践

作者:牛玉富,某出名互联网公司专家工程师。喜爱开源 / 热衷分享,对 K8s 及 golang 网关有较深入研究。本文将解读如何利用云原生解决私有化交付中的问题,进而打造一个 PaaS 平台,晋升业务平台的复用性。在进入正题之前,有必要先明确两个关键词: PaaS 平台:多个外围业务服务作为一个整体平台去封装,以平台模式提供服务。私有化交付:平台须要部署公有云环境中,要面对无网状况下仍然能够运行。传统交付痛点 如上图:公有云会有明确的安全性要求 公有云服务无奈连贯外网,数据只能通过单向网闸模式进行摆渡到内网公有云。源代码只能存储在公司机房中,公有云只部署编译文件。服务会不定期迭代,另外为了保障服务稳定性须要自建独立业务监控。基于以上要求面临的挑战大略有几点: 架构可迁移性差:服务之间配置简单,多种异构语言须要批改配置文件,无固定服务 DNS。部署运维老本高:服务依赖环境需反对离线装置,服务更新需本地运维人员手动实现,简单场景下,残缺一次部署大略须要 数人 / 月 的工夫。监控运维老本高:监控需支持系统级 / 服务级 / 业务级监控,告诉形式需反对短信、Webhook 等多种类型。架构计划 咱们的准则是 拥抱云原生和复用已有能力,近可能应用业界已存在且成熟技术计划。咱们采纳 KubeSphere+K8S 作为服务编排,处于安全性及简洁性思考对 Syncd 进行二次开发残缺 DevOps 能力,监控零碎上采纳 Nightingale+Prometheus 计划。 如上图架构图 蓝色框内是咱们底层 PaaS 集群,咱们对业务服务通用服务对立进行了服务编排降级,用以解决架构迁移性差问题。红色框内,监控零碎作为一种编排服务模式存在,所有监控项交付前配置好。用以解决监控零碎运维老本高问题。紫色框内,服务容器能够实现跨网段主动拉取并自动化部署。用以解决服务服务部署老本高问题。上面咱们针对这三局部做下介绍。 服务编排:KubeSphereKubeSphere 的愿景是打造一个以 K8s 为内核的云原生分布式操作系统,它的架构能够十分不便地使第三方利用与云原生生态组件进行即插即用(plug-and-play)的集成,反对云原生利用在多云与多集群的对立散发和运维治理,同时它还领有沉闷的社区。 KubeSphere 选型理由有以下几点: 基于制品的形式定制本人的私有化交付计划私有化镜像文件打包创立制品清单 : apiVersion: kubekey.kubesphere.io/v1alpha2kind: Manifestmetadata: name: samplespec: arches: - amd64... - type: kubernetes version: v1.21.5 components: helm: version: v3.6.3 cni: version: v0.9.1 etcd: version: v3.4.13 containerRuntimes: - type: docker version: 20.10.8 crictl: version: v1.22.0 harbor: version: v2.4.1 docker-compose: version: v2.2.2 images: - dockerhub.kubekey.local/kubesphere/kube-apiserver:v1.22.1...而后咱们就能够通过命令进行导出了。 ...

July 21, 2022 · 5 min · jiezi

关于云计算:K8S-多集群管理很难试试-Karmada-K8S-Internals-系列第-3-期

K8S Internals 系列:第三期随着 Kubernetes 越来越成熟,以 kubernetes 为根底构建基础设施层的企业越来越多。据 CNCF 基金会统计,目前应用 Kubernetes 作为容器管理工具的企业占比早已过半,并且远远超过排名第二的 Swarm。 随同着 Kubernetes 的应用越来越多,过程中也逐步发现了一些问题,并促成了 kubernetes 联邦集群的倒退。这些问题次要包含: 1、kubernetes 集群本身限度 依据 kubernetes 官网大规模集群注意事项,以最新版本 Kubernetes v1.24 为例咱们能够看到 kubernetes 集群存在以下限度: · 节点数不超过 5000 · 每个节点的 Pod 数量不超过 110 个 · Pod 总数不超过 150000 · 容器总数不超过 300000 因为单个集群的限度,有些业务可能须要部署在大量的 Kubernetes 集群上,此时就须要对多集群进行治理。 2、多集群治理的强烈需要 首先,将业务部署在单个的大规模集群中是比部署在多个较小集群中危险的,例如单个大集群呈现故障,无奈进行故障转移。其次,通过联邦集群能够在集群间进行资源同步和跨集群的服务发现,例如同城双活的场景。 鉴于以上(不限于)多种起因,企业内的 K8S 集群数量越来越多,K8S 本身的治理也变得日益简单。 01 kubernetes 联邦集群的发展史为了解决上述问题,kubernetes 兴趣小组最后推出了我的项目 kubefed v1。Kubefed v1 在 Kubernetes v1.6 时进入了 Beta 阶段,然而 kubefed v1 后续的倒退不尽人意,最终在 Kubernetes v1.11 左右正式被弃用,弃用的次要起因是因为它存在以下问题: ...

July 21, 2022 · 3 min · jiezi