关于腾讯云:GooseFS-透明加速能力助力加速-CosN-访问-COS-的性能

01 前言原生的对象存储接口协议并不兼容HDFS文件语义,因而对象存储COS提供了COSN工具这一的规范的 Hadoop 文件系统实现,能够为 Hadoop、Spark 以及 Tez 等大数据计算框架集成 COS 提供反对。 用户可应用实现了 Hadoop 文件系统接口的 CosN 插件,读写存储在 COS 上的数据。但原生的对象存储服务的架构设计起因,在List和Rename性能体现并不现实,因而腾讯云对象存储服务推出了GooseFS这一分布式缓存计划,次要针对包含须要缓存减速的数据湖业务场景,提供基于对象存储COS服务的近计算端数据减速层。 通明减速能力是GooseFS的特色性能,用于减速 CosN 拜访 COS 的性能。对于曾经应用 CosN 工具拜访 COS 的用户,GooseFS 提供了一种客户端门路映射形式,让用户能够在不批改以后 Hive table 定义的前提下,依然可能应用 CosN scheme 拜访 GooseFS,该个性不便用户在不批改已有表定义的前提下,对 GooseFS 的性能和性能进行比照测试。 对于云 HDFS 的用户(CHDFS),也能够通过批改配置,实现应用 OFS 客户端的Scheme 拜访 GooseFS 的目标。 CosN Schema 和 GooseFS Schema 的之间的门路是如何进行映射的呢?上面以一个例子进行阐明。 假如COS上有一个examplebucket-1250000000,用户将数仓中的数据存储在data/warehouse/的门路下,里边有/folder/test.txt,/folder/test2.txt等文件,那么依照CosN的拜访门路格局,对应的门路为: cosn://examplebucket-1250000000/data/warehouse/则 CosN 到 GooseFS 的门路映射关系如下: cosn://examplebucket-1250000000/data/warehouse -> /warehouse/cosn://examplebucket-1250000000/data/warehouse/folder/test.txt ->/warehouse/folder/test.txtGooseFS 到 CosN 的门路映射关系如下: /warehouse ->cosn://examplebucket-1250000000/data/warehouse//warehouse/ -> cosn://examplebucket-1250000000/data/warehouse//warehouse/folder/test.txt -> cosn://examplebucket-1250000000/data/warehouse/folder/test.txt留神:如果拜访的 CosN 门路无奈转换为 GooseFS 门路,对应的 Hadoop API 调用会抛出异样。 ...

August 9, 2021 · 3 min · jiezi

关于腾讯云:腾讯云tca考試难吗内容是什么

当初是一种考据的时代,很多年轻人都会抉择考取各式各样的证书来进步本人的外围竞争实力。一些公司也会要求应聘者和职员考试相干业余技术证书来证实本人的专业性。除了一些国家颁布的业余技术考试之外,有一些较大规模的公司也推出了相应的业余技术认定考试。比如说腾讯就推出了腾讯云tca考試,很多人都会抉择去考取它。那么,腾讯云tca考試难吗?内容有哪些呢? 腾讯云tca考試 TCA从业多久再考最好? TCA倡议从业两三年再考,TCA的话倡议找个实例实际操作下,或者看看题库,认证大使下面就有很多题库能够翻看。目前来说考试题还是有不低的重合率,不过到了理论工作中还是你把握的常识越多越轻松,很多人在考试之后都示意尽管做题过了,然而起初感觉还是应该把常识把握更扎实一些的。 并且也倡议大家TCA和TCP能够连着一块靠,本月通过TCA,下个就筹备TCP,两者考试难度并没有设想的差异那么大。 腾讯云TCA认证是什么证书? 腾讯云开发工程师认证(TCA)是针对云上业务利用开发工程师的技能认证。通过该认证,可无效验证您是否具备将传统利用重构并迁徙上云的能力,以及基于腾讯云进行云原生利用和散布式微服务的设计和开发能力。实用于腾讯云开发工程师,负责云利用程序开发的人员,以及须要进行微信小程序云端开发、人工智能技术利用开发和麻利项目管理的人员。该认证须要学员提前报名,并在腾讯云官网受权的考试核心进行。 腾讯云tca考试证书有效期、考试内容、考试难吗 该考试证书有效期为两年,对于一些毫无根底的人来讲还是存在着一些难度的,所以须要咱们仔细认真温习。 考试内容如下: 云开发根底(10%) 1.1 传统利用开发的瓶颈 1.2 云计算根底 1.3 云开发根底 本地利用迁徙到云端(20%) 2.1 本地利用上云的劣势 2.2 本地利用的迁徙步骤 2.3 应用云服务器部署利用 2.4 应用云容器服务部署利用 云原生利用设计与开发(25%) 3.1 云原生的概念 3.2 应用云数据库开发利用 3.3 应用对象存储 3.4 应用云API 散布式微服务设计与开发(25%) 4.1 微服务根底 4.2 分布式缓存 4.3 音讯队列 4.4 腾讯微服务平台 4.5 负载平衡与API网关 小程序云及人工智能利用开发(10%) 5.1 小程序简介 5.2 无服务器云函数 5.3 小程序云开发 5.4 人工智能利用开发 DevOps(10%) 6.1 DevOps根底 6.2 麻利项目管理 6.3 实现自动化开发 腾讯云tca考試 想必当初想要去加入腾讯云tca考試的各位曾经对这门考试的考试内容、有效期、考试难度有了相应的理解。其实无论是什么考试,咱们都须要拼尽全力的去筹备,这样才不会节约掉本人的工夫和精力。经济条件容许的话,咱们也能够适当地报一些辅导班来帮忙本人。如果不晓得应该寻求哪家帮忙的话,认证大使也是不错的抉择。

August 9, 2021 · 1 min · jiezi

关于腾讯云:COS-数据工作流-Serverless云函数自定义处理能力发布

在工业 4.0 的浪潮下,智能和数据与物理世界联合越加严密,多元化、灵便、高效的数据处理能力成为各行各业的热点需要。尽管对象存储 COS 曾经预置电商、文创、教育、社交、安防等行业须要的根底数据处理能力,但在非凡流程和定制化需要方面私有云仍然难以做到全方位满足客户需要。 01. 数据工作流全新能力出炉:反对自定义云函数COS 数据工作流是一套残缺的端到云到端的数据存储、解决、公布等「一站式」云上智能解决方案。 COS 数据工作流最新减少了自定义函数的解决能力,开发者可增加 Serverless 云函数节点,实现业务具体的定制需要。 Serverless 云函数在 COS 本身数据处理能力之外,为用户提供更多可能性,满足用户自研定制化需要的同时,让开发者只需专一于外围业务逻辑研发,使生产力失去极大的开释,降本增效。 <img src="https://main.qcloudimg.com/raw/69fe1a9b67c6247b9c4d36a32b841511.png" width="700"/> 在 COS 工作流 + 云函数联合的工作模式下,能够解决各行业不同用户的定制化流程痛点,满足大批量的定制化需要。 02. 「COS 工作流 + 云函数」计划劣势低成本毫秒粒度按量计费,在闲暇时主动缩容,极大节俭服务器老本。与传统本地转码相比,老本能够升高 60% 以上; 高并发依据申请主动调整服务资源,反对上万台计算节点同时扩容,打消并发压力; 灵便定制可依据业务须要,自定义函数的解决逻辑,也可平滑迁徙本地逻辑上云,满足开发者不同场景需要; 减速开发聚焦业务开发,无须要关注资源运维与组件开销,升高服务架构搭建的复杂性与运维老本; 03. 「COS 工作流 + 云函数」最佳实际数据工作流作为一种功能强大、灵便易用的数据处理云上智能解决方案,在不同的场景下有不同的利用计划。依据 COS 用户应用工作流的共性需要,咱们提供了两个应用场景的最佳实际: 1. 自定义转码 私有云尽管提供大量的视频解决服务供用户抉择,但仍然不能做到全面笼罩用户的非凡流程及定制化需要,应用 COS 工作流联合云函数定制逻辑就是一个绝佳抉择,帮忙用户疾速创立满足各种需要的音视频解决服务。 操作阐明创立工作流的自定义函数节点时,抉择「COS 数据工作流音视频转码」,即可实现自定义的转码。 <img src="https://main.qcloudimg.com/raw/927d3cec9ce37bb1a08be48d51c7b4da.png" width="700"/> 2. 计算文件校验值 COS 文件上传下载场景下,为保障文件完整性,用户须要计算文件的哈希值。目前 COS 只提供 CRC64 值,当用户须要应用 MD5、SHA1、SHA256 值校验时 ,可应用工作流联合自定义函数模板。 操作阐明创立工作流的自定义函数节点时,抉择「计算 COS 对象的哈希值」,即可主动执行文件哈希值计算,以下截图是计算后的哈希值示例。 <img src="https://main.qcloudimg.com/raw/cb1d982e97d248e66d0cba23bf8a913a.png" width="500"/> 还有更多自定义解决能力,等你来实现! 04. 更多 COS 利用集成服务对象存储 COS 管制台上还集成连贯了多种应用服务,为用户提供更加便捷、稳固的数据处理工具,例如: ...

August 9, 2021 · 1 min · jiezi

关于腾讯云:以-Serverless-应用的形式交付-SaaS-服务

01.Serverless 利用开发范式随着 2013 年 Serverless 概念的提出,FaaS 函数即服务的开发范式因以下特点逐步成为开发首选: 1. 疾速开发,疾速部署; 2. 按量付费,降低成本; 3. 主动扩容,无需保护。 腾讯云 SCF 云函数于 2017 年推出,到当初已服务超百万开发者,随着业务规模增长,业务逻辑的复杂度变高,开发者往往须要通过编排组合多个函数,联合 COS 对象存储、API 网关、DB 数据库等云上资源能力实现一个残缺的利用开发。因而咱们于 2019 年联结业界广受欢迎的无服务器利用框架 Serverless Framework 推出了一体化治理函数及相干资源的开发方式 - Serverless 利用。 通过 Serverless 利用,开发者能够不便地: 在本地进行函数开发,一键部署到云端,无需额定适配云函数,也无需登录控制台。反对将传统开发框架的利用 (如:Express, Next.js, Flask, Laravel 等)部署为 Serverless 利用。在本地对函数代码进行调试,或应用近程开发模式在本地实时查看部署服务的日志输入,并进行调试。通过简略配置即可实现所有基础设施配置(如:API 网关、COS 存储、DB 链接等)疾速切换利用的部署环境(开发,演示,生产)地区。更具体轻松的理解利用状态,查看日志、报错统计等信息。02. 目前支流的服务交付形式随着云计算的倒退,越来越多的软件运行在了云端,软件从服务开发方交付给生产方的形式也随之降级,目前支流的交付形式有两种: 镜像(软件包)交付SaaS 交付1. 镜像交付服务开发商将利用开发实现后,制作成 CVM 虚机镜像,公布到镜像市场,生产方在创立 CVM 虚机时抉择镜像实现部署应用。而一些须要多台机器节点组合成服务集群的利用,则须要通过多个镜像和运维脚本进行批量创立配置最终实现服务的上线应用。这个过程对服务开发方以及生产方都不太敌对,而且服务上线后,须要生产方对服务进行运维,这对生产方是个严厉的考验——抉择购买第三方服务,就是因为自身 IT 团队资源有余,当初反而须要投入运维资源。如此种种,该交付形式逐步被 SaaS 取代。 2. SaaS 交付SaaS,Software as a service,软件即服务,曾经逐渐倒退成云上服务交付的支流状态。它由服务开发方提供对立的线上服务运维治理,通过多租户机制为生产方提供服务。生产方开箱即用,无需治理承载服务的架构和资源运维,只须要为服务自身付费即可。该模式为服务生产方提供了十分好的应用体验,也对服务开发方提出了很高的要求——随着服务的客户增多,服务集群的运维要求也越来越高。然而,SaaS 服务提供商往往是因为对某一个行业或某一个具体的问题场景有外围竞争力,针对性的开发出了解决方案,当初却为了实现交付给客户应用这一过程,被迫投入过多老本保护一个宏大的 SaaS 服务集群。与此同时,因为业务跑在开发商的服务集群里,越来越多的客户开始放心数据安全问题。 那么,有没有一种形式,既能够让服务开发商专一于服务业务的实现,又能够让生产方享受开箱即用免运维同时不放心数据安全问题呢? 答案是必定的 — Serverless 利用核心。 ...

August 9, 2021 · 1 min · jiezi

关于腾讯云:全景录制一站式录制解决方案|强势推出

01. 什么是「全景录制」?不同业务场景的录制需要往往较为简单,波及多人高低线 UI 布局变动、多路音视频的实时录制、直播转码推流,以及⽩板笔记、聊天弹幕、视频演示等各个环节。以后传统录制计划,通过减少录制流,以信令来异步还原,须要引入各种 SEI 插入工夫戳,这对设施的硬件性能和⽹络都带来了更多的挑战,同时开发成本较高,须要前期简单合成,无奈实时获取文件,影响业务的推动倒退。 腾讯云实时音视频 TRTC 联结 Serverless 云函数,推出 「全景录制」一站式录制计划。所见即所得的录制模式,以观众视角实现全景录制,高度还原互动成果,免后期合成,即录即得,录制实现后输入一份残缺 mp4 文件,稳固反对高并发业务需要,以更低的老本减速业务迭代。 <img src="https://main.qcloudimg.com/raw/cbe410381deb49f6a8279cac6547211c.png" width="700"/> 02. 「全景录制」个性劣势1. 更低成本 通过 Chrome 实现多路解码、一路编码,算力耗费升高,与传统录制计划相比,老本能够升高 60% 以上。 2. 即刻出片 能够反对在直播完结 10 分钟内给出录制后果,无需进行简单的合成工作,用户拿到回放即可立刻应用。文件大小、录制时长、分辨率均无限度,随时应答各种业务录制需要。 3. 超高并发 通过云函数计算实例疾速启动、高并发承载能力,霎时并发可反对到万级别以上,可同时反对万节课录制。 4. 疾速接入 相比传统录制计划 20 人天以上的接入难度,全景录制只须要 1 人天就能够实现业务接入,疾速高效。 03. 计划架构原理只须要提供一个可供拜访的公网链接,采取 Chrome 进行页面渲染录制,ffmepg 转码,同时间接上传到 COS,实时生成录制文件。联合直播、点播、 TRTC 等腾讯云产品,提供教育,游戏,互娱等一站式数据解决方案。 <img src="https://main.qcloudimg.com/raw/df76c1cbabd32cfcb2e85392df3b714b.png" width="700"/> 04. 如何接入应用「全景录制」计划?⽬前曾经有较多企业逐渐上线应用,如果您也想参加此⽅案的测试应用,点此实现内测表单填写,实现表单填写,将提供大客户专属 1 对 1 服务,咱们将在 1-3 个工作日与分割,感谢您的关注与反对。 辨认下方 海报二维码,理解更多计划详情,立刻体验应用! 更有低至 1 元专属特惠资源包,限时支付! <img src="https://main.qcloudimg.com/raw/36801d229500c3e8cec0d799bc5a537f.jpg" width="700"/> 05. 音视频实时互动 Serverless 系列解决方案云函数和 Headless Chrome 进行实时渲染录制合流;应用 Serverless 云函数为 TRTC 输出在线媒体流;应用 Serverless 云函数实现 TRTC 单流 / 混流录制;One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 腾讯云 Serverless 老手体验 。 ...

August 9, 2021 · 1 min · jiezi

关于腾讯云:腾讯云技术认证考试综述-腾讯云技术认证题库

腾讯云是国内出名的云计算云服务供应商之一,其产品和服务笼罩国内的医疗、金融、地产、批发、教育以及先进制造业,且市场占有率也逐年进步。目前腾讯云打造的生态链曾经出具规模,上下游产业中有肯定规模的企业就不下六千家,他们所提供的待业岗位,以高薪酬而闻名,受到业余技术人员的追捧,明天就分享腾讯云技术认证题库中的局部试题,心愿对于正在备考的敌人能有帮忙。 腾讯云技术认证考试综述 考试价值:腾讯云官网认证的考试,考过了多一个证书证实本人的能力。更为重要的是,通过考试学习的过程,对你当初从事的治理岗位都会有很大的帮忙。越早考越好,目前考试正在逐步完善中,网上能参考的材料极少,越早考过证实本人越厉害。 考试流程:先在官网报考,报名胜利后续会有人打电话分割,确定本人加入开始的工夫和城市就好。考试之前把准考证打印(切实遗记了现场给截图给考官看也是能够的),提前30分钟到考场,会有人一个一个核实信息,带好身份证!留神:抉择本人报名的考试登录,谬误的考试进不去,准考证号就是身份证号。考试完结后须要把草稿纸留下。中途遇到问题能够请考官帮忙。交卷就能出问题,第一次考试70/80分过。 腾讯云技术认证题库 考试内容:考试比拟新,除非是很有教训的大佬,小白就只能靠啃书加试验了。考试题目是80道选择题,有单选有多选,具体调配不太记得了。考试工夫是2个小时,工夫必定是够的。题目考的很细,如果不看书,不实操很难。 腾讯云技术认证常见考试问题解答 1、考试科目的考试纲要和样题哪里有? 答:可返回官网也能够登录认证大使,进入对应的科目详情页面自行下载。 2、目前哪些科目提供模拟考试? 答:目前腾讯云从业者认证考试提供收费模拟考试服务,模拟考试链接将会在开考前5-7天发放给当期考生,其余科目暂不提供。 3、考试报名后有几次考试机会? 答:一共有两次考试机会。若首次考试未通过,将有一次三个月内收费补考的机会,补考申请将在考试一周后以站内信模式发送,请留神查收。 4、认证证书有效期多久? 答:每个认证证书有效期两年,到期后须要加入激活考试以放弃证书无效。 5、证书能在⽹上查问吗? 答:证书能够在官网查问⻚面查问。如果查问自己认证后果,须要应用购买考试的腾讯云账号(主账号)登录查问。 腾讯云技术认证题库 1.负载平衡(Cloud Load Balancer) 是腾讯云提供的一种网络负载平衡业务。对于负载平衡业务,下列说法谬误的是哪项? A. 能够联合CVM虚拟机为用户提供基于TCP/UDP 以及 HTTP负载平衡服务 B. 负载均衡器可能在未做任何非凡解决的默认状况下,承受来自客户端传入流量,并将申请路由到不同地区下的一个或多个可用区中的后端云服务器实例上进行解决 C. 负载平衡服务会查看云服务器池中云服务器实例的衰弱状态,主动隔离异样状态的实例,从而解决了云服务器的单点问题,同时进步了利用的整体服务能力 D. 负载平衡能够利用于横向扩大利用零碎的服务能力 2.云架构设计的目标是正当的抉择和组合云产品,以满足业务需要的同时,进步零碎的以下哪些方面的能力? A. 可用性 B. 智能性 C. 可扩展性 D. 安全性 3.用户在应用腾讯云服务时,腾讯云上有多个地区供客户抉择,以下对于地区的形容中,正确的有哪些?理解这些内容后,能够帮忙咱们更好的进行地区抉择。 A. 抉择最靠近客户的地区 B. 尽量将产品搁置多个地区 C. 同一个地区能够通过内网互通 D. 不同地区只能通过外网互通 4.腾讯云划分子网的准则中,对于子网掩码说法谬误的是哪项? A. 将IP地址划分为网络和主机两局部 B. 容许最短掩码为/8 C. 容许最长掩码为/28 D. 腾讯云保留每个子网中前两个和最初一个IP地址 腾讯云技术认证题库 5.弹性网卡是绑定公有网络内云服务器的一种弹性网络接口,能够将云主机绑定弹性网卡接入网络。下列对于弹性网卡说法谬误的是哪项? A. 一台云服务器能够绑定多个弹性网卡 B. 弹性网卡对配置管理网络与搭建高牢靠网络计划有较大帮忙 C. 弹性网卡能够绑定不同可用区下的云服务器 D. 弹性网卡能够在雷同可用区下的多个云主机间自在迁徙 ...

August 5, 2021 · 1 min · jiezi

关于腾讯云:沃尔玛腾讯云-Serverless-应用实践全力保障消费者购物体验

深耕批发,没有比中国更好的中央,也没有比当初更好的工夫。1996 年,国内批发巨头沃尔玛进入中国,在深圳开设了第一家山姆会员商店。25 年后的明天,山姆会员商店领有 数百万付费会员,成为国内遥遥领先的会员制商店。 <img src="https://main.qcloudimg.com/raw/aa42dcca695253efe28e797785e57bdb.png" width="700"/> 当位于深圳的山姆会员商店间断 10 余年成为沃尔玛寰球销售第一的门店,沃尔玛又一次亮出了优良的业绩。为什么可能在极度竞争的中国批发市场放弃强劲增长?2020 年寰球批发行业调研报告作出了如下总结:在沃尔玛,各种各样的先进技术被广泛应用以进步工作效率。沃尔玛的管理者认为,先进的科技在批发市场将有助于沃尔玛博得竞争 。 01.「顾客至上,服务第一」,腾讯云 Serverless 解决方案顾客至上是批发行业的服务主旨。然而消费者对购物体验的要求越来越高,业务迭代速度越来越快。山姆会员商店要放弃前瞻性,线上销售渠道必须疾速迭代翻新,一直为消费者发明新的购物体验。 <img src="https://main.qcloudimg.com/raw/0067ccf3d797f49b6db267c4b24ed19d.png" width="500"/> 难点1 :利用公布频率高 山姆会员商店业务迭代快、利用公布频率高,根本放弃在一周一迭代。 难点2:保障用户最佳体验 版本升级的根本要求是:对用户无感知,在降级过程中利用的无损公布。 难点3: 资源耗费大 批发行业线上流量微小,一个利用可能须要上千台服务器,采纳蓝绿部署时,如果在线上公布,须要再备份一千台服务器,对资源耗费造成极大的损失。 <img src="https://main.qcloudimg.com/raw/e6123c616622c5d428d1d38c730988dc.png" width="700"/> (山姆会员商店蓝绿公布架构图) 典型的开发流程从开发测试到集成测试,到预发测试,再到公布上线,每个研发阶段都有对应的环境做撑持,而每个环境都会耗费资源和老本,来放弃服务在线。传统的版本灰度公布模式面临环境多、资源耗费多、老本低等窘境。 <img src="https://main.qcloudimg.com/raw/a4162a95da539a65abaa91e5562e9d1c.png" width="700"/> (环境多、资源耗费大) 腾讯云山姆会员商店我的项目负责人李逸期在智慧批发深耕多年,从 0 到 1 搭建了山姆会员商店 APP 的技术架构。秉承沃尔玛公司用科技助力市场的策略,李逸期对以赋能业务为指标的技术创新,放弃着极致化的谋求。多种计划比照后,山姆会员商店抉择了腾讯云云函数 SCF ( Serverless Cloud Function ) 默认别名灰度公布策略。 云函数 SCF 默认别名灰度公布 默认别名是配置云函数的 $default(默认流量)别名,别名中固定有 2 个云函数版本:一个为 $latest 版本,一个为最初一次函数公布的版本。部署时配置的 traffic 参数为 $latest 版本流量占比,默认另一部分流量切到以后云函数最初一次公布的版本。 每次上线一个新性能,执行 sls deploy 会部署到 $latest 版本上。版本公布时先切局部流量在 $latest 版本上进行察看,稳固后逐渐将流量切到 $latest 版本。当流量切到 100% 时,固化以后版本,并将流量全副切到固化后的版本。 <img src="https://main.qcloudimg.com/raw/d734d172285dc5c40f603d7c323117ac.png" width="700"/> (云函数默认别名灰度公布图) 劣势 1 :危险管制保障用户体验 ...

August 5, 2021 · 1 min · jiezi

关于腾讯云:SuperEdge-高可用云边隧道有哪些特点

作者作者李腾飞,腾讯容器技术研发工程师,腾讯云TKE后盾研发,SuperEdge外围开发成员。 背景在边缘集群中,边缘端和云端为单向网络,云端无奈被动连贯边缘端,常见的解决方案是边缘端被动和云端(tunnel server)建设长连贯,云端通过长连贯将申请转发到边缘端。在云端隧道 server 实例扩容后须要思考新增的实例对已有的边缘端长连贯转发的影响。出于零碎稳定性的思考,能通过云边隧道采集到边缘端的监控信息。 社区计划ANP隧道云端 Server 主动扩缩容ANP 次要用于代理转发 apiserver 的申请,架构图如下图所示: ANP 的 server 仅反对单实例,如果是多实例会存存在以问题,上面依据多实例的架构图进行阐明: ANP Agent 须要和所有的 ANP Server 实例建设长连贯。ANP Server 扩容之后,反对接入的 ANP Agent 的规模不会减少节点监控ANP 我的项目次要针对 K8s 1.16版本公布的个性 EgressSelector,在这个个性中 apiserver 会首先应用 HTTP CONNECT 办法建设隧道,而后通过隧道把申请边缘端的申请发送到 ANP Server,ANP Server 通过与 ANP Agent 建设的长连贯,把申请发送到边缘端。业界罕用的监控采集组件 Prometheus 是不反对 EgressSelector 个性的,因而应用 ANP 我的项目是无奈反对节点监控的。 SuperEdge 云边隧道(tunnel)计划SuperEdge 云边隧道 tunnel 在方案设计时应用 DNS 做边缘节点的注册核心,注册核心存储的是 tunnel-edge 的ID 和 tunnel-edge 连贯到 tunnel-cloud 的 podIp,在做 apiserver 到边缘端申请转发时能够依据注册核心的ID将申请转发到边缘端连贯到的 tunnel cloud 的 pod 上,具体架构图如下所示: ...

August 5, 2021 · 2 min · jiezi

关于腾讯云:腾讯云从业者认证考试内容-分享腾讯云架构tca考试题

云技术云服务是以后十分热门的高新技术畛域,国内很多大企业都投入了大量的资金和人力打造本人的产品。近几年以来,腾讯云在国内获得了较大倒退,市场占有率逐年进步,因而腾讯云及其相干产业链每年都须要引进大量的业余技术人员,这也使得腾讯云资格认证考试热度居高不下,为了帮忙更多年轻人顺利通过考试,明天就为大家分享一些腾讯云架构tca考试题。 腾讯云认证考试内容 1、腾讯云产品个性,占10%,腾讯云产品概览。 2、腾讯云平安拜访根底,占10%,腾讯云控制台概述、云服务平安治理、云服务拜访治理。 3、弹性计算治理,占20%,云服务器实例治理、云服务磁盘治理、云服务器镜像治理。 4、云网络管理,占15%,操作流程、创立公有网络和子网、治理路由表、配置弹性网卡、网络连通配置、平安配置、域名治理。 腾讯云架构tca考试题 5、存储和数据库治理,占20%,云存储操作流程、对象存储配置、文件存储配置、存储网关配置、归档存储配置、云硬盘配置、云数据库操作流程、数据库(MySQL、MariaDB、SQLServer、PostgreSQL)配置、弹性缓存 Redis 配置、文档数据库 MongoDB 配置、列式数据库 Hbase 配置、分布式数 据库 DCDB 配置、数据传输服务 DTS 配置、HTAP 数据库 TiDB 配置、数据库一体机配置。 6、高可用治理,占15%,弹性伸缩 AS 治理、负载平衡治理、CDN 减速治理。 7、云上监控,占10%,根底监控 BCM 概述、根底监控 BCM 治理。 腾讯云架构认证考试问题解答 1、如何报名加入腾讯云认证考试 能够到认证报名官网报名,须要先注册腾讯云帐号,并通过个人身份认证,实现集体认证后在该页面抉择对应的考试科目,点击“立刻报名”按钮,实现线上付款后即为报名胜利。也能够在认证大使加入培训和报名考试。 2、考试工夫和可报名工夫是怎么安顿的? 每期考试提前3个月凋谢报名,考前10天截止当期考试报名。 3、能够在哪里加入认证考试 能够在报名时抉择与您就近的考试省份和城市,官网将在考试前4-5天确认具体考点并发放准考证告诉。 4、认证考试是否能够延期或退款 认证考试反对5天无理由退款,因波及提前预留考位超过5天将不反对退款。如果因故无奈参加考试,可依照报名后接管的报名告诉指引内的流程提交延期申请。 腾讯云架构tca考试题 1、以下对于TSF利用配置的步骤: 1.TSF利用配置内容填写 2.援用配置3.增加依赖4.公布配置排序正确的是哪一个选项?(C) A、1-3-4-2 B、1-2-3-4 C、3-2-1-4 D、1-4-3-2 2、以下生命周期中:1.开发 2.质量保证QA 3.需要剖析 4.技术经营 5.设计 DevOps能够看做哪三局部的交加?(C) A、2 3 4 B、1 2 5 C、1 2 4 D、1 4 5 3、对于云硬盘限度的形容,以下说法谬误的是哪一项?(B) A、弹性云硬盘只反对挂载在同一可用区内的云服务器上应用 B、弹性云硬盘可作为系统盘应用,能够卸载与挂载 C、单个弹性云硬盘在最大容量范畴内反对扩容但不反对缩容 D、单台服务器反对挂载多块弹性云硬盘作数据盘用 4、对于云服务器CVM的Startinstances接口的形容,以下说法谬误的是哪一项?(C) A、Instancelds.N 参数必填,示意要启动的云服务器实例的ID ...

August 4, 2021 · 1 min · jiezi

关于腾讯云:玩转-WordPress使用-Serverless-快速搭建-WordPress-博客

想搭个博客,可是月底裤兜只有几十块?服务器:那我走?Serverless:走吧走吧,小哥哥快选我~01. 装置部署首先进入腾讯云 Serverless; 地址为 https://console.cloud.tencent.com/sls 创立 WordPress 模板利用; 输出名称实现即可; 期待部署 部署实现进入治理; 可间接进入拜访; 第一次进入须要装置,上面输出的 须要依据本人需要输出,别学我; 登录即可; 此时进入了治理模板; 咱们能够更换主体等等 咱们拜访下主页; 实现~~~~ 02. 自定义域名将本人的域名 指向调配的地址,其实就是这个地址; 在你点新增的时候也会显示; 在 DNS 解析的时候 抉择 cname 解析; DNS 解析控制台地址: https://console.cloud.tencent.com/cns 抉择新增; 如果没有证书 就点击上面的点此返回 外面有收费的; 而后 须要批改一个货色 网关映射 不然是无奈胜利的,进入网关控制台; 点击「编辑」; 改成这样,此时即可拜访; 03. 其它问题以下是腾讯云 Web 技术交换群整顿的一些常见问题解决方法,辨认 / 扫描二维码即可查看。 <img src="https://main.qcloudimg.com/raw/b9d187fe4b47c35f0c9a201e27114ee7.png" width="200"/> 退出 Web 技术交换群或者有其它疑难,能够微信分割 skychoud 小助手。 ...

August 3, 2021 · 1 min · jiezi

关于腾讯云:事件总线携手千帆-iPaaS共同构建云上事件处理生态

千帆 iPaaS 作为一种新型的星散成服务,将企业内外部间不同的零碎或业务连贯到一个对立的平台中,通过复用最佳实际范例、疾速搭建系统集成模型实现各个系统间的资源整合、数据编排、业务连接等性能,满足企业轻量级、全方位、高灵便度的一体化系统集成需要。千帆 iPaaS 反对各种集成场景,企业能够通过控制台疾速简略接入,通过配置、开发、部署、执行、治理和监控来实现业务的互通互联,无效升高用户系统集成难度和周期。 事件总线 EventBridge 是一款平安、稳固、高效的无服务器事件治理平台。事件核心的事件总线能够接管来自您本人的应用程序、SaaS 和腾讯云服务的实时事件及相干数据流,并将事件、数据路由到云函数 SCF 或音讯队列服务 TDMQ 等其余腾讯云服务指标。同时事件总线反对自定义事件的解决及筛选,您能够在事件总线中设置事件规定、自定义事件匹配或相干过滤逻辑。 01. 千帆 iPaaS 联动事件总线 EventBridge千帆 iPaaS 曾经全面集成事件总线,基于事件总线,提供云上事件与第三方 SaaS 服务事件的传输与生产能力,大大拓展了事件处理的业务场景,升高事件接入老本,实现 SaaS 业务与云产品的联动。 1. 事件总线作为接管通道,实现 SaaS 业务事件到云服务的传输。 目前已接入千帆 iPaaS 的 SaaS 产品,能够通过事件总线连接器,疾速实现事件的投递,并在云端基于云服务实现生产; <img src="https://main.qcloudimg.com/raw/999217e4946f2191c32554096642d333.png" width="700"/> 2. 事件总线作为发送通道,实现云上事件与 SaaS 服务的联动。 事件总线曾经接入的云产品事件源,如音讯队列、API 网关等,能够将产生的事件经千帆 iPaaS 疾速投递至指定 SaaS 服务。 <img src="https://main.qcloudimg.com/raw/85fb6bc34307408d68d1a6a38417673e.png" width="700"/> 02. SaaS 连接器个性劣势联动云服务与 SaaS 业务生态目前,千帆 iPaaS 曾经实现了 SaaS 业务之间的生态买通,而事件总线作为云上业务间的音讯传输通道,也实现了云服务之间的信息交互。事件总线与千帆 iPaaS 的单干,买通了云上服务与 SaaS 业务的沟通桥梁,助力两个产品各自已接入的产品之间实现联动,共建 SaaS 业务与云服务的残缺事件处理生态。 升高事件接入老本传统计划下,第三方 SaaS 服务接入云服务往往须要简单的接入标准制订,同时不同的服务须要专门进行开发工作,接入流程长,难度大。事件总线与千帆 iPaaS 的单干,为 SaaS 服务上云制订了对立标准,SaaS 服务只有接入了千帆 iPaaS ,则可通过事件总线主动实现云服务指标的投递,简化了事件驱动架构利用的设计难度,大大降低第三方 SaaS 业务接入云服务的老本。 ...

August 3, 2021 · 1 min · jiezi

关于腾讯云:腾讯云tca认证证书含金量怎么样需要认证吗

随着互联网业务的倒退和壮大,许多互联网公司在提拔人才方面会更加严格和业余。许多互联网巨头在倒退属于本人的互联网络的同时,也相应的提出了一些绝对独特和业余的要求,以便于提拔进去的人才能够更快更好的服务公司。比方对于腾讯云来说,腾讯云tca认证证书含金量就更高一些,认证大使是个不错的抉择。然而对于大多数人员来说,考取证书只是找到适合工作的第一步。 腾讯云TCA认证是什么证书? 腾讯云开发工程师认证(TCA)是针对云上业务利用开发工程师的技能认证。通过该认证,可无效验证您是否具备将传统利用重构并迁徙上云的能力,以及基于腾讯云进行云原生利用和散布式微服务的设计和开发能力。实用于腾讯云开发工程师,负责云利用程序开发的人员,以及须要进行微信小程序云端开发、人工智能技术利用开发和麻利项目管理的人员。该认证须要学员提前报名,并在腾讯云官网受权的考试核心进行。 腾讯云tca认证证书含金量 取得腾讯云TCA认证是否有业余需要? 有一些技术人员认为,本人在大学时学的并不是该畛域的常识,对于云平安及大数据等相干内容理解的绝对较少,所以取得这一认证没有什么必要。事实上并非如此,即便学的业余并非it畛域,但将来阶段用户所就任的企业可抉择空间是较多的,并非只局限于it畛域会应用到TCA认证,起因何在呢?除了it畛域会应用到大数据以及云平安等相干服务之外,其余多行业企业也都会应用到这一类型的服务。 腾讯云TCA认证劣势: 对于开发者集体和企业,腾讯云培训与认证都能提供极大的价值。 对于开发者:若参加零碎培训并通过腾讯云认证考试,您的简历可录入腾讯云人才库,供腾讯云及单干企业择优录用。对于开发者集体技术综合能力失去评估,具备可掂量的规范。待业单位与共事对您的信任度切实进步,取得权威机构对您腾讯云相干技能及熟练度的认可。 对于企业:通过腾讯云认证疾速辨认和鉴定人才,升高招聘危险,缩小在腾讯云平台开展业务及施行我的项目的危险,晋升研发团队整体技术能力。腾讯云tca认证证书含金量 腾讯云TCA的含金量?值得考取和认证吗? 是值得考取和认证的。依据阶梯式认证体系和理论能力登程,在后期阶段还是会偏差于从云计算售前或行业助理方向寻找工作机会,前期是有持续深刻学习往运维方向倒退的打算。当然官网也有提供人才岗位匹配平台,在通过认证考试后能够将本人的简历上传,腾讯云和相干子公司、合作伙伴会从人才库择优提拔,因而含金量算是较为高的。 看完之后,想必大家曾经对腾讯云tca认证证书含金量有了比拟具体的理解,认证大使会给予更高的通过几率,这份证书才算开始施展它该有的效率。如果想要通过腾讯云平台寻找工作,那么这份证书还是比拟值得考取和认证的,然而对于很多人来说,想要考取这份证书,除了比拟业余的技能之外,还要时刻关注考试工夫。

August 3, 2021 · 1 min · jiezi

关于腾讯云:3分钟搭建一个网站腾讯云Serverless开发体验

作为一个开发者,应该都能了解一个网站从开发到上线,要通过很多繁琐的步骤。 编写代码,部署利用,部署数据库,申请域名,申请SSL证书,域名备案,到最终上线起码要几天工夫。 作为一个不精通代码的业务玩家,当你想搞个网站玩玩时,常常会被淘贵重得离谱的报价吓跑。 这两年Serverless的概念被炒得炽热,顾名思义,“无服务”。明天的这篇文章,我想站在一个开发者的角度,带大家简略的体验下应用腾讯云Serverless来开发网站的整体流程。看看在Serverless的概念下,开发网站是不是变得更加简略了。 本文的次要内容: Serverless概念解释3分钟部署一个网站10分钟开发一个在线RSS浏览小站腾讯Serverless Web Function的优缺点剖析我是蛮三刀,关注我的集体原创技术公众号:后端技术漫谈首先放一个我部署好的RSS在线阅读器页面: 只有在url传入须要解析的RSS订阅地址,比方xxxx/rss?rssurl=https://blog.csdn.net/qqxx666... ,就能够解析出该RSS,并渲染成你想要的博客款式。 整个实现代码除了html模板,只须要4行代码。 Serverless概念Serverless是一个怎么的运行原理呢?简略的解释下: 腾讯云云函数是腾讯云提供的 Serverless 执行环境。您只需编写简略的、目标繁多的云函数即可将它与您的腾讯云基础设施及其他云服务产生的事件关联。当然了,Serverless不是示意没有服务器,而示意当您在应用 Serverless 时,您无需关怀底层资源,也无需登录服务器和优化服务器,只需关注最外围的代码片段,即可跳过简单的、繁琐的根本工作。外围的代码片段齐全由事件或者申请触发,平台依据申请主动平行调整服务资源。Serverless 领有近乎有限的扩容能力,闲暇时,不运行任何资源。代码运行无状态,能够轻易实现疾速迭代、极速部署。 它的大抵执行流程如下图: 所以,Serverless其实实质上是云服务上帮你整合了云资源,你只须要编写最外围的代码,比方一个申请过去如何解决和返回对应的数据。其余的服务器部署相干的事件,都交给云服务商。这样带来的最外围的益处是节俭了大量资源,只有你的网站有人拜访时,才会计算资源耗费的价格,大幅度降低了老本。 可能你只是想搭建一个博客,以前可能须要买一年的服务器,起码一年开销几百元。在Serverless下,如果你的博客访问量并不是很高,可能一年只有破费十几块钱。 3分钟部署一个网站咱们关上Serverless创立函数服务页面: https://console.cloud.tencent... 抉择Python3 Web函数模板: 接着能够设置一些根本信息,这里我啥也没批改,间接点击实现。 大略期待30秒,一个Serverless服务就创立实现了。 接下来,咱们就被跳转到了代码编辑页面。因为咱们在下面的选项里选了Python3 Web开发,所以代码默认有了一个最根本的Flask框架模板。(Flask是什么?是Python的一个Web开发框架,就像Java上面的SpringBoot一样,也能很轻松地开发一个Web服务。官网文档:https://flask.palletsprojects...) 模板代码曾经有了门路(“/”)最根本的返回值,咱们把他改几个字,而后点击左下角部署按钮。破费了十几秒部署实现后,点击测试,咱们就能看到返回的Body了,如下图。这时候你拜访页面,也返回了同样的后果。 一个最最根底的Web服务器就OK了,不须要买域名和HTTPS证书,不须要SSH登录服务器,不须要手动编译代码,。 10分钟开发一个在线RSS浏览小站下面是牛刀小试,接下来略微整一个简单一点点的例子。 我始终感觉RSS浏览是一个尽管过期,然而其精力始终在传承的浏览形式。比方微信的订阅号,能够说其本质也是一种RSS浏览,通过关注订阅,并取得更新文章的推送,来定制化你的浏览内容。 所以我想做一个RSS解析器,通过传入RSS的网址(很多网站还保留有这个网址,比方CSDN,比方阮一峰的博客等),可能渲染出该RSS链接里所有的文章,并展现在网页上。前面,还能够深度的批改页面的展现,做出一个微信订阅号网页版,也不是不可能,哈哈哈。 OK,花里胡哨的就不扯了,先开始实现一个最简略的事件,把RSS链接渲染进去。 咱们应用官网的Flask模板,这个模板的Flask环境绝对更加残缺,不便开发。 咱们首先须要一个RSS解析的框架,在Python中,有一个feedparser的框架,可能解析RSS url。 应用pip3 install feedparser装置feedparser: 接着咱们在app.py退出代码: import feedparser@app.route('/rss')def rss(): feed = feedparser.parse(request.args.get('rssurl')) return render_template('rss.html', entries=feed.entries) 在这里,我进行了一波本地调试,看一下feed这个参数,拿到了什么: 能够看到,解析后的rss链接,被feedparser框架解析为了一个数组,每个entry是一个文章的题目,作者,链接等。 依据下面的参数名,咱们再退出一个rss/html,放在templates文件夹中,外面写好了我略微丑化过的html页面,并且将每篇文章循环插入html中,这里用到了flask自带的渲染模板jinja2: <html><head> <title>RSS浏览博客</title> <link href="https://cdn.bootcdn.net/ajax/libs/twitter-bootstrap/5.0.2/css/bootstrap.min.css" rel="stylesheet"></head><body> <script src="https://cdn.bootcdn.net/ajax/libs/twitter-bootstrap/5.0.2/js/bootstrap.min.js"></script> <script src="https://cdn.bootcdn.net/ajax/libs/jquery/3.6.0/jquery.slim.min.js"></script><div class="container-fluid"> <div class="row-fluid"> <div class="span12"> <nav class="navbar navbar-expand-lg navbar-light bg-light"> <div class="container-fluid"> <a class="navbar-brand" href="#">RSS解析器</a> <button class="navbar-toggler" type="button" data-bs-toggle="collapse" data-bs-target="#navbarSupportedContent" aria-controls="navbarSupportedContent" aria-expanded="false" aria-label="Toggle navigation"> <span class="navbar-toggler-icon"></span> </button> <div class="collapse navbar-collapse" id="navbarSupportedContent"> <ul class="navbar-nav me-auto mb-2 mb-lg-0"> <li class="nav-item"> <a class="nav-link active" aria-current="page" href="#">首页</a> </li> </ul> <form class="d-flex"> <input class="form-control me-2" type="search" placeholder="Search" aria-label="Search"> <button class="btn btn-outline-success" type="submit">Search</button> </form> </div> </div> </nav> <div class="accordion" id="accordionExample"> {% for entry in entries %} <div class="accordion-item"> <h2 class="accordion-header" id="heading{{ loop.index }}"> <button class="accordion-button" type="button" data-bs-toggle="collapse" data-bs-target="#collapse{{ loop.index }}" aria-expanded="false" aria-controls="collapse{{ loop.index }}"> {{ entry.title }} | {{ entry.published }} </button> </h2> <div id="collapse{{ loop.index }}" class="accordion-collapse collapse" aria-labelledby="heading{{ loop.index }}" data-bs-parent="#accordionExample"> <div class="accordion-body"> {{ entry.summary | safe }} </div> </div> </div> {% endfor %} </div> </div> </div></div></body></html>两个文件批改完,间接点击部署而后拜访腾讯云给咱们调配的域名: ...

August 2, 2021 · 1 min · jiezi

关于腾讯云:腾讯云tca架构师含金量及架构师具备的能力

您是it行业内的人吗,您是从事it技术相干的工作吗。那么您肯定晓得架构师这个职位,您必定也晓得腾讯云tca架构师认证,腾讯云tca架构师有多少含金量呢?这个证数值不值得宽广技术人员和开发人员报考,小编钻研了一番,失去了一点点的论断。小编想把这些知识点分享给大家,以供大家学习和交换。如果您是从事程序开发的工作,那么小编还是建议您多考考证书,会十分有用的。 腾讯云tca架构师 什么是架构师 零碎架构师是一个最终确认和评估零碎需要,给出开发标准,搭建零碎实现的外围构架,并廓清技术细节、扫清次要难点的技术人员。次要着眼于零碎的“技术实现”。因而他/她应该是特定的开发平台、语言、工具的巨匠,对常见利用场景能给出最失当的解决方案,同时要对所属的开发团队有足够的理解,可能评估本人的团队实现特定的性能需要须要的代价。 零碎架构师负责设计零碎整体架构,从需要到设计的每个细节都要思考到,把握整个我的项目,使设计的我的项目尽量效率高,开发容易,保护不便,降级简略等。 腾讯云tca架构师含金量 通过认证考试将取得由腾讯云发放的能力认证证书,证实本身技术实力;该证书反对企业通过输入您的姓名及认证编号进行查问,以辨真伪;同时您的信息也将被录入腾讯系优良人才库,帮忙您取得更多职场机会。 注:随着网络技术的倒退,腾讯云认证内容将一直进行更新或优化,您可通过再认证,保障认证信息的有效性,证书有效期刷新自最近一次认证问题公布日起计算2年。您想要报考架构师考试的话,欢迎您带着问题来征询,认证大使为您答疑解惑。腾讯云tca架构师具备的能力 腾讯云架构工程师认证实用于腾讯云架构设计师,负责剖析业务个性,并进行云上业务架构设计的技术人员。该认证须要学员提前报名,并在腾讯云官网受权的考试核心进行。 腾讯云tca架构师 通过该技术认证能够无效证实该认证人员具备以下能力: 剖析IT业务需要的能力; 相熟腾讯云在不同场景中的典型架构; 设计中小型业务架构的能力; 设计高可用、高性能、高扩大、低成本的云架构能力; 总结和演绎我的项目中架构教训,优化云架构计划的能力。 如果您曾经拿到了腾讯云tca架构师的认证,小编真是太拜服您的学习能力啦,这个认证的含金量高,考试题目多、考点多,不下点苦功夫是很难一次考过的。小编用崇拜的眼神看着曾经拿到腾讯云tca架构师认证的你。如果您没拿到,不要紧,小编有个渠道助力您考据,那就是认证大使,欢迎您发问征询。

August 2, 2021 · 1 min · jiezi

关于腾讯云:腾讯云获得沙利文头豹研究院中国区安全托管服务最佳客户价值奖

腾讯云平安托管服务(Managed Security Service, MSS)再次取得权威机构认可。 继往年4月入围沙利文头豹研究院公布的中国平安托管服务市场首领梯队之后,腾讯云近期再次荣获“中国区平安托管服务最佳客户价值奖”。沙利文头豹研究院认为,腾讯云所主导的更趋流程化的平安托管服务策略,可能为政企客户在简单的内部威逼背后提供保障。 (中国区平安托管服务最佳客户价值奖) 在面对局势简单、安全事件激增的云上平安时代,大部分企业储备的平安教训、技术和人才往往疲于应答。以一次DDoS攻打为例,传统平安防护系统可能会在短时间内生成数十万量级的安全事件告警,这对于处理须要的人力和精度的难度显而易见,更不用说应答公司化运作的黑客团队攻打。 引入业余的内部平安力量逐步成为大量企业的首选。在近日工信部公布的《网络安全产业高质量倒退三年行动计划(2021-2023年)(征求意见稿)》中也明确提出要“翻新平安服务模式”,增强平安组织技术产品的云化能力,推动云化平安产品利用;激励综合实力强的平安组织倒退弹性、灵便的云模式网络安全服务。 六位一体闭环服务联合企业的平安建设诉求和痛点,腾讯平安打造了交融平安专家教训和“IPDRR”理念的特色MSS——汇聚于旸、吴石等寰球顶级的平安专家和实战攻防能力,以及蕴含平安评估服务、危险检测服务、破绽感知与危险监测服务、安全监控服务、危险处理服务、应急响应服务六位一体的闭环服务模式。 智能剖析高效响应智能高效是腾讯云MSS的显著特色。腾讯平安通过自研事件编排引擎,构建自动化工作流零碎,实现事件的自动化扫描及监控,梳理集成超过 15 类平安产品数据,上线超过 10 多个平安编排剧本,可高效剖析用户威逼并生成响应解决方案,能够疾速解决用户经营痛点和难题,开释用户经营压力,保障业务平安。 能力聚合危险可视腾讯云MSS原生集成云CVM、云数据库、云存储、云平安产品局部数据及能力,客户在应用云产品时,无需进行二次对接和开发,即可疾速获取各类资产危险态势,并通过 MSS可视化经营平台对立出现,让企业时刻把握平安动静。 沙利文头豹研究院在调研腾讯云MSS后也指出,腾讯云MSS云原生自动化剖析可能提供灵便度高、生命周期长、复使劲高的服务计划,助力客户面对云计算场景平安新挑战,反对实现中小型企业在业务信息化转型过程中的可持续增长。 除此之外,腾讯云MSS也是大量政府、企业机构在要害节点的平安屏障。截止目前,腾讯平安已胜利保障数字广东、2020线上“广交会”、第七次人口普查、央视频春晚直播以及大型物流、汽车企业在重大节点时刻的0事变、0危险。 随同着以腾讯平安为代表的平安厂商一直打磨欠缺平安服务和能力,千行百业在数字化转型的过程中,将领有更加松软的平安底座,助力业务减速倒退。 举荐浏览:• 权威机构认可!腾讯云平安托管服务能力居领导者位置

July 29, 2021 · 1 min · jiezi

关于腾讯云:kubernetes-降本增效标准指南|ProphetPilot容器智能成本管理引擎

作者田奇,腾讯云高级工程师,专一大规模离在线混部,弹性伸缩,云原生老本优化,相熟Kubernetes,关注云原生大数据、AI。 王孝威,腾讯云容器产品经理,热衷于为客户提供高效的 Kubernetes 应用形式,为客户极致降本增效服务。 前言随着 Kubernetes 的遍及,企业曾经广泛承受了容器,正在向云原生演进。然而以后的 Kubernetes 只解决云原生的第一步(Day 1),就是利用容器编排调度和申明式API等,来解决资源获取、利用部署、高可用容灾、根底运维等难题。然而目前驳回 Kubernetes 的企业也遇到了返回高级阶段的问题,经营宏大简单的 Kubernetes 集群是十分艰难的,例如: 如何评估资源需要?例如:原生 Kubernetes 的调度须要依据容器对资源的申请(Request),一个容器到底须要多少资源量?集群整体的资源量该设置成多少?节点数多少才适合?如何达到真正的智能扩缩?如何灵活处理具备波峰波谷的变换流量?如果要设置 HPA,到底该用哪个指标?正本数的变换范畴如何设置?如何查看容器的老本情况?目前集群自身能够查看资源使用量、利用率状况,但这些资源对应的账单具体是多少?Kubernetes 集群外面可能有节点、硬盘、网络、LB 等多种资源,如何聚合这些离散的资源账单,并以不同维度展现?如何进步资源应用效率?如何辨认有效和不合理的资源申请负载?如何最正当的抉择节点的规格和计费类型?... 以上这些问题都须要在经营 Kubernetes 的第二步(Day 2)来解决: 升高用户的经营复杂度,为 Kubernetes 插上智能引擎,加重客户的经营累赘,是 TKE 始终以来致力的事件。在前几期的“降本增效”系列文章中,咱们谈到了老本控制系统、罕用的利用率晋升工具、资源利用率景象分析、了解和利用弹性。TKE 在用户需要的根底上,提出容器智能 ProphetPilot,本文将从背景现状、产品性能、分层模型论述 ProphetPilot 相干概念。 背景和现状以后 TKE 上有很多对于弹性、资源利用率、老本节约、负载感知调度组件,比方 HPA、HPC、VPA、CA、在离线混部等产品,更多可查看资源利用率晋升工具大全。尽管目前 TKE 为客户带来了丰盛的降本增效产品抉择,然而存在以下几个方面的有余; 用户面对这么多伸缩组件,往往难以抉择,以后利用最为宽泛的也是有 HPA 和 CA,其余的组件往往不敢应用或者不晓得何时该应用,以及为什么须要采纳有些组件是社区组件或 Kubernetes 原生能力,性能往往还不够弱小,比方 HPA,扩缩容感知不够及时和精确,并不一定满足客户的需要组件之间不足协调一致的体验,各自领有各自的性能,甚至一起应用会发生冲突,例如 VPA 和 HPA 不能同时应用 CPU 或内存的指标下图比照了各个组件之间的分割,次要从 Observer、Analyzer、Action 来阐明各个维度的关系: Observer(观测):监控和收集工作负载的运行状态Analyzer(剖析):剖析它的运行模式。例如:例1. 负载的 CPU 使用量是否是周期性的变动?例2. 负载是否在某些固定时刻流量会回升或降落?例3. 负载里容器的 Request 是否设置正当?等等Action(动作):依据剖析负载的运行模式,执行最佳的策略。以 Analyzer 维度的例子来看,例1能够举荐应用 HPA,例2能够举荐应用 HPC,例3能够举荐应用 VPA 性能简介ProphetPilot 次要解决 Observer 和 Analyzer 两大部分,其性能可贯通弹性和混部所有组件,针对开源组件无奈满足需要的场景,TKE 采纳自研 Executor,来满足疾速倒退的业务需要: ...

July 29, 2021 · 2 min · jiezi

关于腾讯云:TCA认证证书有效期腾讯云tca运维工程师有什么用

随着中国经济的倒退,全民应用的电脑有了新的倒退,即为云电脑,就是云计算机,云盘,云数据等等。这些方面的倒退,天然少不了须要这方面的人才,而腾讯云认证让咱们在应聘这方面的工作时,多了一份保障,还能让咱们多一份机会。那么腾讯云tca运维工程师有什么用?取得腾讯云tca运维工程师的证书是咱们进入云工作的一个敲门砖。认证大使上有更多的对于tca运维工程师的作用。腾讯云tca分类 腾讯云TCA分为:云开发工程师、云运维工程师和云架构工程师。 腾讯云tca运维工程师有什么用 TCA权威认证证书 (2年无效) 通过认证考试将取得由腾讯云发放的能力认证证书,证实本身技术实力;该证书反对企业通过输入您的姓名及认证编号进行查问,以辨真伪;同时您的信息也将被录入腾讯系优良人才库,帮忙您取得更多职场机会。 注:随着网络技术的倒退,腾讯云认证内容将一直进行更新或优化,您可通过再认证,保障认证信息的有效性,证书有效期刷新自最近一次认证问题公布日起计算2年。 腾讯云tca运维工程师有什么用 腾讯云tca运维工程师的作用 通过该技术认证能够无效证实该认证人员具备以下能力: 把握如何登录腾讯云控制台进行服务配置; 把握如何利用拜访治理服务(CAM),平安治理腾讯云账户的拜访权限、资源管理和应用权限; 把握云服务器(CVM)、云公有网络(VPC)、负载平衡(CLB)、弹性伸缩(AS)、减速服务(CDN)的根本配置流程和监控台操作; 理解应用各类数据存储、云数据库的根本配置流程; 理解如何应用根底监控(BCM)对云产品进行监控和运维治理。 拿到了腾讯云证书且具备了腾讯云tca运维工程师所具备的能力,不论腾讯云tca运维工程师有什么用,咱们都不怕会找不到相干的工作。有了这个能力和证书,会有大把的企业想要聘用的。也不愁这方面的工作待遇不高。认证大使会帮忙咱们理解更多这方面的常识。

July 27, 2021 · 1 min · jiezi

关于腾讯云:一文读懂云函数-SCF-如何进行依赖安装下

01. PHP 运行时1. 装置自定义库 通过依赖管理工具,例如 composer,在本地装置依赖后同函数代码一起打包上传。 依赖库同代码一起打包上传 通过依赖管理工具,例如 composer,在本地装置依赖后同函数代码一起打包上传。打包时函数入口文件须要在 zip 包的根目录下。如果打包整个文件夹并上传 zip 包,则会因解压后无奈在根目录找到入口文件而导致函数创立失败。本文以 PHP7 装置 requests 库为例: 在本地终端中执行 mkdir test-package 命令,创立一个目录用于寄存函数代码和依赖库。在 test-package下创立conposer.json并指定须要装置的依赖库及版本。 {"require": { "requests": ">=1.0" }}执行以下命令,在该目录下装置 requests 依赖库。 cd test-packagecomposer install在该目录下创立函数入口文件 index.php 并在代码中援用 requests 库。 <?phprequire 'vendor/autoload.php';function main_handler($event, $context) { return "hello world";}?> 将函数代码及依赖库一起压缩为 zip 包,在 云函数控制台 中上传打包的 zip 包并创立一个新函数。操作步骤如下: i. 登录 云函数控制台,单击左侧导航栏的「函数服务」。 ii. 在主界面上方抉择冀望创立函数的地区,并单击「新建」,进入函数创立流程。 iii. 在「新建函数」页面,填写函数根本信息。如下图所示: 创立形式:抉择应用「自定义创立」来新建函数。运行环境:抉择「Php7」。提交办法:抉择「本地上传zip包」。单击「实现」即可创立函数。2. 装置自定义扩大 在函数入口文件的同级目录下创立扩大文件夹 php_extension 并增加自定义扩大文件 .so 和配置文件 php.ini,同函数代码一起打包上传。 本文以 PHP7 装置自定义扩大 swoole.so 为例。 ...

July 27, 2021 · 1 min · jiezi

关于腾讯云:玩转云函数腾讯云函数帮我定时和-HR-打招呼找工作不再愁

以下内容来自「玩转腾讯云」用户原创文章,已取得受权。 <img src="https://z3.ax1x.com/2021/06/30/RDauGD.png" width="700"/> 最近看很多人跑路,所以就想着造福本人,想去主动的在某招聘软件中跟 HR 打招呼,因为买个服务器来独自配个 corntab 的确有点节约,所以就抉择了云函数,毕竟云函数的收费额度够用了。 所以,开始吧! 01. 脚本编写我应用的是 Node.js 进行编写,总共文件分为三个: common.js 寄存公共的头部参数, 和公共办法request.js 用于申请接口index.js 用于云函数的触发器配置运行的文件代码都没啥,就是带参数申请接口,公共参数,次要是配置申请的 header; const headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36 MicroMessenger/7.0.9.501 NetType/WIFI MiniProgramEnv/Windows WindowsWechat', 'content-type': 'application/x-www-form-urlencoded', mpt: '', platform: '', scene: '', ua: '{"model":"microsoft"}', v: '', ver: '', wt2: '', zpAppId: '', Referer: '', 'Accept-Encoding': 'gzip, deflate, br'}function sleep (delay) { return new Promise(resolve => { setTimeout(() => { resolve() }, delay) })}exports.headers = headersexports.sleep = sleep接口申请,次要就是先获取指定城市的岗位列表,而后挨个打招呼; ...

July 27, 2021 · 2 min · jiezi

关于腾讯云:公有云上构建云原生-AI-平台的探索与实践-GOTC-技术论坛分享回顾

7 月 9 日,GOTC 2021 寰球开源技术峰会上海站与 WAIC 世界人工智能大会独特举办,峰会聚焦 AI 与云原生两大以开源驱动的前沿技术畛域,邀请国家级钻研机构与顶级互联网公司的一线技术专家,为参会的开发者和技术爱好者带来了最硬的行业技术干货,提供了一个难得的技术交流平台。 在本次会议上,腾讯云高级工程师高策进行了题为“私有云上构建云原生 AI 平台的摸索与实际”的技术分享,介绍了 AI 类业务在私有云上的现状以及相应的技术选型和面临的问题。最初通过剖析开源社区和业界的趋势,与听众分享了咱们对于将来全弹性的 AI 基础设施的瞻望。 本文由此次分享演讲内容整顿而成,分享给大家一起回顾精彩内容。 关注【腾讯云原生】公众号,后盾回复关键词【云原生AI】可获取演讲PPT原稿。 背景与现状 深度学习倒退至今,新的模型构造层出不穷。自 2018 年 GPT-1、Bert 相继问世,模型构造的参数量呈指数级增长。目前 Transformer 等构造不仅在自然语言解决畛域发光发热,在计算机视觉等畛域,也呈野火燎原之势。由此可见,将来对于算力和显存的需要会越发强烈。而以 Nvidia 为代表的硬件厂商提供的硬件性能却并不能与之同步进步。上图展现了两者之间的鸿沟,红色线条是模型参数规模的变化趋势,目前正在以每年 120 倍的速度晋升。而绿色线条代表的显存容量每年进步的速度只有 2 倍。 因而,无论是在计算机视觉、自然语言解决等畛域,还是互联网行业落地宽泛的搜寻广告举荐畛域,分布式训练都成为了支流训练形式。 与之绝对应的,深度学习框架也呈百花齐放的态势。传统的框架如 TensorFlow、PyTorch、Keras 依然非常风行。而一些新的框架也逐步呈现,比方微软的 DeepSpeed、百度的 Paddle 等。 总结来说,目前 AI 在工业界的各个领域都有了宽泛的落地。传统的搜寻广告举荐畛域自不必说,在视觉与自然语言解决畛域,基于深度学习的办法曾经成为了 state-of-art。在游戏、机器人等畛域,强化学习也在缓缓走向生产。为了满足业务对简单模型的需要,新的硬件和框架层出不穷。当然,还有一个非常明显的趋势,不少 AI 类业务正在上私有云,心愿借助私有云的弹性计算能力升高算力老本,提高效率。 在私有云上的 AI 落地 接下来,咱们介绍一下在服务私有云上的客户时对于云原生 AI 的一些察看。 基于私有云的云原生 AI 目前正在逐步落地,其中既包含稠密类的搜寻/广告/举荐业务,也包含浓密类的计算机视觉等业务。互联网畛域的举荐场景落地绝对较多。也正是因为搜寻/广告/举荐业务场景简单,端到端提早要求低,因而革新的老本绝对较高,所以大多数业务,尤其是离线训练过程,依然不能很好地利用云的弹性能力。 与此同时从深度学习框架的角度看,目前绝大多数的业务依然在应用 TensorFlow。这与之前的察看有肯定的相关性。搜寻/广告/举荐业务中 TensorFlow 依然占据了相对的市场。然而目前 PyTorch 的应用也越来越多,尤其是在计算机视觉、自然语言解决等畛域。 腾讯云原生AI服务联合咱们的这些察看和实际,腾讯云原生团队围绕着 Kubeflow 构建了腾讯云容器服务的云原生 AI 产品化计划。目前曾经开始收费内测,欢送分割咱们试用,您的任何倡议都会成为咱们的贵重能源。腾讯云云原生AI服务为用户提供了 AI环境的疾速交付以及治理能力、弹性的 Jupyter 服务、以及分布式模型服务等能力,目前对于模型治理等产品个性也在逐渐建设中。此外,为了解决带宽性能的瓶颈问题,咱们不仅在存储端联结腾讯 COS 团队,借助 GooseFS 缓存引擎优化,而且在计算端联结腾讯云优图实验室,借助其在训练与推理上多年来的教训积淀,筹备推出高度优化的深度学习框架。咱们会充分利用云原生AI作为对立窗口的劣势,与腾讯云多个团队单干共建平台,提供开箱即用的产品化能力,反哺客户与社区。更多对于云原生AI的最佳实际会在咱们后续的《云原生AI规范指南》以及《云原生AI前沿察看》系列中推出。 ...

July 26, 2021 · 2 min · jiezi

关于腾讯云:腾讯云TCA证书有什么用-帮助你获得更多职场机会

腾讯云TCA证书有什么用,可能很多人都不分明,当初很多企业都是要求员工有根本的职业素养,所以也会让员工加入一些必要的培训取得更多技能上的晋升,特地是一些互联网公司,因为技术更新速度很快,只有你一直地去学习,将新的内容学会并使用好,那么你能力为公司发明更大的价值,所以个别的公司都是十分反对本人的员工去学习一些技术相干的常识,只有你不耽搁你的工作,学技术是一件坏事。 腾讯云TCA证书有什么用 腾讯云开发工程师认证(TCA)是针对云上业务利用开发工程师的技能认证。通过该认证,可无效验证您是否具备将传统利用重构并迁徙上云的能力,以及基于腾讯云进行云原生利用和散布式微服务的设计和开发能力。实用于腾讯云开发工程师,负责云利用程序开发的人员,以及须要进行微信小程序云端开发、人工智能技术利用开发和麻利项目管理的人员。该认证须要学员提前报名,并在腾讯云官网受权的考试核心进行。 通过该技术认证能够无效证实该认证人员具备以下能力: 1、剖析传统利用,并进行重构和迁徙上云的能力; 2、云原生利用设计和开发能力; 3、散布式微服务设计和开发能力; 4、小程序云和人工智能等新技术利用开发能力; 5、DevOps了解和麻利项目管理能力。 腾讯云TCA证书含金量怎么样? 认证大使发现,云计算畛域对于高级技术人才非常重视,在考取腾讯云高级技术人员证书之时,不仅能够减少本人的常识储备,而且为本人减少了一个权威性的标识。不论是在面试还是在加薪调度方面都会给本人带来更多机会。 且依据认证大使数据统计,与当初所持有的证书数量、级别相比,29.3%的人才打算在将来5年内取得1个专家级工程师证书,44.7%的人才打算取得2个高级工程师的证书,50.7%的人才打算取得5个及以上的工程师级别的证书。现在,越来越多的IT技术人才及其器重相干畛域内技能与级别的认证,认证的大趋势为腾讯云的认证的含金量加持。 此外,通过认证考试的学员能够取得由腾讯云发放的能力认证证书,证实本身技术实力;该证书反对企业通过输入您的姓名及认证编号进行查问,以辨真伪;同时学员信息也将被录入腾讯系优良人才库,帮忙取得更多职场机会。 对于“腾讯云TCA证书有什么用”这个问题置信大家都有些明确了,其实这类证书更多是让大家进入一个行业而已,如果你想取得更大的倒退,后续还是须要学习很多的常识的,毕竟网络常识更新的速度太快了,一旦咱们停下脚步,那么你的技术就可能跟不上时代的倒退了,所以取得腾讯云TCA证书只是入门,想要取得更大的成就还是须要本人一直地深造。

July 26, 2021 · 1 min · jiezi

关于腾讯云:腾讯云从业者认证tca有用吗腾讯云从业者认证tca考试内容

云计算技术在倒退过程中,不断深入社会的各个角落,与各行各业的分割越来越严密,利用范畴越来越广。腾讯作为互联网行业的航空母舰在云计算技术畛域也有着较为全面的布局,技术认证也受到很多企业的认可。腾讯云从业者认证tca作为云计算畛域的重要的技术认证,获得腾讯云认证tca会为从业者的职业倒退添砖加瓦。那么腾讯云从业者认证tca是什么?腾讯云开发工程师认证(TCA)考试内容有哪些?腾讯云从业者认证tca有用吗?快跟着认证大使的小编一起来理解。 腾讯云架构工程师认证(TCA)是针对云解决方案架构师的技能认证,通过该认证,可有效验 证您是否具备设计中小型云架构的能力,依据业务布局高可用、高平安、老本优化的云架构方 案。实用于腾讯云架构设计师,负责剖析业务个性,并进行云上业务架构设计的技术人员。腾讯云从业者认证tca考试内容有哪些? 云开发根底(10%)1.1 传统利用开发的瓶颈 1.2 云计算根底 1.3 云开发根底 本地利用迁徙到云端(20%) 2.1 本地利用上云的劣势 2.2 本地利用的迁徙步骤 2.3 应用云服务器部署利用 2.4 应用云容器服务部署利用 云原生利用设计与开发(25%) 3.1 云原生的概念 3.2 应用云数据库开发利用 3.3 应用对象存储 3.4 应用云API 散布式微服务设计与开发(25%) 4.1 微服务根底 4.2 分布式缓存 4.3 音讯队列 4.4 腾讯微服务平台 4.5 负载平衡与API网关 小程序云及人工智能利用开发(10%) 5.1 小程序简介 5.2 无服务器云函数 5.3 小程序云开发 5.4 人工智能利用开发 DevOps(10%) 6.1 DevOps根底 6.2 麻利项目管理 6.3 实现自动化开发 腾讯云开发工程师认证(TCA)考查能力项 剖析传统利用,并进行重构和迁徙上云的能力 云原生利用设计和开发能力 散布式微服务设计和开发能力 小程序云和人工智能等新技术利用开发能力 DevOps了解和麻利项目管理能力 腾讯云开发工程师认证(TCA)考试详情 考试时长:90分钟 考试总分:100分 考试题型:60单选 + 20多选 + 不计分测试 ...

July 23, 2021 · 1 min · jiezi

关于腾讯云:一文读懂云函数-SCF-如何进行依赖安装

云函数 SCF 各个运行时已内置局部罕用依赖库,您可返回各运行时代码开发中查问:Node.js、Python 、PHP。但仅有内置依赖库是不足以满足用户的代码运行诉求的,在此基础上,SCF 提供了丰盛的依赖装置形式。咱们将分为高低两篇进行解说,本文将介绍对 Node.js 和 Python 运行时的依赖装置办法,下篇将为大家介绍 PHP、Java、Go 的依赖装置办法。 01. Node.js 运行时Node.js 运行时反对以下三种依赖库装置办法: 1. 依赖库同代码一起打包上传 通过依赖管理工具,例如 npm,在本地装置依赖后同函数代码一起打包上传。 打包时函数入口文件须要在 zip 包的根目录下。如果打包整个文件夹并上传 zip 包,则会因解压后无奈在根目录找到入口文件而导致函数创立失败。本文以装置 lodash 库为例: 在本地终端中执行 mkdir test-package 命令,创立一个目录用于寄存函数代码和依赖库。执行以下命令,在该目录下装置 lodash 依赖库。 cd test-packagenpm install lodash在该目录下创立函数入口文件 index.js 并在代码中援用 lodash 库。 'use strict';const _ = require('lodash');exports.main_handler = async (event, context) => { console.log("Hello World") console.log(event) console.log(event["non-exist"]) console.log(context) return event};将函数代码及依赖库一起压缩为 zip 包,在 云函数控制台 中上传打包的 zip 包并创立一个新函数。操作步骤如下: i. 登录 云函数控制台,单击左侧导航栏的【函数服务】。 ii. 在主界面上方抉择冀望创立函数的地区,并单击【新建】,进入函数创立流程。 ...

July 23, 2021 · 2 min · jiezi

关于腾讯云:如何削减-50-机器预算人机对抗探索云端之路

前言人机反抗旨在联结各个平安团队,独特治理黑灰产。因为历史起因,业务端对各个平安能力的拜访形式入口多,对接零碎/协定有十几个,出现碎片化的状态,对外不利于业务对平安能力的便捷接入,对内不利于平安团队间的协同共建。为了晋升各方面的效率,人机反抗服务在建设过程中大范畴应用云服务,获得了很好的成果。回顾平安能力上云的过往,是一个从含糊到清晰,从踌躇到动摇的过程,在此给大家做个简要的分享。 对于云云是什么我了解的云实质能够了解为自在灵便的资源共享。资源随时退出,随时脱离,如地面飘动的云,来去无定,云起云落,看起来是那片云,细看又不一样。 对云的期待站在计算机利用的角度,现实的云是能够让计算/网络/存储资源变成生存中的水和电,操控开关即可呼之即来挥之即去。比照物理机部署时代,云用户不必因某台机器死机造成数据损坏而暴走,也不必因机器损坏加班复原服务而黯然神伤, 主动容灾(异样拉起,故障迁徙)轻松异地部署(多集群)资源隔离-死道友不死贫道,你贪婪了,安眠吧快捷扩容,资源呼之即来,来即能战 所有如许完满,开发运维测试兄弟的福音啊! 零碎上云剖析随着公司根底服务的欠缺,目前公司内已有的服务设施可反对咱们上云。通过调研发现,公司云相干平台及部署形式有: CVM在物理机根底上是对机器硬盘及 cpu 等资源做了虚拟化,用户应用形式上实质还是物理机的形式,只是能够防止机器裁撤的苦楚,用户体验层面上没有实质的扭转。 容器化部署平台docker 容器化部署是目前业界云次要部署形式,docker 容器化部署让咱们一次建构,到处运行,完满满足自在运行,资源隔离的要求,零碎环境人造是强保护的,所有程序/脚本/配置都在镜像中,不再有失落或脱漏保护的问题。物理机时代机器损坏导致脚本配置毁坏无奈复原的景象不会再呈现,系统维护靠盲目或强束缚这些问题人造地隐没了。 而相似 K8s 这样的容器编排调度零碎的呈现,反对了主动容灾/故障切换/多集群部署等弱小的平台个性,使咱们离云服务的指标更近一步。基于 K8s 容器编排调度机制,目前公司内开发出一系列的部署平台,比方 123 平台,GaiaStack,TKE 等,再完满配合L5/北极星等寻址服务的主动关联治理,为云服务提供了残缺的平台机制撑持。再加上基于资源管理平台对资源的灵便调配,使云计算应用的便捷性更上一台阶。比方在云梯上资源申请TKE容器资源(CPU/内存/存储等),过程就像到淘宝下单购物一样晦涩,资源到位疾速,在强推动审批下可达到分钟级到位,我第一次体验时是诧异赞叹的。 基于对公司服务的深刻理解及剖析,最终咱们决定应用 TKE 部署平台,采纳 docker 容器化部署的形式对人机反抗服务上云 上云对开发的外围影响上云带来一个外围变动就是资源是易变的,为了便于系统资源调度,服务结点IP是可变的,上云后须要面对包含上游业务端/本身/上游依赖端的IP变动,由此衍生出一系列的束缚及依赖 上游变动: 对客户端通过起源IP鉴权模式不再可行,须要一种更灵便有弹性的鉴权形式本身变动: 对外服务地址可将服务地址关联绑定到北极星的形式向外提供服务,如果所依赖的上游须要鉴姑且应用源IP鉴权的话,上游须要革新反对更灵便的鉴权形式。少数状况下,服务须要对本身做一些例行运维工作,比方须要频繁批改配置下发,老的运维工具不再行得通,须要一个集中的运维配置核心。上游的变动: 这个倒问题不大,只有提供L5或北极星形式主动寻址即可,目前平台提供了相应的服务治理性能。零碎架构及上云布局人机反抗数据中心次要模块为变量共享平台,它的外围有2个,一个查问服务模块,另一个是反对变量治理 api 的 web 模块,这两模块都基于 tRPC-Go 框架开发,零碎架构图如下: 疏忽一些依赖零碎,目前临时只对两个外围局部应用 TKE 部署上云,整个 TKE 部署架构如下: 整个零碎的部署布局,别离在 TKE 上创立两个零碎负载 black_centre,http_apiserver,这两局部都是外围,其中 black_centre 承载用户的变量查问,web 端的申请通过智能网关,再通过 CLB,而后进入 http_apiserver 才失去了真正的业务解决,次要反对查 case 及零碎变量治理,变量查问接入申请等性能。大家可能留神到,为什么 http_apiserver 引入了 clb 而不是间接由智能网关拜访,次要因为模块上云后,计算结点的IP是随时可能变动的,然而公司外部申请域名指定服务地址时是不反对北极星或L5配置的,只能配置固定IP,而 CLB 提供的固定VIP的个性,很好地解决这个问题。 这里简略提一下CLB(Cloud Load Balancer),它是对多台云服务器进行流量散发的服务。CLB 能够通过流量散发扩大利用零碎对外的服务能力,通过打消单点故障晋升利用零碎的可用性。最常见的用法时是依据关联转发规定(拜访端口/http url等,主动转发到规定绑定的工作负载上。回到人机反抗的利用场景,咱们次要是低负载的 http 服务,多个服务只有配置一下对url的转发规定就能够共用同一个服务地址资源。比方集群服务A和B都对外提供 http 服务,然而都须要应用80端口,按传统形式个别至多须要部署两台机器,然而利用共享的 CLB,咱们只有配置 url 散发规定,就能够将不同接口散发到相应的云服务上。当然应用 nginx 也有相似的性能,然而易用性可维护性稳定性方面,CLB 强了不止一个级别 ...

July 21, 2021 · 2 min · jiezi

关于腾讯云:Serverless-多函数开发示例

01. 什么是 Serverless?Serverless 的定义和了解在不同的角度和场景会有不同的解读,AWS 将 Serverless(在 AWS 云上) 定义为 “是一种用于形容服务、实际和策略的形式,使您可能构建更麻利的应用程序,从而可能更快地翻新和响应变动”的一种服务。 而红帽认为 Serverless 是 “可使开发人员专一构建和运行利用,而无需治理服务器” 的一种开发模型,并进一步将 Serverless 的产品分为两类:BaaS(后端即服务,让开发人员拜访各种各样的第三方服务和利用) 与 FaaS(性能即服务,开发人员编写逻辑,部署到齐全由平台治理的容器中,而后按需执行) 两种状态。 而 Serverless Framework 则认为 Serverless 是“一场由开发人员和企业推动,让单个开发人员能够实现高流量的利用开发,同时只将精力集中在产生价值的方面”的静止, 不论哪个方面,哪种角度,Serverless 都具备以下独特特点: 疾速开发,疾速部署按量付费,降低成本主动扩容,无需保护而目前都是基于各个云厂商的 FaaS 服务来实现,如: 腾讯云的 SCF, AWS 的 Lambda, Azure 云的 Azure Funcitons 等。 Serverless 解决什么问题?随着计算能力的增强,零碎复杂度的减少,用户规模的增长,软件问题(如下, 也称为软件危机)也会产生指数型的增长。 软件开发进度难以预测软件开发老本难以管制软件产品品质无奈保障软件产品难以保护而 Serverless 则能够通过以下形式提出了对于软件危机问题的解决方案: 通过函数形式将零碎性能拆分为更小的颗粒度,更便于设计,开发,测试和保护。通过按量计费大幅度缩小资源闲置时的开销费用,升高服务器老本。通过主动扩容以及云平台的反对,大幅缩小运维工作量以及软件维护老本。同时在当初广泛提倡麻利工作形式的古代工作环境中,Serverless 也为疾速验证想法、迭代性能提供了开发方式的最佳实际,同时而不须要放心代码改变会影响零碎的其余性能,也无需思考部署前的服务器配置以及部署后的保护工作。 02. Serverless FrameworkServerless Framework 是业界十分受欢迎的无服务器利用框架,通过与泛滥一流云供应商如腾讯云,AWS 等的严密单干,为宽广开发者提供无需关怀底层基础设施,即可编写和部署代码的无服务开发体验。 Serverless Framework 同时提供资源管理、主动伸缩、统计分析等能力,让宽广开发者能够节俭运维老本,真正做到“按量付费”的同时,也无需破费精力解决日志收集、异样统计等工作。 Serverless Framework 通过 CLI 工具与腾讯云严密单干,为中国用户提供了基于组件(Serverless Components)的残缺解决方案。笼罩了无服务利用编码、测试、部署等全生命周期,同时切合中国用户的应用场景和习惯。 为什么选用 Serverless Framework?通过 Serverless Framework 的短短几行配置文件和 CLI 工具,开发者就能够额定取得: ...

July 21, 2021 · 5 min · jiezi

关于腾讯云:SuperEdge-易学易用系列SuperEdge-简介

对于 SuperEdgeSuperEdge 是由腾讯、Intel、VMware、虎牙直播、寒武纪、首都在线和美团等多家公司独特发动的边缘容器管理系统,它基于原生 Kubernetes、针对边缘计算和分布式云场景而设计,旨在将集中式的 Kubernetes 的能力拓展到边缘计算和分布式的资源管理场景,便于用户治理和运维地理位置远、散布宽泛的边缘和分布式系统。该零碎实用于IoT、边缘AI、智慧交通、工业互联网、分布式云等场景,有助于业务疾速落地。本文将向大家介绍 SuperEdge 的次要应用场景和外围能力。 SuperEdge 实用于哪些场景master 与 worker 节点之间网络不牢靠以及单向可达 边缘计算场景下云边之间的网络具备两个特点: 单向可达,通常是边能够拜访云,云不能拜访边可靠性差,如:4G5G、WiFi等无线网络这样的网络条件无奈满足传统 Kubernetes 对网络的要求,SuperEdge 原创多种当先的技术能力,让云边网络不再成为边缘业务容器化治理的拦路虎。SuperEdge 在网络方面的能力有: 只有 求worker 节点能够被动拜访到 master,即便worker节点位于NAT网络也丝毫无影响提供业界当先的边缘自治能力,在最刻薄的条件下也能保障业务稳固运行SuperEdge自研的云边隧道技术(Tunnel)优雅地解决了云边单向网络问题,即便 worker 节点位于NAT网络也丝毫不影响原有的Kubernetes运维能力,如:kubectl exec/logs。不仅于此,SuperEdge 还进一步扩大了云边隧道能力,目前能够反对代理多种协定:TCP/HTTP(S)/SSH,这些能力原生对用户凋谢,用户只须要配置代理规定即可达成业务层云边数据代理的成果。 边缘轻量 api-server(lite-apiserver)让零碎具备节点自治能力,即便节点掉线也不影响业务pod失常运行;边缘分布式健康检查机制(edge-health)加强了原生 Kubernetes 判断 Worker 节点运行状态的能力,能够准确地区分出节点是掉线还是故障,防止了因网络不稳固而导致Pod胡乱迁徙的问题,也防止了因敞开 Kubernetes Pod 驱赶机制而导致即便 Worker 节点异样也无奈迁徙Pod的问题;此外,SuperEdge还实现了 endpoint 级别的智能探测能力,该能力由 Wrapper 与 edge-health 配合实现。即便呈现边缘大量节点同时掉线,并且掉线期间发现节点故障问题,零碎也有能力依据理论状况动静地调整路由规定,保障运行在边缘侧的微服务不受影响;SuperEdge 的商业版本 TKE Edge 还通过定制网络插件实现了更多能力,咱们也将会逐渐将这些能力开源进去。 worker节点散布在多个地区资源分布式部署既是为了满足业务理论须要也是进步零碎容灾的无效形式,如何高效治理多地区分布式资源是一个永不过期的话题。边缘计算和分布式云的特点之一就是计算资源并非集中在同一机房和地区,而是宽泛散布在各个地区,原生的 Kubernetes 计划无奈间接应用于该场景。SuperEdge 是一种同时反对云端管控和边缘自治两种架构的分布式容器计划,其云端管控架构容许在同一集群内治理散布在多个地区的资源。另外,SuperEdge 还针对该场景提供从设施治理、利用编排、流量治理、多地区灰度公布等多个维度的能力,让治理老本降至极低。 SuperEdge我的项目特点齐全云原生SuperEdge 没有抉择做一个与 Kubernetes 平行我的项目的路线,而是基于原生 Kubernetes 之上,解决 Kubernetes 在边缘和分布式场景下不适应的中央。 对原生 Kubernetes 代码无任何侵入和毁坏。SuperEdge 以一种松耦合形式与 Kubernetes 配合应用,用户能够很容易地抉择适宜须要的 Kubernetes 版本以及定制版本。对其应用形式无任何批改。所有的资源类型,应用形式,运维能力均全副放弃原样,Kubectl + kubeconfig 仍然是举荐的运维形式;除此之外,SuperEdge 还以 Kubernentes CRD 的形式提供 Kubernetes 之外的资源类型供用户应用。齐全兼容云原生生态。监控、日志等各种云原生计划仍然能够用于 SuperEdge,零迁徙老本,零学习老本。一看即会,一用即爽。丰盛的实用能力解决用户的理论问题是 SuperEdge 始终不移的指标,本着从用户角度思考、解决用户实在诉求的出发点,SuperEdge 提供了一系列零碎应用和运维工具和性能,为用户提供各种实用价值。 ...

July 20, 2021 · 1 min · jiezi

关于腾讯云:技术架构解密-应用与服务编排工作流-ASW

<img src="https://main.qcloudimg.com/raw/f16dd23519567f4d48aa7c284cf37f62.jpg" width="700"/> 腾讯云利用与服务编排工作流 ASW(Application Service Workflow)是新一代计算架构体系下的服务编排解决方案,用来协调分布式工作执行的编排产品。在利用与服务编排工作流中设定好工作执行步骤,能够将多个腾讯云服务按步骤进行调度,实现各种业务利用场景。能简化开发和运行业务流程所须要的工作协调、状态治理以及错误处理等繁琐工作,更简略、更高效的构建利用。 像胶水一样粘合云上各种产品和服务,提供面向用户场景的端到端解决方案。 01. 利用与服务编排工作流 ASW 背景介绍<img src="https://main.qcloudimg.com/raw/19fee1dce4817561398ed6ef109bdf4b.jpg" width="700"/> 随着云计算技术的倒退和提高,函数即服务(FaaS)、无服务(Serverless)等新一代技术计划越来越多的成为用户上云的首选解决方案。无服务并不是指开发者没有服务,而是指开发者应用的来说,不必更多的去思考服务器的相干内容,无需再去思考服务器的规格大小、存储类型、网络带宽、主动扩缩容问题;同时,也无需再对服务器进行运维了,无需一直的打零碎补丁、利用补丁、无需进行数据备份、软件配置等工作了。 Serverless 在开发便捷性、高性能、弹性扩缩容、部署便捷性、老本等方面具备人造的劣势。用户从以前须要购买计算实例,部署利用程序代码的应用模式,逐步转变为基于函数做面向最终业务的开发。腾讯云 Serverless 函数计算产品 - 云函数(Serverless Cloud Function,SCF),十分不便的提供面向单次申请或事物的解决能力;而云函数本身的运行、扩缩绒、部署等,均有 Serverless 服务提供商解决,对用于层面通明。随着 Serverless 架构利用的越来越多,越来越广,很多用户也逐步将越来越多的业务以 Serverless 的形式进行部署。 此时,多个云函数和其余云服务之间的编排组合便成为了新的技术挑战。为了解决泛滥原子服务的串联和编排需要,ASW 应运而生。 ASW(Application Service Workflow)以工作流的模式,对包含云函数在内的云服务进行对立编排,反对程序、并行、循环、失败重试、异样捕捉、输入输出解决等性能,真正做到面向开发者的最终场景,从输出到输入,端到端提供解决方案。 举例来说,开发者想要实现一个视频字幕 OCR 的性能,在没有 ASW 的状况下,须要手工将视频帧采集、视频图像截取、图像保留、OCR 接口调用、后果保留等解决节点进行组合串联。这可能波及到一系列的运维、扩容、监控、失败解决等逻辑的开发和组件对接,而应用 ASW 工作流,用户不须要思考,只须要依照最终场景,应用 TCSL 语言编写工作流即可疾速实现业务上线。 工作流提供 TCSL 语言(Tencent Cloud States Language),一种基于 Json 的结构化语言,用来形容和定义工作流中的业务逻辑。 该语言灵便不便,可写出可读性强、易于保护的状态机定义代码。语言兼容亚马逊 Step Functions 的 ASL 语法。提供工作节点(Task)、传递节点(Pass)、抉择节点(Choice)、并行节点(Parallel)、循环节点(Map)。 02. 技术挑战解析在设计并实现这样一个极为灵便的工作流零碎时,须要思考的问题很多;本局部将从数据量、可观测性、架构弹性等角度剖析。 1. 工作流 ASW 产品是一个数据密集型产品。 用户串联的所有微服务,数据均须要通过 ASW 进行转发或传递。同时有大批量数据在 ASW 外部进行流转。此时,CPU 的负载并不是最高的,内存、网络等波及大量数据 IO 的硬件,会首先是性能瓶颈。这也要求 ASW 产品在设计时,须要谨慎的抉择数据库中间件、存储中间件等。 ...

July 15, 2021 · 1 min · jiezi

关于腾讯云:技术赋能教育51Talk-在线教育的-Serverless-及音视频-实践

十年树木,百年树人。教育的初心是育人为本,技术的初心是科技向善。腾讯云 Serverless 与中国教育行业携手同行,秉持初心以技术赋能教育,打造有竞争力的中国教育行业无服务器解决方案。 “随同挪动网络和在线模式的疾速倒退,音视频通信成为教培行业刚需。51 Talk 致力于用技术创新晋升用户体验,在在线教育场景中疾速实现音视频互动能力。” - 龙锦远, 51Talk 音视频技术负责人 <img src="https://main.qcloudimg.com/raw/f0d594ccae75e2ae21a70df466c30e21.png" width="700"/> 51Talk 是中国在线英语教育行业的领导品牌,2016 年在美国纽交所上市,是 中国第一家赴美上市 的在线英语教育公司。作为国内最早实际 OMO 模式 (Online-Merge-Offline)的在线教育机构之一,通过深耕行业累积的教研治理教训和实在场景教学数据,在自研的配套软件系统的根底上,撑持起整个教学环节。 <img src="https://main.qcloudimg.com/raw/3b52a38c9f8adeddd77d10ebfb282c1a.png" width="700"/> ( 51Talk 在线课堂数据流程图 ) OMO 模式是指线上和线下相交融,利用技术倒退买通线上线下,大幅晋升市场效率的商业模式。以后,教育机构实现 OMO 模式有三种形式:自研、外包服务,以及购买 SaaS 服务。但这三种形式各有困扰: 1. 老本高:OMO 模式对 AI、大数据、云计算、物联网等各畛域技术要求较高,自研能力须要组建一支业余的技术团队和昂扬的老本投入; 2. 难匹配:外包厂商对原有架构并不相熟,在需要实现和开发权限上难以失当匹配; 3. 灵便度低:购买 SaaS 服务尽管看似简略,但存在灵活性不佳、数据孤岛、无奈满足定制化需要等问题; <img src="https://main.qcloudimg.com/raw/f1249229b1b011d821edaa5d7007df75.png" width="700"/> 01. 小步快跑,别让教育行业困在代码中在线教育行业的 OMO 模式波及简单的流程和新的技术,对经营老本、技术能力、盈利能力提出了更高的要求和挑战。而影响在线教育行业营收的要害是用户转化率、续费率和转介绍率,实质上晋升转化率的根底是教学体验和学习成绩。这须要教育行业用最小的老本,疾速试探用户的反馈,一直验证市场反馈。51 Talk 基于对用户行为的了解,业务侧须要疾速迭代新性能:反对回放、珍藏、下载和转发学生在课堂中的精彩影像片段,留下学生在成长提高路上的精彩霎时。让业余的人做业余的事,让教育行业只需专一业务逻辑。 龙锦远示意:从上线效率和经营老本的双重需要思考,须要可能疾速构建服务、主动弹性扩缩的解决方案,放慢我的项目上线的工夫,升高开发、保护、扩大的复杂性。 Serverless 让客户无需保护跟业务无关的底层基础设施,可能分心本人的业务,缩短研发周期,真正实现「小步迭代、试错快跑」的麻利开发。在 Serverless 的架构中,用户操作的是服务化的组件,如存储服务、受权服务等,缩短了开发周期,升高了开发难度,且防止了由基础设施产生的提早。 <img src="https://main.qcloudimg.com/raw/40f6f463d2c1f1e03c619647b21e1e8f.png" width="700"/> (让开发者专一业务逻辑) 02.「全景录制」实时音视频 TRTC + 云函数 SCF 解决方案利用云函数 SCF 实时录制直播内容,生成 ts 文件存在指定地位。精彩片段触发之后,读取触发点前几个片段,调用函数资源池,疾速生成精彩片段。<img src="https://main.qcloudimg.com/raw/074dea5eafb72c83e1ab820a797eb4ec.png" width="700"/> (全景录制流程图) 云函数 SCF 一键触发,实时弹性启动,服务端执行浏览器全景镜像录制;浏览器多路解码、一路编码,升高算力耗费;浏览器实现多路直播流、信令、白板等同步集成,简略直观;录制过程灵便调整布局,切换主播、观众视角;实时音视频 TRTC 与 云函数 SCF 内网推拉流,极大晋升实时性,升高网络流量老本;03. 降本增效,技术提高的最佳体现在线教育的技术投入并不简略,以线上课堂的业务零碎举例,就须要 iOS 开发、安卓开发、PC 开发、后盾 Web 开发等等,即便搭建最简略的教育零碎,通常至多须要 10 人左右的研发团队,更不必提前期运维、服务器和工夫老本的投入。同时,在线教育行业的用户流量波峰波谷显著,也会面临意料不到的流量突增。IDC 里的服务器不肯定能够满足计算需要,自建服务的硬件洽购周期较长,因此亟待找到最小老本的可行性计划。 ...

July 15, 2021 · 2 min · jiezi

关于腾讯云:玩转-WordPressServerless-搭建-WordPress-2-分钟

WordPress 是应用 PHP 语言开发的平台,用户能够在反对 PHP 和 MySQL 数据库的服务器上架设属于本人的网站,也能够把 WordPress 当作一个内容管理系统(CMS)来应用。腾讯云 Serverless 提供了基于 Serverless 架构的 WordPress 全新部署形式,仅需三步,就能够疾速部署一个 WordPress 我的项目,抛去繁琐的底层运维步骤,所有的性能都能够在 Serverless 架构上实现。在保障性能劣势的同时,基于 Serverless WordPress 部署的集体博客网站(日访问量100左右),一个月老本不到 5 元,比起传统计划,老本大大降低。第一次应用 Serverless WordPress 的新账户,流动期间可收费取得每月赠送的建站资源。点击此处支付资源看起来不错哦,特地是价格,这次也是我本人的一个尝试~ 01. 开始尝试1. 创立利用 间接关上 Serverless WordPress 建站主页面 拜访地址:https://cloud.tencent.com/act... 咱们能够看到「Serverless WordPress 建站新体验」的上面那行小字「建动静网站」所以能够晓得这项服务就是为了动静网站而筹备的,间接点击「立刻体验」。 2. 受权开启性能 点进去后就会跳出这样的页面,也不难,间接用微信扫一下码就行,而后就能够来欢快的抉择要搭建的利用了。 3. 抉择并新建利用 认证实现,会跳转到这个页面,曾经主动框选了 WordPress 的选项; 还能够看看还有哪些利用能够创立,都是动静的网站,z-blog 也有诶; 选好后间接点确认创立(下一步),利用名轻易输出,环境的话间接点开发环境,地区就选凑近你们的地区(目前只有 3 个可选),填好后就点实现就好了; 4. 主动创立 点击实现后会间接主动配置,等他大概20秒,比之前搭建 typecho 的快多了(吧);搭建 typecho 教训分享:https://cloud.tencent.com/developer/video/album/100048 而后会跳到「Serverless 利用」列表页面,点击创立的利用,间接拜访; 因为须要装置,这里间接 点击「首页地址」; 02. WordPress 配置1. WordPress 装置 ...

July 13, 2021 · 1 min · jiezi

关于腾讯云:案例-腾讯广告-AMS-的容器化之路

作者张煜,15年退出腾讯并从事腾讯广告保护工作。20年开始疏导腾讯广告技术团队接入公司的TKEx-teg,从业务的日常痛点并联合腾讯云原生个性来欠缺腾讯广告自有的容器化解决方案 我的项目背景腾讯广告承载了整个腾讯的广告流量,并且接入了内部联盟的申请,在所有流量日益增大的场景下,流量突增后如何疾速调配资源甚至主动调度,都成为了广告团队所须要思考的问题。尤其是往年整体广告架构(投放、播放)的条带化容灾优化,对于按需分配资源、按区域分配资源等性能都有着更强的依赖。在广告外部,播放流零碎承载了整个广告播出的性能,这里的稳定性间接决定了整个腾讯广告的支出,以下为架构图: 业务特点: 申请量大,日均申请量近千亿级别,机器量占了AMS自有机器量的60%以上,整体性能即便是大量的高低稳定都会波及大量机器的变动。链路拓扑简单及性能压力极大,整个播放链路波及40+的细分模块。在100~200毫秒(不同流量要求有差别)的极短时间内,须要拜访所有模块,计算出一个最好的广告。计算密集型,大量的应用了绑核和关核能力,来面对上百万个广告订单检索的压力。上云计划选型在20年腾讯广告曾经在大规模上云,次要应用的是 AMD 的 SA2 cvm 云主机,并且曾经实现了对网络、公司公共组件、广告自有组件等兼容和调试。在此基础上,基于 CVM 的 Node 云原生也开始进行调优和业务应用,弹性伸缩、Docker 化革新,大量应用各种 PAAS 服务,充分发挥云的高级性能。以下为广告应用的 TKE 架构: 后期资源筹备(左上):从腾讯外部云官网平台申请 CVM 和 CLB 等资源,并且同时云官网申请 master,node,pods 所须要的 subnet 网段( subnet 是辨别区域的,例如深圳光明,须要留神 node 和 pods 在区域上的网段调配,须要统一)。CVM 和 CLB 都导入至 TKEx-teg 中,在抉择FIP模式的时候,产生的 PODS 从调配好的 subnet 中获取本人的 EIP。仓库及镜像的应用(右上):广告运维侧提供根底镜像(mirrors.XXXXX.com/XXXXX/XXXXXXX-base:latest),业务在 from 根底镜像的同时,拉取 git 后通过蓝盾进行镜像 build,实现业务镜像的构建。容器的应用模式(下半局部):通过 TKEx-teg 平台,拉取业务镜像进行容器的启动,再通过 clb、北极星等服务进行对外应用。容器化历程(艰难及应答)艰难一:通用性(1)面对广告84个技术团队,如何实现所有业务的适配(2)镜像治理:根底环境对于业务团队的透明化(3)腾讯广告容器配置标准艰难二:CPU密集型检索(1)广告订单数量:百万级(2)绑核:各个利用之间的 CPU 绑核隔离(3)关核:敞开超线程艰难三:有状态服务降级中的高可用(1)广告资源在容器降级过程中的继续可用(2)在迭代、销毁重建过程中的继续高可用 通用性1. 广告根底镜像介绍广告运维侧提供了一套笼罩大部分利用场景的根底镜像,其中以 XXXXXXX-base:latest 为根底,这里集成了原先广告在物理机下面的各个环境配置、根底 agent、业务 agent 等。并且基于这个根底镜像,提供了多个业务环境镜像,镜像列表如下: mirrors.XXXXX.com/XXXXX/XXXXXXX-base:latestmirrors.XXXXX.com/XXXXX/XXXXXXX-nodejs:latestmirrors.XXXXX.com/XXXXX/XXXXXXX-konajdk:latestmirrors.XXXXX.com/XXXXX/XXXXXXX-python:3mirrors.XXXXX.com/XXXXX/XXXXXXX-python:2mirrors.XXXXX.com/XXXXX/XXXXXXX-tnginx:latest 具体镜像应用状况如下: 在广告的根底镜像中,因为权限集设置未应用到 systemd,所以应用启动脚本作为1号 PID,并且在根底镜像中内置了一份通用的腾讯通用 Agent & 广告独有 Agent 的启动脚本,在业务镜像启动过程中,能够在各自的启动脚本中抉择是否调用。 ...

July 13, 2021 · 3 min · jiezi

关于腾讯云:白话边缘计算解决方案-SuperEdge

一、SuperEdge的定义援用下SuperEdge开源官网的定义: SuperEdge is an open source container management system for edge computing to manage compute resources and container applications in multiple edge regions. These resources and applications, in the current approach, are managed as one single Kubernetes cluster.翻译过去的意思是: SuperEdge 是开源的边缘容器解决方案,可能在单 Kubernetes 集群中治理跨地区的资源和容器利用。咱们通过关键词来简略解释下这句话: 开源这个计划尽管是由腾讯云容器团队开源的边缘容器解决方案,但这是一个齐全第三方中立的开源我的项目。官宣当日别离由 Intel、VMware、美团、寒武纪、首都在线、虎牙、腾讯独特官宣开源,并不禁腾讯一家说了算,在边缘有想法的同学和企业也欢送参加,共建边缘,独特推动边缘计算在理论场景的落地和倒退。 边缘容器解决方案这句话不必过多的解释,次要做容器的编排和调度治理。然而目前做容器的调度编排最火的计划是Kubernetes,为什么不拿 Kubernetes 间接做边缘容器的编排和调度治理呢?这个前面再解释。 单 Kubernetes 集群还是用 Kubernetes 做容器编排调度,深刻理解后,发现 SuperEdge 团队并没有删减 Kubernetes 任意一行代码,也就是说齐全 Kubernetes 原生,具备 Kubernetes 对应版本的全副个性。 单 Kubernetes 集群中治理跨地区的资源和容器利用重点词落在单和跨地区。为什么要在单 Kubernetes 集群中治理跨地区的资源和容器利用呢?场景、场景、还是场景决定的。 简略一个例子,有个连锁超市,10个营业网点,每个网点都有一个当日的特价广告采购程序。各个营业网点之间,以及营业网点和核心管控面之间,网络齐全不通,齐全独立,造成地区隔离。每个网点的广告程序齐全一样,推送的内容也齐全一样,指标是可能在单 Kubernetes 集群中,治理10个营业网点,像治理一个网点一样轻松。 二、可能存在的问题看了SuperEdge官网的个性,我也没齐全懂。什么是 Network tunneling? 为什么要 Built-in edge orchestration capability? 介绍的个性到底能够解决什么问题,我也存疑? ...

July 13, 2021 · 2 min · jiezi

关于腾讯云:玩转云函数腾讯云云函数结合金山文档打造轻量级-Office-在线预览服务

以下内容来自「玩转腾讯云」用户原创文章,已取得受权。 本文介绍下如何应用云函数来实现 Office 办公文件的预览 01. 前言曾几何时,文档预览已经很麻烦,小公司须要购买服务器,自行搭建文件服务器来满足产品的文件预览需要,用户上传的文件经由后端进行转码之后能力预览,技术团队须要搭建文件存储服务及转码服务能力实现根底性能,我司已经就是这么做的。 尽管有公开的微软 Office 预览服务以及 kkfileview 等实现计划,但依然存在诸多问题,比方微软 Office 预览的大小限度,kk 的稍微沉重。难道如果我只是想要一个轻量级的文档服务就那么难吗? No、No、No,之前始终在关注腾讯云云函数,也在不停基于云函数摸索有意思的性能来满足平时的开发需要,前段时间正好公司我的项目须要用到金山的服务做文件预览,应用成果还能够,那么灵感来了,为什么不能将两个大佬的能力联合一下? 说干就干,腾讯云云函数和金山的文档的整合,我看行。 02. 探讨可行性首先问题的关键在于通过后端服务去获取预览地址并通过一个网页去承载金山的预览服务,侥幸的是这些都能够通过云函数做到,首先云函数是反对 Node.js 编写的,所以咱们只有应用 Node.js 去申请金山的接口获取预览地址,而后通过设置函数返回类型为网页就能够将预览地址嵌入函数返回的 iframe 中来实现预览性能,是不是很简略易用。 Talk is cheap, show me the code. 上面咱们来践行一下吧~ 03. 云函数编写'use strict';const rp = require('request-promise')const officeBaseUrl = '公有服务端?fileUrl='exports.main = async (event, context) => { let fileUrl = 'http://默认下载的预览文件地址.doc' let param = {} if (event.queryStringParameters) { param = { ...event.queryStringParameters } } else { param = { ...event } } if (param.url) { fileUrl = param.url } let previewRes = await rp({ url: officeBaseUrl + fileUrl }) previewRes = JSON.parse(previewRes) return { statusCode: 200, headers: { "content-type": "text/html" }, body: `<script>location.replace("${previewRes.data.wpsUrl}");</script>` }}04. 问题记录仔细的同学会发现在云函数返回体局部在这里写的是一段js代码重定向到了一个url。这里之所以没有应用iframe去嵌入预览地址是因为会报获取token失败的谬误,所以退而求其次采取了间接跳转到预览地址的形式来查看文件。 ...

July 9, 2021 · 1 min · jiezi

关于腾讯云:基于-Web-函数部署您的-Laravel-项目Web-Function-实践教程

PHP 是搭建 Web 服务的罕用开发语言之一,基于 PHP 也衍生出了泛滥 Web 开发框架,Laravel 便是其中的优良代表,它具备富于表白性且简洁的语法,提供了泛滥性能,例如模板引擎,MVC 架构反对,安全性高,开发者工具,数据库迁徙等,能够满足不同场景或规模的 Web 利用开发。 本篇教程将为您领导,如何通过 SCF Web Function,疾速部署您的 Laravel 框架上云。 01. 模板部署 - 无需改变业务代码,一键部署登录 Serverless 控制台,单击左侧导航栏的「函数服务」,在主界面上方抉择冀望创立函数的地区,并单击「新建」,进入函数创立流程。抉择应用「模版创立」来新建函数,在搜寻框里输出 「WebFunc」,筛选所有 Web 函数模版,抉择「Laravel 框架模版」,点击 「下一步」,如下图所示:<img src="https://main.qcloudimg.com/raw/263b8016fbd736f75a042e6f2b95fd87.png" width="700"/> 在「配置」页面,您能够查看模版我的项目的具体配置信息并进行批改;单击「实现」,即可创立函数。函数创立实现后,可在「函数治理」页面,查看 Web 函数的根本信息,并通过 API 网关生成的拜访门路 URL 进行拜访,查看您部署的 Laravel 我的项目。<img src="https://main.qcloudimg.com/raw/f2abb965e40b7ad16772998903a85094.png" width="700"/> 02. 自定义部署 - 3 步疾速迁徙本地我的项目上云1. 本地开发首先请在本地环境里,实现 Laravel 的开发环境搭建,参考官网文档本地创立 Laravel 示例我的项目,在我的项目目录下,通过以下指令,初始化 Laravel 示例利用:composer create-project --prefer-dist laravel/laravel blog本地启动示例我的项目后,在浏览器里拜访 http://0.0.0.0:9000,即可在本地实现Laravel 示例我的项目的拜访$ php artisan serve --host 0.0.0.0 --port 9000 Laravel development server started: <http://0.0.0.0:9000> [Wed Jul 7 11:22:05 2021] 127.0.0.1:54350 [200]: /favicon.ico<img src="https://main.qcloudimg.com/raw/1d467a55fcd4210dc6176d2edf701f21.png" width="700"/> ...

July 9, 2021 · 1 min · jiezi

关于腾讯云:用了-Serverless-这么久这里有其底层技术的一点经验

关注 TencentServerless 公众号,回复「PPT」,即可支付本届大会演讲 PPT。 无服务器背地的一个关键技术称作 microVMM。Firecracker 就是用于创立和治理 microVMM的开源我的项目。Firecracker 运行在用户空间,应用 KVM 来创立实例。其疾速启动和低内存个性尤为要害。本议题将介绍 Firecracker 的根底、最小设施模型,以及它所带来的疾速启动、性能、安全性和利用率的晋升。本文由 Amazon Web Services 首席开发者布道师费良宏在 Techo TVP 开发者峰会 ServerlessDays China 2021 上的演讲《microVMM — Serverless 核心技术揭秘》整顿而成,向大家分享,本次分享残缺视频请见文末。 01. Serverless 的倒退现状明天跟大家分享一个有意思的话题,Serverless 背地外围的技术 — microVMM。咱们一起见证和经验了很多开源技术、开发技术、软件架构技术一直的变动,很难置信在明天有如此多能够抉择的技术栈,让咱们去开发、运维、部件和部署,它们让咱们感觉这个时代变得更加美妙。其中就包含了明天咱们议论的次要话题:Serverless 无服务器,我最早接触它是在2014 年 Amazon Lambda 公布时,当我写下第一行「Hello World」,感到如此简略——将业务逻辑简略分装,只需几秒钟,就部署到云的环境中,我迅速取得一个 Endpoint 端点,就能够调用它取得所有的能力。这与以往的开发经验相比,几乎是天壤之别,尽管那个时候 Serverless 还有很多不不便的中央、有很多技术上的限度。但过来几年里,这些技术的倒退曾经突飞猛进,给咱们全新的感觉和认知。 Serverless 到底倒退到怎么的水平?往年的 5 月份,DataGog 公司针对 Serverless 市场公布了一份剖析报告,能够让咱们一睹在明天的市场当中 Serverless 技术倒退的状况。 这个报告谈到几个有意思的观点: 第一,Serverless 的炽热水平。以 Amazon Lambda 平台为例,比照 2019 年 Q1 与 2020 年 Q1,从寰球的使用量来看,有了 3.5 倍的晋升,这是十分了不起的提高,在绝大多数企业中,每天调用 Serverless 技术的函数工夫大略达到 90 小时以上。甚至不仅 AWS Lambda,包含像 Azure Functions 和 Google Cloud Functions 等这些技术都有了长足的提高,用户的使用量和规模也越来越大。这所有都揭示着一个事实 — Serverless 技术变得越来越沉闷,并且被宽泛地承受。承受 Serverless 的用户,不仅仅是个体的开发者、守业公司、企业用户,甚至遍布到各行各业、在各种业务场景当中,咱们甚至能够把 Serverless 看作是一种「胶水」一样的工具,把很多原来不可设想的运维、数据处理、机器学习的推理包含挪动端的调用等都通过这样一个简略的技术加以贯通起来。 ...

July 9, 2021 · 4 min · jiezi

关于腾讯云:Addon-SuperEdge-让原生-K8s-集群可管理边缘应用和节点

作者梁豪,腾讯TEG工程师,云原生开源爱好者,SuperEdge 开发者,现负责TKEX-TEG容器平台运维相干工作。 王冬,腾讯云TKE后盾研发工程师,专一容器云原生畛域,SuperEdge 外围开发人员,现负责腾讯云边缘容器TKE Edge私有化相干工作。 李腾飞,腾讯容器技术研发工程师,腾讯云TKE后盾研发,SuperEdge外围开发成员。 Addon SuperEdge让原生K8s集群可治理边缘利用和节点视频链接 边缘能力先说说 Addon SuperEdge 后,您的一般 Kubernetes 集群将具备哪些能力: 既能管理中心利用和节点,也能治理边缘利用和节点能够用一个Kubernetes集群管理中心的利用和节点,也能够同时治理边缘的利用和节点,应用上没有任何区别。此设计将Kubernetes分布式的逻辑概念和理论IDC机房的物理地位完满符合,实现真正意义的云边一朵云。 能Join任意地位的节点只有节点能拜访到kube-apiserver,无论节点位于哪里,或以怎么的状存在,一个edgeadm join命令就能将节点退出到核心集群。用一个Kubernetes集群就能够对立治理各个中央的机器,汇聚各个IDC机房的算力,将机器的利用率施展到极致。 同时治理数十个边缘网点,并具备灰度能力SuperEdge 的 ServiceGroup 设计,一个利用只有提交一次,就能同时部署到数十个网点,并且在各个网点内实现流量闭环,而且容许各个网点在根底利用的根底上有差别,无论灰度,还是差异化配置都能够反对。 边缘节点具备边缘自治能力边缘节点和 kube-apiserver 之间网络状况不可预测,可能是专线,也可能是WIFI,公网和内网可能都存在。SuperEdge 让边缘节点即便云边断网也不影响边缘的服务,就是断电重启,边缘服务也能被失常拉起。 Addon SuperEdge的边缘能力装置条件用户已有 Kubernetes 集群,所有 kube-controller-manager 已开启 --controllers=*,bootstrapsigner,tokencleaner参数 目前仅反对通过 kubeadm 搭建的 Kubernetes 集群,其余形式搭建的 Kubernetes 集群并不是不反对,而是可能会有兼容性问题,可看原理局部;要是没有 kubeadm 搭建的 Kubernetes 集群,可用edgeadm init一键创立一个原生的Kubernetes 集群,可参考: 用edgeadm一键创立边缘k8s集群或原生k8s集群;反对的 Kubernetes 版本:v1.16~v1.19,edgeadm 提供的安装包是 Kubernetes v1.18.2 版本; 用户须要思考边缘节点kubelet和原始 Kubernetes 版本的兼容性,对立最好;其余 Kubernetes 版本可参考 一键装置边缘Kubernetes集群中的 5. 自定义 Kubernetes 动态安装包,自行制作。下载 edgeadm 动态安装包在任意一个 Master 节点上下载 edgeadm 动态安装包,并拷贝到筹备退出集群的边缘节点中。 arch=amd64 version=v0.4.0 && rm -rf edgeadm-linux-* && wget https://superedge-1253687700.cos.ap-guangzhou.myqcloud.com/$version/$arch/edgeadm-linux-$arch-$version.tgz && tar -xzvf edgeadm-linux-* && cd edgeadm-linux-$arch-$version && ./edgeadm目前反对目前反对 [amd64, arm64], 两个体系,下载本人机器对应的体系结构, 其余体系可自行编译edgeadm和制作相应体系安装包,具体可参考 [一键装置边缘 Kubernetes 集群中的5. 自定义Kubernetes动态安装包Addon SuperEdge在原有集群任意一个 Master 节点上 addon 边缘能力组件 ...

July 8, 2021 · 3 min · jiezi

关于腾讯云:腾讯云TKE118初体验

背景:作为腾讯云的老用户我大略是2018年开始应用腾讯云的tke服务的。过后是1.10,当初线上还有一个tke1.12的集群,鉴于晚期更新迭代较慢。我抉择了在腾讯云下面kubeadm的形式自建kubernetes集群的形式。参见:https://duiniwukenaihe.github.io/2019/09/02/k8s-install/。前面继续降级,当初是1.17.17版本。最近看腾讯云云原生公众号更新的内容都比拟多,并且tke的版本到了1.18我抉择了尝试一下tke的服务!注:昨天开明搭建没有截图....明天就将就一下模仿演示吧! tke开明体验:注:我之前开通过tke服务注册账号,服务受权就疏忽了!,对于这部分的内容能够参照官网文档:https://cloud.tencent.com/document/product/457/54231 1. 关上治理控制台:https://console.cloud.tencent.com/tke2/cluster?rid=4名为k8s的集群为老的集群。k8s-shanghai为昨天新建的tke1.18的新的集群。因为集群曾经创立了。当初就只是截图反复一遍步骤,不去做新集群的开明了! 2. 新建集群设置集群的名称,新增资源所属的我的项目,我这里就都是默认了。抉择kubernetes的版本。以后最新版本是1.18.4。至于runtime运行时组件。我是间接用了containerd了。当然了docker也还算能够的在1.18的版本。地区我的服务器资源都部署在上海。而后抉择集群的网络环境。容器网络的组件应用了默认的Global Router,VPC-CNI对于我来说还没有这样的需要 3. 特别强调说一下容器的网络:我的cvm网络CIDR是10.0.0.0/16的网络。容器的网络是要跟集群网络离开的失常来说抉择192.168或者 172.X.0.0.0/16。当然了也能够可变长子网掩码。本人玩的不是太好还是依照提醒老老实实的了默认的提醒X是16,18,....,31。16用过了,18貌似也用了 我就抉择了19。故容器网络的CIDR是172.19.0.0/16.节点的pod调配形式也能够满足我的要求! 4. 操作系统与proxy选型操作系统我都抉择了ubuntu18.04。嗯也能够用腾讯云的tencent linux 或者centos.kube-proxy代理形式我抉择了ipvs。当然了对应咱们这样业务的量级两个proxy代理的形式差距并不是太大,也没有孰好孰坏一说,看本人需要了! 5. 新建或者将已有资源退出master work节点服务器的配置这里我是应用了已有的节点资源,master独立部署的形式。间接把我资源池中的cvm资源分配给了master和work。其中master节点是4核8G内存配置,work节点是16外围36G内存配置。 6. 增加加强的组件至于组件配置就看集体需要了。这边不不便截图了。我就在搭建实现的集群中理一下我顺手装置的几个组件:cbs cfs cos 存储组件是不可短少的对我来说。NodeProblemDetectorPlus OOMGuard看着很有用, 我也就装置上了。NodeProblemDetectorPlus参数设置我应该设置了一个异样重启kubelet的性能这边后盾也无奈查看配置参数有点不好玩了而后期待集群的初始化实现。嗯,服务器的明码能够主动生成也能够应用ssh-key或者本人手工输出的看本人需要了。 tke应用体验1. 特地不爽的一点 kuberctl get node的排序登陆任一一台master节点,第一件事件kubectl get nodes查看一下集群:what?为什么排序拍的杂七乱八的....能不能ROLES master在前?如下图:失常的排序不都这样吗?tke用ip形式显示主机名。然而master能不能排在后面?至于node节点的排序能不能有个排序的形式呢?排序这个货色提交了工单。客服回应说设计如此。幸好朋友圈有几个腾讯云的小伙伴,看我吐糟,帮拉了tke的一个群,反馈了一下。而后tke的小伙伴记录了一下。 2. csi-cbs-controller插件的异样没有去细看,端口异样不晓得跟哪个服务抵触了。客服最初也没有能通知我是跟哪一个插件抵触了,前面复原了。......次要是懒得看了。用集成服务。前提是稳固的。我集体感觉肯定是能够开箱即用的。 3. 利用市场 prometheus-opraoter的谬误tke有一个利用市场,算是一个helm仓库吧。跑一个Prometheus-oprator的helm利用测试一下,而后又陷入了难过:monitoring-kube-state-metrics服务无奈启动。最初看了一下这个POD是应用hostNetwork模式的 须要应用主机端口,POD所在节点 这个端口是否被其余利用所占用?看了一眼此节点日志嗯 8080的确被占用了:一个名为launcher的服务占用了此端口:客服给的解决方案:集体还是不太置信。因为我没有装置任何利用只装置了加强组件和存储组件。登陆其余work节点也确认一下发现每个节点都有一个launcher利用。狐疑这是一个零碎组件 kubectl get pods --all-namespaces|grep launcher最初找客服确认了一下,如下:依照客服提醒批改端口吧.......嗯总算起来了: 后记:这是用tke1.18的第一印象。当然了tke的小伙伴还是很给力的,敌人帮拉了群。各种问题能够随时反馈,还说不错的。这算是初体验吧,而后看看下一步体验一下部署其余利用,将服务clb代理。一步一步来吧。也心愿tke能有更好的用户体验!

July 8, 2021 · 1 min · jiezi

关于腾讯云:QPS-最高提升-91-腾讯云-TKE-基于-Cilium-eBPF-提升-k8s-Service-性能

前言Kubernetes 曾经成为容器治理畛域的事实标准,而网络系统是 Kubernetes 外围局部,随着越来越多的业务部署在 Kubernetes,对容器网络也提出了一些新的需要 怎么晋升网络的可观测性,serverless 类产品该需要尤为突出怎么尽可能减少容器引入的网络性能损耗上述需要冲击了 iptables,IPVS 等传统防火墙,负载均衡器技术。也促使咱们思考容器网络拜访链路是否不依赖于节点,进而缩短容器拜访链路,晋升网络性能 eBPF 是一项革命性技术,它能够以一种平安的形式在内核中许多 hook 点执行程序,该项技术可编程能力强,并且也无需保护内核模块,可维护性好,该项技术为满足上述需要提供了可能。Cilium则是基于 eBPF 技术的容器网络开源我的项目,提供了网络互通,服务负载平衡,平安和可观测性等解决方案 由此,腾讯云容器服务 TKE 基于 Cilium 和 eBPF 实现了独立网卡模式下的高性能 ClusterIP Service 计划。TKE 致力于提供更高性能、更平安和更易用的容器网络,也因而会一直关注 Cilium 等前沿的容器网络技术计划,后续会推出更多更欠缺的 Cilium 产品化能力。 独立网卡 Service 计划TKE 于去年推出了新一代容器网络计划,该计划实现了一个 Pod 独占一张弹性网卡,不再通过节点网络协议栈(default namespace)。而以后的 kube-proxy 实现 ClusterIP 的计划都依赖于在节点侧的网络协议栈里设置相应的 iptables 规定,也因而该计划对于独立网卡计划不再实用。 其中一个解决方案便是 Cilium,Cilium 提供了基于 eBPF 的地址转换能力,从而可反对 ClusterIP Service。但其原生计划仅反对 veth pair 和 ipvlan l3 的数据面,并不反对 Pod 齐全不通过节点网络协议栈的数据面,因而不能原生解决独立网卡 ClusterIP 的拜访问题。 TKE 由此对 Cilium 加以革新,使其反对了除原生反对的 veth 和 ipvlan l3 的第三种数据面计划,如图(假如 pod 拜访 Service IP 为 172.16.0.2),数据面上,将本来挂载到节点侧的 veth 上的 bpf 程序,挂载到 pod 内的独立网卡(同时也是弹性网卡)上,使得 Pod 的网络报文在收回的时候做 DNAT(目标地址转换),而回报文在网卡接管的时候做反向 DNAT,从而反对 ClusterIP 的拜访。该数据面计划可作为一个通用计划适配 Ipvlan l2、SRIOV 等数据面场景。 ...

July 7, 2021 · 2 min · jiezi

关于腾讯云:SuperEdge-云边隧道新特性从云端SSH运维边缘节点

背景在边缘集群的场景下边缘节点散布在不同的区域,且边缘节点和云端之间是单向网络,边缘节点能够拜访云端节点,云端节点无奈间接拜访边缘节点,给边缘节点的运维带来很大不便,如果能够从云端SSH登录到边缘节点能够简化节点的运维工作。针对这一需要,SuperEdge 我的项目扩大了 tunnel 组件的能力,新增了 SSH 模块,让用户能够从云端 SSH 登录到边缘节点。 需要剖析 边缘集群的节点散布在不同的区域,边缘节点可能拜访云端 master 节点,但 master 节点无法访问边端区域内的节点,用户心愿通过拜访 master 节点的端口 SSH 登录到节点施行运维工作。 惯例计划应用 SSH 端口转发技术能够实现 SSH 运维边缘节点性能,具体内容如下图所示: 边缘节点 node-A 和 node-B 通过 SSH 的近程转发(ssh -R)将云端 master-A 节点的 port-A 和 port-B 端口与本地22端口(SSH Server 的端口)绑定user 通过SSH的动静转发(ssh -D)与 master-A 建设 SSH 隧道同时在本地监听 local-port 端口local-port 的申请都会通过 SSH 连贯传到 master-A,由master-A 转发,例如 SSH 登录 node-A:ssh -o ProxyCommand=”nc -X 5 -x 127.0.0.1:local-port 127.0.0.1 port-A” root@127.0.0.1 ,127.0.0.1 port-A 就是 master-A 转发时申请的指标地址。惯例计划的毛病:边缘节点映射端口治理简单如图2所示,node-A 和node-B 将本地的22端口在 master-A 上映射为不同的端口,SSH 登录指标节点须要指定其在master-A映射的端口,当边缘节点数量很多时端口映射治理非常复杂,间接导致计划不可行。申请波及的多个连贯,减少了出错的概率以 SSH 登录 node-A为例,如图1所示,sshClient->local-port,user->master-A,master-A->port-A,master-A->node-A,node-A->sshServer,共计须要建设5条连贯。云端和边端的 SSH 保护麻烦边端节点和云端节点的 SSH 连贯,须要在边端节点上执行建设,且连贯不具备断开重连的能力,保护起来比拟麻烦。tunnel 计划架构设计 ...

July 6, 2021 · 3 min · jiezi

关于腾讯云:案例-信安运维基于-TKE-平台的容器技术实践

作者汤英康,腾讯高级工程师、Kubernetes 开源协同 PMC,负责TEG信息安全部的容器化上云相干工作。 引言截止到2021年5月,TEG 信安运维团队历时一年,实现了 TKE 容器从0到1的平台能力建设,集群总规模超过60万核,在资源老本、服务质量和经营效率上都获得了显著的收益。本文将介绍信安 TKE 容器的建设思路和历程,分享各阶段遇到的问题和计划,心愿能给其余上云团队提供一些参考。 背景信安致力于提供业余的内容平安解决方案,承接了公司内外大量的业务平安需要,随着业务量的迅速增长,信安外部的资源规模也日益增长,在机器老本、服务质量和交付效率方面也裸露了很多优化空间;自从公司提倡开源协同、自研上云以来,TKE(Tencent Kubernetes Engine)成了外部首推的上云形式,以 docker 和 kubernetes 为外围的容器技术也早已成为业界架构降级的支流抉择。 因而,在2020上半年,信安联结 TKE、智研和运管团队协同建设,开启了信安容器平台的建设之路。 建设思路和总体规划信安对于容器平台的建设思路和历程,能够总结概括为“一个方向、三个阶段”: 【一个方向】向云原生理念看齐,围绕云原生开源生态体系进行计划选型,紧跟业界先进的基础架构降级方向; 【三个阶段】云原生有三驾马车:容器云 + Devops 经营体系 + 微服务,别离对应了容器化征途必经的三个阶段, 阶段1:根底平台建设,将容器技术引入到服务架构并适配,实现从0到1的能力建设、业务革新和架构降级;阶段2:经营能力迭代,次要工作是围绕容器平台晋升研效能力、欠缺数据经营能力,并建设稳定性保障体系;阶段3:云原生成熟度晋升,基于公司公布的云原生成熟度模型,以成熟度评分为抓手,推动现有架构继续优化。 根底平台建设平台能力建设在 TKEStack 团队的帮助下,信安顺利地在深圳、广州、上海、南京4个地区实现了CPU独立集群的搭建,联合 TKEStack 的控制台页面,疾速具备了容器公布和治理的根底能力。通用能力之外,在个性化需要的适配上,次要有: 实例固定 IP:通过 FloatingIP 插件实现,创立容器时在网络模式中抉择浮动IP,IP回收策略抉择“缩容或删除 APP 时回收”,即可实现CMDB 同步:通过 CMDB 控制器插件实现,实例启动后,插件会主动将 pod IP 注册到 annotation 中指定的业务模块L5/北极星服务注册:通过LBCF插件实现,实例 running 状态后,能够将实例IP和指定端口注册到L5/北极星,实例被删除时,能够从L5/北极星下线 GPU 集群也在深圳和上海实现搭建并投入使用,并设计了基于 Virtual Kubelet、将 GPU 集群的CPU资源注册到CPU 集群中进行调度的计划,能更好地复用 GPU 机器上闲暇的CPU资源。 业务容器化革新具备平台能力后,下一步就是对现有的 IDC/CVM 上部署的服务进行容器化革新。这里的难点次要有: 服务多样性,蕴含无状态、有状态和 GPU 的服务,单个服务的包很大(最大可达几十个G),服务有本人的依赖环境等须要思考多个研发经营流程节点:包含开发革新、测试流程标准、Dockerfile 镜像制作、CICD 流程、运维变更标准等咱们次要采取了如下几个措施: 首先,梳理不同场景下服务的革新流程,在外部制订了对立的开发、测试和运维应用标准在根底镜像的抉择上,咱们基于信安标准化的机器环境制作了根底镜像,缩小服务因为环境问题导致异样的概率形象出 Dockerfile 模板,升高了服务革新老本(开发同学简直0参加)对立容器内的启动入口(Entrypoint 和 CMD),在治理脚本中启动服务局部服务在启动之前、须要将容器IP写到配置文件中,咱们通过在治理脚本中实现对于 size 过大的软件包和镜像,思考将文件机型拆分治理,例如数据模型文件、通过服务启动时再去文件下发零碎拉取资源利用优化一方面,将每个服务划分到独自的 namespace 空间,联合 ns 的 ResoureQuota 来配置和限度服务所能应用的资源; ...

July 6, 2021 · 2 min · jiezi

关于腾讯云:TKE-体验升级更快上手-K8s-的24个小技巧

作者王孝威,腾讯云容器产品经理,热衷于为客户提供高效的 Kubernetes 应用形式,为客户极致降本增效服务。 背景“性能“解决是产品有或者没有一个能力的问题,有了“性能”之后,如何通过良好的疏导、提醒,以及交互来帮忙用户更“晦涩”的应用产品是一个值得思考的问题。 例如:乐高曾经有了超过 3700 种不同的模块,这些模块能够拼出有限种模型。然而,不同模型的出现齐全不一样,有可能只是几个小模块的地位的扭转就能带来意想不到的成果。 进过几年的致力,TKE 在性能层面提出了大量新个性:例如:通过 LB 直连 Pod 晋升性能,集群原地降级,虚构节点,动静调度器,更多可参考容器服务产品动静。 此外,TKE 也器重用户的整体应用体验,为此访问了多家公司,收集了很多需要,并依据用户器重分层,进行了优化和工具的开发,用户能够利用这些优化的小技巧,更顺滑的来体验容器服务,更“接地气”的升高产品应用门槛,晋升产品应用体验。 晋升列表集群/节点相干举荐:节点搜寻能力加强节点搜寻反对通过 Label/IP/是否封闭/节点状态 等多维度的搜寻。 Label 搜寻格局与原生 Kubernetes 雷同:"k1=v1,k2=v2"IP 多值搜寻时仅反对准确查问,单 IP 搜寻反对含糊查问应用形式:节点治理 -> 节点 -> 搜寻 或者 节点池详情页 -> 下拉到节点列表 -> 搜寻 举荐:节点初始化谬误展现优化【CVM 发货失败 相干谬误细化展现】如果因为 CVM 发货失败导致节点购买失败,除了报 LAUNCH_FAILED(即发货失败), 还会显示具体发货失败的起因:比方 VPC 子网 IP 有余/磁盘资源有余/余额有余/置放群组配额有余等等。【节点初始化 相干谬误细化展现】会具体在节点列表展现节点初始化失败的步骤以及对应信息:比方挂盘失败、外围组件异样等等。应用形式:节点治理 -> 节点 -> 在状态栏点击查看状态即可查看谬误 节点池节点操作标准化:反对封闭/驱赶节点池内节点操作反对封闭/驱赶,已与集群内节点列表操作放弃齐全同步,您能够在节点池内高效治理节点。 应用形式:节点池详情页 -> 下拉到节点列表 -> 在操作列对单节点进行操作 或者 选中批量节点后进行批量操作(点击上方【更多操作】按钮可批量封闭/勾销封闭节点) 删除爱护逻辑优化客户反映:如果创立集群时开启了误删选项,开启后如果创立失败,客户也无奈删除。 当初您能够在【集群列表页】为集群敞开删除爱护性能。 应用形式:集群治理 -> 集群操作列表 -> 更多 -> 敞开集群删除爱护 ...

July 2, 2021 · 2 min · jiezi

关于腾讯云:云原生应用负载均衡系列-2-入口流量分发容错与高可用调度

引言在云原生利用负载平衡系列第一篇文章《云原生利用负载平衡选型指南》介绍了云原生容器环境的入口流量治理应用场景与解决方案,用 Envoy 作为数据面代理,搭配 Istio 作管制面的 Istio Ingress Gateway,在多集群流量散发、平安、可观测性、异构平台反对等方面的综合比照中,是云原生利用流量治理的最佳计划。 在接入层,咱们须要配置路由规定、流量行为(超时、重定向、重写、重试等)、负载平衡算法、断路器、跨域等流量治理规定,本文将基于 Istio Ingress Gateway 面向入口流量散发、容错与高可用调度介绍上述性能的原理与演示。 组件介绍Istio Ingress Gateway,可作为 Kubernetes 的一种 Ingress Controller 12,由数据面(Envoy 网络代理 1)与管制面 Istiod 13组成,默认以 Deployment 的模式部署 Pod 至 Kubernetes 集群。 服务发现Istio Ingress Gateway 管制面 Istiod 可联通各种服务发现零碎(Kubernetes,Consul,DNS)获取 endpoints 信息,或者咱们能够应用 ServiceEntry 手动增加服务与 endpoints 对应信息。以常见的 Kubernentes 集群为例,Istiod 从 API Server 获取 Kubernetes Services 及其对应的 endpoints,对应关系实时监测与自动更新。获取服务发现信息后,Istiod 会将其转化为数据面规范数据格式,以 Envoy xDS API 的模式 push 到理论执行流量转发操作的数据面 Envoy 网络代理。 值得注意的是,Istio Ingress Gateway 的数据面 Envoy 是以独自 Pods 的模式部署于 Kubernetes 集群,只需应用 Istio 南北向流量治理能力时,无需在业务 Pods 注入 Istio 数据面 sidecar,Ingress Gateway 的 Envoy Pods 即可承载全副入口流量治理的能力,因为 Istio 入口流量治理的性能大部分是在 Envoy 网络代理的 client 端(Istio Ingress Gateway)实现的。 ...

July 2, 2021 · 10 min · jiezi

关于腾讯云:如何快速搭建一个-AI-识别处理的流水线

本文为您介绍如何应用 ASW 编排云函数与 AI 产品服务,疾速搭建一个 AI 智能辨认的解决流水线。通过 ASW 编排调用腾讯云 AI 能力,实现 活体检测、语音辨认、关键字采样、主动审核 等一系列自动化辨认认证流程,提供开箱即用、灵便便捷、高弹性高可用的 AI 智能辨认解决场景。 尤其适宜社区人脸识别,金融交易人脸领取,智能线上开户等 AI 人工智能场景。 01. ASW 工作流 - 「AI 辨认」零碎架构在「智能线上开户」的场景中,用户在利用客户端登录,客户端将用户视频采集后上传到 COS,通过 COS 触发函数调起 ASW 工作流执行智能辨认解决流程。ASW 调用 AI 活体人脸,实现活体人脸识别,通过后由云函数向利用服务端推送语音播报(例如播报某个验证问题)。 推送胜利后通过与服务端连贯,调起客户端录音能力对用户进行录音,将录音后果进行 AI 语音辨认解决,解决后生成对应文字,通过关键字判断用户问题作答的正确状况,告诉服务端解决判断后果,实现整个智能线上开户场景。 02. ASW 计划 VS 传统计划 通过以上比照,ASW 编排的劣势如下: ASW 工作流应用 TCSL 定义编排,语法简略,升高学习和应用老本,极大水平上缩短了我的项目周期,放慢开发部署。ASW 工作流能够实现高度自定义的工作流流程,能适应疾速变动的业务诉求,编排更新无需运维保护,为业务的继续更新提供了疾速迭代的能力。ASW 工作流提供了敌对的界面交互视图,在运行调试的过程中,能疾速定位问题。ASW 工作流目前仍为收费阶段,无需承当服务器/集群相干费用。03. 如何创立「AI 辨认」工作流编排 - 计划示例接下来将为大家介绍一个「智能在线开户」的 ASW 工作流编排流程。 用户登录客户端后,进入开户流程。依据开户流程的提醒,采集用户视频及语音,而后将采集的音视频进行 AI 解决剖析,最初输入开户胜利或失败的后果。 这个过程中波及资源如下: Serverless 云函数:push-video 用于给利用服务端推送某个音视频问题。record-request 用于向利用服务端发动录制工作申请。check-result 用于剖析语音辨认的后果。腾讯云 AI 能力:活体人脸检测,用于验证用户的身份信息:https://cloud.tencent.com/doc...语音辨认,用于将用户的答复辨认成文字:https://cloud.tencent.com/doc...COS 对象存储:用于存储两头录制的音视频。ASW 工作流:AI 解决剖析的工作流,其中每个节点将编排对应性能的云函数或 AI 服务。运行角色:用于运行 AI 解决剖析工作流。1. 创立工作流1. 创立工作流 ...

July 1, 2021 · 2 min · jiezi

关于腾讯云:腾讯云TKE基于-Cilium-统一混合云容器网络下

前言在 腾讯云TKE - 基于 Cilium 对立混合云容器网络(上) 中,咱们介绍 TKE 混合云的跨平面网络互通计划和 TKE 混合云 Overlay 网络计划。私有云 TKE 集群增加第三方 IDC 节点服务中,为了应答客户不同应用场景的需要(特地是对于网络性能损耗的低容忍度要求),TKE 混合云网络计划同时提出了基于 BGP 间接路由的 Underlay 网络计划。该网络模型采纳 GoBGP 实现,基于 Cilium 买通了 Node-Pod 以及 Pod-Pod 之间网络,可能保障较高的网络性能,并且反对大规模集群扩大。 此网络计划在 TKE 私有云上线前,曾经过 腾讯云专有云麻利PaaS平台 TCNS 私有化环境的大规模实际,并在 腾讯云 TKEStack 中失去了集成和开源。本文将具体介绍 TKE 混合云基于 BGP 间接路由的 Underlay 容器网络计划的设计与实现。 背景介绍客户需要的多样性,特地是对网络性能损耗的容忍水平决定了 Underlay 网络计划势在必行。为什么抉择 BGP 协定呢? 相较于 OSPF、RIP 这些外部网关协定,BGP 着眼于管制路由的流传以及抉择最佳门路。BGP 最大的劣势在于具备较强的可扩展性,可能满足大规模集群横向扩大的需要。另一方面,BGP 足够简略稳固,并且业内也有着基于 BGP 落地生产环境的胜利案例。 依据集群规模大小的不同,BGP 路由模式有着不同的计划。当集群规模较小时,能够应用 Full Mesh 互联模式,它要求同一个 AS 内的所有 BGP Speaker 全连贯,并且所有内部路由信息必须从新散发到同一个 AS 的其余路由器。随着集群规模扩充,Full Mesh 模式效率将急剧升高,Route Reflection 模式是一种成熟的代替计划。RR 计划下容许一个 BGP Speaker (也即是 Route Reflector)向其余 BGP Peer 播送学习到的路由信息,大大减少了 BGP Peer 连贯数量。 ...

July 1, 2021 · 2 min · jiezi

关于腾讯云:Serverless-Web-Function-实践教程二基于-Web-函数部署您的-Flask-项目

Flask 是一个基于 Python 的轻量级 Web 框架,它基于一系列第三方依赖包实现业务逻辑,使得 Flask 应用更为灵便,并可通过一系列扩大定制或扩大其能力,其中最次要的两个外围模块是 WSGI 工具集 Werkzeug 和渲染模板框架 Jinja。Flask 轻量、灵便的特点使得它广受开发人员欢送,用于疾速实现一个网站或 Web 服务的搭建。 本篇教程将为您领导,如何通过 SCF Web Function,疾速部署您的 Flask 业务上云。 01. 模板部署 - 无需改变业务代码,一键部署登录 Serverless 控制台,单击左侧导航栏的「函数服务」,在主界面上方抉择冀望创立函数的地区,并单击「新建」,进入函数创立流程。抉择应用「模版创立」来新建函数,在搜寻框里输出 「WebFunc」,筛选所有 Web 函数模版,抉择「Flash 框架模版」,点击 「下一步」,如下图所示:<img src="https://main.qcloudimg.com/raw/d476714f63f242d18558572cfaa80502.png" width="700"/> 在「配置」页面,您能够查看模版我的项目的具体配置信息并进行批改;单击「实现」,即可创立函数。函数创立实现后,可在「函数治理」页面,查看 Web 函数的根本信息,并通过 API 网关生成的拜访门路 URL 进行拜访,查看您部署的 Flash 我的项目。<img src="https://main.qcloudimg.com/raw/b93f5a1fdf6256fbe1ab5965100afe31.png" width="700"/> 02. 自定义部署 - 3 步疾速迁徙本地我的项目上云1. 本地开发首先,须要确认您本地的环境内曾经装置好 Flaskpip install Flask本地创立 Hello World 示例我的项目,在我的项目目录下,新建 app.py 我的项目,实现最简略的 Hello World 利用,示例代码如下:from flask import Flaskapp = Flask(__name__)@app.route('/')def hello_world(): return 'Hello World'if __name__ == '__main__': app.run()本地运行 app.py 文件,在浏览器里拜访 http://127.0.0.1:5000,即可在本地实现 Flash 示例我的项目的拜访:$ python3 app.py * Serving Flask app "app" (lazy loading) * Environment: production WARNING: Do not use the development server in a production environment. Use a production WSGI server instead. * Debug mode: off * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit)127.0.0.1 - - [22/Jun/2021 09:41:04] "GET / HTTP/1.1" 200 -<img src="https://main.qcloudimg.com/raw/fac532d98a6fd26cd60bac1fad757bfb.png" width="700"/> ...

June 30, 2021 · 2 min · jiezi

关于腾讯云:腾讯云原生加速器首期-38-强企业出炉总估值超过-250-亿元

《中国云原生用户调研报告(2020年)》显示,2019年我国云原生产业市场规模已达350.2亿元,将来还将连续高速增长态势。企业倒退中的开发、运维、治理等环节日趋简单,“云原生”为企业提供了面向未来的信息化平台构建形式,并已逐步开始融入各行各业。我国云原生倒退已成大势腾讯是中国云市场中重要的云原生推动者之一。在2020云原生技术大会上,腾讯云示意云原生产品API每日调用量曾经超过100亿次,领有超过100万的开发者,同时服务超过50万的客户。腾讯踊跃构建云原生生态,联手生态搭档,独特为企业提供便捷、平安的云原生服务。 此前,腾讯高级执行副总裁、云与智慧产业事业群CEO汤道生也示意,云代表了新一代数字化基础设施,具备高算力、高拓展、高弹性等特色。以云原生为技术路线,构建信息化平台,往往是企业客户的第一抉择。随同客户对云原生时代开发、测试、运维等环节产生更多个性化、针对性的需要,腾讯将联手合作伙伴,搭建丰盛的云原生技术生态,助力客户上云;携手合作伙伴,夯实云原生的技术底座,助力企业便捷上云、平安用云。 由此,“腾讯云原生加速器”应运而生,输入腾讯云原生生态能力,连贯产业资源,携手优质合作伙伴,独特减速云原生行业倒退。 作为国内首个云原生加速器,首期腾讯云原生加速器面向云原生利用、云原生利用编排及治理、云原生底层技术、云原生平安技术四大技术方向,会集由腾讯业务负责人、出名投资人、技术专家、开源社区首领等组成的行业评委团队。通过严格的遴选评级,38家顶级云原生企业最终入选。 入选企业成员名单 据统计,38家成员企业总估值超过250亿元,其中11家企业估值超过10亿元,来自中国云原生企业的当先营垒。基于腾讯云原生加速器的生态资源,将来每一家入围企业都将取得技术、计划、商机等资源反对。 从技术方向上看,本期加速器成员涵盖云原生畛域多个方向,技术能力更加丰盛成熟。其中云原生利用占比最高为34%,云原生中间件27%,云原生底层技术21%,云原先平安、云原生服务则别离为13%和5%。 从地区散布上看,38家入围企业散布次要集中在一、二线城市,其中上海以37%领跑,北京占比29%紧随其后,杭州以13%位列第三,另外还有10%的企业来自海内,一、二线城市更多元化的市场需求为云原生企业提供了成长土壤。 入选企业有话说Kiyligence Kyligence是一家PaaS供应商,其外围能力是在超大规模数据量的状况下快速访问和剖析数据。基于云原生技术,Kyligence帮忙金融、保险、制作等行业的客户在云上进行老本更低的数据分析。 Kyligence CEO韩卿示意:“参加腾讯云原生加速器,是看中腾讯云的底层技术能力。腾讯云在云的市场中领有当先劣势,作为PaaS厂商,在将来要博得云原生市场,跟IaaS单干是必然的。腾讯云原生加速器聚焦云原倒退,咱们心愿通过这个渠道,更好地连贯腾讯云根底平台。” StreamNative StreamNative主打下一代流数据平台。此前,StreamNative曾经和腾讯多个业务开展开源单干。参加腾讯云原生加速器后,StreamNative期待在音讯流等方向上和腾讯云有更深刻的整合。 StreamNative联结创始人翟佳示意:“腾讯在国内有丰盛的产业场景,有更大的数据算力,因而在场景落地摸索上,咱们会开展更深刻的探讨和学习。” TreeLab TreeLab致力于打造一款让非IT人员也能疾速构建信息化零碎的生产力工具。传统的供应链、电商、批发业务人员不仅每天都要整顿、汇报大量数据,而这些数据往往都扩散在各个系统里。TreeLab心愿升高技术门槛,让“表哥、表妹”在“不懂技术”的状况下也能自行构建数据中台者业务中台,缩小每天整顿、统计和剖析数据的工夫。 TreeLab CEO何浚炫示意:“将来,云的倒退是生态的打造。咱们心愿连贯各个不同的零碎,和IaaS、数据连接器做更深的交融,将来客户用TreeLab的时候要连贯SaaS,间接利用腾讯云的连接器,即可把各个不同业务零碎整合在一起。” XSKY星辰天合 XSKY星辰天合主做数据存储,其翻新业务包含云原生和AI容器,为各类企业的业务场景提供撑持。 XSKY CEO胥昕示意:“腾讯云原生加速器,是国内首创,通过生态促成云原生企业互相意识,共创解决方案,帮忙客户做好数字化转型。加速器中不仅有云原生厂商,也有腾讯业务负责人、技术专家、投资人等,这是促成认知和资源晋升的无效渠道。” OPEN AI LAB OPEN AI LAB凋谢智能是一家专一边缘智能计算及利用的高科技企业,提供边缘AI计算框架与场景化能力生产力工具,简化利用部署,致力于打造中国最易用的人工智能边缘开发部署平台。 OPEN AI LAB CEO金勇斌示意:“心愿将来用十年工夫构建起中国最当先的边缘计算生态,助力成千上万的企业高效、低门槛地实现智能化降级转型。” 腾讯云加速器赋能云原生生态腾讯云原生加速器依靠腾讯云原生技术及产品、连贯内外部资源、施展行业影响力及生态劣势。 在一年期减速成长打算中,将通过4次闭门辅导+N次业务对接的“4+N”的模式,凋谢腾讯生态共享、行业名师陪伴、精英同学聚力、一线VC加持、一生学习链接等五大价值,与入选企业一起进行技术交换、业务单干、生态共建,进步开源社区影响力,减速云原生我的项目成长,促成云原生技术路线落地产业,共建云原生生态。

June 30, 2021 · 1 min · jiezi

关于腾讯云:召集令Web-Function-产品体验官招募

Web Function 应用体验Web Function 产品文档: https://cloud.tencent.com/document/product/583/56123 Web Function 疾速体验链接: https://console.cloud.tencent.com/scf/list-create?rid=16&ns=default&keyword=WebFunc 测评文章公布地址: https://cloud.tencent.com/developer 以后已在「北京、上海、广州、成都」地区公布,其余地区将陆续凋谢,敬请期待! One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 腾讯云 Serverless 老手体验 。

June 29, 2021 · 1 min · jiezi

关于腾讯云:ASW-工作流最佳实践四并行多任务处理

在数据处理、多媒体文件解决、商品审核、容器运维治理等零碎架构中,往往须要并行多路工作解决的场景 。 例如电商商品审核零碎,商家每天对商品进行治理更新后,商品数据须要通过商品中台进行一系列的审核操作:如 图片审核、死链检测、商品打标、文本审核、对立类目 等环节。海量更新的商品数据会先投递到 Ckafka,商品中台须要一个能疾速解决大量数据,高并发、高吞吐量的数据处理流水线。 利用 ASW 低代码、灵便便捷的个性,通过 ASW + 云函数作为微服务的粘合剂,可疾速搭建一个高效可用、易扩展性的微服务架构利用。ASW 凭借云平台和云函数的 HA 个性,能够轻松地有限扩大,具备兼容私有云,公有云,自建服务的交融能力 。 Parallel 节点 & Map 节点在数据处理流水线中,ASW 工作流的并发能力次要依赖于 Parallel 节点与 Map 节点。 Parallel 节点,也称 并行节点。应用该节点能够在工作流中创立并行的工作分支,让多个工作并行执行,大大晋升了业务数据处理的效率。Map 节点,也称 循环节点。应用该节点对数组中的每一个元素工作计算,且这些元素计算能够并发执行,大大晋升了数据处理的吞吐量。Map 节点与 Parallel 节点都具备并发解决的能力,两者的区别如下: <img src="https://main.qcloudimg.com/raw/1db4f415fb8ccf26c29017ddca57deb4.jpg" width="700"/> 操作指引登录 利用与编排服务流控制台,点击「新建」,进入创立工作流页面,抉择「入门模板 - Parallel 并行」。<img src="https://main.qcloudimg.com/raw/38cd0984172cd54992ba50e8d8d59b83.jpg" width="700"/> 后续的步骤参考《应用 ASW 编排云函数》中介绍的形式,同时能够将分支中的节点替换成须要调用的云函数。ASW 工作流是一个用来协调分布式工作执行的编排产品,依据腾讯云状态语言定义来编排分布式工作和服务,工作流会依照设定好的程序牢靠地协调执行,将云函数与多个腾讯云服务按步骤进行调度,通过低代码配置,就能够实现开发和运行业务流程所须要的工作协调、状态治理以及错误处理等繁琐工作。 <img src="https://main.qcloudimg.com/raw/e1b0b1b13b3bd02afa03a81d77b73ac2.jpg" width="700"/> 辨认下方 二维码,即可退出腾讯云 ASW 交换群。 <img src="https://main.qcloudimg.com/raw/22821ff9d923fd60056f2313db287a79.png" width="400"/> One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 腾讯云 Serverless 老手体验 。

June 28, 2021 · 1 min · jiezi

关于腾讯云:ASW-工作流最佳实践二使用-ASW-并发调用函数

在音视频转码、ETL 作业处理、基因数据处理等诸多场景中,咱们都能够通过工作流并行调用云函数,将工作进行并行处理,大大提高工作解决的吞吐量,满足利用场景的高实时性、高并发能力。 在《应用 ASW 工作流创立您的第一个函数编排》文章中,咱们分享了如何应用 ASW 编排一个 Sum 云函数进行求和计算。本期文章次要分享如何应用 ASW 的 Map 节点能力进行并发的数据求和计算。 01. 创立函数登录「云函数控制台」,创立一个函数名称为 Sum,运行环境为 Python 3.6 的云函数。云函数控制台地址:https://console.cloud.tencent.com/scf# -*- coding: utf8 -*-import json def main_handler(event, context): sum = 0 for i in event["values"]: sum += i return sum 02. 创立工作流登录「利用与编排服务流控制台」,在工作流页面,单击「新建」,进入创立工作流页面,单击「入门模板」,抉择「Map 循环」模板。ASW 中 Map 节点会遍历输出中的某个数组类型参数,对于数组中的每个元素并行执行其串行节点。Map 节点相似于编程语言中的 foreach,但节点循环工作是并发执行的。ASW 控制台地址:https://console.cloud.tencent.com/asw 批改「代码」中 Iterator 下 States 节点中的 state01 为 sum 函数调用,如下工作流定义:{ "Comment": "应用Map节点循环解决数组array中的数据", "StartAt": "MapState", "States": { "MapState": { "Type": "Map", "ItemsPath": "$.array", "ResultPath": "$.result", "MaxConcurrency": 2, "Next": "FinalState", "Iterator": { "StartAt": "State01", "States": { "State01": { "Type": "Task", "Comment": "调用求和函数", "Resource": "qrn:qcs:asw:ap-guangzhou:123456789:sdk:json:qcloud:scf:Invoke/sum/$DEFAULT/default", "End": true } } } }, "FinalState": { "Type": "Pass", "End": true}ItemsPath 指定作为了 Map节点循环的数组。 ...

June 28, 2021 · 1 min · jiezi

关于腾讯云:聚焦当下重构未来Serverless-全球视野碰撞上

以下内容来自:「Techo TVP 开发者峰会 ServerlessDays China 2021」圆桌论坛环节,文字内容分为「高低篇」与大家分享,在 TencentServerless 公众号回复「PPT」,即可支付本届大会演讲 PPT。 首次!腾讯云、AWS、阿里云、字节跳动,寰球 TOP 云厂商和互联网企业齐聚一堂,独特探讨 Serverless 的当初与将来。 论坛主题:聚焦当下,重构将来:Serverless 寰球视线碰撞主持嘉宾: 中国信息通信研究院 云计算部副主任、腾讯云TVP,陈屹力圆桌嘉宾: Amazon Web Services 首席开发者布道师,费良宏阿里团体 Serverless 标准化标准负责人,陈仲寅字节跳动基础架构函数计算负责人,杨华辉腾讯云 Serverless 专家架构师,杨政权<img src="https://main.qcloudimg.com/raw/016da87f9308de31ce7c2c42fa41e276.jpg" width="700"/> 「灵魂拷问」环节Q:中国信息通信研究院 云计算部副主任、腾讯云TVP,陈屹力费老师您作为 AWS 首席开发者布道师,在工作中可能会遇到一个问题:什么是 Serverless?Serverless 并不是一个很容易被了解和宽泛承受的概念。在布道的过程中,和国外社区相比,国内开发者社区对于 Serverless 的接受程度怎么样?对于没有接触过 Serverless 的开发者或者非技术人员,如何遍及 Serverless 的概念和价值?在布道过程中会遇到哪些挑战,以及有哪些办法值得咱们借鉴? A:费良宏,AWS 首席开发者布道师这个问题的内容波及的范畴比拟多,我尝试跟大家分享一下我听到、看到、察看到的一些景象。 首先看国内的市场和国外的市场,Serverless 倒退的状况。坦白说,我认为在国外的市场发展势头比国内市场要好很多,利用规模、数量、遍及水平、开发者的接受程度来说,我看到了十分多有意思的基于 Lambda 或者 Serverless 的我的项目实际,以及大规模利用的后果。然而同样状况在国内看到的我的项目以及实战的后果绝对少很多。这个起因非常复杂,本人演绎有几点起因: 1. 云计算市场的占有率 在国外市场,云计算的遍及水平或者云计算的渗透率相对来说比拟高。国内市场的状况,一方面是云计算的渗透率还比拟低,传统IT的比例还是比拟高。 2. 云计算市场份额的碎片化 在国外市场当中,几个巨头曾经把整个云计算市场瓜分得十分充沛,所以开发者抉择平台的时候,很容易抉择头部这样的平台作为开发的根底。但在国内,我置信很多开发者很困惑:到底用哪种云?而 Serverless 作为一个新呈现的技术,它的工夫比拟短,2014 年底呈现这个苗头,成熟只是这几年的工夫。这么短的工夫呈现之后,因为发展趋势十分好,所以大家都去推动本人 Serverless 的产品,这会呈现一个后果,百花齐放,短少对立的规范。换句话说,在 A 云上开发 Serverless 的 Function,其实没有方法平滑地迁徙到 B 云下来,更何况去 C 云了。这种状况后果就是抉择了某一朵云,注定依赖于某一个 Serverless 平台。 对于很多开发者,更多的是抉择跨云部署,或者还有混合部署、本地部署、云端部署。最终的后果,就抉择用斗争的后果,不是抉择 Serverless,而是抉择用传统的形式,Doker、Kubernetes 等办法代替。所以,国内市场的复杂性,云计算的渗透率不高,以及开发者对这个新技术的当机立断导致了在国内市场 Serverless 的倒退速度,绝对于国外来说有点缓慢。 ...

June 23, 2021 · 2 min · jiezi

关于腾讯云:Serverless-Web-Function-实践教程一快速部署-Nodejs-Web-服务

作为目前广受欢迎的 Web 服务开发语言,Node.js 提供了泛滥反对 HTTP 场景的相干性能,能够说是为 Web 构建而生。因而,基于 Node.js,也诞生了多种 Web 服务框架,它们对 Node.js 的内容进行扩大,专一于 Web 服务的间接构建和开发,如 Express、Koa 等,成为了开发 Web 服务的第一首选。 云函数 Web Function 的公布,也为开发者带来了 Web 服务上云的全新计划,只需简略批改监听端口,即可将目前风行的 Node.js 框架间接部署上云,享受 Serverless 技术带来的免运维、低成本、按需扩缩容的泛滥劣势。 本篇文档将为您领导,如何通过 Web Function,将您的本地 Express 我的项目疾速部署到云端。 01. 模板部署 - 无需改变业务代码,一键部署登录 Serverless 控制台,单击左侧导航栏的「函数服务」,在主界面上方抉择冀望创立函数的地区,并单击「新建」,进入函数创立流程。抉择应用「模版创立」来新建函数,在搜寻框里输出 「WebFunc」,筛选所有 Web 函数模版,抉择 Express 框架模版,点击 「下一步」,如下图所示: 在「配置」页面,您能够查看模版我的项目的具体配置信息并进行批改;单击「实现」,即可创立函数。函数创立实现后,可在「函数治理」页面,查看 Web 函数的根本信息,并通过 API 网关生成的拜访门路 URL 进行拜访,查看您部署的 Express 我的项目。 02. 自定义部署 - 3 步疾速迁徙本地我的项目上云1. 本地开发首先,在确保您的本地已装置 Node.js 运行环境后,装置 Express 框架和express-generator 脚手架,初始化您的 Express 示例我的项目npm install express --savenpm install express-generator --saveexpress WebApp进入我的项目目录,装置依赖包cd WebAppnpm install装置实现后,本地间接启动,在浏览器里拜访 http://localhost:3000,即可在本地实现Express 示例我的项目的拜访npm start2. 部署上云接下来,咱们对已初始化的我的项目进行简略批改,使其能够通过 Web Function 疾速部署,此处我的项目革新通常分为两步: ...

June 23, 2021 · 1 min · jiezi

关于腾讯云:多云部署又添新云EMQ-X-Cloud-正式支持腾讯云部署

自 2020 年 5 月公布以来,EMQ X Cloud 陆续提供了华为云、阿里云、AWS 等私有云平台部署反对,帮忙用户自由选择在不同云平台上部署 MQTT 服务,以简略、牢靠和可扩大的形式轻松发展他们的物联网我的项目。 随着用户量一直扩增,咱们也在不断完善 EMQ X Cloud 所提供的性能及服务反对,以满足更多用户的需要。在云平台部署反对方面,继华为云、阿里云、AWS 后,咱们近日正式实现了对腾讯云平台的部署反对,将来 EMQ X Cloud 将帮忙用户更大程度地防止供应商锁定危险。 为了让您齐全专一于开发本人的 IoT 利用,而不是仅仅只是在腾讯云的基础设施上部署和治理 MQTT 服务,咱们提供了全自动化的环境创立、服务部署、按需伸缩、服务监控和告警告诉,轻松部署的同时也能满足日常的运维需要。 此外,EMQ X Cloud 通过规定引擎的反对,低代码即可实现数据的采集、过滤、转换、计算及长久化。也能够通过规定配置,将音讯流转至 Kafka、RabbitMQ、Pulsar 等其余音讯服务器。同时咱们也反对通过腾讯云云联网性能实现 VPC 之间的买通,从而通过规定引擎间接将数据流入腾讯云提供的数据库和音讯队列服务,如 cKafka。 各行各业的用户都能够灵便应用 EMQ X Cloud 构建一流的物联网利用平台。比方在工业场景中,利用 EMQ X Cloud 让设施、生产线、工厂等紧密连接,智能化进步生产力,降低生产老本;在智能家居场景中,利用 EMQ X Cloud 连贯各类家电、终端、手机等,让生存更加智能。EMQ X Cloud 在各类物联网场景中承载着设施、网关实时采集的数据传输通道,通过自带规定引擎进行过滤、转换、计算后,散发到云端利用与数据池中,帮忙客户更好的剖析解决数据,提供最佳的解决方案。 如何在腾讯云疾速部署?在官网实现注册后,简略操作即可在腾讯云一键部署全托管 MQTT 5.0 服务。 1、抉择版本 2、抉择腾讯云及相干配置 3、确认和部署 EMQ 致力于在 5G 时代为各行业提供万物互联音讯引擎。除了本次更新的腾讯云平台之外,有更多的支流云平台曾经纳入咱们的研发布局,将会在之后陆续和大家见面。 EMQ 愿与用户一起,独特构建具备竞争力的、面向未来的 IoT 平台与利用。 ...

June 22, 2021 · 1 min · jiezi

关于腾讯云:使⽤-Serverless-云函数和-Headless-Chrome-进行实时渲染录制合流

Chrome 不只是⼀个浏览器,还能够是⼀个渲染引擎和混流器,而 Headless Chrome 更是关上了浏览器在服务器中使⽤的场景,让咱们不仅能够把多个 WebRTC 的视频画⾯录制下来,还能够把⽩板,各种动画⼀起同步的录制下来,实现⼀个所见即所得的页面录制合流⽅案。 01. 在线教育场景中录制的痛点<img src="https://main.qcloudimg.com/raw/d42ddd03c9b192899a0f6788dd18e01d.png" width="700"/> 在线教育场景的录制往往比较复杂,像上图中,咱们录制的时候往往不是单纯的只录制⽼师和学⽣的音视频,还有⽩板互动、动画课件、PPT、以及聊天内容, 有的还会有家⻓旁听性能,须要专⻔给家⻓旁听录制⼀路流。在线教育场景中的录制有很多痛点: 1. 多路音视频同步艰难,以及学⽣高低⻨导致的录制布局一直变动 ⽐如⼩班课场景,连⻨场景,UI布局是一直变动的,⽬前的mcu的录制⽅案要么是固定布局要么须要⼀个⼀个⽤户指定布局,灵活性被⼤⼤限度。 2. 音视频和PPT录制比拟难同步 因为⾳视频是通过 UDP 传输, PPT 的同步往往是通过 TCP 信令来管制,这就导致音视频和PPT 难以同步, 为了解决这个问题⼜引⼊了各种 SEI 插⼊工夫戳的⽅案。 3. 课件⽩板中的动画不易还原 在⼀些 K12 的教课过程中会有比较复杂的动画成果,比方演示⼀个物理试验,⼀些动画成果来激励学⽣,这些动画过程也⽐较难在服务端渲染。 4. 实在上课过程中的互动成果难以还原 实在的上课过程中可能还会有弹幕,聊天,声⾳特效等等,要把这些整个还原下来难度也比拟高。 02. 行业中现有的解决方案⾏业中各家解决上述痛点的⽅案各不相同,⼤致能够分为两个⽅案: 1. 在老师端残缺录制下来 这么做的确能很好的还原上课过程,但带来的问题是⽼师端除了要进行上课过程中的性能外还要再额定录制⼀路流,对⽼师设施的硬件性能和⽹络都带来了更多的挑战。还有可能的状况是⽼师端的⻚⾯中可能有⼀些没法齐全录制下来给学⽣看的内容。 2. 视频和课件别离录制,交互通过信令来异步还原 开发成本⾼,没法做到回放的实时生成。 03. 咱们摸索了一个新⽅案:「页面录制」<img src="https://main.qcloudimg.com/raw/f681b818b9c405bd7d4ecc369c72b0af.png" width="700"/> 咱们使⽤ Headless Chrome 加载⼀个⽤户要录制的页面,并跑在云函数的 Docker 镜像中,通过 HTTP API 的⽅式来触发录制,把该页面中的内容进⾏残缺录制下来。云函数 SCF 帮忙咱们做好了资源调度和资源隔离,不须要额定部署服务,免去了⼤量运维的⼯作。而且该录制的页面能够是以⼀个学⽣的身份进⾏进入, 或者特制的⼀个专⻔⽤于录制的⻚⾯。这样录制的⽅案有很多益处: 1. 极优的录制成果 所见即所得的录制,页面中的⾳视频,课件内容,⽩板交互,动画特效,甚⾄聊天都能够录制下来。能够管制要录制的 FPS,以及编码品质。 2. 集成成本低 基于页面录制,免去了设置各种布局参数的老本。通过云端 API 管制管制何时开始录制,何时完结录制, 录制实现之后能够设置回调。 3. 定制容易 ...

June 22, 2021 · 1 min · jiezi

关于腾讯云:腾讯云李啸川Serverless-化云原生释放云计算效率红利

以下内容来自「2021 全区分布式云大会:《Serverless 化云原生开释云计算效率红利》主题分享」,深度好文,预计浏览需 22 分钟。 分享嘉宾李啸川,腾讯云 Serverless 技术产品专家,目前负责腾讯云 Serverless 产品及企业解决方案的设计工作,致力于推动云原生技术架构演进及落地,为技术工作者提供高效的云服务产品。十余年技术研发教训,曾就任于 Oracle、IBM,从事于企业级商业套件及云服务引擎研发工作,后切换到生产互联网,孵化小米 MIOT、创建小米有品电商等业务,退出腾讯云之前负责爱奇艺技术总监,业务线技术负责人。 01. 面向业务的技术体系关注哪些方面?首先,通过业务视角来看为什么须要关注 Serverless。这里的业务视角是狭义的业务,即满足需要,解决痛点,输入价值。技术对业务的助力能够简略演绎为三个阶段: 迭代原型,验证业务从零到一,通过技术手段晋升业务原型的迭代和验证效率; 继续优化,强化业务在运行效率和工程效率方面一直优化,加强业务的竞争力; 构建壁垒,赋能业务在技术深度方面造成护城河,持续保持业务的差异化劣势; 为了更好的撑持业务,在技术体系中咱们会关注哪些问题? 1. 稳定性和品质,是业务失常推动的基石; 2. 开发效率,帮忙业务争取贵重的工夫,决定了业务是否在赛道中胜出,比方有了新的想法是否疾速失去验证; 3. 运行效率,是研发同学亘古不变的执着谋求,更优化的算法,更优雅的架构,同时也将决定深度和难度; 4. 老本,这里的老本,一方面是资源老本,例如运行服务或零碎,须要占用的计算、网络、存储等根底资源的老本。另一方面是工夫和人力老本,对于企业来说,尤其是互联网或业务导向的公司,人力老本占企业整体比重较大; 02. Serverless 可能开释哪些红利?从工业界的角度来看,蕴含四个维度: 模块化水平自动化运维水平弹性效率故障恢复能力 从这几个方面能够看出对基础设施层,进行了趋势演进的判断,目前 Serverless 在能够预感的阶段内,是计算平台的一个必然的演进方向,也是目前可预感的最终方向。 Serverless 分成两个阶段:第一个阶段是 容器化的 Serverless,再下一个阶段是 fPaaS Serverless 的平台。 对于学术界对 Serverless 定义,加州大学伯克利分校于 2009 年曾发表过一篇论文,精准预测了将来 10 年云计算演进的方向,2019 年又发表了一篇论文,预测 Serverless 将会成为将来云计算最终的产品状态或服务平台。 腾讯云间断两年举办 ServerlessDays China 交换峰会,2020 年邀请了文章次要作者之一 Johann Schleier-Smith ,给我留下印象最深的观点是,他把云计算分成两个阶段,第一个阶段:简化系统管理,包含虚拟机、容器等,提供可编程的、简化的治理形式,由云平台托管基础设施;下一个阶段:简化开发,开发者只关注外围代码,云平台负责系统管理、运维、架构等等,为开发提供更好的体验,让开发效率失去更大的晋升。 在解说了工业界和学术界的定义之后,咱们来比照 Serverless 与传统 Server 的服务形式。 在传统的 Server 金字塔图中,从底层零碎的平安、系统资源的调度,到中层的日志、监控、运维,再到上一层的数据、存储,最初金字塔尖的业务逻辑。对于业务开发来说,真正产生价值的就是上金字塔尖这部分业务逻辑的编写,服务于客户,为客户带来价值。上面的局部更多是根底的撑持,从这个角度来说,Serverless 就是解决上面的局部基础设施保护,平台侧承当底层根底局部,给到开发者更少的运维老本和工作量,Less is more,让企业把无效的人力、资源去放到更多产生业务价值的方面。 ...

June 22, 2021 · 1 min · jiezi

关于腾讯云:下一代-Web-服务开发就是这么快

对于宽广开发者而言,搭建一个本人的 Web 服务是最为常见的开发场景之一。无论是全栈网站的搭建,还是创立 API 接口,都须要一个能够疾速接管并解决 HTTP 申请的 Web 框架。Serverless 时代降临,既心愿享受云计算带来的弹性伸缩、免运维等泛滥劣势,却又囿于基于事件触发带来的革新老本而无奈轻易尝试。Web 服务如何与 Serverless 完满适配成了咱们须要攻克的难题。 01. Web 服务开发发展趋势从倒退历程来看,Web 服务开发能够分为三个阶段:本地服务器部署 - 云主机部署 - Serverless 部署。 第一阶段,开发者须要本人购买服务器,将搭建的 Web 服务部署在机器上,尽管开发者对于机器的可操作范畴更大,可对于 Web 场景来看,开发者往往不须要对机器进行多余操作,这样反而带来了额定的机器保护老本。 第二阶段,开发进入云时代,大家更偏向与于在云上购买主机部署服务,免去保护老本后,极大晋升了开发效率,这个也是目前应用最为宽泛的开发方式,但主机仍基于使用量的预估来提前购买,并且会为未应用的计算资源付费,这样的形式仍有肯定资源与老本上的节约。 第三阶段,Serverless 正式登上舞台,SCF 云函数本身有着主动扩缩容、按量计费等泛滥劣势,完满适应开发者对于低开发&保护老本的需要,是 Web 服务部署的完满平台。但因为云函数是事件型函数,只能承受事件类型触发,无奈间接接管解决原生 HTTP 申请,尽管云函数推出了泛滥解决方案,帮忙开发者主动进行格局转换,但转换层的创立以及解决链路长仍是不可漠视的迁徙老本。 02. 传统 API 网关 + 事件函数计划问题API 网关会主动对传入的 HTTP 申请进行格局转换,转换为函数能够解决的 JSON 事件格局。函数侧,在原生 Web 服务框架前增加一个适配层函数,将事件 JSON 构造体再转化成规范的 Web 申请,提供给后端框架进行解决。 问题: 革新老本高,须要增加适配层做格局转换,并对 Web 框架的监听形式进行批改。调试老本高,本地代码和云端代码不⼀致,本地和云端调试体验不统⼀,对于本地调试的实现有妨碍。转换链路长,性能有损耗,⼀次申请须要多四次转换: http request -->> eventevent -->> http requesthttp response -->> APIGateway 须要的返回构造APIGateway 须要的返回构造 -->> http response针对这些的问题,腾讯云 Serverless 推出的全新函数类型 - Web Function,实现 Serverless 与 Web 服务最优雅的联合。 ...

June 22, 2021 · 1 min · jiezi

关于腾讯云:如何快速搭建一个高可用的数据处理流水线

ASW 利用与服务编排工作流是腾讯云服务的编排工具,用户能够将多个云服务编排到业务场景相干的应用程序中,能够通过 ASW 工作流编排分布式工作,治理执行工作的程序、错误处理、重试逻辑和状态,从而显著加重团队的研发累赘。 通过 ASW Map 并发能力编排调用云函数,实现批量数据的解决,并将后果写回存储,提供开箱即用、灵便便捷、高弹性高可用的数据处理系统模型。尤其适宜证券交易数据统计,电商零碎商品订单数据分析,微博热点剖析等大数据分析场景。本文为您介绍如何应用 ASW 编排云函数,疾速搭建一个高可用的数据处理流水线。 01. ASW 工作流劣势弹性高并发:工作流并发调用云函数能够疾速调动大量计算资源减速数据处理。自定义流程:ASW 工作流能够实现高度自定义的工作流流程,例如数据处理流程、数据分析算法、数据存储形式。降低成本:数据处理是 CPU 密集型,在 ASW 工作流及云函数的资源利用率高的状况下,实现了老本的升高。晋升效率:升高学习和应用老本,极大水平上缩短了我的项目周期,放慢开发部署。02. 零碎架构应用 ASW 创立编排云函数,先实现业务鉴权等预处理操作,而后通过 Map 并发函数读取数据,进行数据处理,将解决后的数据存储到云端数据库。同时,批量解决的数据能够间接给发送到图表与模型剖析中。 03. ASW 数据分析解决计划示例在《ASW 工作流最佳实际(二):应用 ASW 并发调用函数》文章中,应用 ASW 的 Map 节点能力进行并发的数据求和计算。本期将为您演示如何通过 ASW 工作流解决「一个并发获取多个微博用户信息」的残缺数据分析流程。 利用部署后,将为您创立以下资源: 云函数: dataProcess-getuserinfo-xxx 用于获取用户信息。dataProcess-processUserInfo-xxx 用于解决用户信息,并把解决后的信息写到 cfs 文件下。dataProcess-writeUserInfo-xxx 用于将cfs文件上传到cos中VPC 公有网络:用于创立 CFS 文件系统。CFS 文件系统:用于将屡次并发的函数解决数据写到同一个文件下。COS 对象存储:用于存储最初的数据处理后果。ASW 工作流:数据分析的工作流,其中每个节点将编排对应性能的云函数。运行角色:用于运行数据分析工作流。1. 创立工作流1.1 登录 利用与编排服务流控制台。在工作流页面,单击「新建」,进入创立工作流页面,单击「示例我的项目」,抉择「数据分析解决」模板。 1.2 单击「下一步」,在「配置根本信息」页面,您将会看到示例我的项目须要创立的资源,单击「开始部署」,期待资源创立胜利,实现示例我的项目的部署。 2. 运行工作流2.1 在工作流列表,单击「名称」链接进入工作流,您能够在界面中看到工作流的根本信息,单击「执行」下的「开始执行」 。 2.2 在弹出的「开始执行」窗口中,会有默认的输出参数,间接单击「确定」,运行工作流。 2.3 执行实现后,能够在详情页查看执行后果。滑动至页面最下方,在「执行历史记录」下,您能够查看子节点的运行状况。 2.4 单击「资源」中的云函数链接,能够间接跳到云函数控制台,查看函数执行详情。 ...

June 21, 2021 · 1 min · jiezi

关于腾讯云:使用-ASW-工作流创建您的第一个函数编排

利用与服务编排工作流(Application Services Workflow,ASW)是一个用来协调分布式工作执行的编排产品,依据腾讯云状态语言定义来编排分布式工作和服务,工作流会依照设定好的程序牢靠地协调执行,将云函数与多个腾讯云服务按步骤进行调度,通过低代码配置,就能够实现开发和运行业务流程所须要的工作协调、状态治理以及错误处理等繁琐工作,让研发团队能更简略、更高效的构建与更新利用。 01. ASW 工作流与传统工作流的比照个性ASW 工作流传统工作流易用性已实现云服务集成, 不便调用云上资源。须要手工开发集成。功能丰富度应用 TCSL 语法,反对抉择、并行、循环、错误处理等业务逻辑。须要基于业务进行二次革新。安全性云原生利用,数据云端传输 & 备份,全程合乎平安合规管控要求。安全性低,须要用户思考多个 VPC 之间的数据传输&存储平安。保护老本免保护。须要业余团队保护,老本高。弹性扩容能力具备企业级弹性扩容能力,应答大流量挑战从容自如。须要手工扩容,解决架构问题。02. ASW 工作流利用场景音视频解决应用 ASW 工作流能够帮忙您将多个工作编排成一个残缺的解决流程,如转码、截图,内容辨认,内容审核等。通过云函数,能够将转码工作进行切片并行处理,大大提高工作解决的吞吐量,满足高实时性、高并发能力的视频利用、社交利用场景。 ETL 作业处理一些数据处理系统中,经常须要周期性/计划性地解决宏大的数据量,应用 ASW 工作流能够疾速搭建一个高可用的数据处理流水线。例如,证券公司每 12 小时统计一次该时段的交易状况并整顿出该时段交易量 top5,每天解决一遍秒杀网站的交易流日志获取因售罄而导致的谬误从而剖析商品热度和趋势等。ASW 工作流利用云函数对交易数据做并行处理,将后果写回数据库服务,并生成一系列不同纬度报表。利用函数近乎有限扩容的能力,能够轻松地进行大容量数据的计算,实现数据建模剖析。 基因数据处理ASW 工作流能够将多个批量计算分布式作业串联或并行编排,牢靠地反对执行工夫长、并发量大的大规模计算。比方将基因数据进行二级剖析,以辨认生物样品与规范基因组参考相比的变异,最终产出相关性后果。ASW 工作流能够晋升执行可靠性,进步资源利用率,优化老本。 自动化运维自动化运维常见有步骤繁琐工夫长短不一、单机脚本可靠性低、依赖简单、人工效率低等常见的挑战,另外进度无奈可视化,ASW 联合云函数能够很好的解决这类问题。例如自动化的软件部署从构建 Docker 容器、上传容器镜像,开始并追踪各节点下拉镜像并启动新版本镜像的容器,每一步函数产生的日志会被保留到日志服务可供查问分享。基于 ASW 的自动化运维比单机运维脚本具备高可用、自带的错误处理机制和进度图形化的特点。 AI 机器训练ASW 工作流能够将一系列的 AI 能力进行编排,实现一个简单的 AI 作业场景训练。您能够应用 ASW 工作流来减速平安,有弹性的机器学习应用程序的交付,同时缩小您必须编写和保护的代码量。 03. 如何应用 ASW 工作流?上面以编排一个云函数为例,教你如何疾速应用工作流。 1. 创立函数 登录云函数控制台,创立一个函数名称为 sum,运行环境为 Python 3.6 的云函数,点击进入 控制台地址 p_jesu 4-28 下午 2:53 # -*- coding: utf8 -*-import json def main_handler(event, context): sum = 0 for i in event["values"]: sum += i return sum<img src="https://main.qcloudimg.com/raw/6c65c73ceb81586e9b3cc5eee82b9718.jpg" width="700"/> ...

June 21, 2021 · 1 min · jiezi

关于腾讯云:Serverless-云函数支持-TDMQ-触发器-更高效的消息队列触发方式

01. Serverless 与音讯队列生态联合音讯队列 MQ 是 Serverless 事件驱动场景下必要的解耦中间件也是云函数最重要的触发源之一。TDMQ 是一款基于 Apache 顶级开源我的项目 Pulsar 自研的金融级分布式消息中间件。其计算与存储拆散的架构设计,使得它具备极好的云原生和 Serverless 个性,用户按量应用,无需关怀底层资源。它领有原生 Java 、 C++、Python、Go 等多种 API,同时反对 Kafka 协定以及 HTTP 协定形式接入,可为分布式应用零碎提供异步解耦和削峰填谷的能力,具备互联网利用所需的海量音讯沉积、高吞吐、牢靠重试等个性。 通过 TDMQ 触发函数可最大水平的连接音讯队列两端的数据上下游,帮忙用户实现 Serverless 体系下的异步事件解耦和削峰填谷的能力,帮忙开发者解决生产环境对接函数等问题,提供稳固,高效的事件触发。 02. TDMQ 音讯队列触发器触发形式<img src="https://main.qcloudimg.com/raw/23b53e0a5bd28a6978c5abbf3e4ee59c.jpg" width="700"/> TDMQ 触发器底层采纳 EventBridge 承载,通过 EventBridge Connector 和 EventBridge Target 触发至函数,Connector 局部由 EventBridge 承载,反对工夫匹配,事件筛选,事件多函数散发等高级能力。 同时,TDMQ 触发器可通过函数控制台进行疾速创立,无需了解简单的 EventBridge 配置逻辑即可实现 TDMQ 触发。 性能劣势TDMQ 可能高效反对百万级音讯生产和生产,海量音讯沉积且音讯沉积容量不设下限,撑持腾讯计费所有场景;性能方面,单集群 QPS 超过10万,同时在时耗方面有爱护机制来保障低提早,可轻松应答的海量数据触发函数。TDMQ 提供丰盛的音讯类型,涵盖一般音讯、程序音讯(全局程序 / 分区程序)、分布式事务音讯、定时音讯,满足各种严苛触发器函数的场景下的高级个性需要。TDMQ API 反对 Java、C++、Go 等多语言以及HTTP 协定,可扩大更多语言的接入,还反对原生 Kafka API 协定的接入。用户可利用音讯队列的根底性能进行音讯的生产和生产,无需批改代码即可实现到 TDMQ 迁徙与函数触发。03. TDMQ 触发器业务利用场景异步解耦以交易引擎为例,交易系统引擎作为最外围的零碎,每笔交易订单数据须要被几十几个上游业务零碎关注,包含物品批价、道具发货、积分、流计算剖析等等,多个系统对音讯的解决逻辑不统一,单个零碎不可能去适配每一个关联业务。此时,TDMQ 可实现高效的异步通信和利用解耦,确保主站业务的连续性。 ...

June 21, 2021 · 1 min · jiezi

关于腾讯云:腾讯-TencentOS-十年云原生的迭代演进之路

蒋彪,腾讯云高级工程师,10+年专一于操作系统相干技术,Linux内核资深发烧友。目前负责腾讯云原生OS的研发,以及OS/虚拟化的性能优化工作。 导语TencentOS Server (又名 Tencent Linux 简称 Tlinux) 是腾讯针对云的场景研发的 Linux 操作系统,提供了专门的性能个性和性能优化,为云服务器实例中的应用程序提供高性能,且更加安全可靠的运行环境。Tencent Linux 应用收费,在 CentOS(及兼容发行版)上开发的应用程序可间接在 Tencent Linux 上运行,用户还可继续取得腾讯云的更新保护和技术支持。 TencentOS 在腾讯外部曾经经验了超过10年的迭代和演进,承载撑持了腾讯所有业务,商用部署节点超300w,禁受住了海量简单业务模型在极其场景中的极限考验。 通用 OS 架构 传统 OS 的定义(盗用经典教科书内容): 操作系统是控制应用程序执行的程序,是应用程序和计算机(硬件)间的接口。 操作系统有3个指标: 不便:让计算机更易于应用无效:容许以更无效的形式应用计算机资源扩大:容许在不影响服务的前提下,无效的开发、测试和引入新的零碎性能传统通用 OS(Linux) 的典型架构设计如上,操作系统中蕴含了为实现上述3个指标而提供的各种功能模块和接口,总体上,分为两大部分: 内核:提供底层硬件(计算机)的根本形象,不同的内核模块提供不同的硬件治理或相干的辅助性能,通过零碎调用向下层利用提供服务。根底库和相干服务组件(用户态):为实在业务运行提供根底运行环境IaaS 场景中的 OS IaaS 场景中,OS 次要用于为云主机(虚拟机)提供运行环境,在 IaaS 场景中,OS 中运行的工作类型和数量可控,场景绝对通用场景简略很多。工作类型根本就只有如下几类: VM 相干线程(通常为 Qemu + Vcpu 线程)各种管制面的治理 AgentsOS 本身必须的一些控制线程(比方 Per-cpu Workers)IaaS 场景中,为使虚拟机性能有限靠近(甚至超过)物理机,通常会思考做减法,通过有限缩小虚拟化、OS 层面的开销来晋升性能,罕用的一些典型伎俩如: CPU 层面的绑核内存层面的预调配IO 层面的各种 Bypass Kernel 技术对于 OS 来说,最终的后果是: OS 越来越薄,最终可能会隐没 换个角度看 OS (云原生角度) 当云原生浪潮袭来,换个角度(云原生角度)再去扫视 OS 时,看到的又是不一样的视图。云原生场景对 OS 提出了新的挑战,也为 OS 相干技术的进一步倒退和演进注入了新的能源。 ...

June 18, 2021 · 3 min · jiezi

关于腾讯云:腾讯云边缘容器-TKE-Edge-国内首批通过边缘容器技术能力认证

2021年6月4日,由工信部中国信通院和开源产业联盟主办的2021“云边协同大会”在北京顺利揭幕。会上颁布了国内首个“分布式云与云边协同规范体系”,作为国内顶级的云计算服务商,腾讯云的边缘容器服务 TKE Edge 产品顺利通过了边缘容器《基于云边协同的边缘容器技术能力要求》规范,成为首批取得该认证的厂家。 该评估的通过,证实 TKE Edge 在云端治理、节点监控、边缘自治、容器平安等方面均合乎基于云边协同的边缘容器技术能力要求,满足全副包含云端对立运维、边缘节点监测、边缘节点自治、异构边缘资源适配、 边缘容器和利用治理五大部分的边缘容器服务能力框架的规范,联合腾讯云成熟当先的容器平安服务 TCSS 和 容器镜像服务 TCR,保障对分布式云下各边缘云、边缘设施提供齐备、牢靠、平安的容器服务。 TKE Edge(Tencent Kubernetes Engine for Edge)是腾讯云推出的面向边缘计算畛域的容器服务平台,将 Kubernetes 弱小的容器治理能力扩大到边缘计算场景中,把云原生能力扩大到边缘侧,不仅很好的实现了云端对边缘端资源和业务的治理和管制,而且提供了边缘增强利用治理能力,反对多区域利用部署、区域自治、灰度公布等一系列能力,为利用实现边缘原生化提供了强有力的反对。 TKE Edge 提供外围能力包含: 反对原生 Kubernetes:无侵入扩大原生 Kubernetes,增加边缘计算相干组件。反对 Kubernetes 原生工作负载(Deployment, Statefulset, Daemenest等);边缘自治:稳固的边缘端服务。当边端节点与云端网络不稳固或者断连时,边缘节点仍旧能够失常运行,不影响曾经部署的边缘服务;分布式健康检查:加强边缘节点稳定性。依据自定分组或网络拓扑对边缘节点进行分组,由组内边缘节点进行健康检查及状态投票;服务访问控制:提供基于边缘区域的服务访问控制,使得各个容器服务间的申请在本机房或本地区外部即可实现(闭环),防止了服务跨地区拜访;反对按地区灰度公布能力,反对为多地区灵便指定利用版本;云边隧道:反对自建隧道(目前反对TCP, HTTP and HTTPS)买通不同网络环境下的云边连贯问题,实现对无公网IP边缘节点的对立操作和保护。TKE Edge 联合腾讯云丰盛和成熟的云产品服务,将镜像仓库、微服务、容器平安、云原生利用等能力扩大至边缘侧,在边缘侧提供弹性分布式算力资源,同时在云端向边缘侧进行近程资源业务调度、数据处理剖析、服务编排、运维指令下达等操作。通过 TKE Edge 治理平台和边缘节点软件相互配合,对边缘侧计算资源进行近程管控、数据处理、剖析决策等操作,提供残缺的云边协同的一体化服务,为用户提供全栈式合乎云边协同规范体系的云原生边缘计算平台,加强服务能力,晋升用户体验,助力行业利用转型降级,减速传统行业数字化过程。 理解更多腾讯云边缘容器产品,疾速开启边缘容器之旅,请拜访: 边缘容器服务 TKE Edge:https://cloud.tencent.com/doc... 容器平安服务 TCSS:https://cloud.tencent.com/pro... 容器镜像服务 TCR:https://cloud.tencent.com/pro... 【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

June 7, 2021 · 1 min · jiezi

关于腾讯云:揭秘有状态服务上-Kubernetes-的核心技术

背景随着 Kubernetes 成为云原生的最热门的解决方案,越来越多的传统服务从虚拟机、物理机迁徙到 Kubernetes,各云厂商如腾讯自研上云也主推业务通过Kubernetes来部署服务,享受 Kubernetes 带来的弹性扩缩容、高可用、自动化调度、多平台反对等好处。然而,目前大部分基于 Kubernetes 的部署的服务都是无状态的,为什么有状态服务容器化比无状态服务更难呢?它有哪些难点?各自的解决方案又是怎么的? 本文将联合我对 Kubernetes 了解、丰盛的有状态服务开发、治理、容器化教训,为你浅析有状态容器化的疑难点以及相应的解决方案,心愿通过本文,能帮忙你了解有状态服务的容器化疑难点,并能基于本人的有状态服务场景能灵便抉择解决方案,高效、稳固地将有状态服务容器化后跑在 Kubernetes 上,进步开发运维效率和产品竞争力。 有状态服务容器化挑战为了简化问题,防止适度形象,我将以罕用的 Redis 集群为具体案例,详解如何将一个 Redis 集群进行容器化,并通过这个案例进一步剖析、拓展有状态服务场景中的共性问题。 下图是 Redis 集群解决方案 codis 的整体架构图(援用自 Codis我的项目)。 codis 是一个基于 proxy 的分布式 Redis 集群解决方案,它由以下外围组件组成: zookeeper/etcd, 有状态元数据存储,个别奇数个节点部署codis-proxy, 无状态组件,通过计算 key 的 crc16 哈希值,依据保留在 zookeeper/etcd 内的 preshard 路由表信息,将key转发到对应的后端 codis-groupcodis-group 由一组 Redis 主备节点组成,一主多备,负责数据的读写存储codis-dashboard 集群管制面API服务,能够通过它增删节点、迁徙数据等redis-sentinel,集群高可用组件,负责探测、监听 Redis 主的存活,主故障时发动备切换那么咱们如何基于 Kubernetes 容器化 codis 集群,通过 kubectl 操作资源就能一键创立、高效治理 codis 集群呢? 在容器化相似 codis 这种有状态服务案例中,咱们须要解决以下问题: 如何用 Kubernetes 的语言形容你的有状态服务?如何为你的有状态服务抉择适合的 workload 部署?当 kubernetes 内置的 workload 无奈间接形容业务场景时,又该抉择什么样的 Kubernetes 扩大机制呢?如何对有状态服务进行平安变更?如何确保你的有状态服务主备实例 Pod 调度到不同故障域?有状态服务实例故障如何自愈?如何满足有状态服务的容器化后的高网络性能需求?如何满足有状态服务的容器化后的高存储性能需求?如何验证有状态服务容器化后的稳定性?下方是我用思维导图系统性的梳理了容器化有状态的服务的技术难点,接下来我别离从以上几个方面为你论述容器化的解决方案。 ...

June 4, 2021 · 5 min · jiezi

关于腾讯云:腾讯云携手信通院启动云原生开源白皮书编写深度解读云原生

5 月 26 日,由中国信息通信研究院(以下简称“中国信通院”)主办的 2021 年“云原生产业大会”在北京召开。作为中国云原生畛域的“风向标”,大会正式公布了云原生成熟度规范体系,并举办了“云原生开源白皮书“启动典礼。同时,腾讯太极机器学习平台、腾讯云微服务平台 TSF 与腾讯云 CODING DevOps 别离荣获“云原生利用优良案例”以及“云原生技术创新案例”两项大奖,腾讯蓝盾平台 BK-CI 与 TARS 在“2021 年开源畛域新增评估”中也同时荣获“可信开源社区”和“可信开源我的项目”双荣誉,这意味着腾讯云在云原生畛域的摸索再进一步。 以后云原生技术热度一直进步,开源成为云原生最支流技术路线,但云原生开源倒退现状如何、开源技术利用中有哪些危险与阻力成为企业关注的焦点问题,在此背景下《云原生开源白皮书》(以下简称《白皮书》)应运而生。 白皮书是一本具体论述云原生开源的行业指导性白皮书。详细分析云原生开源倒退现状、明确云原生开源热门畛域技术路线、提出云原生开源生态建设思路、给出知识产权与信息安全爱护倡议、综合云原生行业与实践经验、指出云原生开源推动挑战和对云原生开源提出瞻望,为关注云原生开源技术的企业和集体提供参考。 该白皮书将由腾讯云携手信通院,联结安畅、灵雀云、有赞、华佑、优维、微众银行、广发证券等 20 余家公司技术带头人以开源协同的形式独特编撰,为推动我国开源倒退,帮忙企业通过云原生开源生态顺利数字化转型,晋升我国开源畛域国内竞争力起到重要作用。 在本次大会上,腾讯太极机器学习平台取得“云原生利用优良案例”奖项,据悉腾讯太极机器学习平台专一于整合与高效利用资源,为算法工程师们提供对立的机器学习框架和减速计划。目前该平台为多个公司级的业务提供训练平台与减速服务,包含计算机视觉、语音、广告等不同AI技术,同时通过大规模、高效率、低成本的 GPU 算力服务,助力企业实现降本增效。 同时,腾讯云微服务平台 TSF、腾讯云 CODING DevOps 别离取得“云原生技术创新案例”奖项。腾讯微服务平台 TSF 是一款面向企业级的集资源管理、微服务开发、服务治理和服务运维为一体的 PaaS 平台,为企业提供从利用开发到性能治理全栈式的微服务管控体系,不仅具备对立配置管理、数字化经营、CI/CD、同城双活、两地三核心高可用容灾能力,还采纳自主可控的技术体系,兼容支流的国产芯片和国产操作系统,并反对 x86 和 arm 平台能力一致性,为国产化企业赋能的同时,也为数据安全上“保险”。 该平台凭借突出的技术劣势以及服务质量,目前已在中国银行、南方电网、数字广东、一汽大众等数百家大中型企业胜利落地,笼罩金融、政府、工业、泛互联网等多个应用领域,满足了不同行业的倒退需要。 另一项取得“云原生技术创新案例”奖的则是腾讯云旗下一站式研发合作治理平台 CODING DevOps,该平台为用户提供代码托管、项目管理、继续集成等多项性能和服务,笼罩从构想到交付的软件开发全流程,使研发团队在云端高效协同,全力晋升软件交付品质与速度。 目前 CODING DevOps 已稳固运行七年,承载 200 万开发者,助力 50000 家企业扭转世界,其中包含中国银联、中国移动、富士康、墨刀等知名企业。此外 CODING 针对教育、金融、政企、互联网、游戏等行业提供了 DevOps 最佳解决方案,帮忙企业实现从提出需要到最终软件交付全流程把控。 在“2021 年开源畛域新增评估”中腾讯蓝盾平台 BK-CI 同时取得了“可信开源社区”以及“可信开源我的项目”两项荣誉。“蓝盾”是蓝鲸团队打造的一站式的 DevOps 研发平台,以腾讯互动娱乐事业群的最佳实际为终点,从业务平安登程,贯通产品研发,测试和经营的全生命周期;助力业务平滑过渡到麻利研发模式,打造一站式研发运维体系,继续疾速交付高质量的产品。 另一个同时取得“可信开源社区”以及“可信开源我的项目”两项荣誉的是 TARS。TARS 是反对多语言的微服务开发治理计划,在腾讯通过 10 多年的大规模应用和迭代,规模超过百万节点,欠缺了业界规范的 DevOps 理念和腾讯的海量服务之道。TARS 于 2018 年捐献至 Linux 基金会,并于 2020 年成立 TARS 基金会,持续以国内开源基金会的运作形式吸纳上下游的开源我的项目,以建设更好的微服务生态。 ...

June 3, 2021 · 1 min · jiezi

关于腾讯云:腾讯云云原生混合云TKE发行版

背景TKE 发行版(TKE Kubernetes Distro)是由腾讯云 TKE 公布的 K8S 发行版本,用于帮忙用户创立安全可靠的 K8S 集群。用户可依靠 TKE 发行版在自建或者托管机房、物理机或者虚机上,运行与 TKE 完全一致的 K8S 服务。TKE 发行版集群可无缝与腾讯云 TKE 集成,进而组建混合云。用户可通过 TKE 发行版集群将云下业务扩大到云上,利用腾讯云 TKE、EKS 等云服务弹性能力,为业务提供弱小的资源保障。目前 TKE 发行版已在 GitHub 开源:[[https://github.com/tkestack/t...https://github.com/tkestack/tke-k8s-distro)。 应用场景与定位在混合云场景下,不同的云服务商提供的 K8S 并不完全相同。并且用户在云服务商以外的环境只能应用社区版 K8S,而运行环境的任何渺小差别都可能导致业务故障,因而,如何尽可能地保障多环境中根底组件的一致性变得尤为重要。 TKE 发行版便是解决这个问题的一个不错的抉择,用户无需破费精力去关注不同环境下 K8S 的能力差异,以及自行修复 K8S 中的遇到的问题。 依赖 TKE 发行版,用户当初能够编译和构建与腾讯云 TKE 雷同的 K8S 版本。这意味着用户当初能够手动部署牢靠和平安的集群,而无需继续测试和跟踪 K8S 更新、依赖关系和安全补丁。每一个 TKE 发行版都遵循腾讯云 TKE 和 K8S 社区规范新版本兼容性的流程。 TKE 发行版在保障兼容性的根底上,对 K8S 进行了扩大,并且与腾讯云 TKE 服务放弃版本统一。用户能够在本人的 IDC 或者混合云上部署 TKE 发行版,应用已有企业用户大规模验证的牢靠平安的 K8S 服务。 TKE 发行版的每个版本都会通过 K8S 社区官网一致性测试,保障兼容性,同时以 patch 模式提供源代码,并提供构建工具帮忙用户进行编译。TKE 发行版目前反对 v1.20 版本。 ...

June 3, 2021 · 2 min · jiezi

关于腾讯云:腾讯云原生混合云第三方集群弹EKS应对突发流量的利器

作者何鹏飞,腾讯云专家产品经理,曾作为容器公有云、TKEStack的产品经理兼架构师,参加腾讯云外部业务、内部客户容器化革新方案设计,目前负责云原生混合云产品方案设计工作。 胡晓亮,腾讯云专家工程师,专一云原生畛域。目前负责开源社区TKEStack和混合云我的项目的设计和开发工作。 前言混合云是一种部署状态,一方面企业可从资产利旧、老本管制、管制危险缩小锁定等角度抉择混合云。另一方面企业也能够通过混合业务部署取得不同云服务商的绝对劣势能力,以及让不同云服务商的能力差异造成互补。 而容器和混合云是天作之合,基于容器标准化封装,大大降低了利用运行环境与混合云异构基础设施的耦合性,企业更易于实现多云/混合云麻利开发和继续交付,使利用多地区规范治理化成为可能。TKE 容器团队提供了一系列的产品能力来满足混合云场景,本文介绍其中针对突发流量场景的产品个性——第三方集群弹 EKS。 低成本扩容IDC 的资源是无限的,当有业务突发流量须要应答时,IDC 内的算力资源可能不足以应答。抉择应用私有云资源应答长期流量是不错的抉择,常见的部署架构为:在私有云新建一个集群,将局部工作负载部署到云上,通过 DNS 规定或负载平衡策略将流量路由到不同的集群: 此种模式下,业务的部署架构产生了变动,因而在应用前须要充沛评估: 哪些业务工作负载须要在云上部署,是全副还是局部;云上部署的业务是否有环境依赖,例如 IDC 内网 DNS、DB、公共服务等;云上、云下业务日志、监控数据如何对立展现;云上、云下业务流量调度规定;CD 工具如何适配多集群业务部署;这样的革新投入对于须要长期维持多地区接入的业务场景来说是值得的,但对于突发流量业务场景来说老本较高。因而咱们针对这种场景推出了便捷在单集群内利用私有云资源应答突发业务流量的能力:第三方集群弹 EKS,EKS是腾讯云弹性容器服务,能够秒级创立和销毁大量 POD 资源,用户仅需提出 POD 资源需要即可,无需保护集群节点可用性,对于弹性的场景来说是十分适合的。仅须要在集群中装置相干插件包即可疾速取得扩容到 EKS 的能力。 与间接应用云上虚拟机节点相比,此种形式扩缩容更快,并且咱们还提供了2种调度机制来满足客户的调度优先级需要: 全局开关: 在集群层面,当集群资源有余时,任何须要新创建Pod的工作负载都能够将正本创立到腾讯云 EKS 上; 部分开关: 在工作负载层面,用户可指定单个工作负载在本集群保留N个正本后,其余正本在腾讯云 EKS 中创立; 为了确保所有工作负载在本地 IDC 均有足够的正本数,当突发流量过来,触发缩容时,反对优先缩容腾讯云上 EKS 正本(须要应用 TKE 发行版集群,对于 TKE 发行版的具体介绍,请期待后续公布的该系列文章)。 这种模式下,业务部署架构没有发生变化,在单集群中即可弹性应用云上资源,防止了引入业务架构革新、CD流水线革新、多集群治理、监控日志统等一系列衍生问题,并且云上资源的应用是按需应用,按需计费,大大降低了用户应用老本。但为了保障工作负载的安全性和稳定性,咱们要求用户的 IDC 与腾讯云私有云 VPC 专线互通,并且用户也须要从存储依赖、延时容忍度等多方面评估适用性。 EKS pod 可与 underlay 网络模式的本地集群 pod、node 互通(须要在腾讯云VPC中增加本地pod cidr的路由,参考路由配置),第三方集群弹 EKS 已在 TKEStack中开源,具体应用形式和示例见 应用文档 实战演示步骤获取 tke-resilience helm chart git clone https://github.com/tkestack/charts.git配置 VPC 信息:编辑 charts/incubator/tke-resilience/values.yaml,填写以下信息: ...

May 20, 2021 · 1 min · jiezi

关于腾讯云:一文读懂-SuperEdge-云边隧道

作者李腾飞,腾讯容器技术研发工程师,腾讯云TKE后盾研发,SuperEdge外围开发成员。 杜杨浩,腾讯云高级工程师,热衷于开源、容器和Kubernetes。目前次要从事镜像仓库,Kubernetes集群高可用&备份还原,以及边缘计算相干研发工作。 SuperEdge 介绍SuperEdge 是 Kubernetes 原生的边缘容器计划,它将 Kubernetes 弱小的容器治理能力扩大到边缘计算场景中,针对边缘计算场景中常见的技术挑战提供了解决方案,如:单集群节点跨地区、云边网络不牢靠、边缘节点位于 NAT 网络等。这些能力能够让利用很容易地部署到边缘计算节点上,并且牢靠地运行,能够帮忙您很不便地把散布在各处的计算资源放到一个 Kubernetes 集群中治理,包含但不限于:边缘云计算资源、公有云资源、现场设施,打造属于您的边缘 PaaS 平台。SuperEdge 反对所有 Kubernetes 资源类型、API 接口、应用形式、运维工具,无额定的学习老本,也兼容其余云原生我的项目,如:Promethues,使用者能够联合其余所需的云原生我的项目一起应用。我的项目由以下公司独特发动:腾讯、Intel、VMware、虎牙直播、寒武纪、首都在线和美团。 云边隧道的架构与原理在边缘场景中,很多时候都是单向网络,即只有边缘节点能被动拜访云端。云边隧道次要用于代理云端拜访边缘节点组件的申请,解决云端无奈间接拜访边缘节点的问题。 架构图如下所示: 实现原理为: 边缘节点上 tunnel-edge 被动连贯 tunnel-cloud service,tunnel-cloud service依据负载平衡策略将申请转到 tunnel-cloud podtunnel-edge 与 tunnel-cloud 建设 gRPC 连贯后,tunnel-cloud 会把本身的podIp和 tunnel-edge 所在节点的 nodeName 的映射写入 tunnel-dns。gRPC 连贯断开之后,tunnel-cloud 会删除相干 podIp 和节点名的映射而整个申请的代理转发流程如下: apiserver 或者其它云端的利用拜访边缘节点上的 kubelet 或者其它利用时,tunnel-dns 通过 DNS 劫持(将 HTTP Request 中的 host 中的节点名解析为 tunnel-cloud 的podIp)把申请转发到 tunnel-cloud 的pod上tunnel-cloud 依据节点名把申请信息转发到节点名对应的与 tunnel-edge 建设的 gRPC 连贯上tunnel-edge 依据接管的申请信息申请边缘节点上的利用Tunnel 外部模块数据交互在介绍完 Tunnel 的配置后,上面介绍 Tunnel 的外部数据流转: ...

May 19, 2021 · 7 min · jiezi

关于腾讯云:用-edgeadm-一键安装边缘-K8s-集群和原生-K8s-集群

背景目前,很多边缘计算容器开源我的项目在应用上均存在一个默认的前提:用户须要提前准备一个规范的或者特定工具搭建的 Kubernetes 集群,而后再通过特定工具或者其余形式在集群中部署相应组件来体验边缘能力。这无疑进步了用户体验边缘能力的门槛,而且应用上有泛滥的限度,让用户很难上手。 简略整顿,大略会有如下问题: 门槛太高用户须要提前准备一个 Kubernetes 集群,对于很多用户来说门槛太高,搭建的流程比较复杂,容易失败,把很多想应用边缘能力的人群拒之门外;限制性太大往往要求特定工具搭建的特定版本的 Kubernetes 集群,通用性太差,用户在想在理论生产环境上应用限制性太大;增加边缘节点比拟麻烦增加边缘节点须要依附搭建 Kubernetes 集群自身的工具增加 Kubernetes 原生的节点再进行转化,对第三方工具依赖性较强,并且操作流程比拟麻烦,容易出错;自动化能力较差无论 Kubernetes 集群的搭建,还是增加边缘节点都很难在生产环境自动化起来,相干流程还须要本人的团队进行二次开发,集成难度较大;为了升高用户体验边缘能力的门槛,云原生社区的同学打算开发一个能够一键部署边缘 Kubernetes 集群的办法,让用户能够更容易、更简略的体验边缘 Kubernetes 集群。 架构设计针对上述问题,为了升高用户应用边缘 Kubernetes 集群的门槛,让边缘 Kubernetes 集群具备生产能力,咱们设计了一键就能够部署进去一个边缘 Kubernetes 集群的计划,齐全屏蔽装置细节,让用户能够零门槛的体验边缘能力。 初衷让用户很简略、无门槛的应用边缘 Kubernetes 集群,并能在生产环境真正把边缘能力用起来;指标一键化应用 可能一键搭建起一个边缘 Kubernetes 集群;可能一键很简略、很灵便的增加边缘节点;两种装置创景 反对在线装置;反对离线装置,让私有化环境也能很简略;可生产应用 不要封装太多,能够让想应用边缘 Kubernetes 集群的团队能在外部零碎进行简略的集成,就生产可用;零学习老本 尽可能的和 kubeadm 的应用形式保持一致,让用户无额定的学习老本,会用 kubeadm 就会用 edgeadm;准则不批改 kubeadm 源码 尽量援用和复用 kubeadm 的源码,尽量不批改 kubeadm 的源码,防止前面降级的隐患;基于 kubeadm 但又高于 kubeadm,不用被 kubeadm 的设计所局限,只有能让用户应用起来更简略就能够被容许;容许用户抉择是否部署边缘能力组件;容许用户自定义边缘能力组件的配置;设计与实现咱们钻研了 kubeadm 的源码,发现能够借用 kubeadm 创立原生 Kubernetes集群、join 节点、workflow 思维来一键部署边缘 Kubernetes 集群,并且能够分步去执行装置步骤。这正是咱们想要的简略、灵便、低学习老本的部署计划。于是咱们站在伟人的肩膀上,利用 Kubedam 的思维,复用 kubeadm 的源码,设计出了如下的解决方案。 其中 kubeadm init cluster/join node局部齐全复用了 kubadm 的源码,所有逻辑和 kubeadm 完全相同。这个计划有如下几个长处: ...

May 18, 2021 · 7 min · jiezi

关于腾讯云:Linux-内核调度器源码分析-初始化

导语上篇系列文 混部之殇-论云原生资源隔离技术之CPU隔离(一) 介绍了云原生混部场景中CPU资源隔离核心技术:内核调度器,本系列文章《Linux内核调度器源码剖析》将从源码的角度分析内核调度的具体原理和实现,咱们将以 Linux kernel 5.4 版本(TencentOS Server3 默认内核版本)为对象,从调度器子系统的初始化代码开始,剖析 Linux 内核调度器的设计与实现。 调度器(Scheduler)子系统是内核的外围子系统之一,负责零碎内 CPU 资源的正当调配,须要能解决纷繁复杂的不同类型工作的调度需要,还须要能解决各种简单的并发竞争环境,同时还须要兼顾整体吞吐性能和实时性要求(自身是一对矛盾体),其设计与实现都极具挑战。 为了可能了解 Linux 调度器的设计与实现,咱们将以 Linux kernel 5.4 版本(TencentOS Server3 默认内核版本)为对象,从调度器子系统的初始化代码开始,剖析 Linux 内核调度器的设计与实现。 本(系列)文通过剖析 Linux 调度器(次要针对 CFS)的设计与实现,心愿可能让读者理解: 调度器的基本概念调度器的初始化(包含调度域相干的种种)过程的创立、执行与销毁过程切换原理与实现CFS 过程调度策略(单核)如何在全局零碎的调度上保障 CPU 资源的正当应用如何均衡 CPU 缓存热度与 CPU 负载之间的关系很 special 的调度器 features 剖析调度器的基本概念在剖析调度器的相干代码之前,须要先理解一下调度器波及的外围数据(构造)以及它们的作用 运行队列(rq)内核会为每个 CPU 创立一个运行队列,零碎中的就绪态(处于 Running 状态的)过程(task)都会被组织到内核运行队列上,而后依据相应的策略,调度运行队列上的过程到 CPU 上执行。 调度类(sched_class)内核将调度策略(sched_class)进行了高度的形象,造成调度类(sched_class)。通过调度类能够将调度器的公共代码(机制)和具体不同调度类提供的调度策略进行充沛解耦,是典型的 OO(面向对象)的思维。通过这样的设计,能够让内核调度器极具扩展性,开发者通过很少的代码(根本不需改变公共代码)就能够减少一个新的调度类,从而实现一种全新的调度器(类),比方,deadline调度类就是3.x中新增的,从代码层面看只是减少了 dl_sched_class 这个构造体的相干实现函数,就很不便的增加了一个新的实时调度类型。 目前的5.4内核,有5种调度类,优先级从高到底散布如下: stop_sched_class:优先级最高的调度类,它与 idle_sched_class 一样,是一个专用的调度类型(除了 migration 线程之外,其余的 task 都是不能或者说不应该被设置为 stop 调度类)。该调度类专用于实现相似 active balance 或 stop machine 等依赖于 migration 线程执行的“紧急”工作。 ...

May 14, 2021 · 6 min · jiezi

关于腾讯云:K8s-Scheduler-在调度-pod-过程中遗漏部分节点的问题排查

问题景象在TKE管制台上新建版本为v1.18.4(具体版本号 < v1.18.4-tke.5)的独立集群,其中,集群的节点信息如下: 有3个master node和1个worker node,并且worker 和 master在不同的可用区。 node角色label信息ss-stg-ma-01masterlabel[failure-domain.beta.kubernetes.io/region=sh,failure-domain.beta.kubernetes.io/zone=200002]ss-stg-ma-02masterlabel[failure-domain.beta.kubernetes.io/region=sh,failure-domain.beta.kubernetes.io/zone=200002]ss-stg-ma-03masterlabel[failure-domain.beta.kubernetes.io/region=sh,failure-domain.beta.kubernetes.io/zone=200002]ss-stg-test-01workerlabel[failure-domain.beta.kubernetes.io/region=sh,failure-domain.beta.kubernetes.io/zone=200004]待集群创立好之后,再创立出一个daemonset对象,会呈现daemonset的某个pod始终卡住pending状态的景象。景象如下: $ kubectl get pod -o wideNAME READY STATUS RESTARTS AGE NODE debug-4m8lc 1/1 Running 1 89m ss-stg-ma-01debug-dn47c 0/1 Pending 0 89m <none>debug-lkmfs 1/1 Running 1 89m ss-stg-ma-02debug-qwdbc 1/1 Running 1 89m ss-stg-test-01(补充:TKE以后反对的最新版本号为v1.18.4-tke.8,新建集群默认应用最新版本) 问题论断k8s的调度器在调度某个pod时,会从调度器的外部cache中同步一份快照(snapshot),其中保留了pod能够调度的node信息。下面问题(daemonset的某个pod实例卡在pending状态)的起因就是同步的过程产生了局部node信息失落,导致了daemonset的局部pod实例无奈调度到指定的节点上,卡在了pending状态。 接下来是具体的排查过程。 日志排查截图中呈现的节点信息(来自客户线上集群):k8s master节点:ss-stg-ma-01、ss-stg-ma-02、ss-stg-ma-03k8s worker节点:ss-stg-test-01 1、获取调度器的日志这里首先是通过动静调大调度器的日志级别,比方,间接调大到V(10),尝试获取一些相干日志。当日志级别调大之后,有抓取到一些要害信息,信息如下: 解释一下,当调度某个pod时,有可能会进入到调度器的抢占preempt环节,而下面的日志就是出自于抢占环节。集群中有4个节点(3个master node和1个worker node),然而日志中只显示了3个节点,短少了一个master节点。所以,这里临时狐疑下是调度器外部缓存cache中少了node info。 2、获取调度器外部cache信息k8s v1.18曾经反对打印调度器外部的缓存cache信息。打印进去的调度器外部缓存cache信息如下: 能够看出,调度器的外部缓存cache中的node info是残缺的(3个master node和1个worker node)。通过剖析日志,能够失去一个初步论断:调度器外部缓存cache中的node info是残缺的,然而当调度pod时,缓存cache中又会短少局部node信息。 问题根因在进一步剖析之前,咱们先一起再相熟下调度器调度pod的流程(局部展现)和nodeTree数据结构。 pod调度流程(局部展现) 联合上图,一次pod的调度过程就是 一次Scheduler Cycle。 在这个Cycle开始时,第一步就是update snapshot。snapshot咱们能够了解为cycle内的cache,其中保留了pod调度时所需的node info,而update snapshot,就是一次nodeTree(调度器外部cache中保留的node信息)到snapshot的同步过程。而同步过程次要是通过nodeTree.next()函数来实现,函数逻辑如下: ...

May 13, 2021 · 2 min · jiezi

关于腾讯云:Getting-Started-and-Beyond|云原生应用负载均衡选型指南

作者冉昕,腾讯云服务网格TCM产品经理,现负责云原生流量接入网关与利用通信可观测性等产品个性策动与设计工作。 刘旭,腾讯云高级工程师,专一容器云原生畛域,有多年大规模 Kubernetes 集群治理及微服务治理教训,现负责腾讯云服务网格 TCM 数据面产品架构设计和研发工作。 引言利用的入口流量治理始终是开发运维关注的焦点之一,随业务部署的计算资源、网络环境、利用架构的倒退变更,接入层流量治理计划的倒退可大抵分为传统架构、云原生容器化两个阶段。为满足利用交付的效率和诉求,各阶段都涌现了不同的接入层解决方案,从最后的简略负载平衡,到起初的 HAProxy、Nginx 等反向代理,再到现在的容器化环境下的各类 Kubernetes Ingress Controller。每个倒退阶段有哪些特点?面临什么挑战?都有什么解决方案? 阶段利用部署资源粒度利用架构利用拜访寻址传统架构物理/虚拟机(资源利用率低)单体或简略拆分模块基于较固定的 IP 地址治理云原生容器化容器(资源利用率高)服务化容器 IP 动态变化,通过动静服务注册更新传统架构阶段,业务为单体利用,三层架构;部署于物理机/虚拟机;网络环境基于 IP 地址治理,绝对固定,根本不会变动;业务更新迭代的速度较慢,接入层的次要需要是具备 4 层和 7 层的负载平衡能力,用传统负载均衡器反对即可。随着利用架构演进(利用做了肯定模块拆分)和迭代效率的晋升,呈现了一些更简单的接入层诉求:按流量内容特色路由、灰度公布、限流、鉴权等,个别通过在负载均衡器后减少一层网络代理(e.g. Nginx)反对,网络代理 Nginx 具备更多的 7 层流量解决的能力,可通过 OpenResty 社区的 Lua 扩大上述内容路由、灰度公布、鉴权限流等高级性能。 云原生容器化阶段的现实状态是业务开发者只需专一实现业务逻辑,无需关怀资源调度和运维治理,可真正做到按需应用,按量计费。虚拟机/物理机资源粒度毛糙,利用效率较低,需提前布局计算、存储、网络资源,与现实状态有较大差距。云原生阶段,容器资源的粒度更细,利用率高,启动/销毁速度达到秒级,可灵便弹性伸缩(Kubernetes 已成为容器编排调度的业界规范,以下容器环境均代指 Kubernetes 集群);网络管理环境也产生了变更,呈现 Service 的概念,一个微服务往往是由一组弹性伸缩、动静调度的容器(Pod)承载,Pod 的 IP 地址动态变化,这一组 Pod 个别以 Service 对外提供拜访,流量治理是以 Service 为单位。服务化拆分业务模块构建利用更容易,加上容器环境良好的弹性伸缩能力,DevOps 理念得以很好的施行,微服务的迭代步调放慢,常常须要滚动更新。此时的入口流量治理面临如下新挑战: 须要与 Kubernetes 集成,反对转发流量到指定 Pod。更新迭代速度放慢,对服务新版本灰度公布的诉求更加强烈。呈现集群概念,集群之间的服务发现是隔离的,接入层需反对跨集群的服务发现(即接入层可抉择 backend 为多个集群的 Pod );这区别于传统物理机/虚拟机阶段,没有集群隔离,只需保障网络联通性,即可配置接入层后端为任意对应服务的 IP 地址。传统阶段到云原生阶段的迁徙过程中,呈现 VM、容器环境混布的状况。基于上述挑战,呈现了以下容器环境的接入层流量治理解决方案: Kubernetes 官网定义的 Ingress API:老牌网络代理(e.g. Nginx,HAProxy)或云厂商的负载平衡产品(e.g. AWS Elastic Load Balancer,腾讯云 CLB)都实现了各自的 Ingress Controller,作为单个集群的入口流量治理解决方案。灰度公布、鉴权限流等能力,视 Ingress Controller 的能力,可通过 Annotation 扩大,局部 Ingress Controller 还设计了本人的流量治理模型和语法。Service Mesh Ingress:服务网格的服务发现和治理界线大于集群纬度,以 Istio Ingress Gateway 为例,基于 Istio 跨集群的服务发现能力,backend 能够来自不同集群的服务,同时还反对注册在网格内运行在虚拟机上的服务。Istio 也设计了本人的治理模型和语法,申明式反对配置统一的南北 + 东西向流量治理。沿用原有 VM 上部署的网络代理,转发流量至 VM 服务或 Kubernetes 集群的服务。上面本文将从云原生容器化环境入口流量治理应用场景切入,带您理解云原生接入层流量治理的各类解决方案及优劣比照。 ...

May 11, 2021 · 5 min · jiezi

关于腾讯云:混部之殇论云原生资源隔离技术之CPU隔离一

作者蒋彪,腾讯云高级工程师,10+年专一于操作系统相干技术,Linux内核资深发烧友。目前负责腾讯云原生OS的研发,以及OS/虚拟化的性能优化工作。 导语混部,通常指在离线混部(也有离在线混部之说),意指通过将在线业务(通常为提早敏感型高优先级工作)和离线工作(通常为 CPU 消耗型低优先级工作)同时混合部署在同一个节点上,以期晋升节点的资源利用率。其中的要害难点在于底层资源隔离技术,重大依赖于 OS 内核,而现有的原生 Linux kernel 提供的资源隔离能力在面对混部需要时,再次显得有些顾此失彼(或至多说不够完满),仍需深度 Hack,方能满足生产级别的需要。 (云原生)资源隔离技术次要包含 CPU、memory、IO 和网络,4个方面。本文聚焦于 CPU 隔离技术和相干背景,后续(系列)再循序渐进,逐渐开展到其余方面。 背景无论在 IDC,还是在云场景中,资源利用率低都相对是大部分用户/厂商面临的独特难题。一方面,硬件老本很高(大家都是靠买,而且绝大部分硬件(核心技术)把握于他人手中,没有定价权,议价能力也通常很弱),生命周期还很短(过几年还得换新);另一方面,极度难堪的是这么贵的货色无奈充分利用,拿 CPU 占用率来说,绝大部分场景的均匀占用率都很低(如果我拍不超过20%(这里指日均值,或周均值),置信大部分同学都不会有意见,这就意味着,贼贵的货色理论只用了不到五分之一,如果你还想正经的居家过日子,想必都会感觉疼爱。 因而,晋升主机(节点)的资源利用率是一项十分值得摸索,同时收益非常明显的工作。解决思路也十分间接, 惯例的思维模式:多跑点业务。说起来容易,谁没试过呢。外围艰难在于:通常的业务都有显著的峰谷特色 你心愿的样子可能是这样的: 但事实的样子多半是这样的: 而在为业务做容量布局是,须要按 Worst Case 做(假如所有业务的优先级都一样),具体来说,从 CPU 层面的话,就须要按 CPU 峰值(可能是周峰值、甚至月/年峰值)的来布局容量(通常还得留肯定的余量,应答突发), 而事实中大部分状况是:峰值很高,但理论的均值很低。因而导致了绝大部分场景中的 CPU 均值都很低,理论 CPU 利用率很低。 后面做了个假如:“所有业务的优先级都一样”,业务的 Worst Case 决定了整机的最终体现(资源利用率低)。如果换种思路,但业务辨别优先级时,就有更多的施展空间了,能够通过就义低优先级业务的服务质量(通常能够容忍)来保障高优先级业务的服务质量,如此能部署在适量高优先级业务的同时,部署更多的业务(低优先级),从而整体上晋升资源利用率。 混部(混合部署)因而应运而生。这里的“混”,实质上就是“辨别优先级”。广义上,能够简略的了解为“在线+离线”(在离线)混部,狭义上,能够扩大到更广的利用范畴:多优先级业务混合部署。 其中波及的核心技术包含两个层面: 底层资源隔离技术。(通常)由操作系统(内核)提供,这是本(系列)文章的外围关注点。下层的资源调度技术。(通常)由下层的资源编排/调度框架(典型如 K8s)提供,打算另做系列文章开展,仍请期待。混部也是业界十分热门的话题和技术方向,以后支流的头部大厂都在继续投入,价值不言而喻,也有较高的技术门槛(壁垒)。相干技术起源甚早,颇有渊源,赫赫有名的 K8s(前身 Borg)其实源于 Google 的混部场景,而从混部的历史和成果看,Google 算是行业内的标杆,号称 CPU 占用率(均值)能做到60%,具体可参考其经典论文: https://dl.acm.org/doi/pdf/10... https://storage.googleapis.co... 当然,腾讯(云)在混部方向的摸索也很早,也经验了几次大的技术/计划迭代,至今已有不错的落地规模和成绩,详情又需起另外的话题,不在本文探讨。 技术挑战如后面所说,混部场景中,底层资源隔离技术至关重要,其中的“资源”,整体上分为4个大类: CPUMemoryIO网络本文聚焦于 CPU 隔离技术,次要剖析在 CPU 隔离层面的技术难点、现状和计划。 CPU隔离后面说的4类资源中,CPU 资源隔离能够说是最根底的隔离技术。一方面,CPU 是可压缩(可复用)资源,复用难度绝对较低,Upstream的解决方案可用性绝对较好;另一方面,CPU 资源与其余资源关联性较强,其余资源的应用(申请/开释)往往依赖于过程上下文,间接依赖于 CPU 资源。举例来说,当 CPU 被隔离(压抑)后,其余如 IO、网络的申请可能(大部分状况)因为 CPU 被压抑(得不到调度),从而也随之被压抑。 ...

May 11, 2021 · 2 min · jiezi

关于腾讯云:腾讯云存储新品发布会直播马上开启

明天14:00-17:00,腾讯云将于北京召开2021年腾讯云存储新品发布会,邀请全国顶级媒体现场观摩,并实时转播分享发布会最新内容。 本次在发布会上亮相的3款新品,均领有行业内 No.1的性能,别离是: 1、对象存储 COS:三级加速器 - GooseFS+元数据减速+COS 加速器;2、云硬盘 CBS:极速型云硬盘 IOPS 200W,时延60us;3、文件存储 CFS:Turbo 文件系统,吞吐数百 GB/s 发布会由腾讯云两位副总裁刘颖和陈平领衔发动,同时邀请了 IBM 寰球副总裁、金山办公软件高级副总裁、广州鼎甲 CEO、英特尔销售和市场部寰球云计算客户总监等10多位合作伙伴缺席发布会。 群英荟萃,共话云存储最新技术,向宽广的开发者和技术爱好者们分享与云存储的故事,一起探讨前沿技术、实战经验、开源生态和产品技术革新。 新品发布会官网报名通道: 报名链接:https://cloud.tencent.com/act...直播链接:https://cloud.tencent.com/dev...

May 10, 2021 · 1 min · jiezi

关于腾讯云:腾讯云短信产品可以申请折扣啦

腾讯云短信产品,如果量大,通过特定的链接洽购,能够申请折扣。须要的能够分割我!100万条起购!

May 8, 2021 · 1 min · jiezi

关于腾讯云:倒计时3天腾讯云存储产品发布会即将开启

十年坚守,不忘来时初心路漫修远,仍然砥砺前行腾讯云存储技术从2010年利用于腾讯全线业务起,曾经走过近10个春秋。 十年蓄力,腾讯云存储始终以业界性能No.1为指标,全力以赴搭建高性能云存储产品家族,布局多维度生态体系,为各行各业数字化转型减速,帮忙用户激活数据成就商业价值。 今日,邀您参加腾讯云存储新品发布会,独特检阅腾讯云存储10年成绩单,携手摸索新一代存储技术倒退,在下一个十年再创辉煌! 5月10号14:00-17:00,腾讯云存储新品发布会线上直播约定您! 新品发布会官网报名通道: 报名链接:https://cloud.tencent.com/act...直播链接:https://cloud.tencent.com/dev...

May 7, 2021 · 1 min · jiezi

关于腾讯云:内存回收导致关键业务抖动案例分析论云原生OS内存QoS保障

蒋彪,腾讯云高级工程师,10+年专一于操作系统相干技术,Linux内核资深发烧友。目前负责腾讯云原生OS的研发,以及OS/虚拟化的性能优化工作。 导语云原生场景,相比于传统的IDC场景,业务更加简单多样,而原生 Linux kernel 在面对云原生的各种简单场景时,时常显得有些力不从心。本文基于一个腾讯云原生场景中的一个理论案例,展示针对相似问题的一些排查思路,并心愿借此透视Linux kernel的相干底层逻辑以及可能的优化方向。 背景腾讯云客户某要害业务容器所在节点,偶发CPU sys(内核态CPU占用)冲高的问题,导致业务抖动,复现无规律。节点应用内核为upstream 3.x版本。 景象在业务负载失常的状况下,监控可见显著的CPU占用率毛刺,最高可达100%,同时节点load飙升,此时业务会随之呈现抖动。 捕捉数据思路故障景象为CPU sys冲高,即CPU在内核态继续运行导致,剖析思路很简略,须要确认sys冲高时,具体的执行上下文信息,能够是堆栈,也能够是热点。 难点:因为故障呈现随机,持续时间比拟短(秒级),而且因为是内核态CPU冲高,当故障复现时,惯例排查工具无奈失去调度运行,登录终端也会hung住(因为无奈失常调度),所以惯例监控(通常粒度为分钟级)和排查工具均无奈及时抓到现场数据。 具体操作秒级监控通过部署秒级监控(基于atop),在故障复现时能抓到故障产生时的零碎级别的上下文信息,示例如下: 从图中咱们能够看到如下景象: sys很高,usr比拟低触发了页面回收(PAG行),且十分频繁比方ps之类的过程广泛内核态CPU使用率较高,而用户态CPU使用率较低,且处于退出状态至此,抓到了零碎级别的上下文信息,能够看到故障过后,零碎中正在运行的、CPU占用较高的过程和状态,也有一些零碎级别的统计信息,但仍无从通晓故障过后,sys具体耗费在了什么中央,须要通过其余办法/工具持续抓现场。 故障现场如后面所说,这里说的现场,能够是故障过后的刹时堆栈信息,也能够是热点信息。对于堆栈的采集,间接能想到的简略形式: pstackcat /proc/<pid>/stack当然这两种形式都依赖: 故障过后CPU占用高的过程的pid故障时采集过程能及时执行,并失去及时调度、解决显然这些对于以后的问题来说,都是难以操作的。 对于热点的采集,最间接的形式就是perf工具,简略、间接、易用。但也存在问题: 开销较大,难以常态化部署;如果常态化部署,采集数据量微小,解析艰难故障时不能保障能及时触发执行perf实质上是通过pmu硬件进行周期性采样,实现时采纳NMI(x86)进行采样,所以,一旦触发采集,就不会受到调度、中断、软中断等因素的烦扰。但因为执行perf命令的动作自身必须是在过程上下文中触发(通过命令行、程序等),所以在故障产生时,因为内核态CPU使用率较高,并不能保障perf命令执行的过程能失去失常调度,从而及时采样。 因而针对此问题的热点采集,必须提前部署(常态化部署)。通过两种形式可解决(缓解)后面提到的开销大和数据解析艰难的问题: 升高perf采样频率,通常升高到99次/s,实测对实在业务影响可控Perf数据切片。通过对perf采集的数据按时间段进行切片,联合云监控中的故障工夫点(段),能够精确定位到相应的数据片,而后做针对性的统计分析。具体方法:采集: `.``/perf` `record -F99 -g -a`剖析: #查看header外面的captured on工夫,应该示意完结工夫,time of last sample最初采集工夫戳,单位是秒,可往前追溯现场工夫./perf report --header-only#依据工夫戳索引./perf report --time start_tsc,end_tsc按此思路,通过提前部署perf工具采集到了一个现场,热点剖析如下: 能够看到,次要的热点在于 shrink_dentry_list 中的一把 spinlock。 剖析现场剖析依据 perf 的后果,咱们找到内核中的热点函数 dentry_lru_del,简略看下代码: // dentry_lru_del()函数:static void dentry_lru_del(struct dentry *dentry) { if (!list_empty(&dentry->d_lru)) { spin_lock(&dcache_lru_lock); __dentry_lru_del(dentry); spin_unlock(&dcache_lru_lock); }}函数中应用到的 spinlock 为 dentry_lru_lock,在3.x内核代码中,这是一把超大锁(全局锁)。单个文件系统的所有的 dentry 都放入同一个lru链表(位于superblock)中,对该链表的简直所有操作(dentry_lru_(add|del|prune|move_tail))都须要拿这把锁,而且所有的文件系统共用了同一把全局锁(3.x内核代码),参考 add 流程: ...

April 27, 2021 · 3 min · jiezi

关于腾讯云:重磅发布腾讯云-ASW-工作流可视化编排云服务

业界常见的云服务编排须要开发者写状态机表达式,要求有较强的代码根底,学习老本高,开发难度大。因为理论业务场景面对的经常是简单的逻辑构造,开发人员要花大量工夫解决组件间的逻辑和代码。 通过 ASW 工作流,设定好执行步骤,即可将多个腾讯云服务按步骤进行调度,极大地简化了开发复杂度。ASW 预置了常见的利用模板,一键部署,开箱即用。 产品劣势01. 反对全量云服务ASW 反对全量腾讯云产品服务的编排调度,即云 API 反对的所有产品服务,包含 AI 服务、云函数、Severless 服务等。通过任务调度多个服务产品,实现简单业务利用编排场景。 02. 高容错ASW 为您治理状态、检查点和重启,以确保您的应用程序依照预期逐渐执行。内置 try/catch、重试和回滚性能主动处理错误和异样。 03. 主动兼容ASW 通过云 API 调度云产品服务的编排,并具备自动更新云 API 的能力,因而能主动兼容云产品性能的降级和迭代。 04. 有限扩大ASW 凭借云平台和云函数的 HA 个性,能够轻松地有限扩大,具备兼容私有云,公有云,自建服务的交融能力。 05. 低代码ASW 为您管理应用程序的逻辑,并施行根本管制单元,例如分支,并行,循环等,缩小您在业务中实现反复的编排代码。 06. 可视化监控ASW 提供可视化界面来定义工作流和查看执行状态。状态包含输出和输入等。不便您疾速辨认故障地位,并疾速排除故障问题。 <img src="https://main.qcloudimg.com/raw/afd5ace5211ca216709aa14ba1d8e75f.png" width="700"/> 点击这里,深刻理解「腾讯云 ASW 工作流」产品服务。 One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 腾讯云 Serverless 老手体验 。

April 27, 2021 · 1 min · jiezi

关于腾讯云:Kubernetes-降本增效标准指南-基于K8s-扩展机制构建云上成本控制系统

作者王玉君,腾讯云后盾高级开发工程师,负责腾讯云原生零碎开发及建设。 晏子怡,腾讯云容器产品经理,在K8s弹性伸缩、资源管理畛域有丰盛的实战经验。 导语Kubernetes 作为 IaaS 和 PaaS 两头的一层,通过申明式API/控制器模式、以应用服务为核心、并且从API到运行时都提供了高度灵便的可扩大机制,为云厂商、各企业构建利用托管服务甚至云原生服务提供了对立的规范和基础设施治理的各项能力。 随着企业上云进入稳定期,老本管制 就是永远逃不开的话题。本文通过 Kubernetes 的扩大机制 Admission Webhook、Scheduler Framework 和 CRD+Operator,联合云上资源的特异性,介绍如何基于 Kubernetes 和云上环境构建老本控制系统。 TKE的头部客户S(离线计算场景),面对增长的客户月活以及相应剧增的计算需要,强烈心愿腾讯云容器服务能提供更低单价的算力和更弹性的架构。S通过构建适合的老本控制系统,将月账单升高了靠近80%(业务计算量雷同)。联合S的业务场景,咱们次要倡议S做了如下低成本革新动作: 通过 Spot Controller 配置了较高的竞价实例比例(靠近90%),同时配置了10%左右的包年包月实例作为稳固资源的 buffer 池。因为 Spot 比例设置较高,为了加强资源供给的稳定性,S配置了多种备选机型来扩充资源池的供给范畴,放弃回收频率在极低水平。 为了进一步保障业务的高可用,S设置了多可用区均衡散布的扩容策略,来保障实例在多可用区打散散布。 为了保障弹性以及架构的容错性,S同时应用了业务弹性伸缩(HPA)+资源弹性伸缩(节点池)来实现应用层弹性伸缩到资源层的弹性伸缩平滑过渡,同时也能够在业务低谷时主动开释闲置资源,进一步节老本。 为了应答极其状况下的回收状况,S装置了 Spot Agent 来保障业务的优雅终止以及计算过程的断点续传。 WHY SPOT ? 咱们须要一种云原生的低成本算力TKE 能力的底座是集群以及节点能力(底层依赖腾讯云的CVM实现),而TKE自身是不计费的,那么您购买节点时抉择的计费形式将极大水平上决定您的总体应用老本。 依据不同的应用场景,用户最常应用的计费形式为按量计费或者包年包月: 按量计费是一种合乎云计算理念的计费形式 —— 按需应用,弹性供给,秒级计费。按量计费的这种按需应用的个性,和云上的弹性伸缩能力人造适配,很多用户也会搭配应用。包年包月是一种更低成本的计费形式 —— 提前付费,降低成本您在十分明确应用期限的状况下,能够以低折扣按月、按年、按周的形式购买实例。那么,有没有一种计费类型,既具备云原生按量计费的个性、可能匹配弹性伸缩能力,又可能像包年包月实例一样提供较低折扣呢? 竞价实例,就是这个问题的答案。 竞价实例(Spot)是云服务器 CVM 的一种新实例运作模式,它最外围的特点是折扣售卖和零碎中断机制。 竞价实例是三种计费模式中老本最低的一种应用形式(低至两折), 能够极大水平升高您的云资源收入。 但正如它的名字一样,您和其余同时应用竞价实例的用户存在肯定的竞争关系 :在特定场景下,实例可能会被回收,咱们官网将这种回收定义为零碎被动中断(库存稳定):以后阶段,在腾讯云的竞价实例模型下,仅会因为竞价实例资源池库存有余而产生中断。资源管控零碎会主动依据实时库存变动回收这些折扣售卖的实例。 当您胜利购买一个竞价实例后,它的应用和按量计费的 CVM 实例根本毫无区别,包含控制台操作、近程登录、服务部署、关联 VPC 等。 在丰盛的实际与摸索中,咱们发现,Spot 非常适合容器、无状态服务、 CI/CD 、强化学习、离线转码、大数据分析等具备容错能力的业务利用,尤其是基于云原生框架构建的利用,在这些场景下能够在巨幅降低成本(80%以上)的前提下,保障业务的稳定性。 不惧中断 — 云原生框架保障业务稳定性下面咱们曾经介绍了竞价实例的外围个性,可能您看到零碎被动中断这个概念,心里会浮现一些顾虑以及纳闷: **- Q1: 回收机制是怎么样的?会提前告诉吗? Q2: 我想要节约老本,我能够做些什么来升高甚至打消回收带来的潜在危险吗?Q3: 是否有自动化的形式能够对消回收带来的对业务的潜在影响?Q4: 怎么判断我的业务是否适宜应用竞价实例?**这几个问题,本文都会一一解答。咱们依靠于丰盛的实战经验,基于 Kubenetes 构建了云上老本控制系统,利用弹性供给能力以及云原生的维持业务冀望状态的能力,定义且实现了一种低成本且稳固的算力交付模式。 ...

April 25, 2021 · 2 min · jiezi

关于腾讯云:从-Serverless-看软件效能提升-|-深度好文

以下内容来自「云+ 社区技术沙龙 - 云原生专场:《从 Serverless 看软件研发效力的改革》」,深度好文,预计浏览需 35 分钟。 分享嘉宾 杨政权,腾讯云 Serverless 核心专家架构师,曾任 ThoughtWorks 中国北美事业部技术总监,先后负责大型团队的研发组长、技术总监和企业架构师角色,作为客户次要的技术接口人,主导并参加客户的技术策略制订、技术策略施行和企业架构治理的过程中,并积极参与到 DevOps、畛域驱动设计、Serverless 和软件品质治理等各个社区中。 01. 研发效力晋升的指标和阻力1.1 研发效力治理的指标首先咱们看一下典型的 SaaS 软件商业模式,无论是 SaaS 软件初创公司还是企业外部一个新兴的业务,一开始都会面临这样一个假设性问题:如果这个问题失去解决,能够为业务带来增长、为企业带来营收,但重要的是:这有可能并不是客户真正的痛点,这只是基于咱们以后的认知所造成的一个有待验证的「假如」。之后企业会针对这个问题提供解决方案,而后把解决方案交付给客户,在获得一些胜利之后,咱们会尝试推向更大的市场和用户。如果这个计划在一家公司可能复制,咱们会寻求在同行业或者跨行业的客户中辨认更多的减少机会,也能够采纳先落地再扩大(Land-and-Expand)策略,在存量客户中开掘更多的增长机会。 <img src="https://main.qcloudimg.com/raw/4f21627d08fac2759705c9b47125d0bf.jpg" width="700"/> 在以上的流程中,企业所处的阶段不同,其关注点也不尽相同: 从问题到解决方案:咱们思考的是问题和解决方案的匹配度(Problem-Solution-Fit),评估的角度次要看解决方案是否真的能够解决对应的客户问题。从计划触达市场和用户:企业更多会关注产品市场符合度(Product-Market-Fit,PMF),这往往也是很多初创企业失败的次要起因,咱们具备功能强大的产品,然而用户不违心为咱们的解决方案付费。其根本原因是因为咱们的解决方案是基于一个待验证的假如,这个假如从一开始可能就是谬误的。扩充规模:当造成肯定市场规模后,企业会致力扩充规模,在这一阶段,咱们思考更多的是软件的灵便度,是否能够满足潜在客户的定制化需要。以后的软件兴许能够解决 80% 的客户诉求,然而从 80% 到 90% 的晋升,兴许须要付出更大的老本,除此之外还须要思考这些定制化性能所带来的长期的保护老本。如果咱们带着一家 SaaS 初创企业 CTO 的帽子,思考如何晋升整个团队的研发效力?这里可能会有很多答案,比方:晋升研发人员的能力、招聘更多的研发人员、购买先进的开发工具,进步研发效率、进行代码和架构治理等等,这个列表可能会很长。为了体系化制订研发效力的晋升策略,对症下药地进行研发效力投资,咱们能够借助社区或者行业一些框架来辅助思考,然而我认为当初很多研发效力框架存在两个比拟大的问题: 1. 关注点适度集中于从问题到解决方案的阶段 我认为研发效力治理不能脱离最终的产品价值,须要建设端到端的视角,不仅仅关注问题到解决方案这个阶段,还须要思考解决方案是否能够真正满足客户诉求?是否能够撑持解决方案在更大的群体中扩充规模?咱们对研发效力的关注点须要持续向用户和市场延长。 2. 对于研发流程中的反馈周期关注度不够 目前在很多研发效力治理框架中,咱们能够见到很多指标,比方公布次数、构建次数、自动化构建速度等等,这些指标关注的是从左到右价值流动速度,但疏忽了从右到左的价值反馈,而这些反馈能够加深咱们对问题的了解,否则咱们对于原先假如问题的认知依然会停留在「低认知」程度。比方产品性能疾速推广到市场之后,应用频率如何、用户反馈如何,通过这些反馈的收集,咱们兴许会意识到:原来一开始这就是一个谬误的假如,从而及时去调整产品方向。 所以回到研发效力治理自身,我认为研发效力治理只有一个指标,那就是:「减速价值流动,缩短反馈周期,用低成本验证对问题的假如」,减速价值流动和缩短反馈周期是伎俩,低成本验证问题假如是冀望的后果。 <img src="https://main.qcloudimg.com/raw/f80ca29537c6544e7e09600fd4d04073.jpg" width="700"/> 从这个指标来思考研发效力晋升,对于一些司空见惯的实际也会有更加粗浅的了解,比方对立代码标准、引入自动化测试等等。因为咱们认为符合规范的代码能够去晋升软件的维护性,能够升高问题到解决方案的老本,所以咱们要保持代码符合规范;因为人工测试效率较低,在软件规模扩充时,咱们认为通过引入自动化测试能够更加高效地验证解决方案和问题的匹配度,从而减速从左到右的价值流动,所以咱们要保持测试自动化。 同时从这个指标登程,在实际层面会有更大的设想空间: 如何减速端到端的价值流动?在产品设计中咱们能够主张 MVP 的概念,一开始并不是要提供一个大而全的解决方案,而是找到 MVP - 最小化可行产品,疾速验证想法,验证产品是否合乎市场客户预期,而后取代手工部署利用的形式,做自动化运维、自动化利用部署,疾速把解决方案推向市场与客户。兴许咱们能够参加到架构治理和产品设计中,制订指标定量分析软件架构的灵便度,让产品更加灵便,能够低成本适配客户需要;兴许咱们也能够尝试自动化的基础设施治理,缩短基础设施筹备工夫。 如何缩短反馈周期?咱们交付的性能是否有真正发明价值?依据 Standish 的钻研显示:20% 的软件个性常常被应用,而 30% 的个性偶然应用,残余 50% 的个性简直很少应用或者齐全不必。兴许咱们也能够被动尝试相似 A/B Testing、NPS(Net Promoter Score,净推荐值)等办法,让用户的反馈疾速传递到产品团队。通过这个指标也能够驱动研发效力治理人员更多地参加到产品设计、架构设计、基础设施治理等工作中。 <img src="https://main.qcloudimg.com/raw/e561b1fc6aca1352a5c222235e616c25.jpg" width="700"/> 此外不合理的分工形式也会缩短反馈周期,团队的组织构造划分应该从业务的视角还是从人员角色的视角?在麻利软件开发中提倡的是全功能团队,在一个小的团队(Scrum Team )外部包含产品、研发、测试甚至是运维、UX,笼罩某个产品或者业务的全研发流程,在一个团队外部实现业务的闭环,在应答变动时具备更高的响应力;而基于角色的分工有时会导致交付流程的割裂,在整个研发过程中每引入一个新的角色就会减少一次上下文传递,还须要解决由此带来的术语转换和信息失落问题。 1.2 研发效力晋升的阻力围绕以上的指标,咱们在整个研发流程中依然有很多挑战和阻力,这次分享会着重从基础设施治理、软件架构设计和团队合作三个角度开展: ...

April 23, 2021 · 2 min · jiezi

关于腾讯云:SuperEdge-如何支持多地域-StatefulSets-及灰度

前言SuperEdge(https://github.com/superedge/... 是Kubernetes原生的边缘容器计划,它将Kubernetes弱小的容器治理能力扩大到边缘计算场景中,针对边缘计算场景中常见的技术挑战提供了解决方案,如:单集群节点跨地区、云边网络不牢靠、边缘节点位于NAT网络等。这些能力能够让利用很容易地部署到边缘计算节点上,并且牢靠地运行,能够帮忙您很不便地把散布在各处的计算资源放到一个Kubernetes集群中治理,包含但不限于:边缘云计算资源、公有云资源、现场设施,打造属于您的边缘PaaS平台。Superedge反对所有Kubernetes资源类型、API接口、应用形式、运维工具,无额定的学习老本,也兼容其余云原生我的项目,如:Promethues,使用者能够联合其余所需的云原生我的项目一起应用。我的项目由以下公司独特发动:腾讯、Intel、VMware、虎牙直播、寒武纪、首都在线和美团。 Superedge中的ServiceGroup性能能够便捷地在共属同一个集群的不同机房或区域中各自部署一组服务,只须要应用ServiceGroup提供的DeploymentGrid和ServiceGrid两种资源,即可不便地将服务别离部署到这些节点组中,保障各区域服务数量及容灾,并进行服务流量管控,使得各个服务间的申请在本机房或本地区外部即可实现,防止服务跨地区拜访。 在最新公布的SuperEdge release 0.2.0版本中:SuperEdge扩大了有状态利用类型,引入了对应StatefulSets的StatefulSetGrid,不便有状态利用在多地区的独立部署和扩大;流量区域自治能力相应也反对了StatefulSets常配对的Headless Service;同时新增了依照地区进行灰度的性能,也即各NodeUnit内独立部署的workload版本能够不同。 有状态利用的反对反对StatefulSets最新版本的Superedge中,ServiceGroup反对了有状态利用StatefulSets。除了放弃和原生StatefulSets字段的完全一致、不便已有利用革新、无需放心同步社区最新个性的同时,也持续放弃了ServiceGroup的外围个性,能便捷地在一个集群中的多个地区进行边缘利用的独立部署和对立运维。 如下图所示,一个CDN集群须要在zone-1和zone-2两个地区的机房内各残缺部署一套StatefulSets利用,然而两个地区网络不互通 此时能够在云端部署下发如下格局的StatefulSetGrid apiVersion: superedge.io/v1kind: StatefulSetGridmetadata:spec: gridUniqKey: <NodeLabel Key> <statefulset-template>即可不便地在两个机房内主动部署对应的StatefulSets:StatefulSets-zone-1, StatefulSets-zone-2;同时保障云端与边缘端利用的强统一,批改云端资源即可同步到边端。 同时其中的拓扑key,也即gridUniqKey能够自行定义,相较于社区目前实现的三种抉择:"kubernetes.io/hostname","topology.kubernetes.io/zone"以及"topology.kubernetes.io/region",应用起来更加灵便。 另外,当该CDN集群纳管了新区域的机房时,无需在新的机房内手动部署StatefulSets,ServiceGroup会主动在该新增地区内部署一套独立的StatefulSets,极大中央便了边缘有状态利用的部署和运维。 流量区域自治能力反对Headless Service因为地区之间的网络限度,不同地区的机房并不互通,ServiceGroup提出了ServiceGrid的概念,无需在各个地区都部署一个对应本地workload的Service。只需部署ServiceGrid资源,生成的一个Service就会对应所有地区的workload,但在各地区内拜访Service时可能保障流量的后端只限度在本地区内,保障了流量的区域自治能力。 对于StatefulSets而言,其每个Pod的名称都是有序且固定的,因为这个个性,常常和Headless Service搭配起来应用。Headless Service对应的每一个Endpoints都会有一个固定的对应的DNS域名,Pod之间能够互相拜访,集群也能够独自拜访指定的Pod。 针对这个特点,StatefulSetGrid反对应用Headless Service的形式进行拜访,如下所示: StatefulSetGrid提供屏蔽NodeUnit的对立Headless Service拜访模式: {StatefulSetGrid}-{0..N-1}.{ServiceGrid}-svc.ns.svc.cluster.local,上述拜访会对应理论各个NodeUnit的具体Pod: {StatefulSetGrid}-{NodeUnit}-{0..N-1}.{ServiceGrid}-svc.ns.svc.cluster.local。 举个例子,部署如下的StatefulsetGrid和ClusterIP为None的ServiceGrid apiVersion: superedge.io/v1kind: StatefulSetGridmetadata: name: statefulsetgrid-demo namespace: defaultspec: gridUniqKey: zone template: selector: matchLabels: appGrid: echo serviceName: "servicegrid-demo-svc" replicas: 3 template: metadata: labels: appGrid: echo spec: terminationGracePeriodSeconds: 10 containers: - image: superedge/echoserver:2.2 name: echo ports: - containerPort: 8080 protocol: TCP env: - name: NODE_NAME valueFrom: fieldRef: fieldPath: spec.nodeName - name: POD_NAME valueFrom: fieldRef: fieldPath: metadata.name - name: POD_NAMESPACE valueFrom: fieldRef: fieldPath: metadata.namespace - name: POD_IP valueFrom: fieldRef: fieldPath: status.podIP resources: {}apiVersion: superedge.io/v1kind: ServiceGridmetadata: name: servicegrid-demo namespace: defaultspec: gridUniqKey: zone template: selector: appGrid: echo ports: - protocol: TCP port: 80 targetPort: 8080 clusterIP: None如上资源会创立出一个名为servicegrid-demo-svc的Service,同时在各地区创立名为statefulsetgrid-demo-的StatefulSets。 ...

April 23, 2021 · 2 min · jiezi

关于腾讯云:云原生技术开放日PPT大放送-五星级的云原生开发体验

王炜 腾讯云 CODING DevOps 高级架构师,Nocalhost 开源我的项目负责人,CNCF 大使。 本文依据 2021 年 4 月 10 日深圳站举办的【腾讯云原生技术开放日】 线下流动中,腾讯云CODING DevOps 高级架构师 王炜 对于“Nocalhost - 五星级的云原生开发体验”的演讲整顿而成。 关注【腾讯云原生】公众号,后盾回复【云原生技术】,即可取得4月10日云原生开放日所有讲师的演讲PPT。 大家好,明天跟大家分享的话题是云原生开发环境 Nocalhost。之前曾经分享过了在利用上的 K8s 或者容器化之后给咱们带来了一些在运维层面或者公布层面的收益,比方像滚动、灰度、A/B Test 之类的,一些运维方面的能力。其实咱们会发现在咱们业务利用上了 K8s 容器化、拥抱了微服务之后,咱们会遇到一个十分辣手的问题,就是咱们在本地怎么去开发它? 置信大部分一线开发同学应该是比拟深有体会的,所以明天咱们分享的话题就是跟云原生开发非亲非故的。 这次分享次要会以这几个模块跟大家做次要的介绍:第一个是 Nocalhost 因何而生,咱们为什么要做这个我的项目?第二个是目前支流的云原生背景下开发方式。第三个是咱们做开源产品当然要晓得咱们最终想把它做成什么样的成果,比方像 K8s 目前是云原生的一个规范。第四个是 Nocalhost 的实现原理。第五个是组件形成,Nocalhost 由哪些组件形成。第六个是咱们现场会演示用 Nocalhost 怎么来开发 Istio 官网的demo Bookinfo。 Nocalhost 因何而生 第一个是 Nocalhost 因何而生,为什么云原生、微服务、分布式的利用开发很难?首先看右边的图,右边的图从根底的单体架构上来说,本地的开发体验是十分好的,比方像以前风行的 PHP,咱们在开发 PHP 的时候要在本地批改完代码、刷新页面就能立刻看到成果了,这是以前传统的开发方式或者单体开发方式。它是组件少,人员或者规模也比拟小,环境搭建或者运维相对来说多比较简单。 随着规模或者利用场景越来越简单,咱们拥抱了微服务以及 K8s 容器化,所以这个时候咱们把咱们的单体利用拆成了微小的微服务利用,它的微服务组件可能是由几十个、数百个组成的。从左边这张图,咱们就会发现微服务和微服务之间的调用是非常复杂,意味着本地怎么开发某一个微服务组件呢?常见的痛点是我须要在本地把我所有的微服务给run起来,如果微服务特地微小,可能须要筹备一台十分强的本地开发机,可能是64G内存,I7或者I9之类的,能力搞定业务零碎开发。 拥抱微服务最大的问题可能还是处于开发环境的搭建以及整个开发和调试是比拟艰难的。 从单体架构的开发自测来说,咱们每写一行代码或者几行代码、十几行代码,咱们想看一下成果,在单体的架构下是很简略、疾速的,然而在容器化、K8s 这种环境下,其实整个开发自测循环是很慢的,咱们常见的一些开发方式可能是我写一行代码之后,而后我来运行 docker build,从新构建一个镜像,可能还要 docker push 把镜像推到我的仓库里,再批改集群工作的负载版本,再等 pod 重启,能力看到最新的成果。整个开发自测循环是十分慢,可能是五分钟、十分钟甚至更久的工夫。 在开发环境上的治理,同时也会有遇到一些问题,就是在单体架构这种开发环境下是很简略的,筹备一个配置不须要那么高的开发机,我就能搞定业务开发。然而在微服务这种背景下,可能有些团队会采纳本地和远端组合的模式,可能会遇到不同版本的环境管理混乱的问题,甚至是须要等其余开发用完之前的环境,而后我下一个能力去用,呈现这种排队的状况。 方才提到了咱们目前支流的开发方式,咱们基于目前支流的开发方式整顿了一张繁难的图,重点关注最右边的开发方式,所有服务运行在本地的状况。能够发现,它的编码和自测反馈循环体验是最好的。开发测试环境、保护老本、横向扩容能力,这些其实都是十分弱的。当然,咱们应用 K8s 和容器化之后,最左边的所有服务都运行在云端,除了编码自测返回、循环反馈体验不好以外,其余这些给咱们带来的能力或者收益其实是十分棒的,特地是后面咱们提到的在运维层面的根本能够实现服务这种自愈以及主动扩缩容等等能力。 ...

April 22, 2021 · 2 min · jiezi

关于腾讯云:体验一键部署-Serverless-动态网站玩转-WordPress-视频征稿大赛

腾讯云 Serverless 当初已反对了基于 Serverless 架构的 WordPress 全新部署形式,仅需三步,就能够疾速部署一个 WordPress 动静网站,一键疾速体验:Serverless WordPress 部署链接 第一次应用 Serverless WordPress 的腾讯云账户,收费取得每月赠送的建站资源。点击此处支付资源 01. 流动工夫4月21日-6月21日 02. 流动投稿要求以 WordPress 为主题的建站体验视频分享,不限于产品应用攻略、建站实战、理论案例分享、 WordPress 上云技术实际、云上开发我的项目教训等。时长不低于120秒(2分钟)。内容需蕴含基于 Serverless 创立 WordPress 网站的实操体验,实操步骤参考文章 Serverless WordPress 建站收费体验03. 流动奖品和参加形式 04. 玩法阐明:参加内容创作的同学均需先退出 WordPress 技术交换群,视频征稿流动每两周会进行等级评定, 评定完的后果会在群里公布告诉。(进群形式:关注 TencentServerless 公众号,回复关键词「wordpress」)视频等级评定后会给到投稿同学相应的倡议,投稿同学可进行一次视频内容批改参加从新评定。视频应为作者原创,全网首发,即公布于 2021 年 04 月 21 日(含)之后。工作人员将核查获奖资格后发放奖品,如有任何问题可在群里沟通。05. 流动福利:分享流动海报到微信朋友圈集赞 50 个及以上,截图发送给云加社区视频小编(微信号:Tcloudedu3)即可取得云加社区精美奖品一份。评论区留言点赞前10位,赠送一本创意笔记本。所有合乎征稿流动要求的投稿视频,作者能够参加云加社区 自荐上首页 ,取得云加社区首页举荐和官网账号举荐转发。加入流动的同学可退出 WordPress 技术交换群,进行视频拍摄一对一领导、加入云加大咖直播分享,间接投递简历给腾讯云产品总监、技术总监。(进群形式:关注 TencentServerless 公众号,回复关键词「wordpress」)补充阐明: 内容应为作者原创,严禁剽窃、侵权行为。腾讯云有权依据本身经营安顿,自主决定和调整本流动的具体规定,腾讯云享有对流动最终解释权。投稿用户仅可支付一次视频礼盒,其余奖品根据投递视频个数和视频等级评定后果,不限于一份奖品。One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 腾讯云 Serverless 老手体验 。

April 21, 2021 · 1 min · jiezi

关于腾讯云:Dapr-云原生的抽象与实现

引言Dapr 是微软主导的云原生开源我的项目,2019年10月首次公布,到往年2月正式公布 V1.0 版本。在不到一年半的工夫内,github star 数达到了 1.2 万,超过同期的 kubernetes、istio、knative 等,发展势头迅猛,业界关注度十分高。 Dapr 这个词是是 「Distributed Application runtime」的首字母缩写,十分精炼的解释了 dapr 是什么:dapr 是一个为利用提供分布式能力的运行时。 什么是 RuntimeRuntime 是一个形象的概念,字面意思是程序运行的时候。个别是指用来反对程序运行的实现。形容的是程序失常执行须要的反对:库、命令和环境等。 常见的 runtime 为程序提供的反对: 语言 runtime(C/Goang…):操作系统交互,垃圾回收,并发管制等Java runtime: 虚拟机容器运行时:namespace,cgroup 等容器运行时,就是容器运行起来须要的一系列程序和环境。比方如何应用 namespace 实现资源隔离,如何应用 cgroup 实现资源限度,这些都是容器运行时须要提供的实现。 特色:runtime 是在程序之外,不禁程序编写者提供runtime 的生命周期通常和程序生命周期关联咱们写 java 程序的不须要写 java 虚拟机;构建一个容器,通常不须要去写 runc 的代码。 什么是 Distributed Application Runtime Dapr 所提供的「分布式应用运行时」,是利用程序运行所需分布式能力的实现,这些能力涵盖服务通信、数据长久化、内部 binding,pub-sub 等等。比方服务调用须要有容错重试机制,比方一个数据长久化操作心愿应用乐观锁,比方公布音讯是要求有投递保障。 长期以来,这些性能的适配都是集成在业务代码里的。dapr 翻新之处是将这些性能,从原来 application runtime 中拆分进去,作为一个独立的 runtime。dapr runtime 也满足下面说到的 runtime 的特色。 理解 service mesh 的同学可能会看出,这和 service mesh 应用的 sidecar 模式很相似,这是一种让零碎解耦、让开发人员关注点拆散的形式。 但咱们也很好奇,dapr 和 service mesh 有什么关联,这些越来越多的 sidecar 模型到底有什么区别?(knative 也用到了 sidecar 模式)。因而,在深刻 dapr 之前,咱们先理解一个重要的实践背景:Multi runtime。 ...

April 21, 2021 · 4 min · jiezi

关于腾讯云:案例-荔枝微课基于-kubernetes-搭建分布式压测系统

王诚强,荔枝微课基础架构负责人。热衷于根底技术研发推广,致力于提供稳固高效的基础架构,推动了荔枝微课集群化从0到1的倒退,云原生架构继续演进的实践者。 本文依据2021年4月10日深圳站举办的【腾讯云原生技术开发日】 线下流动中,【荔枝微课】基础架构负责人“王诚强”对于“基于kubernetes搭建分布式压测系统”的演讲整顿而成。 关注【腾讯云原生】公众号后盾回复【lzwk】,可取得该演讲PPT。 大家好,明天想和大家分享的主题是基于kubernetes搭建分布式压测系统。从背景、原理、实现、成果和将来方向5个方面解说了荔枝微课在基于 kubernetes 搭建分布式压测系统上的实际和思考。 背景荔枝微课作为一个高速倒退的平台,面临着业务流量越来越大的冲击,特地是在去年疫情期间遭逢成倍流量增长的状况,是通过什么形式轻松渡过难关的?以我在荔枝微课落地云原生的经验来说,为什么咱们要去实际云原生架构呢?只是因为是业内技术趋势吗? 其实这个是源于业务须要的,基础架构最重要的是稳固高效,在我最早接手并负责荔枝微课基础架构时,第一个季度的指标竟然是应急响应,但咱们都晓得应急响应是治标不治本的,而要治标根治的话那么就要对改掉整个底层基础架构,这也是为什么荔枝微课会去做云原生实际的起因。 而在做这个实际的时候,咱们还须要一个工具来掂量,那就是分布式压测系统。咱们晚期应用过本地压测、CVM伸缩组压测等计划,然而他们有着本地资源能力无限、伸缩组申请变更麻烦、伸缩速度较慢、压测脚本和报告管理混乱,常常无存档等毛病。于是咱们采纳了当初的基于 kubernetes的分布式压测计划。 分布式压测计划借助的三个技术原理上来讲,须要借助三方面的技术: 编程技术这里咱们抉择了咱们团队较相熟的python,不同团队能够有不同的抉择; 压测引擎咱们用的是Locust,因为它是用python写脚本,其实也能够更换成jmeter之类的其它压测引擎, kubernetes次要利用它的服务编排技术来进行一个资源上的调度,通过咱们测试,如果是一般集群,在须要弹出集群物理节点的状况下,全副就绪须要90秒,然而应用弹性集群,则能够压缩到15~20秒,所以举荐应用弹性集群。整个技术框架原理上,压测节点分为主节点(master)、从节点 (slave)和监控节点(monitor)三种类型: 主节点负责工作治理和数据采集聚合,自身不进行压测工作 从节点负责压测工作 监控节点从主节点将后果通过webhook传递给web服务解决端; 另外这些节点的状态、日志都会通过k8s的api进行采集。依据压测工作里主从节点所申请的资源,集群将提前伸缩好节点,并将任务分配到不同节点,以达到动静进步压测能力的目标。 压测流程 左边为用户所感知到的过程,压测集中包含多个压测场景,通过编写压测脚本和配置压测参数的形式生成压测工作,并最终生成压测报告。 右边为python管制集群来生成工作的过程,具体是渲染生成不同工作的yaml文件后,生成相应的 job pod,而后继续将 pod 状态 、日志和压测曲线后果反馈在页面上。 整个过程所应用的技术并没有多浅近,次要是在集群利用上的一种摸索。 实现办法应用yaml编排job服务,举例slave节点来说,次要是申明一个job类型的工作负载,将生成的工作从节点名以及工作生成的命名空间渲染下来,而后设置咱们的压测根底镜像以及启动命令,这里咱们用到了 kubernetes 的几个技巧,一个是通过hostAliases进行外部解析,这样能够对一些内网代理进行压测,另一个是申明申请资源CPU,以便在工作启动前提前伸缩好物理节点提供资源,还有一个是通过configmap挂载可执行文件,这样能够注入参数在变动的启动命令,而不须要从新构建镜像。 而后说一下咱们的代码框架,次要是分为这几个模块: k8s模块,提供一些如创立销毁命名空间或pod、查看状态、拉取日志等api性能;根底镜像,较为简单,次要装置了一些根底通用的库,而后开明了一些外部应用的端口;工作编排申明文件,包含了我下面说的几种节点服务;工作外围办法类,次要是将上述的流程代码实现,提供了一些办法,这里限于篇幅就不具体开展了。而后最初咱们来看下成果: 这是咱们压测系统的治理界面,当初看到的是压测集,不便集中管理。 这是创立压测场景,并基于该场景编写python压测脚本,并可设置咱们的工作参数。 这是压测工作详情页,能够看到压测参数、状态以及节点状况和查看日志。 这是压测过程中实时生成的图表,能够基于图表状况进行剖析。 将来改良方向引擎类型或版本容许抉择更换;批量定时候阶段的主动压测打算;将所有波及资源图表关联进来,造成更为详尽的报告;工作资源限度与应用审批;报告剖析论断存档,相干问题追踪处理结果存档;雷同条件的屡次压测后果比照展现;应用更为云原生的形式治理工作的生命周期;Q&A环节Q:这个压测系统对于测试人员有什么要求吗? A:须要会应用编程语言编写压测脚本,并有肯定的剖析思考能力,通过进一步封装的话也能够升高这部分的要求,但编程的话能力会更强更灵便,比方一些简单条件或者像要动静应用账号的状况。 Q:你们的压测会须要多少资源呢,是怎么管制的呢? A:咱们这套零碎,是依据工作须要主动申请资源的,工作完结时也就主动销毁了,不会呈现说始终占用耗费资源的状况。 Q:这个对于服务在哪个云有要求吗? A:尽管我方才说到的集群是TKE的,但kubernetes作为一项开源的、通用的标准化技术,只有能提供该服务的云实践上都能够。 Q:你们压测会压生产吗?大略多久压一次?脏数据怎么办? A:咱们压测会在尽量不影响用户的状况下定期进行线上压测,大略是每月一次,新我的项目上线前也会在测试环境压,也有专门的压测集群来压,脏数据的话也是要清的,咱们有机器人用户,能够针对这些用户进行脏数据清理。 Q:咱们公司曾经有用几台服务器来压测,想问下为什么要用kubernetes集群呢? A:一方面咱们过后刚好在做集群方面的实际,另一方面呢,也思考了集群资源管理上的劣势,比方资源隔离或限度,因为有的时候测试是不太分明本人须要多少资源的,不加限度的话有的时候会占用比拟多资源,还有就是工作状态、日志的收集还有就是我后面提到的一些集群的个性。 【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

April 20, 2021 · 1 min · jiezi

关于腾讯云:Serverless-在数据处理场景下的最佳应用

咱们晓得传统的数据处理无外乎波及 Kafka、Logstash、File Beats、Spark、Flink、CLS、COS 等组件。这些海量服务器组件承当着从数据源取数据,数据聚合过滤等解决,再到数据流转的工作,不论是开发成本、运维老本以及价格方面都有所欠佳。上面将为大家具体介绍:云函数 SCF 是如何升高传统海量服务器组件的开发和运维老本的。 01. 腾讯云云函数 SCF腾讯云云函数(Serverless Cloud Function,SCF)是腾讯云为企业和开发者们提供的无服务器执行环境,在无需购买和治理服务器的状况下运行代码,是实时文件解决和数据处理等场景下现实的计算平台。只需应用云函数平台反对的语言编写外围代码并设置代码运行的条件,即可在腾讯云基础设施上弹性、平安地运行代码。 云函数具备资源编排,主动伸缩,事件驱动等能力,笼罩编码、调试、测试、部署等全生命周期,同时提供了贴合利用场景的框架,开发者依据理论需要抉择对应的框架之后,只需专一于业务逻辑的开发,无需关怀底层的资源,帮忙开发者通过联动云资源,迅速构建 Serverless 利用。 02. 云函数 SCF 在数据处理的地位云函数作为腾讯云根底的 Serverless Faas 能力,已买通泛滥云上产品的事件触发,例如 Ckafka、CLS、COS、APIGW、CMQ 等产品,作为各个云产品的 “粘合剂”,从简略的数据转储,到简单的数据荡涤、过滤、聚合等,都有现成的解决方案。 如图所示,在云上产品整个上下游生态图中,云函数处于中间层,起到数据聚合,数据荡涤,数据流转的作用。

April 19, 2021 · 1 min · jiezi

关于腾讯云:Serverless-WordPress-建站免费体验

Serverless 作为近几年衰亡的新概念,置信不少人都对其有所耳闻,但到底什么是 Serverless?它真的不须要服务器了吗?传统业务到底如何和 Serverless 适配呢? 本文将通过 WordPress 建站场景,为您介绍基于 Serverless 的低成本、高性能的全新建站计划。 01. Serverless 介绍Serverless 顾名思义,即为 “无服务器”,这里的 “无服务器” 并不是真正不须要服务器,而是将服务器的保护交给云厂商解决,开发者只须要治理业务层代码,并且依照计算使用量计费,大大节俭了运维老本。以下图为例,传统部署计划,开发者必须先预估业务流量,并依据业务流量最大值购买服务器,往往会导致预估偏差导致流量溢出或资源节约的问题。 <img src="https://main.qcloudimg.com/raw/1a479507125064b2fbf85a7ca6e5a948.jpg" width="700"/> Serverless 计划则相似于网约车,依据申请量,主动进行扩缩容,真正实现资源都依照申请来计费,不应用不付费。 <img src="" width="700"/> <img src="https://main.qcloudimg.com/raw/0bd178bc7cedaead515f3472f73b7671.jpg" width="700"/> 目前,Serverless 的利用场景宽泛,大部分传统业务均能够在 Serverless 云函数上完满反对,接下来将以部署一个 WordPress 网站为例,具体 Http 服务在 Serverless 架构的具体实现。 02. 架构介绍首先咱们看一下传统的 PHP 服务架构: 用户申请通过 Apache 或 Ngnix Web 服务器,经 php-fpm 模块传递给服务端解析,最初而后将解析后的后果返回给用户,如下图所示:<img src="https://main.qcloudimg.com/raw/64377f434841546f4a4f03caef7061b8.jpg" width="700"/> 而在云函数架构下,这套逻辑通过函数的不同模块实现: WordPress 原生代码挂载在 CFS 上,用户的申请通过 API 网关达到函数环境,函数通过内置的 PHP 运行环境实现申请的转发和解决,将获取的 WordPress 解析后果返回给用户,如下图所示:<img src="https://main.qcloudimg.com/raw/61978cc80412df31384e95bc7703d6f6.jpg" width="700"/> 传统服务中的 Apache/Nginx 服务器模块,由函数内置环境模块实现,用户不须要再进行配置;PHP 环境,能够在函数运行环境内,通过 Custom Runtime 打包本人的环境和代码一起上传部署;php-fpm 模块由 PHP 模块代替,因为云函数为单实例单并发,多个申请可主动扩缩容,无需通过 php-fpm 进行过程治理;Location 转发治理,由用户函数 handler.php 实现,handler.php 文件和 WordPress 原生代码一起挂载在 CFS 上;03. 计划劣势和传统 Web 利用部署计划比照如下: ...

April 15, 2021 · 1 min · jiezi

关于腾讯云:Serverless-在线教育解决方案豌豆思维落地实践

在线教育蓬勃发展 技术保障面临新挑战2020年的互联网市场中,受疫情影响,在线教育用户增长幅度大幅当先于其它互联网利用,行业增长趋势显著。在教育部“复课不停学“的领导下,原来线下教育培训机构也在逐步从线下向线上蔓延。与此同时,曾经在经营的在线教育小班因为用户数量的减少,也逐步从小班教学向大班扩大。在线教育行业涌入大量用户,给技术团队带来了新的挑战。 在大多数在线教育机构,根本都是在自建的机房里基于服务器和 NFS 来实现音视频课程的存储和转码逻辑。然而如果遇到流量突增,例如寒假期间或者突发疫情等状况,IDC 里的服务器很难满足计算需要,而自建服务的硬件洽购周期较长,很难疾速反对业务需要。即使提前准备好短缺的服务器,在流量低峰时,大量服务器闲置,导致老本难以管制。 其次,竞争日益强烈,产品都在寻找新的冲破。当产品团队尝试做产品迭代或者产品新性能时,初期要做一些新我的项目的验证,包含数据拉取、数据分析等。这部分的数据需要可能会给团队减少了额定的工作累赘。一方面,对已有数据处理的主流程和数据结构有适配老本,须要思考稳定性的危险,这部分须要投入大量的人力和工夫老本;另一方面,因为这个过程工夫周期比拟长,可能会影响迭代的速度,在行业竞争中落于上风。 豌豆思维率采纳腾讯云 Serverless 解决方案领跑在线班课   豌豆思维专一于 3 - 12 岁孩子的数学思维和英语的启蒙教育,打造中国素质教育在线小班课品牌。依据 CNNIC 公布的数据显示,2020年,豌豆思维在教育市场渗透率高达 46 万人次,并且以指数倍的速度在递增。 豌豆思维在业务快速增长期间,充沛意识到 Serverless 给企业带来的价值,采纳 Serverless 计划进行相干零碎的革新,大幅度节约了运维老本和服务开销,从而让企业更加正当地调整投资组合,把次要的精力集中于晋升企业的外围竞争力方面,继续进步课程的内容品质和学员的学习体验。 以转码为例,通过施行基于云函数的音视频转码计划,转码效率从之前的 1 个小时缩短到 10 分钟之内,而且服务器老本更低、架构扩展性更强。 除此之外,豌豆思维借助腾讯云提供各种云产品,通过 API、SDK 等形式间接复用和组合原子服务能力,缩小了研发的复杂度,晋升了研发效率。研发周期从之前的3~4周,缩短到了1周之内,研发效率的晋升缩短了产品的反馈周期,也带来了企业竞争力的进一步晋升。 腾讯云 Serverless 笼罩更多在线教育场景腾讯云 Serverless 架构由两局部形成,别离是 FaaS(Functions as a Service)和 BaaS(Backend as a Sevice)。其中 FaaS 就是指云函数,它是一种新的算力组织和提供形式,用户不再须要自建服务器、治理配置服务器,能够专一于外围业务逻辑的实现和代码的编写。BaaS 指的是一些服务化的后端性能,包含数据库、对象存储、账户权鉴、音讯队列、社交媒体整合和 AI 能力等,这些服务和接口在 FaaS 层应用相应的 SDK 或 API 来连贯和调用。 在 Severless 架构下的业务零碎中,整体业务逻辑是通过云函数根底计算能力来实现的,客户能够依据业务性能、需要场景不同,应用相应的 BaaS 后端服务。除了提到的音视频转码计划外,在线教育的泛滥场景均可应用腾讯云 Serverless 技术。 音视频和多媒体解决Serverless 音视频转码、推流、直播和图片解决等计划,开箱即用,所有组件交互均走内网,无需额定流量费,按需应用,按需付费,成本低。此外,腾讯云 Serverless 利用 AI 以及腾讯云多年的音视频技术,提供视频智能化编排解决解决方案。包含隐藏式数字水印、AI 智能审核涉黄、涉政内容,给视频进行分类、打标签,辅助视频内容分析和生产,让"采、编、存、发”内容生产流程更便捷等等。 ...

April 15, 2021 · 1 min · jiezi

关于腾讯云:腾讯互娱推出-PGOS-提供-Serverless-游戏上云

腾讯互动娱乐事业群(IEG)下的腾讯游戏是寰球当先的游戏开发和经营机构,也是国内最大的网络游戏社区。在游戏上云的路线上,腾讯互娱始终在一直摸索、一直冲破。2021 年 3 月,腾讯互娱针对国内业务推出了在线游戏开发平台 PGOS,PGOS 提供: 后端服务平台:PGOS(Proxima Game Online Service)是一种游戏在线服务解决方案,旨在升高游戏后端开发和保护的难度,同时降低成本,从而使开发者专一于游戏玩法与外围逻辑开发。全面托管服务:借助残缺的后端解决方案,打消了大规模构建,治理和运行服务器的挑战。即时主动扩缩容的专用服务器,为实时游戏提供低提早和高可靠性。一站式控制面板:开发者及运维人员能够在 PGOS Web 门户上检索玩家信息及查看日志流水,监控实时数据并编辑相干服务配置。跨平台 SDK:提供开箱即用的 C ++ SDK 和 UE4 插件,不便开发者在其游戏客户端和专有服务器中应用 PGOS 服务。灵便的匹配规定:为玩家提供在实时战斗中疾速精确地与其余玩家进行匹配的能力。扩展性和灵活性:整个零碎采纳了微服务架构模式,而非具备不同层级的整体构造,使得开发人员能够增加和批改相应服务之间的交互。PGOS 之所以抉择用腾讯云 Serverless 技术提供底层计算反对,是因为腾讯云 Serverless 人造反对上述 PGOS 提供的能力个性,可助力团队疾速上云。 腾讯云 Serverless 的技术劣势:开箱即用:用户无需额定购买、搭建和配置服务器,可齐全专一于业务代码。这种架构形式不仅放慢了游戏发行和迭代速度,同时可大大降低运维老本,用户无需关注底层资源,腾讯云 Serverless 来保障业务的稳固、平安和资源的可用。动静扩缩容:Serverless 的另一大特点是主动扩缩,轻松应答流量洪峰。在访问量突增时,主动扩容保障业务的失常运行;在流量低谷,主动缩容以节约老本。实时监控:腾讯云 Serverless 提供实时日志、监控面板,研发人员、管理人员能够实时监控业务运行状态,并且对接腾讯云云监控服务,提供运行工夫、状态异样等多维度告警能力,使得问题能够在最短的工夫内被捕获并且告诉到用户。扩展性和灵活性:FaaS 的原子个性,人造的反对业务灵便扩大。不同的云函数可反对独立的性能,既可反对函数间的互相调用又可独立更新和部署。同时反对函数代码在线编辑性能,从业务开发到部署再到监控,腾讯云 Serverless 提供了一站式的解决方案。多种事件触发:腾讯云 Serverless 曾经反对约 10 种事件触发形式,包含定时触发器、API 网关触发器、对象存储触发器等等,满足用户多种触发场景的需要。腾讯云 Serverless 为游戏上云提供算力反对的技术原理腾讯云 Serverless 能够为国内业务 PGOS 提供底层运算反对,一个虚构服务器(Virtual Server)对应一个或多个云函数,用户创立 Virtual Server 并编写对应的业务逻辑。PGOS 依赖 SCF 提供欠缺的监控、日志能力,并对接后端服务,PGOS 更进一步封装 DevOps 工具,为用户提供全托管、主动构建和部署的性能。 PGOS 提供多种驱动形式,底层对应不同的函数触发器来实现触发 Virtual Server 中业务的运行。 定时器驱动:游戏能够在 Web Portal 上配置一个定时工作,定时触发 Virtual Server 的指定接口;事件驱动:Virtual Server 能够监听特定事件,当事件产生时主动触发 Vritual Server;游戏驱动:Game Client 或 DS 能够被动调用 Extension Interface,通过 Gateway 触发 Virtual Server 的指定接口;手动驱动:通过 Web Portal 手动运行 / 触发 Vritual Server 的指定接口。 ...

April 14, 2021 · 1 min · jiezi

关于腾讯云:kubernetes-降本增效标准指南-资源利用率提升工具大全

背景私有云的倒退为业务的稳定性、可拓展性、便利性带来了极大帮忙。这种用租代替买、并且提供欠缺的技术支持和保障的服务,理当为业务带来降本增效的成果。但实际上业务上云并不意味着老本肯定较少,还需适配云上业务的利用开发、架构设计、治理运维、正当应用等多方面解决方案,能力真正助力业务的降本增效。在《Kubernetes 降本增效规范指南》系列 的上一篇文章《容器化计算资源利用率景象分析》中可看到,IDC 上云后资源利用率进步无限,即便曾经容器化,节点的均匀利用率仍旧仅在 13% 左右,资源利用率的晋升任重道远。 本篇文章将带你理解:为什么 Kubernetes 集群中的 CPU 和内存资源利用率 通常都如此之低?现阶段在 TKE 下面有哪些产品化的办法能够轻松晋升资源利用率? 资源节约场景为何资源利用率通常都如此之低?首先能够看看几个业务的理论应用资源场景: 1. 资源预留普遍存在 50% 以上的节约Kubernetes 中的 Request(申请) 字段用于治理容器对 CPU 和内存资源预留的机制,保障容器至多能够达到的资源量,该局部资源不能被其余容器抢占,具体可查看。当 Request 设置过小,无奈保障业务的资源量,当业务的负载变高时有力承载,因而用户通常习惯将 Request 设置得很高,以保障服务的可靠性。但实际上,业务在大多数时段时负载不会很高。以 CPU 为例,下图是某个理论业务场景下容器的资源预留(Request)和理论使用量(CPU_Usage)关系图:资源预留远大于理论使用量,两者之间差值所对应的资源不能被其余负载应用,因而 Request 设置过大势必会造成较大的资源节约。 如何解决这样的问题?现阶段须要用户本人依据理论的负载状况设置更正当的 Request、以及限度业务对资源的有限申请,避免资源被某些业务适度占用。这里能够参考后文中的 Request Quota 和 Limit Ranges 的设置。此外,TKE 将推出 Request 举荐产品,帮忙用户智能放大 Request 和 Usage 之间的差值,在保障业务的稳定性的状况下无效晋升资源利用率。2. 业务资源波峰波谷景象广泛,通常波谷工夫大于波峰工夫,资源节约显著大多数业务存在波峰波谷,例如公交系统通常在白天负载减少,夜晚负载缩小;游戏业务通常在周五早晨开始呈现波峰,在周日晚开始呈现波谷。如下图所示:同一业务在不同的时间段对资源的申请量不同,如果用户设置的是固定的 Request,f在负载较低时利用率很低。 这时能够通过动静调整正本数以高资源利用率承载业务的波峰波谷,能够参考后文中的 HPA 、HPC、CA。3. 不同类型的业务,导致资源利用率有较大差别在线业务通常白天负载较高,对时延要求较高,必须优先调度和运行;而离线的计算型业务通常对运行时段和时延要求绝对较低,实践上能够在在线业务波谷时运行。此外,有些业务属于计算密集型,对 CPU 资源耗费较多,而有些业务属于内存密集型,对内存耗费较多。 如上图所示,通过在离线混部能够动静调度离线业务和在线业务,让不同类型业务在不同的时间段运行以晋升资源利用率。对于计算密集型业务和内存密集型业务,能够应用亲和性调度,为业务调配更适合的节点,无效晋升资源利用率。具体形式可参考后文中的离在线混部和亲和性调度。在 Kubernetes 上晋升资源利用率的办法腾讯云容器服务 TKE 基于大量的用户理论业务,曾经产品化了一系列工具,帮忙用户轻松无效的晋升资源利用率。次要从两方面着手:一是利用原生的 Kubernetes 能力手动进行资源的划分和限度;二是联合业务个性的自动化计划。 1. 如何资源划分和限度构想,你是个集群管理员,当初有4个业务部门应用同一个集群,你的责任是保障业务稳定性的前提下,让业务真正做到资源的按需应用。为了无效晋升集群整体的资源利用率,这时就须要限度各业务应用资源的下限,以及通过一些默认值避免业务适量应用。现实状况下,业务应该依据理论状况,设置正当的 Request 和 Limit。(Request 用于对资源的占位,示意容器至多能够取得的资源;Limit 用于对资源的限度,示意容器至少能够取得的资源。)这样更利于容器的衰弱运行、资源的充沛应用。但实际上用户常常遗记设置容器对资源的 Request 和 Limit。此外,对于共享应用一个集群的团队/我的项目来说,他们通常都将本人容器的 Request 和 Limit 设置得很高以保障本人服务的稳定性。如果你应用的是 TKE 的控制台,创立负载时会给所有的容器设置如下默认值。该默认值是 TKE 依据实在业务剖析预估得出,和具体的业务需要之间可能存在偏差。 ...

April 12, 2021 · 2 min · jiezi

关于腾讯云:报名中面基啦首站深圳线下云原生技术开放日来了

【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

April 1, 2021 · 1 min · jiezi

关于腾讯云:用户体验测评笔记OpenFaaS-和腾讯云-Serverless

最近看到《用 Serverless 架构部署 TensorFlow 模型推理函数》的流动,对 serverless 十分感兴趣,本着学习的心态初步摸索两个 serverless 框架,一个是开源的 OpenFaaS,一个是腾讯云,通过理论应用和比照初步入门 Serverless。 OpenFaaS按文档阐明在 Ubuntu 20.04 上部署这个框架。 而后创立 Python 函数: def handle(req): print("Hello! You said: " + req)批改配置,这里须要写入 docker hub 的帐号。 version: 1.0provider: name: openfaas gateway: http://127.0.0.1:8080functions: pycon: lang: python3 handler: ./pycon image: >>> dockerhub 用户名<<</pyconOpenFaaS 提供一个叫 faas-cli 的部署工具,faas-cli 会先将镜像上传到相应的 docker hub 帐号名下,而后再下拉到 OpenFaaS 服务。 开始部署胜利后在 Web 界面 127.0.0.1:8080/ui/ 看到方才创立的函数。 测试: ╰─➤ curl localhost:8080/function/pycon -d "Hi"Hello! You said: Hi从下面的例子能够看出: 开发者只须要写好事件处理的函数,批改配置文件,确认部署即可,而不须要理解服务器的基础架构,甚至也不须要理解代码理论部署在哪个 Web 框架。FaaS 服务返回调用接口。将图像识别服务部署到腾讯云除了将 Serverless 业务构建在硬件和容器(比方,OpenFaaS 应用 docker)之外,还有一种新兴的办法: 应用特定于应用程序的虚拟机,比方 WebAssembly(Wasm)。 ...

April 1, 2021 · 2 min · jiezi

关于腾讯云:kubernetes-降本增效标准指南-容器化计算资源利用率现象剖析

作者:詹雪娇,腾讯云容器产品经理,目前次要负责腾讯星散群运维核心的产品工作。张鹏,腾讯云容器产品工程师,领有多年云原生我的项目开发落地教训。目前次要负责腾讯云TKE集群和运维核心开发工作。 引言降本增效从云计算倒退至今始终都是企业上云最外围的关注点,无论是在线业务还是大数据、AI业务,都十分依赖算力的耗费,老本问题都是企业上云进行决策的外围因素。 从云计算自身来看,单纯把业务从 IDC 搬迁上云不批改任何业务架构,进步计算资源利用率须要十分大的运维老本和人力老本投入到革新业务适配弹性伸缩和业务可调度性中。随着云原生技术的遍及和推广,容器和 kubernetes 等技术可能人造的与业务、基础设施联合,简化资源管理、感知业务类型、主动弹性扩容和调度。 为帮忙企业在应用云原生技术时,更好的实现降本增效,腾讯云容器团队推出《kubernetes 降本增效规范指南》系列,包含且不限于基于成熟度模型提供资源利用率晋升倡议、多维度弹性资源应用倡议、智能负载举荐晋升精确度、腾讯云云原生老本治理领导手册等,与此同时也将推出系列助力容器化降低成本的能力套件,如容器老本组成视图、老本预测评估工具、老本监控工具、老本定时报告等,以及配套的智能负载值举荐、老本感知调度、竞价实例回收动静控制器等,敬请期待。 本文中,腾讯云容器团队抽样调研了已受权的企业客户,对资源应用状况进行了一次实在的数据分析,以理论的行业数据介绍容器化对资源利用率的可晋升空间。 资源利用率数据分析本次调研抽样了1000+已受权的企业客户和集体客户的数据,其中企业客户750, 集体开发者250+,统计节点数超5W+。 IDC的计算资源冗余,均匀利用率低至10%IDC 数据中心因为短少弹性能力,为保障业务应答突发申请等状况,广泛资源会存在冗余,资源使用率低。 首先咱们来看看寰球数据中心的利用率。麦肯锡的一份钻研报告示意[1],企业管理者在思考稳定性及进步可用性的同时,也应该将新的业务重点放在遏制效率低下和成本上升的问题上。调研结果显示,许多数据中心的服务器多达30%的性能是“生效”的,而服务器的均匀每日利用率不到3%;而在整个数据中心,服务器的均匀每日利用率通常最高仅为6%。以上数据表明,数据中心的服务器老本及资源耗费方面会给企业造成微小的“节约”。 <center> 图1: 经受权的采集个别腾讯云客户物理机均匀资源使用率状况( 样本数200+) </center> 上图是一个典型的客户机器白天业务忙碌,早晨资源闲暇的状况, 因为物理设施弹性能力弱,计算资源往往要按业务峰值再加肯定的 Buff 来储备资源, 甚至为保障业务稳定性要预留较大的资源 buff,因而在资源应用上会存在极大的节约。 IDC上云后资源利用率进步无限企业上云须要进行谨严粗疏的调研工作, 包含收集云厂商硬件、网络环境、产品能力等内容,往往须要从多个不同的视角进行剖析,实际上云过程中第一步就是先将基础设施上云,包含计算资源、存储、服务器、数据库等,保障在业务和平台零碎尽量改变小的状况下,顺利迁徙上云。该步骤并不会显著进步理论的资源使用率,但有利于升高企洽购基础设施,以及建设和运维的老本。 <center> 图2: 一般非容器化计算节点资源使用率剖析数据(样本数4W+) </center> 根据上述调研样本的剖析, 绝大多数非容器化的业务在计算资源利用率上整体不高,并且企业为了保障每个业务之前良好的隔离性,一台机器上个别只会部署一个业务,即每个业务都是独立部署且离开治理的,单个业务都会独占一部分专属资源。在此业务低谷期间,其余业务不能利用这部分专属的资源,以至造成资源节约。基础设施上云后,企业可依据业务的属性进行云化革新,充分利用云的弹性能力,让资源利用率进一步提高,升高IT投入老本。从上述理论调研数据分析来看,仅利用云IaaS层的弹性伸缩,来晋升资源利用率,其空间无限,并会给新业务革新和后续的运维带来额定的老本投入。 业务云原生化革新,资源利用率晋升最高可达60%~70% <center> 图3: 一般节点与TKE节点资源使用率剖析(样本数:4W个一般非容器化节点, 1W个TKE节点) </center> 客户容器化后整体均匀的CPU利用率从上图来看,整体进步并不多,次要起因是,尽管大量业务曾经容器化,但并未进行可动静扩容的革新。 <center> 图4:局部配置了节点池弹性伸缩业务利用启用了HPA均匀资源使用率图示(样本1000+TKE节点) </center> <center> 图5:所有抽样样本中均匀资源使用率散布状况(样本数1W+TKE节点) </center> 从图3、4、5比照能够看到,不同企业容器化后,其资源利用率差别十分大,低的不到10%, 高的可达60%-70%。除了企业自身不同的业务属性之外,腾讯云原生团队还对抽样客户进行了深刻的调研和访谈,理解到不同企业架构部署上存在较大的差别,这是造成企业资源利用率不同的次要起因。 资源利用率低的企业,在应用容器时,后期更多仅关注在容器解决环境一致性的问题上,实际上并未充分利用好容器的弹性能力, 并且在部署模型上,单节点的容器密度不高,导致整体资源利用率跟容器化革新前差别不大。从理论数据看,业务即使曾经容器化,但在肯定工夫內的资源应用,依然存在波峰波谷不均的状况。因而,为了保障服务的可靠性和稳定性,个别会以流量峰值为基线去配置资源规格,以保障高并发时业务以良好的性能运行,然而过了峰值期之后(个别工夫占比拟小),业务回到峰谷状态,理论仅应用一小部分资源,从而导致在峰谷时段,造成大量的资源节约。而资源利用率高的企业,在业务容器化后,更多利用了业务混合部署,大大提高了容器部署密度,让单节点容器密度均匀在1:10,进而晋升资源利用率。同时企业如果充分利用好了容器的弹性伸缩能力,资源利用率也是能够大幅晋升的。对于非容器化的、存在波峰波谷的业务,即便配置了弹性伸缩能力,启动速度也是分钟级的,也还是难以保障在短时间內启动大规模计算资源来应答高并发需要。而容器是秒级的启动速度,使得容器化的业务具备高密度、高弹性的个性,在面对突发访问量时也能轻松应答。在这种业务模式下,容器化利用不同级别的主动弹性伸缩能力,从而解决了在低谷期间的资源节约问题。容器弹性伸缩能力如下:HPA(Horizontal Pod Autoscaler):在达到用户自定义阈值(CPU利用率、CPU使用量等)时在30s內主动扩缩pod数量,当受到节点资源限度导致 Pod pending 时,触发节点层级的扩缩容,即CA(Cluster Autoscaler):两种资源粒度的弹性伸缩能力保障客户在适合的工夫调配适合的资源,最大限度保障资源的高效利用。另外,基于K8s的调度编排能力,反对依照Pod实在负载进行动静调度,晋升节点资源利用率;在线业务低负载运行时,同时部署“对延时不敏感”的离线业务,进步资源利用率。 晋升资源利用率的关键点腾讯外部容器化业务资源利用率也是衡量容器化深度的要害指标,依据腾讯云原生团队对容器弹性伸缩的实践经验,通过不同维度的弹性能力开展来看容器化后资源利用率晋升的关键点, 首先看看 Kubernetes 各个组件的次要作用: HPA:维持利用的冀望状态(通过调节利用正本数)VPA:(Vertival Pod Autoscaler)预估利用的理论应用资源量调度:驱动利用的冀望状态到资源的冀望状态的引擎CA:维持资源的冀望状态(通过调节节点数)那什么是现实的弹性伸缩?怎么样的弹性伸缩能帮忙咱们更好的节约老本呢?简略点说,就是在用户须要的时候提供适合的资源。 怎么保障在须要的时候伸缩?相干组件要够灵活,响应要快。怎么保障提供的资源适合?在计算 StatusApp/StatusRes 时要准确。到这里,能够明确弹性伸缩的两个外围问题: ...

March 30, 2021 · 1 min · jiezi

关于kubernetes:使用-Velero-跨云平台迁移集群资源到-TKE

作者:李全江(jokey),腾讯云工程师,热衷于云原生畛域。目前次要负责腾讯云 TKE 的售中、售后的技术支持,依据客户需要输入正当技术计划与最佳实际。 概述Velero 是一个十分弱小的开源工具,能够平安地备份和还原,执行劫难复原以及迁徙Kubernetes群集资源和长久卷,能够在 TKE 平台上应用 Velero 备份、还原和迁徙集群资源,对于如何应用请参阅 应用对象存储 COS 作为 Velero 存储实现集群资源备份和还原 和 在 TKE 中应用 Velero 迁徙复制集群资源,本文将介绍如何应用 Velero 将自建或其余云平台 Kubernetes 集群无缝迁徙到 TKE 平台。 迁徙原理架构原理与应用 Velero 迁徙复制集群资源 过程的原理相似,迁徙集群和被迁徙集群都装置 Velero 实例,且指定同一个腾讯云 COS 后端存储,被迁徙集群按需执行备份,指标集群按需还原集群资源实现资源迁徙。不同的是,自建或其余云平台的集群资源迁徙到 TKE 时,须要思考和解决因跨平台导致集群环境差别问题,侥幸的是,Velero 提供了很多实用的备份和还原策略帮忙咱们解决这些问题,前面的迁徙示例会介绍如何更好的利用和应用它们。 环境筹备已有自建或其余云平台 Kubernetes 集群(以下称作集群 A ),且集群版本为 1.10 以上。已创立迁徙指标的 TKE 集群(以下称作集群 B ),创立 TKE 集群请参阅 创立集群。集群 A 和 集群 B 都须要装置 Velero 实例(1.5 版本以上),并且共用同一个腾讯云 COS 存储桶作为 Velero 后端存储,装置步骤请参阅 配置存储和装置 Velero 。确保镜像资源在迁徙后能够失常拉取。确保两个集群的 K8S 版本的 API 兼容,最好是雷同版本。迁徙领导在迁徙工作进行前,首先应该理清迁徙思路,制订具体的迁徙打算,迁徙过程大略须要思考上面几点: ...

March 29, 2021 · 9 min · jiezi

关于腾讯云:Serverless-Wordpress-系列建站教程五

基于后面的系列教程,置信大家曾经领会了 Serverless WordPress 带来的泛滥劣势,接下来要做的就是进一步晋升网站能力了,本篇教程将为大家介绍如何基于 Serverless 架构,体验 WordPress 的更多配置性能。 配置 CDN晋升网站性能的第一步就是晋升网站速度,对于蕴含了泛滥动态资源的的 WordPress 而言,CDN 肯定是网站减速的重要一环。腾讯云的 CDN 服务提供了国内外泛滥减速节点,助力您体验高质量、高安全性的减速服务。CDN 的配置步骤如下: 部署实现后,记录下网关创立的域名地址 登陆 CDN 控制台:https://console.cloud.tencent...,增加您的自定义减速域名,并依照要求配置 CNAME 解析 按理论状况填入您的自定义域名配置信息: 存配置模版可参考: 从新拜访您的站点控制台,在"设置"里批改站点 URL,改为您的自定义域名并保留 实现配置后,您即可通过配置的 CDN 减速域名,间接拜访您的 WordPress 网站 留神:因为 CDN 只反对减速动态内容,您可通过装置 WP Super Cache 等缓存插件,进一步晋升缓存性能。装置主题或插件WordPress 提供了丰盛的主题或插件,帮忙用户进一步治理网站,您能够通过 WordPress 治理页面的插件市场间接下载安装,也能够通过压缩包的形式本地上传 治理后盾装置进入WordPress仪表盘,点击"插件" – "装置插件" 本地上传进入WordPress仪表盘,点击"插件" – "装置插件"- "上传插件" ,间接将本地我的项目打包上传 留神:WordPress 默认上传我的项目大小限度为 2M,如果须要批改,请批改php.ini 里的 upload_max_filesize参数并从新上传,因为云函数有上传大小限度,该参数最大为 4M到这一步,祝贺您曾经实现了 Serverless WordPress 的全副部署教程,接下来请纵情摸索 Serverless WordPress 的泛滥性能亮点。Serverless WordPress,云的下一代建站计划! One More Thing立刻体验腾讯云 Serverless Demo,支付 Serverless 新用户礼包 ???? serverless/start ...

March 29, 2021 · 1 min · jiezi

关于低代码开发:实战-如何使用微搭低代码平台外部数据源

日常开发中咱们常常应用低码平台自建数据源,咱们能够定义本人须要的数据字段。然而随着利用开发的深刻,有时候也防止不了要调用第三方提供的接口服务,咱们明天就带着大家应用一下低码平台的内部数据源。 创立内部数据源登录低码的控制台在数据源治理菜单中点击【新建数据源】,在下拉选项中咱们抉择内部数据源: 咱们输出数据源名称和数据源标识,点击【确定】按钮 定义方法在关上的页面中点击【编辑】按钮进入数据源的编辑页面 在编辑页面点击【新增自定义办法】减少一个办法 而后咱们设置办法的名称、标识、用意,办法的类型抉择http申请,入参设置为city,url设置为https://restapi.amap.com/v3/weather/weatherInfo?key=5d2d3e6c0d5188bec134fc4fc1b139e0&city=%E5%91%BC%E5%92%8C%E6%B5%A9%E7%89%B9&extensions=base 设置好后咱们能够点击测试,点击运行测试,咱们能够看到调用的后果 胜利后咱们点击【出参映射】 所有设置好后咱们点击【确定】按钮让设置失效 应用云函数革新后果通过http的模式会将接口的数据原样返回,然而返回的后果档次太深不利于咱们的应用,咱们利用第二种接口调用形式革新一下返回的接口。咱们在数据源里点击【新增自定义办法】按钮 办法类型抉择云函数 在编辑器中输出如下代码: /*** 应用 npm 包 request 发送http申请, 具体应用文档能够参考* https://github.com/request/request#readme*/const request = require('request');/** 根据 http状态码 判断申请是否胜利 */function isSuccessStatusCode(code) {return code >= 200 && code < 300;}module.exports = function (params, context) {// params 即为入参定义的构造, 能够在 request 的申请配置中应用 paramsreturn new Promise(function (resolve, reject) {request({url: 'https://restapi.amap.com/v3/weather/weatherInfo?key=5d2d3e6c0d5188bec134fc4fc1b139e0&city=%E5%91%BC%E5%92%8C%E6%B5%A9%E7%89%B9&extensions=base',method: 'GET',// 将 json 为 true, 响应后果的 body 会被主动转换为对象,// 在POST申请中, 也会主动设置将 Content-Type 设置为 application/jsonjson: true},function (err, response, body) {if (err) return reject(err);if (!isSuccessStatusCode(response.statusCode))return reject(new Error('request failed: ' + response.statusCode));return resolve(body.lives);});});};设置入参参数 ...

March 25, 2021 · 1 min · jiezi

关于serverless:深度好文云函数-SCF-KonaJDK11-Spring-提速降存一把梭

一、背景腾讯 KonaJDK 团队最近对外开源了KonaJDK11, 该版本 JDK 是通过外部超大规模生产环境验证的定制 JDK,该版本在启动性能、峰值性能以及事物解决能力方面,绝对于前一版本 Kona JDK8 都有了综合性晋升,积淀了腾讯云与大数据团队在大数据/机器学习、云原生场景下的深度优化,并且通过了 JCK 验证,确保充沛的 Java SE 规范兼容。通过工业规范 Benchmark 表明,Kona JDK11 比照 Kona JDK8 大多数场景在峰值性能上具备非常明显的晋升,个别性能晋升靠近 50%。 KonaJDK11 如此优良,咱们能不能把它引入到Serverless呢? 另外,最近笔者也在思考怎么样让 Java spring 框架在 SCF 中顺滑的跑起来,所以借着这个机会,索性来一把 KonaJDK + Spring 在 SCF 上的实际总结。 多说无用,Show you my code! 二、SCF应用JDK11腾讯云Serverless云函数SCF产品中内置Java8反对,然而并没有高版本JDK的环境反对,那么如何实现SCF的Java11云函数呢? 实际上,SCF云函数提供的CustomRuntime性能曾经解锁了用户应用编程语言的限度,目前曾经有webassembly,swift,rust等胜利例子。咱们能够同样借助这个性能来将KonaJDK11引入SCF,从而实现高版本Java的反对。 过程如下: 下载KonaJDK11,https://github.com/Tencent/Te...因为KonaJDK11的二进制包比拟大,须要应用SCF层的概念来上传KonaJDK11程序包首先须要创立层,因为KonaJDK11程序包超过50MB,所以能够抉择COS形式,现将KonaJDK11安装包上传到腾讯云COS,之后在创立层时指定门路即可, 具体应用能够参考产品阐明https://cloud.tencent.com/doc... 创立云函数, 留神这里须要应用CustomRuntime,咱们抉择Shell函数示例,再次根底上拓展咱们的KonaJDK11的反对. 进入【高级配置】->【层配置】->【增加层】 依照下图所示配置好【层】【超时工夫】与【内存】点击【实现】 依据SCF CustomRuntime的应用阐明,须要编写CustomRuntime的启动文件 Bootstrap,SCF CustomRuntime会在函数启动时第一步找到并执行这个名为bootstrap的可执行文件。咱们的bootstrap中须要配置环境变量,并启动Java程序. 咱们先假如我写了一个名为Hello的class,外面只打印hello SCF 字符串。 之后将bootstrap文件和Hello.class文件一起打包成一个zip文件,上传到SCF部署,这时bootstrap的内容如下: 能够看到就是简略的环境变量配置和执行java -version 与 Hello程序。 之后点击【测试】触发执行,之后咱们能够看到函数执行日志如下: 咱们曾经能够从日志里看到 openjdk version "11.0.9.1-ga"的 Java版本,并且看到了Hello程序失常输入。至此,KonaJDK 11 曾经顺利跑在了云函数环境中。 ...

March 25, 2021 · 2 min · jiezi

关于腾讯云:大数据云原生系列-微信-Flink-on-Kubernetes-实战总结

前言架构转型,拥抱云原生服务生态 以后微信外部的大数据计算平台是基于自研的 Yard 资源调度零碎来建设,Yard 的设计初衷除了提供在线服务资源隔离外,另一方面是为了进步在线服务机器的整体资源利用率,其外围策略是在机器闲暇时能在下面跑一些大数据离线工作。然而对接业界各种大数据计算框架(例如 Hadoop MapReduce、Spark、Flink 等)都须要专门定制化开发,迭代保护十分不灵便,难以跟上开源社区倒退的步调。为此,咱们开始转向应用Kubernetes,并基于腾讯云的 TKE 容器平台逐渐搭建咱们的大数据计算平台。 思考到咱们 Yard 平台上 Flink 作业还不是特地多,历史包袱绝对较少,所以咱们首先开始 Flink on Kubernetes实战之路。 微信 Flink 实时计算平台整体详情微信 Flink 作业数据流转图下图是咱们大多数业务的 Flink 作业实时计算数据流转图,数据经采集上报到音讯队列 Pulsar,用户的 Flink 作业生产 Pulsar 计算(必要时也会拜访其余内部存储,如Redis、FeatureKV等),计算结果能够落地到多种存储系统,例如对于报表类业务,计算结果写入 mysql/pg;对于实时样本特色拼接作业,计算结果写入 hdfs,为上游模型训练一直提供样本;对于一些两头后果,则写入Pulsar,以便对接上游 Flink 作业。 上面具体论述上图中 Flink 作业是如何提交部署的。 集群及 Flink 作业部署Flink on TKE 半托管服务,极致的Flink云原生应用体验 Flink on TKE 半托管服务提供了Flink集群部署、日志、监控、存储等一站式的服务,用户能够将其余在线业务与Flink运行在同一个集群中,从而最大水平进步资源资源使用率,达到对立资源、对立技术栈、对立运维等能力。 咱们基于腾讯云的 TKE 容器平台构建 Flink Kubernetes 计算集群。依据已有的 Flink 作业经营行状况,咱们发现绝大多数 Flink 作业次要是消耗内存,而CPU利用率广泛较低,在机型抉择上咱们举荐抉择内存型机器。 对于 Flink 作业的提交部署,Flink on Kubernetes 有多种部署模式(具体介绍请参考TKE团队出品的文章:Flink on kubernetes 部署模式分析),Flink 开源社区先后推出了基于 Standalone 的 Kubernetes 申明式部署以及 Kubernetes Native 部署形式,基于 Standalone 的 Kubernetes 申明式部署步骤繁琐且不易治理,所以不思考,另外社区的 Flink on Kubernetes Native 部署形式是从1.12起正式推出,性能还不够欠缺,并且尚未被大规模生产验证,咱们在这之前其实曾经开始调研部署,通过一番比拟后,咱们应用的是TKE容器团队提供的Flink on TKE半托管服务(基于Kubernetes Operator),其提交部署流程大抵如下图所示。 ...

March 25, 2021 · 3 min · jiezi

关于低代码开发:实战-使用微搭低代码平台开发天气预报应用小程序

查看每日的天气情况是咱们在日常生活场景中的常见利用,本文就利用腾讯云的微搭低代码平台率领大家疾速的搭建一款天气预报的小程序。 定义数据源低代码平台不仅提供了自建数据源,而且也提供了内部数据源。利用内部数据源咱们能够不便的调用第三方平台公布的各种接口,具体操作形式是登录低码的控制台在数据源治理菜单中点击【新建数据源】,在下拉选项中咱们抉择内部数据源:咱们输出数据源名称和数据源标识,点击【确定】按钮在关上的页面中点击【编辑】按钮进入数据源的编辑页面在编辑页面点击【新增自定义办法】减少一个办法而后咱们设置办法的名称、标识、用意,办法的类型抉择http申请,入参设置为city,url设置为https://restapi.amap.com/v3/weather/weatherInfo?key=5d2d3e6c0d5188bec134fc4fc1b139e0&city=%E5%91%BC%E5%92%8C%E6%B5%A9%E7%89%B9&extensions=base设置好后咱们能够点击测试,点击运行测试,咱们能够看到调用的后果胜利后咱们点击【出参映射】所有设置好后咱们点击【确定】按钮让设置失效 创立利用选中利用治理菜单,点击【创立空白利用】按钮,咱们输出利用名称和利用标识,点击【确定】按钮创立利用在利用列表中找到咱们刚创立的利用,点击编辑按钮关上编辑器 创立变量如果须要在低代码中应用内部数据源,咱们须要先创立变量,点击导航条的【变量治理】关上变量的编辑器在弹出的页面点击状态变量旁边的+号,顺次录入变量标识、变量名,变量类别设置为数据源,数据源抉择天气(weather),数据类型抉择单条记录,变量初始化动作抉择获取实时天气,入参传入呼和浩特。设置好后点击【提交】按钮 定义页面组件变量设置好后咱们须要定义页面,切换到组件页签布局的话咱们抉择行列式布局,在布局菜单中找到【行容器】组件,点击一下该组件设置行容器的的款式为flex布局,主轴方向设置为程度,主轴对齐为居中,副轴对齐居中,换行为正换行 而后选中行容器的插槽,减少两个【列容器】组件而后设置一下【列容器】组件的class类名为col-6,切换到款式页签,设置行容器的的款式为flex布局,主轴方向设置为程度,主轴对齐为居中,副轴对齐居中,换行为正换行在每个【列容器】的插槽里减少一个【文本】组件抉择第一个【文本】组件,点击文本内容旁边的超链接图标在弹出的页面咱们抉择city,点击【确定】按钮依照同样的办法咱们给第二个【文本】组件绑定变量为reporttime依照上述的办法咱们结构第二行,只不过在展现温度的时候咱们须要带上单位,设置的时候咱们抉择表达式,表达式中输出如下代码 $page.dataset.state.lives.lives[0].temperature+'℃'顺次设置天气情况、风向、风力、湿度等信息 预览公布页面设置好后点击【预览公布】按钮,部署到云服务器中,咱们抉择云端预览构建结束后点击网站能够查看公布后的成果 产品介绍腾讯云微搭低代码是高效、高性能的拖拽式低代码开发平台,向上连贯前端的行业业务,向下连贯云计算的海量能力,助力企业垂直上云。腾讯云微搭低代码将繁琐的底层架构和基础设施抽象化为图形界面,通过行业化模板、拖放式组件和可视化配置疾速构建多端利用(小程序、H5利用、Web 利用等),免去了代码编写工作,让您可能齐全专一于业务场景。腾讯云微搭低代码以云开发作为底层撑持,云原生能力将利用搭建的全链路买通,提供高度凋谢的开发环境,且时刻为您的利用保驾护航。 开明低代码:https://cloud.tencent.com/product/lowcode产品文档:https://cloud.tencent.com/document/product/1301/48874技术交换加Q群:1003059706最新资讯关注微信公众号【腾讯云低代码】

March 25, 2021 · 1 min · jiezi

关于腾讯云:一文读懂-SuperEdge-分布式健康检查云端

杜杨浩,腾讯云高级工程师,热衷于开源、容器和Kubernetes。目前次要从事镜像仓库、Kubernetes集群高可用&备份还原,以及边缘计算相干研发工作。 前言SuperEdge分布式健康检查性能由边端的edge-health-daemon以及云端的edge-health-admission组成: edge-health-daemon:对同区域边缘节点执行分布式健康检查,并向apiserver发送衰弱状态投票后果(给node打annotation)edge-health-admission:一直依据node edge-health annotation调整kube-controller-manager设置的node taint(去掉NoExecute taint)以及endpoints(将失联节点上的pods从endpoint subsets notReadyAddresses移到addresses中),从而实现云端和边端独特决定节点状态整体架构如下所示: 之所以创立edge-health-admission云端组件,是因为当云边断连时,kube-controller-manager会执行如下操作: 失联的节点被置为ConditionUnknown状态,并被增加NoSchedule和NoExecute的taints失联的节点上的pod从Service的Endpoint列表中移除当edge-health-daemon在边端依据健康检查判断节点状态失常时,会更新node:去掉NoExecute taint。然而在node胜利更新之后又会被kube-controller-manager给刷回去(再次增加NoExecute taint),因而必须增加Kubernetes mutating admission webhook也即edge-health-admission,将kube-controller-manager对node api resource的更改做调整,最终实现分布式健康检查成果 在深刻源码之前先介绍一下Kubernetes Admission Controllers An admission controller is a piece of code that intercepts requests to the Kubernetes API server prior to persistence of the object, but after the request is authenticated and authorized. The controllers consist of the list below, are compiled into the kube-apiserver binary, and may only be configured by the cluster administrator. In that list, there are two special controllers: MutatingAdmissionWebhook and ValidatingAdmissionWebhook. These execute the mutating and validating (respectively) admission control webhooks which are configured in the API.Kubernetes Admission Controllers是kube-apiserver解决api申请的某个环节,用于在api申请认证&鉴权之后,对象长久化之前进行调用,对申请进行校验或者批改(or both) ...

March 25, 2021 · 8 min · jiezi

关于腾讯云:一文读懂-SuperEdge-分布式健康检查-边端

作者:杜杨浩,腾讯云高级工程师,热衷于开源、容器和Kubernetes。目前次要从事镜像仓库、Kubernetes集群高可用&备份还原,以及边缘计算相干研发工作。 前言SuperEdge 是基于原生 Kubernetes 的边缘容器管理系统。该零碎把云原生能力扩大到边缘侧,很好的实现了云端对边缘端的治理和管制,极大简化了利用从云端部署到边缘端的过程。同时SuperEdge设计了分布式健康检查机制躲避了云边网络不稳固造成的大量pod迁徙和重建,保障了服务的稳固。 边缘计算场景下,边缘节点与云端的网络环境十分复杂,连贯并不牢靠,在原生 Kubernetes 集群中,会造成 apiserver 和节点连贯的中断,节点状态的异样,最终导致pod的驱赶和 endpoint 的缺失,造成服务的中断和稳定,具体来说原生 Kubernetes 解决如下: 失联的节点被置为 ConditionUnknown 状态,并被增加 NoSchedule 和 NoExecute 的 taints失联的节点上的 pod 被驱赶,并在其余节点上进行重建失联的节点上的 pod 从 Service 的 Endpoint 列表中移除因而,边缘计算场景仅仅依赖边端和 apiserver 的连贯状况是不足以判断节点是否异样的,会因为网络的不牢靠造成误判,影响失常服务。而相较于云端和边缘端的连贯,显然边端节点之间的连贯更为稳固,具备更高的参考价值,因而 superedge 提出了边缘分布式健康检查机制。该机制中节点状态断定除了要思考 apiserver 的因素外,还引入了节点的评估因素,进而对节点进行更为全面的状态判断。通过这个性能,可能防止因为云边网络不牢靠造成的大量的pod迁徙和重建,保障服务的稳固 具体来说,次要通过如下三个层面加强节点状态判断的准确性: 每个节点定期探测其余节点衰弱状态集群内所有节点定期投票决定各节点的状态云端和边端节点独特决定节点状态而分布式健康检查最终的判断解决如下: edge-health-daemon 源码剖析在深刻源码之前先介绍一下分布式健康检查的实现原理,其架构图如下所示: Kubernetes 每个 node 在 kube-node-lease namespace 下会对应一个 Lease object,kubelet 每隔 node-status-update-frequency 工夫(默认10s)会更新对应node的 Lease object node-controller 会每隔 node-monitor-period 工夫(默认5s)查看 Lease object 是否更新,如果超过 node-monitor-grace-period 工夫(默认40s)没有产生过更新,则认为这个 node 不衰弱,会更新 NodeStatus(ConditionUnknown) 而当节点心跳超时(ConditionUnknown)之后,node controller 会给该 node 增加如下 taints: ...

March 22, 2021 · 11 min · jiezi

关于腾讯云:一文读懂SuperEdge拓扑算法

杜杨浩,腾讯云高级工程师,热衷于开源、容器和Kubernetes。目前次要从事镜像仓库、Kubernetes集群高可用&备份还原,以及边缘计算相干研发工作。 前言SuperEdge service group 利用 application-grid-wrapper 实现拓扑感知,实现了同一个 nodeunit 内服务的闭环拜访 在深入分析 application-grid-wrapper 之前,这里先简略介绍一下社区 Kubernetes 原生反对的拓扑感知个性 Kubernetes service topology awareness 个性于v1.17公布alpha版本,用于实现路由拓扑以及就近拜访个性。用户须要在 service 中增加 topologyKeys 字段标示拓扑key类型,只有具备雷同拓扑域的endpoint会被拜访到,目前有三种 topologyKeys可供选择: "kubernetes.io/hostname":拜访本节点内(kubernetes.io/hostname label value雷同)的 endpoint,如果没有则 service 拜访失败"topology.kubernetes.io/zone":拜访雷同zone域内(topology.kubernetes.io/zone label value 雷同)的 endpoint,如果没有则 service 拜访失败"topology.kubernetes.io/region":拜访雷同region域内(topology.kubernetes.io/region label value雷同)的 endpoint,如果没有则 service 拜访失败除了独自填写如上某一个拓扑key之外,还能够将这些key结构成列表进行填写,例如:["kubernetes.io/hostname", "topology.kubernetes.io/zone", "topology.kubernetes.io/region"],这示意:优先拜访本节点内的 endpoint;如果不存在,则拜访同一个 zone 内的 endpoint;如果再不存在,则拜访同一个 region 内的 endpoint,如果都不存在则拜访失败 另外,还能够在列表最初(只能最初一项)增加"*"示意:如果后面拓扑域都失败,则拜访任何无效的 endpoint,也即没有限度拓扑了,示例如下: # A Service that prefers node local, zonal, then regional endpoints but falls back to cluster wide endpoints.apiVersion: v1kind: Servicemetadata: name: my-servicespec: selector: app: my-app ports: - protocol: TCP port: 80 targetPort: 9376 topologyKeys: - "kubernetes.io/hostname" - "topology.kubernetes.io/zone" - "topology.kubernetes.io/region" - "*"而service group实现的拓扑感知和社区比照,有如下区别: ...

March 18, 2021 · 14 min · jiezi

关于腾讯云:如何快速迁移传统-LB-公网业务到-Serverless

Serverless 云函数触发艰难?函数触发太简单不会配 ?无奈平移传统 LB 公网业务?当初云函数已全面反对负载平衡(Cloud Load Balancer,CLB) 触发形式。提供服务级拜访函数计划,实用于企业节点较多,有历史服务在CVM、容器、自建机房、且服务较重访问量较多的场景。 通过 CLB 触发器能够深度对接 Serverless 函数公网拜访服务,帮忙开发者平滑迁徙传统架构到 Serverless,提供了解老本更低,更易操作,更加便捷的公网接入及 Web 拜访体验。 CLB 触发器的劣势及特点海量调用函数场景下,对企业开发者较为敌对,相较于其余形式更具性价比。 反对 IP 维度的 Serverless 型服务治理,可联合域名分地区解析能力,帮忙用户实现不同地区触发不同函数执行。晋升函数服务的整体可用性。服务级封装,单个 LB 能够同时封装 CVM,容器与 Serverless 服务, Serverless 服务能够更加不便的切入业务零碎的外围服务,能够通过CLB触发器的形式间接路由到函数做干线能力,无需再次绑定域名,解构服务。WAF防护,CLB能够间接对接WAF产品对非法申请做拦挡,提供更加业余的WEB应用服务防护。反对SSL自有证书,通过CLB能够实现 Serverless 应用层的证书服务,反对 SNI 多域名证书绑定。CLB 触发器的典型利用场景典型场景一:秒杀/抢购流动 秒杀 & 抢购流动对整体资源的利用弹性的要求比拟高,而且和业务的骨干场景分割较为严密。个别是业务零碎中较为独立的模块,便于迁徙和革新。且能够通过 CLB 的能力无缝反对到云函数,整体计费绝对于按调用次数的免费场景要敌对很多,迁徙老本会比拟低。同域名下也能够轻松解决 CORS 跨域问题。 典型场景二:辅助零碎架构 如企业的非骨干 WEB 业务,订单零碎,采集零碎,BI剖析等对削峰填谷比拟敏感的非骨干场景,整体迁徙老本会比拟底 低且迁徙收益大。 典型场景三:动动态业务拆散 当业务申请量较大时,能够通过辨别网站的动态和动静申请,有针对性的对其进行散发解决,无效缩小后端负载压力。其中动静申请能够通过独自部署负载平衡及关联 Serverless 服务进行解决;动态内容能够通过接入 CDN 服务,通过对象存储进行优化,显著晋升加载速度。 典型场景四:同域名,地区级拜访服务 业务对地区要求较高时,能够通过CLB对函数做地区级拜访划分。 CLB 触发器配置及应用指引在CLB控制台新建”负载平衡“实例及”监听器”资源 在CLB控制台或函数控制台绑定须要拜访的函数(暂反对单函数单URL绑定) 编辑函数代码 (须要依照特定响应集成格局返回,详见产品文档) 响应集成演示代码: # -*- coding:utf-8 -*- def main_handler(event, context): html="CLB Runing Now." return { "isBase64Encoded": False, "statusCode": 200, "headers": {'Content-Type': 'ccc'}, "body": (html) # "body": ('%s%s' %(html,event)) }应用阐明CLB 触发器目前处于灰度测试阶段,您可点击 申请链接 进行申请。 ...

March 17, 2021 · 1 min · jiezi

关于腾讯云:Serverless-Wordpress-系列建站教程四

除了应用老本外,网站性能也是咱们在部署集体网站时思考的另一个重要因素。当用户不再保护服务器层,咱们的网站性能又是否能够无效保障?用户对于网站性能的最直观感知就来源于网站速度,当网站的架构 Serverless 化,对网站性能是否有晋升?本篇教程将为大家解答这些纳闷。 性能压测咱们通过 Serverless WordPress 部署了一个集体网站,同时在一个一般 1 核 1 GB 的服务器里也部署了一个雷同的站点,接下来,咱们通过 Apache 自带的工具来进行压测。因为测试场景为集体博客,因而设置了 100 并发,1000 次申请,在雷同网络环境下测试,测试后果如图: 传统部署计划压测后果: Serverless WordPress 压测后果: 后果比照:部署计划80%申请耗时(ms)95%申请耗时(ms)吞吐率/s均匀申请耗时(ms)均匀解决工夫(ms)传统计划10500597766.8814527145.27Serverless WordPress3770493925.64390039.00比照能够发现,传统部署计划里,80% 的申请须要在 10s 内实现,而 Serverless WordPress 95% 的申请都能够在 5s 内实现,同时吞吐率、用户均匀申请等待时间、服务器均匀申请解决工夫三个重点指标,Serverless WordPress 的体现不仅不逊色,甚至更为优异。因而,开发者能够纵情拥抱 Serverless 生态,所有的性能问题都交给 Serverless 架构底层帮您解决。 性能晋升当然,WordPress 自身也提供了多种计划帮忙您继续晋升网站性能,您能够采纳以下几个计划,进一步晋升您的网站速度: 无效应用缓存作为一个动静网站,每个申请 WordPress 都会将所有内容从新进行加载并生成,这一步往往耗时很大,因而,WordPress 市场有许多优良的缓存插件,比方 WP Super Cache、WP Rocket、W3 Total Cache 等等,它们会生成网站的动态HTML页面,并将其保留在服务器上,每次申请时间接拜访,无需反复计算,无效加重服务器压力。 正当抉择主题插件有些开发者往往会给本人的网站装置大量插件和主题,这些同样会对页面的申请速度产生影响,建议您简化网站的插件库,尽量应用轻量的框架主题,这些对于网站速度晋升均有肯定帮忙。 动静拆散,应用 CDN一个 WordPress 站点往往分为动静资源和动态资源两个局部,网站的 CSS,JS 文件以及一些罕用的图片文件,往往不会做更改,因而将动态资源拆散,并应用 CDN 减速,将大大降低服务器的压力,这也服务器只须要获取动静资源,所有的动态资源能够从 CDN 间接获取。Serverless WordPress 当初也曾经反对 CDN 减速能力,后续将会写一篇教程领导大家如何为 Serverless WordPress 配置 CDN。 ...

March 15, 2021 · 1 min · jiezi