关于存储:阿里云函数计算-FC再次荣获最受观众喜爱奖

简介:就这几天,共事给我转了一个调查报告,说你们 FC 又获奖了,我还纳闷什么奖,原来是 CNCF 公布了 2020 年度的中国云原生调查报告,在报告中的 Serverless 考察局部,阿里云函数计算 FC 继 2019 年后,再次成为国内最受欢迎的 Serverless 产品。 就这几天,共事给我转了一个调查报告 说你们 FC 又获奖了 我还纳闷什么奖 原来是 CNCF 公布了 2020 年度的中国云原生调查报告 在报告中的 Serverless 考察局部 阿里云函数计算 FC 继 2019 年后 再次成为国内最受欢迎的 Serverless 产品 有人想问 ️ CNCF 是一个什么机构,权威性如何 当初调查报告太多,就怕被带节奏 CNCF 全称 Cloud Native Computing Foundation 中文意思就是云原生计算基金会 基金会听下来很高大上 但其实干的事件还是很接地气的 依据官网的介绍 CNCF 致力于推动云原生技术的遍及 那如何去推动呢 例如CNCF会对一些云原生的开源我的项目进行孵化 帮忙其成为更加成熟的开源我的项目 并会帮忙我的项目推广给更多的企业应用 一些大家耳熟能详的云原生我的项目,例如 Kubernetes、Prometheus、Envoy 都是孵化自 CNCF 这很像一些守业公司的孵化器 为初创企业的倒退提供办公场地、财税等各类反对 不同的是,CNCF 不仅是一个孵化器 还造成了本人的社区,有本人的社区运行章程 社区中有会员 分为白金、金牌、银牌、最终用户、学术和非赢利成员 不同级别的会员在治理委员会中的投票权不同 阿里云、AWS、苹果、ARM、Google、微软等都是白金会员 ...

May 19, 2021 · 2 min · jiezi

关于存储:代码安全无忧云效Codeup代码加密技术发展之路

简介:从代码服务及代码平安角度登程,看看云效代码加密技术如何解决这一问题代码数据存在云端,如何保障它的平安? 局部企业管理者对于云端代码托管存在一丝放心:我的代码存在云端服务器,会不会被泄露? 接下来,咱们将从代码服务及代码平安角度登程,看看云效代码加密技术如何解决这一问题。 一、前言1. 代码托管服务什么是代码托管服务? 代码托管服务是运行在公共环境,提供软件版本控制治理的服务。 代码托管服务外围要解决的两个问题: 存档:须要具备存档的能力,也就是,把咱们当前工作产出的某个正本保留下来,用于复制、追溯等等。合作:能够让不同的人,基于同一个对象内容进行工作,他们的成绩能够一起体现在这个内容之上。Git 自诞生以来,就和“开源”、“共享”这些词紧紧地分割在一起,它之所以能疾速推广,并成为支流的软件版本控制工具,正是得益于它扭转了传统软件版本控制工具的合作形式,让软件奉献与合作变得更加高效与便捷。 2. 代码托管服务的两种状态代码托管服务通常有两种状态: 应用开源产品或购买公有部署产品,架设在用户齐全可控的部署环境上来提供服务。应用云托管服务产品,只领有对服务的使用权,而不用关注服务的运维。2.1 自建代码托管服务代码资产作为企业资产的重要组成部分,始终备受器重。许多企业、机构都会有自运维的代码托管服务。无论是从齐全管制还是数据安全的心理上来说,私网服务仿佛更加可信与无懈可击,但随之而来的稳定性、可靠性的问题,却往往让中小企业焦头烂额。 企业倒退之初,兴许只须要一个服务器资源,搭建一个可用的代码托管服务,即可满足肯定的日常研发需要;但随着企业规模不断扩大,遇到的问题逐渐增多,开始须要投入专人来治理这个服务;而企业研发人员倒退到千人以上的规模,甚至须要投入一个小的团队,来负责代码托管服务的运维及定制化开发工作。这无疑是一笔不小的老本开销。 此外,因为自建服务配套不欠缺,很容易产生部分运维权限过大而引发平安危险,删库跑路等恶性事件,局部IT从业者能够仅凭一己之力蒸发公司上亿的市值,无时无刻在为咱们敲响警钟。 2.2 云代码托管服务而云代码托管服务,以云共享的形式,提供更大范畴的服务能力;同时,因为其背地往往都领有一支教训深厚的运维治理及产品团队,其可靠性远胜于企业自建的托管服务。 但相比较而言,因为云代码托管服务对用户而言只有使用权,无奈登录存储服务器,无奈感知其背地的存储和复制机制,又因为代码自身的敏感性,对云代码托管服务的信赖问题(如认为代码数据对服务提供方运维人员可见)始终是一些中大型企业的症结。 3. 代码托管服务的演进方向随着云计算一直演进,通过云原生技术理念的利用能够最大化享受云计算的技术红利,包含弹性伸缩、按量付费、无厂商绑定、高SLA等。 而在实际云原生理念时,势必须要: 采取DevOps畛域的最佳实际来治理研发和运维流程。通过CICD工具链做到利用的疾速迭代和继续交付。GitOps、Iac(Infrastructure as code)当初越来越多地被泛滥企业所驳回,代码托管服务也逐步成为了一种具备软件版本控制能力与合作能力的存储基础设施,其在可靠性及跨地区拜访方面的能力,也逐步成为各大云代码托管服务的外围掂量指标。而这方面的能力,也正是自建代码托管服务所不能满足的中央。 那么,如何打造云代码托管平安体系,来晋升用户的信任感呢? 4. 云代码托管平安体系为了更好地撑持代码托管服务的存档能力,云代码托管体系通常会依照以下四个方面来建设: 拜访平安: 拜访平安包含但不限于认证、权限管制、数据传输等等,它次要解决用户的身份辨认,最小限度地赋予指定用户所需的正当权限,在事先最大水平保障代码资产的安全性,同时通过对传输过程数据加密(如常见的https、openssl加密)等伎俩,防止中间人截取或篡改用户的数据。 数据可信: 在拜访平安的根底上,还须要通过一些额定的伎俩,确保代码提交及代码归属的可信度(如仅承受特定属主的代码,或要求必须对提交记录进行GPG签名),从而进一步升高因为账号泄露等导致的危险。 存储平安: 作为云代码托管服务最外围的能力,存储平安岂但要保障服务的可靠性,数据资产不失落,更能够通过存储快照及备份等伎俩,升高用户应用过程中的危险。同时,如何保障存储于物理设施的数据,不产生数据泄露危险,也是用户最为关怀的问题。 审计风控: 在事先及事中平安能力之外,在预先通过智能化危险辨认、主动防御等伎俩,进一步加固整个平安防护体系。 在拜访平安、数据可信、审计风控等不便,目前各云代码托管服务或多或少的都具备了一些这样的能力,但我认为,存储平安才是最外围的竞争力。在这其中,代码数据加密技术的摸索,也是最具备挑战的。 5. 数据加密技术通过对数据内容进行加密,并将关上这把锁的钥匙,交到用户手中,是当下泛滥云服务用于解决用户信赖问题的银弹。为此,具备云盘加密、云端加密能力的对象存储服务更容易被用户承受,众数据库服务厂商(如MySQL、Oracle、PostgreSQL等),也纷纷在自家产品上推出了TDE(Transparent Data Encryption)的能力。 那么,同样具备存储属性的代码托管服务,是否也能够引入数据加密的能力呢? 在提供用户对代码资产的备份、删除能力之外,通过数据加密,让用户的数据资产仅对用户本人可见,从而达到对代码存储的近齐全可控的目标。 二、业界代码加密计划1. 客户端加密以开源软件 git-crypt 为代表的客户端加密办法,是针对敏感信息存储的不错抉择。用户生成一个数据密钥,用于对指标文件加密,将加密后的内容,提交到git仓库当中。 在这种模式下,加密的内容,仅提交人可见,而当你须要与别人共享时,能够通过获取别人的 PGP 公钥,对用于加密的数据密钥加密后,提交到代码仓库。对方在获取到数据密钥密文后,应用本人的PGP私钥解密,失去数据密钥,就能够解密数据了。 但这种形式的弊病也很显著,数据密钥获取一次,就能够重复应用,无奈解除受权;原有的文本文件加密后变成了二进制文件,也导致git无奈对增量批改创立delta,大量应用及频繁变更就会导致仓库体积迅速收缩。 2. 磁盘加密磁盘加密技术曾经十分成熟,仿佛也是一个很好的抉择计划。但磁盘加密仅解决物理设施层面的数据安全问题,在vm(虚拟机)层面,依然是明文拜访数据的。 3. 服务端闲时加密对于应用不频繁的代码仓库,闲时加密也不失为一种好的解决方案。在一个Git仓库不被拜访时,对其进行加密,而当其从新须要被拜访时,就须要期待解密实现,再凋谢拜访。 这种计划的通用性很高,也能够有很多种加密的计划能够抉择,实现的老本也不高,但毛病也很显著:仓库拜访须要一个预热的过程,仓库越大,预热工夫也相应越长;高频拜访的仓库,简直总是以非加密的状态存储在磁盘上,而这些热点仓库,也往往是用户最为关注,也最不冀望被泄露的。 4. 基于JGit、S3的云存储加密AWS的代码托管产品CodeCommit,提供了代码加密的能力,它基于JGit实现的代码托管服务,复用了原有JGit的存储模型,利用S3的存储加密能力。 JGit的社区活跃度大大低于Git的社区活跃度,并且在性能比照上,Git也是远胜于JGit,这也是各大支流代码托管服务均应用Git的起因。 三、云端代码托管的通明加密云代码托管服的通明加密,是一种服务端加密技术(Server-Side Encryption):它应用用户受权的密钥来实现对用户代码数据的加密;在用户拜访时,应用用户的密钥来对数据进行解密。整个加解密的过程对用户齐全通明,用户能够应用惯例的Git客户端来进行代码库拜访,或是浏览代码服务提供的页面服务;但用户保留对数据的齐全掌控,能够在必要时,通过勾销密钥受权,达到解冻代码数据的目标。 1. 云端通明加密的劣势Git TDE(Transparent Data Encryption)的劣势: 不依赖文件系统。文件系统拜访的数据都是密文。可抉择仅加密一些敏感仓库来升高对性能的影响。Git TDE 爱护冲破了文件系统访问控制的平安威逼: 偷取存储设备,并且间接拜访代码库文件的歹意用户。通过磁盘备份复原数据的歹意用户。爱护静态数据(长久化的数据),对平台运维人员不可见。2. 加密形式采纳信封加密[2] 形式进行加解密: ...

May 18, 2021 · 1 min · jiezi

关于存储:Fluid-进入-CNCF-Sandbox加速大数据和-AI-应用拥抱云原生

简介:2021 年 4 月 27 日,云原生计算基金会(CNCF)发表通过寰球 TOC 投票接收 Fluid 成为 CNCF 官网沙箱我的项目。Fluid 是一个由南京大学、阿里云以及 Alluxio 开源社区联结发动并开源的云原生数据编排和减速零碎。起源 | 阿里巴巴云原生公众号 2021 年 4 月 27 日,云原生计算基金会(CNCF)发表通过寰球 TOC 投票接收 Fluid 成为 CNCF 官网沙箱我的项目。Fluid 是一个由南京大学、阿里云以及 Alluxio 开源社区联结发动并开源的云原生数据编排和减速零碎。 Fluid 我的项目地址: https://github.com/fluid-cloudnative/fluid 我的项目介绍云原生环境下,计算存储拆散架构在晋升零碎弹性和灵活性的同时,给大数据 / AI 等数据密集型利用带来了计算性能和管理效率方面的挑战。现有云原生编排框架运行此类利用面临数据拜访延时高、多数据源联结剖析难、利用应用数据过程简单等痛点。Fluid 正是为解决这些问题而生的。 Fluid 零碎架构图 Fluid 运行在 Kubernetes 上,是一个可扩大的分布式数据编排和减速零碎,其指标为构建云原生环境下数据密集型利用的高效撑持平台。该我的项目开源于 2020 年 9 月,短短半年多工夫内倒退迅速,吸引了泛滥领域专家和工程师的关注与奉献,并在包含微博、中国电信等多家大型出名IT和互联网企业中应用。 外围性能Fluid 在云原生利用与数据的协同编排、调度优化、数据缓存等几方面提出一系列技术创新,其外围性能包含: 提供存储无感知的数据对象-数据集(Dataset):通过自定义资源对象 (Custom Resource Definition)实现对不同存储系统的对立形象定义与治理,反对可观测性和弹性伸缩。利用分布式缓存技术减速数据集读写:通过扩大 CacheRuntime 对象,自定义并治理分布式数据缓存引擎。目前已原生反对缓存引擎 Alluxio 和 JindoFS。基于容器调度的智能数据编排:基于 Kubernetes 容器调度和扩缩容能力,实现数据缓存的智能化编排。数据集与利用协同调度:扩大 Kubernetes 调度器感知数据集缓存信息,就近调度利用,施展本地读写缓存的性能劣势。规范拜访接口:应用 Kubernetes 规范存储接口 Persistent Volume Claim  拜访数据集,实现无缝兼容云原生利用。面向场景的性能调优:针对深度学习、批量数据处理等工作,提供数据集预热、元数据管理优化、小文件 IO 优化、主动弹性伸缩等伎俩,广泛晋升工作运行效率。展望未来Fluid 开源我的项目致力于通过联合学术界的原创钻研和工业界的落地实际能力,减速云原生基础设施拥抱数据密集型利用,与开源社区一起构建 Kubernetes 平台利用应用和治理数据的对立界面。Fluid 开源社区目前有 5 位外围维护者 (Maintainer),别离来自南京大学,阿里巴巴和 Alluxio,并由来自南京大学 PASALab 的顾荣副研究员负责开源社区主席。此外,来自中国电信、微博、Boss 直聘、第四范式、云知声等企业的工程师都奉献了大量的开发工作。 ...

May 18, 2021 · 1 min · jiezi

关于存储:配置审计Config配合开启OSS防盗链功能

简介:本文作者:紫极zj 本文将次要介绍利用【配置审计】性能,如何疾速发现企业上云过程中,针对未配置防盗链的 OSS Bucket 定位及修复案例。前言配置审计(Config)将您扩散在各地区的资源整合为全局资源列表,可便捷地搜寻全局资源;同时帮忙您记录云上 IT 资源的配置变更历史,继续主动地评估云上资源配置的合规性,实现云上 IT 合规治理。本文介绍如何应用配置审计(Config)帮忙您疾速发现未配置防盗链的 OSS Bucket 并修复的案例。 理论案例公司 A 有 10 个垂直的业务部门,每个业务部门调配了 1~2 个 OSS Bucket 用于存储经营图片,并间接在网页上应用的 OSS 生成的链接做图片内容的展现。咱们晓得 OSS 的费用分为存储费和流量费,当大量的内部申请获取图片资源时,产生的流量费用须要客户自行承当。为了杜绝不法网站盗用图片资源,OSS 开发了“防盗链”性能,具体的性能阐明请参考: 防盗链 公司 A 打算应用该技术计划,须要为 OSS Bucket 开启防盗链,并且设置 referer 白名单为 *.alibaba.com 和 *.aliyun.com 。作为公司的运维同学,十分不心愿每个 Bucket 都查看并参考文档配置一遍,同时还须要额定制订对策避免 Bucket 配置被二次批改。 这时候,他想起了阿里云的一款云产品:配置审计(Config)。 咱们能够将配置审计(Config)的能力简略概括为3点: 对立的资源视角,多地区,甚至跨账号;规定(Rule)检测资源配置是否满足要求;继续检测资源及修复能力;配置审计(Config)是如何工作的?资源的配置数据通过异步音讯告诉会中心化的存储在配置审计(Config)的数据库中。规定会采纳定时、变更被动触发、用户被动触发的形式来对数据库的资源配置进行评估, 将评估后果展示给用户,同时会依据规定设置判断是否须要进行修改,如执行修改工作,新的资源配置数据会从新被配置审计(Config)感知进入到下一次的评估循环中。咱们一起来看看公司 A 的运维同学是如何通过配置审计(Config)实现工作的。 设置规定关上配置审计控制台,进入规定列表,点击新建规定,即可看到配置审计(Config)为用户提供的大量的托管规定(托管规定由平台开发并提供给用户应用),搜寻“防盗链”或“referer”都能够搜寻到该规定:OSS 存储空间开启防盗链性能。 点击利用规定, 第一步:设置规定名称、自定义危险等级、自定义备注信息; 第二步:能够依据理论的业务场景限定须要查看的资源的范畴;可选项包含资源 ID、资源组 ID、地区、标签等; 第三步:设置容许的 referer 白名单及是否容许 referer 为空; 第四步: 设置是否开启主动修复,咱们临时先跳过,后续再探讨; 第五步:预览并提交 规定评估规定创立实现后,规定便开始对存量的 Bucket 配置进行合规性的评估,参考规定的评估阐明, “OSS 存储空间开启防盗链性能,视为合规”,该规定通过查看 Bucket 配置信息中的 RefererList.Referer 不为空断定开启防盗链性能是否合规。 ...

May 18, 2021 · 1 min · jiezi

关于存储:EMC-UNITY-400存储卷删除数据恢复案例

近日,我核心接到一例存储数据恢复的业务,客户存储设备为EMC Unity 400型号存储,是EMC新一代中端存储,同时反对block,file和vvol三种服务类型。在此之前,国内的同行仿佛都还没有过该型号存储复原的教训,也没有据说过任何胜利复原的案例,能够说咱们没有任何可借鉴的教训、技术,须要咱们齐全自助的钻研开发。而通过研发部门小伙伴的不懈努力,咱们终于胜利逆向解析出了EMC Unity 400存储的数据算法构造,解决了EMC Unity 400存储的故障复原,为客户挽回了数据。以下就是此次复原案例的具体故障状况及复原过程。 一.故障形容故障状况:客户设施为EMC UNITY400存储,共连贯2台硬盘柜。在2台硬盘柜上,共创立2组POOL,这2组POOL相互独立。在应用过程中,因为误操作,删除了 2组POOL上的局部数据卷,这2组POOL共蕴含21块6T容量的硬盘,硬盘规格为520字节硬盘。 二.故障检测1、对客户全副硬盘进行备份,并转换为512字节格局。2、与客户进行沟通,得悉共删除5个数据卷, 3、对硬盘底层进行初步检测剖析,硬盘底层数据量较多,删除数据卷后,相干数据空间应该没有进行回收清零,数据具备可恢复性。 三.数据恢复1、Raid剖析重组对被删除卷波及的共21块6T硬盘进行剖析,共配置2组RAID6。其中1号RAID蕴含11块硬盘. 2号RAID蕴含10块硬盘, 依据以上信息应用专用数据恢复软件虚构重组出2组RAID,并别离导出成镜像文件。 2、全局位图整顿对每组RAID后面的全局位图信息进行读取,整顿。如图为存储的全局位图 将整顿后的位图信息写入数据库整顿后的全局位图中,offset代表RAID(POOL)中的数据块的块号,据此,能够大抵获取RAID(POOL)中被删除的数据卷对应的,已开释的数据块。 3、自在数据块整顿对获取到的自在数据块进行遍历扫描,找到被删除的数据卷的头部。并确用户数据的一个索引信息,依据这个索引信息,能够索引到残缺的用户数据卷。对被删除的数据卷的头部进行读取,获取到用户数据卷的局部索引位图。同时对自在数据块持续进行遍历扫描,获取到残余的索引位图。 4、自在数据块拼接依据与客户的沟通得悉,客户删除的5个数据卷,全副为NTFS格局的数据卷,据此,依据NTFS文件系统的构造,联合自在数据块位图和用户数据卷索引位图,编写程序对自在数据块进行匹配拼接,残缺拼接还原出5个NTFS格局的数据卷。 5、文件系统修复数据卷拼接实现后,对数据卷中NTFS文件系统的正确性及完整性进行校验,修复文件系统中的谬误,手工对局部未匹配到的自在数据块进行剖析解决,拼接到相应的数据卷中。解析复原出的数据卷,将数据拷贝到客户筹备的指标空间中。 四.数据恢复后果通过客户的验证,被删除的5个数据卷根本完全恢复,其中数据残缺度达100%,数据全副可用,此次数据恢复工作圆满成功。经此一役,EMC Unity 400存储的算法构造对咱们来说曾经不是机密,同样的数据卷删除问题,甚至硬盘损坏、控制器故障等状况咱们曾经都能够解决了。

May 14, 2021 · 1 min · jiezi

关于存储:百信银行基于-Apache-Hudi-实时数据湖演进方案

简介:本文介绍了百信银行实时计算平台的建设状况,实时数据湖构建在 Hudi 上的计划和实际办法,以及实时计算平台集成 Hudi 和应用 Hudi 的形式。 本文介绍了百信银行实时计算平台的建设状况,实时数据湖构建在 Hudi 上的计划和实际办法,以及实时计算平台集成 Hudi 和应用 Hudi 的形式。内容包含: 背景百信银行基于 Flink 的实时计算平台设计与实际百信银行实时计算平台与实时数据湖的集成实际百信银行实时数据湖的将来总结GitHub 地址 https://github.com/apache/flink 欢送大家给 Flink 点赞送 star~ 一、背景百信银行,全称为 “中信百信银行股份有限公司”,是首家获批独立法人模式的直销银行。作为首家国有控股的互联网银行,相比于传统金融行业,百信银行对数据敏捷性有更高的要求。 数据麻利,不仅要求数据的准确性,还要求数据达到的实时性,和数据传输的安全性。为了满足我行数据敏捷性的需要,百信银行大数据部承当起了建设实时计算平台的职责,保障了数据疾速,平安且规范得在线送达。 受害于大数据技术的倒退和更新迭代,目前广为人知的批流一体的两大支柱别离是:“对立计算引擎” 与 “对立存储引擎”。 Flink,作为大数据实时计算畛域的佼佼者,1.12 版本的公布让它进一步晋升了对立计算引擎的能力;同时随着数据湖技术 Hudi 的倒退,对立存储引擎也迎来了新一代技术改革。在 Flink 和 Hudi 社区倒退的根底上,百信银行构建了实时计算平台,同时将实时数据湖 Hudi 集成到实时计算平台之上。联合行内数据治理的思路,实现了数据实时在线、安全可靠、规范对立,且有麻利数据湖的指标。 二、百信银行基于 Flink 的实时计算平台设计与实际1. 实时计算平台的定位实时计算平台作为行级实时计算平台,由大数据 IaaS 团队自主研发,是一款实现了实时数据 ”端到端“ 的在线数据加工解决的企业级产品。 其外围性能具备了实时采集、实时计算、实时入库、简单工夫解决、规定引擎、可视化治理、一键配置、自主上线,和实时监控预警等。目前其反对的场景有实时数仓、断点召回、智能风控、对立资产视图、反欺诈,和实时特色变量加工等。并且,它服务着行内小微、信贷、反欺诈、消金、财务,和危险等泛滥业务线。截止目前,在线稳固运行的有 320+ 的实时工作,且在线运行的工作 QPS 日均达到 170W 左右。 2. 实时计算平台的架构依照性能来划分的话,实时计算平台的架构次要分为三层: ■ 1)数据采集层采集层目前次要分为两个场景: 第一个场景是采集 MySQL 备库的 Binlog 日志到 Kafka 中。我行所应用的数据采集计划并没有采纳业界广泛用的如 Canal,Debezium 等现有的 CDC 计划。 ...

May 14, 2021 · 3 min · jiezi

关于存储:云厂商下一块必争之地就是它了

简介:继容器编排、AI 工程化之后,寰球顶级云厂商都瞄准了这块无人区。 作者 | 太浪 继容器编排、AI 工程化之后,寰球顶级云厂商都瞄准了这块无人区。 1回顾云计算十几年的历史,或者也能够视其为一部“为开发者服务简史”。 没有应用程序的计算机,就像一台大型计算器。 自世界上第一台计算机诞生,它就离不开程序的驱动。 随着人类科技的一直倒退,PC 和 Internet 陆续问世,进入全民拥抱信息化的时代。人们用计算机来办公和娱乐。于是,计算机程序开始变成了一门生意。程序还逐渐演进为“软件”,变成了最赚钱的产品之一。 开发一款软件,须要购买和保护利用(application)、数据(data)、运行库(runtime)、中间件(middleware)、操作系统(OS)、虚拟化技术(virtualization)、服务器(servers)、存储(storage)、网络(networking)共计 9 种设施/技术。这要求开发人员既要懂软件开发,又要懂软件测试,还要懂软件运维。 而随着用户对软件性能要求的增多,要求开发人员一直对软件进行改变,使得软件变得越来越简单,计算越来越繁琐,存储和解决的信息越来越多,以至于开发组织越来越难,最终引发“软件危机”,包含很多软件我的项目开发工夫大大超期,软件开发难度越来越大。 人们开始钻研、扭转软件开发的技术手段和治理办法。 1968 年,北大西洋公约组织提出“软件工程”的概念。从 1970 年代起,软件产生进入了软件工程时代。每隔 5-10 年,软件工程就会取得一次突破性倒退。 从最后的机器指令开始,倒退到面向对象,再到云计算,目标都是让软件开发变得越来越简略,越来越能投合用户的要求。 云计算厂商呈现后,将其中某些档次整合起来(比方存储、服务器、操作系统)打包成一种服务对外发售。企业/开发者只需间接租用这些服务,像缴水电费一样即可。 在云计算倒退的初期,云计算以满足企业增量 IT 需要为主。但随着云计算的逐渐浸透,企业逐渐实现全面上云,从基础设施上云、到平台零碎上云、再到业务利用上云。绝对应的,云计算厂商推出了 IaaS(基础设施即服务)、 CaaS(容器即服务)、PaaS(平台即服务)、SaaS(软件即服务)等服务模式。 十几年前,云计算技术诞生,掀起了物理主机托管的基础设施改革风潮。云计算实现了计算资源与物理硬件的解耦,虚拟化技术的倒退使用,使得云主机 ECS 成为企业的基础设施。 随着容器技术遍及,PaaS 平台逐步衰亡。PaaS 是构建在 IaaS 之上的一种平台服务,操作系统装置、监控和服务发现等性能。 云厂商提供了利用所依赖的服务、运行环境和底层所需的计算资源后,企业/用户只需部署本人的利用即可,使得利用的开发、部署和运维的整体效率再度晋升。 但只管 PaaS 平台曾经广泛应用,但仍有优化空间,是否能有一种全新的架构,将业务与基础设施齐全剥离?无服务器架构(Serverless )应运而生。 Serverless 的概念最早要追溯到 2012 年。Ken Fromm 在《软件和利用的将来是 Serverless》中率先提出了 Serverless 的概念,但却并未引起宽泛关注。 所谓“无服务器”,并不是不须要服务器,而是把这摊子高技术含量的事儿“外包”给了更业余的人。企业/开发者本人放心的货色变少了,云厂商操心的事件增多了。 个别状况下,一个应用程序要上线,除了写出代码,还要关怀利用部署服务器,以及对服务器进行保护操作,比方资源申请、环境搭建、负载平衡、扩缩容、监控、日志、告警、容灾、平安、权限等。 Serverless 架构的呈现,把计算资源和零碎环境与应用程序解耦,让开发者在构建利用的过程中,无需关注计算资源的获取和运维,只需专一于应用逻辑的开发。 这就如同业余相机与傻瓜相机/全自动相机的区别。应用业余相机,须要手动调节景深、光圈、快门速度、ISO 感光度、焦距、曝光度等各种参数,容易让人不知如何下手。而应用全自动相机/傻瓜相机,只有找好角度、将镜头对准被摄物,按下快门键,相机就会主动实现所有的步骤,操作非常简略。 在 Serverless 架构中,计算资源是作为服务而不是服务器的概念呈现的。私有云厂商依照计算次数免费,业务代码仅在调用时才激活运行,当响应完结占用资源便会开释,真正做到了弹性伸缩与按应用付费。开发者只须要将代码包装成函数,上传到私有云平台,即能够弹性、牢靠的形式运行代码,依据工夫驱动执行计算。 既缩短了利用上线工夫,也升高了经营老本,Serverless 架构因而受到宽泛关注,并被认为是云计算将来的趋势。 2 即便如此,Serverless 仍然没有对立的定义,各云厂商都在推广布道、抢占地盘。 狭义的 Serverless 蕴含 FaaS(Functions as a Service,函数即服务)和 BaaS(Backend as a Service,后端即服务)两个方面。 ...

May 13, 2021 · 2 min · jiezi

关于存储:斗罗大陆引入阿里云云原生数据库-PolarDB-游戏体验更流畅

简介:文章起源:游戏开发世界4 月 30 日,记者采访获悉,新浪游戏重磅作品《斗罗大陆 2 绝世唐门》全面引入阿里云云原生数据库 PolarDB,助力游戏运维效率晋升 6 倍,海量数据承载能力晋升至百 TB 级,为玩家提供更为晦涩的游戏体验。 新浪游戏(北京微游互动网络科技有限公司)是新浪旗下的子公司,业务波及手游投资、手游研发、海内外游戏发行。由小说正版受权的巅峰级凋谢世界 MMORPG 手游《斗罗大陆 2 绝世唐门》是新浪游戏往年的重磅游戏。 通过与阿里云的深刻技术交换,以及数据迁徙的计划论证,新浪游戏技术团队决定在《斗罗大陆 2 绝世唐门》游戏中引入阿里云 PolarDB 云原生数据库代替原有数据库,通过其卓越的产品个性和海量数据的承载能力,为游戏用户提供更佳的游戏体验。 日前,新浪游戏《斗罗大陆 2 绝世唐门》已正式从原有数据库迁徙至 PolarDB 云数据库,后续新的游戏开服也都会基于 PolarDB 云原生数据库进行部署。 “ 《斗罗大陆 2 绝世唐门》运维负责人示意:阿里云 PolarDB 数据库采纳存储计算拆散、软硬一体化等翻新设计,在应答高并发、流量峰值的场景中可实现秒级扩容,使得游戏运维效率晋升 6 倍,海量数据承载能力晋升至百 TB 级。 ” 据理解,阿里云自主研发的 PolarDB 云原生数据库,性能比 MySQL 高 6 倍,老本只有传统商用数据库的 1/10,并作为中国惟一的科技厂商胜利进入 Gartner 寰球数据库领导者象限。近日 PolarDB 还荣获了 2020 年中国电子学会科技进步一等奖,这也是继飞天云操作系统之后,阿里云第二次自研技术获此殊荣。 过来十多年,阿里云在产品技术畛域停顿迅猛,取得市场宽泛认可,目前已有超过 40 万个数据库实例迁徙到阿里云上,蕴含互联网、政务、批发、金融、电信、制作、物流等多个畛域的龙头企业。 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 12, 2021 · 1 min · jiezi

关于存储:从阿里云七代云服务器谈云计算四大趋势

简介:云计算走了十年无余,期间阿里云共公布了七代云服务器。每一代阿里云ECS产品的性能晋升,都指引着云计算的发展趋势。看看第七代ECS产品的公布,又走漏了哪些将来趋势。 从不知为何物到成为基础设施,云计算走过了 10 年无余。 像许多社会变迁一样,这是一个自上而下的过程,无论国内外,最早用云计算的都是中小站长或者初创企业。因为他们无奈像中大型企业一样,领取昂扬的数据中心建设和服务器维护费用。 因而,最受他们关注的,也是最早的云计算产品,称为“云服务器”,也叫做“弹性计算服务(ECS,Elastic Compute Service)”。弹性计算服务把计算变成了像水电煤一样的资源,用户触手可及,随用随取,随时开释,谓之弹性。 现在,作为中国第一的云计算厂商,阿里云上曾经有了千千万万的云产品,成为一个汇合泛滥前沿技术的平台。而弹性计算服务,仍然是云计算的底座,为下层利用提供磅礴算力;同时,它也还是企业上云的第一站。 弹性计算这个底座,也同样在一直进化。 最早云服务器仅有一款通用规格。现在在通用计算、异构计算和高性能计算等不同场景下,阿里云 ECS 家族都提供了最优抉择。2020 年度发布会,阿里云弹性计算示意反对超过 300 种场景。 2021 年 2 月,阿里云在寰球率先发表了基于 Intel Ice Lake 处理器的第七代云服务器 ECS 的邀测,就在 4 月 20 日阿里云发表正式开启第七代 ECS 的公测。 基于阿里云自研神龙架构,第七代 ECS 产品家族搭载第三代英特尔至强可扩大处理器 Ice Lake,在计算、网络、存储进行了全面降级。整机算力晋升 50%,数据库读写和视频编解码性能最高晋升 50% 和 40%,区块链计算晋升 8-10 倍。 此外,这一代 ECS 同时给用户凋谢了网络与存储 burst (刹时峰值)能力,若用户在应用中小规格 ECS 的网络、存储时常常有肯定闲置,将取得对应积分,这些积分可用于换取短暂应用高于规格 SLO(性能指标)的网络带宽、PPS 与存储带宽、IOPS 的权利,无效保障客户的长期突发业务。 性能的晋升能够说是每一代云服务器降级的规范动作。细看阿里云第七代能力,咱们会发现,全方位的平安防护是这一代 ECS 相较于业界云服务器最具差异化的能力之一。除了第七代 ECS 全方位的平面防护,阿里云 ECS 还有泛滥独特能力,体现着云计算的发展趋势。 本文,咱们将为大家细细梳理。 趋势一:谋求平安永无止境,可信将成云服务器标配据第七代 ECS 产品经理介绍,阿里云第七代云服务器 ECS 全量搭载了可信芯片,首次全量搭载平安芯片作为硬件可信根,实现服务器的可信启动,确保零篡改;虚拟化层面,反对虚构可信能力,提供实例启动过程外围组件的校验能力;同时,可信技术接口凋谢,反对用户依据本身需要进行二次开发。 可信是一种数字平安防护技术,会当时构建一套基准来定义所需的运行环境,在用户的零碎或软件启动、运行时,一旦发现以后状态与基准不匹配,即可告警或拦挡。 传统的计算机平安防护次要是通过收集一系列破绽或病毒库,作为黑名单对利用做检测,如有发现及时打补丁或杀毒。这种形式具备预先性,而且一旦病毒把握了操作系统的权限,零碎之上的安全软件可能无奈发现。可信计算则具备事先预防和发现的个性,两种理念的互相联合,将让云上平安防护更为全面。 ...

May 11, 2021 · 1 min · jiezi

关于存储:对比解读2020年CNCF中国云原生调查报告

简介:4月28日,CNCF 公布了2020年度的中国云原生调查报告,这是 CNCF 在中国进行的第四次云原生考察,整体上看,代表云原生的容器、Serverless 和 Service Mesh,无论是在应用群体上,还是落地规模上,都处于快速增长阶段。4月28日,CNCF 公布了2020年度的中国云原生调查报告,这是 CNCF 在中国进行的第四次云原生考察,目标是帮忙相干从业人员更加深刻地理解云原生在国内的落地过程。 报告地址:https://www.cncf.io/blog/2021/04/28/cncf-cloud-native-survey-china-2020/ 笔者在去年12月参加过这次问卷调查,从问卷内容的设置上看,2020年和2019年的两份报告有着比拟好的延续性。报告关注云原生在中国落地规模上的变动,以及各个开源我的项目或产品应用散布上的变动。 问卷样本有较高的代表性。在往年的报告中,共计439人参加了考察,49%均是CNCF的最终用户社区成员。其中,企业规模大于5000人/100-499人/1000-4999人/500-999人,别离占据了40%/19%/12%/11%,其余规模群体均未超过10%;行业散布以软件/技术为主,超过60%,电信/金融服务/教育也是实际较多的行业,在5%-10%之间;受访人群以软件架构师/后端工程师/DevOps工程师为主,共计超过90%(未去重)。这些特色仿佛也和咱们身边正在实际云原生的企业较为匹配。 接下来,咱们来对报告中 Serverless 相干的一些次要论断做个解读: Serverless相干:Serverless 正在持续增长,31% 的单位在生产中应用无服务器,41% 在评估,12% 打算在将来12个月应用。31%正在应用,41%正在评估,这曾经靠近2019年容器的应用程度(49%正在应用,32%正在评估)。Serverless 的价值已被大部分企业所认可,无服务器的编程模式也正帮忙开发者以一种全新的姿态融入业务。以阿里巴巴为例,Serverless 大有当年微服务的势头,淘宝、高德、支付宝、闲鱼、飞猪、B2B,简直所有业务都在将 Serverless 技术利用于生产场景,同时还开源了 Serverless Devs、Midway 等多个我的项目,置信不久的未来,这外面会呈现相似微服务畛域 Dubbo、Nacos 这类明星开源我的项目。 在应用无服务器的用户中,45% 应用托管平台,20% 应用可装置软件。托管平台仍是用户落地 Serverless 技术的首选,4款托管平台均是 FaaS 状态的产品。以排名第一的阿里云函数计算为例,是一个事件驱动的全托管 Serverless 计算服务,提供了函数级别的编程范式。不同于利用级别的 Serverless 状态,以函数来响应业务对架构有着较大的革新老本,抉择托管平台有着更高的性价比。尽管在此次报告中有20%的用户抉择了可装置软件,然而其中超过30%都是来自 Knative,大家晓得,Knative 并不是一种FaaS 模式,而是 CaaS 的一种最佳实际。如果剔除掉 Knative,抉择 Kubeless/Open Whisk 来自行构建一个函数治理平台的用户就非常少了,值得注意的是,Kubeless 的使用量从去年的29%降落到往年的 11%。 阿里云函数计算仍然是国内最受欢迎的产品,失去了35%用户的青眼。 这和阿里云在系统软件、计算、网络、存储、容器等底层基础设施的性能和成熟度建设不无关系,使得函数计算在运行时的能力和稳定性不同凡响。此外,FaaS 产品的选型要害不仅仅在产品本身的能力,也在整个产品生态的残缺度上,例如和 FaaS 相干的触发器类型和成熟度、云上可观测能力、开源社区各类规范的兼容能力,这些都依赖于云厂商的整体产品能力。而阿里云上整体的产品丰盛度和产品能力升高了用户改用函数来治理计算资源的门槛。 去年10月信通院公布的国内首个《云原生用户调查报告》中,阿里云在国内 Serverless 用户规模的占比达到66%;往年3月, Forrester 公布的 2021 年第一季度 FaaS 平台评估报告,阿里云函数计算产品能力位列寰球第一,并进入 FaaS 领导者象限,国内惟一。这些也都印证了客户在 FaaS 畛域选型的根本逻辑。 ...

May 10, 2021 · 1 min · jiezi

关于存储:技术干货-轻松两步完成向-mPaaS-小程序传递启动参数

简介:以传递 name 和 pwd 参数为例,别离介绍此场景在 Android 小程序和 iOS 小程序中的实现过程。 前言在局部场景下,须要向小程序的默认接管页(pages/index/index)传递参数。 本文将以传递 name 和 pwd 参数为例,别离介绍此场景在 Android 小程序和 iOS 小程序中的实现过程。 前提条件已参照 疾速开始 文档接入了小程序组件。 Android 小程序1.在客户端增加启动时跳转页面的参数信息。如下所示: Bundle param = new Bundle();String query = "name="+Uri.encode("123")+"&pwd="+Uri.encode("456");param.putString("query",query); //设置参数MPNebula.startApp(appId:"2020121620201216",param);URL 启动传参时,传递参数的字段为 query;获取参数时,通过解析 query 字段获取。 startApp 参数阐明: appId:小程序的 ID,能够从 mPaaS 控制台查看。param:Bundle 对象,能够向 Bundle 对象传递申请参数,key="query",value="键值对";多个参数两头用(&)隔开。留神1:小程序框架会对每对自定义入参的键值对的 value 进行 uri decode。因而,请对入参键值对的 value 进行 uri encode。留神2:小程序框架不会对自定义入参的键值对的 key 做任何解决。因而,请不要对 key 设置特殊字符,避免小程序侧无奈辨认自定义参数。2.小程序获取参数。从 onLaunch/onShow(options) 办法的参数 options 中获取。 存储 app.js 会获取客户端向小程序传递的参数并保留到全局变量 globalData 中,应用时从 globalData 间接取值或更新值。如申请头里的 token、user\_id 等参数,从 Native 传递过去后,保留到 globalData 中,应用时间接取值。 ...

May 10, 2021 · 1 min · jiezi

关于存储:5月16日-硬核突破应用革新阿里云数据库线下活动北京站开启

简介:本次流动岂但有阿里云云上关系型数据库的内核管控最佳实际,详尽地剖析了在云上阿里云数据库团队都做了哪些对于内核性能、版本管控、性能、稳固和平安方面的优化翻新、还有阿里云原生内存数据库Tair、Apache Pulsar+Apache Flink流批一体通过技术创新带来的突破性新玩法,更会残缺地介绍如何设计实现一个当下最火的HTAP(混合事务剖析解决)数据库,期待各位同仁的降临和嘉宾的精彩分享!流动介绍:数据毋庸置疑是当代企业最重要的外围资产。在海量数据的计算和存储中,如何满足企业业务一直动态变化中极强弹性需要、极大规模的数据库治理要求、以及低提早、实时处理的业务场景诉求是每个数据技术倒退的原动力,而革命性软硬件技术的倒退又催生了许多过来无奈设想的数据利用场景。 本次流动岂但有阿里云云上关系型数据库的内核管控最佳实际,详尽地剖析了在云上阿里云数据库团队都做了哪些对于内核性能、版本管控、性能、稳固和平安方面的优化翻新、还有阿里云原生内存数据库Tair、Apache Pulsar+Apache Flink流批一体通过技术创新带来的突破性新玩法,更会残缺地介绍如何设计实现一个当下最火的HTAP(混合事务剖析解决)数据库,期待各位同仁的降临和嘉宾的精彩分享! 工夫:5月16号 周日 13:00-16:30 地点:北京市 朝阳区 阿里核心·望京B座 2F-13 文韵阁 报名链接:http://hdxu.cn/D3j7F 流动流程:13:00-13:30,签到 13:30-13:40,ACE介绍 13:40-14:10,《Beyond the Cache——Tair 内存数据库利用场景剖析》——黄鹏程(马格),阿里云数据库高级产品专家,阿里云Redis/Tair产品负责人。 议题简介:Tair作为齐全兼容开源Redis的KV存储,除了对开源Redis的数据结构、接口和通信协议进行了全面的兼容外,还在寰球多活、数据可靠性、内存计算、游戏数据闪回等重要场景与行业上有显著不同于开源Redis缓存的实际,本次分享将从这些场景动手,解读Tair作为内存数据库的相干能力和利用。 14:10-14:40,《RDS MySQL产品内核解析》——刘永平(慕少),阿里云智能数据库研发技术专家 议题简介:阿里云RDS MySQL是基于深度优化的MySQL内核提供的云托管数据库服务,齐全兼容社区版 MySQL,同时提供了监控告警、备份还原,账号治理,数据加密等全面的运维治理能力,升高客户的运维治理老本。通过只读节点搭配代理服务提供业务无侵入的主动读写拆散能力。本次分享将从产品和技术角度对RDS MySQL进行解读,笼罩内核性能、性能、稳固和平安方面进行的诸多优化翻新。 14:40-15:10,《RDS PostgreSQL一键大版本升级技术解密》——汪建明(风移), 阿里云智能数据库研发技术高级专家,RDS PostgreSQL管控负责人 议题简介:阿里云RDS PostgreSQL提供开箱即用的PostgreSQL数据库服务, 包含数据库全生命周期治理、参数治理、权限治理、备份还原、监控告警、诊断优化、数据审计、数据安全加密等全面的数据库治理与运维能力。目前被广泛应用于生物医疗、SaaS软件、天文时空、交通出行、图像识别和新批发等行业。本次分享将为大家带来RDS PostgreSQL一键大版本升级背地的技术解密。 15:10-15:30,茶歇 15:30-16:00,《Apache Pulsar + Flink:批流交融对立之路》——翟佳,StreamNative 的联结创始人,开源我的项目 Apache Pulsar 和 Apache BookKeeper 的 PMC成员和 Committer 议题简介:Apache Flink 为批流交融的数据处理提供了对立的接口和引擎,然而在数据存储层,批数据和流数据还是别离存储在不同的零碎中,给用户带来了数据运维和转换的艰难。Pulsar 联合存储计算拆散的架构和独特的一套冷热数据管理框架,能够很好的满足批流交融在数据存储上的需要,为计算层提供批流交融的存储层。本次分享将为大家介绍 Pulsar和 Flink在批流交融方面的性能个性和最新的停顿。 16:00-16:30,《TiDB 中 HTAP 的设计与实现》——方祝和,PingCAP 实时 AP 组研发工程师 议题简介:本次分享次要介绍 TiDB 如何从一个 NewSQL零碎变成 HTAP零碎,剖析其存储层和计算层的架构,以及解说 TiDB 5.0 中 HTAP 的最新进展。 ...

May 7, 2021 · 1 min · jiezi

关于存储:mPaas上线应用检测

简介:mPaas上线利用检测 1. 背景随着越来越多的金融行业基于mPaas[1]搭建并上线新的App,App的上线品质也成为各个客户关注的重点。上线前检测哪些项目,如何检测,检测数据指标包含哪些成为咱们思考的次要方向。借着上次去XX农信客户去做线上性能检测,加上之前多个mPaas历史我的项目踩过的坑,将App上线前mPaas相干检测内容整顿积淀如下。 2. 检测方向2.1 安全性2.1.1 RPC是否开启国密加密对应金融性质的App来说,数据通信平安至关重要,mPaas曾经反对 ECC、RSA 和国密(SM2)三种形式, 在金融行业App内倡议开启加密配置为SM2国密加密,满足行业监管要求。配置能够参考文档[2]。 2.1.2 离线包是否开启验签图1 为了保障下发到本地离线包的安全性,mPaas提供了离线包验签机制,保障了离线包的安全性。整体示意图如上所示,用户设置流程如下: 开发者配置好一对公私钥,私钥放在服务端用于对离线包签名,公钥放在客户端,用于对签名对验证。在离线包公布平台,如果配置了签名私钥,平台下发的amr文件就会带上签名信息(通过私钥对离线包的hash值加密后失去的密文)。客户端在拿到amr包并解压后,客户端会应用在我的项目中预置的公钥进行签名的验证(解密上一步的密文失去一个hash值,同时本地计算离线包的hash值,判断两者是否雷同),如果雷同则通过验证。如果签名校验失败,则删除离线包走fallback地址。通过离线包的验签机制,能够达到以下的目标: 保障了离线包的内容残缺,解决解压异样,读取异样下的失常显示。保障了离线包的起源正确,不被本地歹意篡改。2.1.3 userId信息是否设置正确因为userId会被后续用到很多中央,比方推送,白名单。所以个别倡议抉择服务端的userId字段作为存储字段,不便后续和服务端做userId字段同步,不倡议存储集体手机号或者身份证等个人信息作为userId。 2.1.4 埋点信息是否蕴含敏感信息,比方交易单号思考到埋点的量级很大,所以mPaas的埋点默认本地是没有做数据加密的,所以埋点信息不倡议蕴含敏感字段,避免因为埋点导致信息透露。敏感字段倡议走RPC的数据通道上报,保障数据安全。如果有埋点埋敏感字段的诉求,须要被动开启埋点的本地加密配置。 2.1.5 隐衷权限配置因为当初监管机构对隐衷权限管控比拟严格,mPaas针对权限管控做了对应的接入计划。须要须要确保上线前隐衷权限相干配置曾经失常接入。 2.2 稳定性2.2.1 验证在Android4.X版本的是否能够失常应用mPaas最低反对Android4.3版本以上,所以公布前须要验证下低版本Android设施的可用性,遇到比拟多的是在Android4.X设施上因为多dex加载导致的类找不到导致的装置闪退问题。 2.2.2 iOS符号表是否失常上传公布前须要确保iOS的符号表曾经上传到mPaas后盾,不便后盾反解闪退信息。 2.2.3 热修复模块是否接入并且验证通过公布前须要确保热修复模块的失常接入以及验证通过,保障上线有针对Native模块的热修复能力,保障异样场景下的修复能力。 2.2.4 离线包Fallback域名确认确认Fallback域名是否是外网可拜访的地址,遇到过公布后下发的还是内网地址的case。 2.2.5 离线包模块接入CDN上线前做好容量评估,默认mPaas的离线包是存储在OSS内的,然而个别倡议针对离线包模块接入CDN,通过CDN的缓存性能解决因为离线包下载导致带宽打满的危险,同时绝对于OSS存储来说,CDN的费用更低。接入示意图如下: 图2 2.2.6 RPC外围链路接口压测上线前须要对App外围链路的RPC接口做性能压测,获取接口性能瓶颈,能够用做后续的限流值的设定参考。同时须要针对RPC限流场景做演练,避免上线限流后客户端呈现各种异样。 2.2.7 公布更新性能可用上线前须要验证公布apk性能可用,包含公布更新的强制更新性能,保障在极其场景下,须要强制降级应用。 2.3 性能体验2.3.1 离线包离线性能是否失常失效确保离线包的离线性能失常应用,避免因为离线包各种配置问题导致离线性能不失效。 2.3.2 UC内核是否失常接入确保UC内核正确配置接入,次要解决零碎Webview下的各种兼容性问题。同时UC提供了很好的稳定性,比零碎webview更稳固。 2.3.3 外围链路离线包是否预制在公布前,须要预制外围链路离线包,保障外围链路在极其异样场景下依然能够关上。 参考文档[1]挪动开发平台 mPaaS:https://www.aliyun.com/product/mobilepaas/mpaas [2]数据加密:https://help.aliyun.com/document\_detail/72752.html?spm=a2c4g.11186623.6.732.6bb85ed3LyuYtO 咱们是阿里云智能寰球技术服务-SRE团队,咱们致力成为一个以技术为根底、面向服务、保障业务零碎高可用的工程师团队;提供业余、体系化的SRE服务,帮忙广大客户更好地应用云、基于云构建更加稳固牢靠的业务零碎,晋升业务稳定性。咱们冀望可能分享更多帮忙企业客户上云、用好云,让客户云上业务运行更加稳固牢靠的技术,您可用钉钉扫描下方二维码,退出阿里云SRE技术学院钉钉圈子,和更多云上人交换对于云平台的那些事。 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 7, 2021 · 1 min · jiezi

关于存储:喜报阿里云自研云原生数据仓库-AnalyticDB-获奖啦

简介:2021年4月28日,杭州市制造业高质量倒退大会召开,并颁布《2020年全市制造业高质量倒退重点奖项目录》。阿里云自研云原生数据仓库AnalyticDB因曾荣获2019年浙江省科技进步一等奖,再次入选科技翻新类省级科学技术奖成绩产业化我的项目。2021年4月28日,杭州市制造业高质量倒退大会召开,并颁布《2020年全市制造业高质量倒退重点奖项目录》。阿里云自研云原生数据仓库AnalyticDB因曾荣获2019年浙江省科技进步一等奖,再次入选科技翻新类省级科学技术奖成绩产业化我的项目。阿里巴巴团体研究员、数据库产品事业部OLAP产品部负责人 占超群(左七)缺席领奖 会上,AnalyticDB团队获颁100万元奖金,这也是该项目标最高处分额度,以表彰AnalyticDB近两年在杭施行产业化获得新的冲破成绩。 AnalyticDB采纳云原生存储计算拆散+结构化与非构造数据交融剖析对立架构;相比传统数据仓库和剖析平台,针对数字时代的数据多样性、数据增长快、剖析复杂性、剖析在线化等关键问题获得核心技术冲破,并在业界最权威的TPC-H/TPC-DS基准测试中创下新的世界纪录。 目前,AnalyticDB已帮忙制造业、金融、交通物流及政务等多个行业的数千家+企业客户构建云原生数据仓库,包含国家税务总局、中国北方航空、中国邮政、江门农商银行等,服务了泛滥事关国计民生的社会根底服务。 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 7, 2021 · 1 min · jiezi

关于存储:阿里云视图计算边缘计算的主战场

简介:云计算情报局第10期,阿里云产品专家云觉对新产品——视图计算的产品设计背景、产品性能以及利用场景和价值进行了全面的在线揭秘,率领网友摸索全新“视”界。\>>发布会传送门:https://yqh.aliyun.com/live/edgecloud\_visual 近日云计算情报局第10期,阿里云产品专家云觉对新产品——视图计算的产品设计背景、产品性能以及利用场景和价值进行了全面的在线揭秘,率领网友摸索全新“视”界。 5G时代,视图数据成为信息数字化最重要载体在云觉看来,信息大规模数字化大抵分成三个阶段:第一个阶段是文本的数字化,第二个阶段是语音的数字化,第三个阶段是视频和图片数据的大规模数字化。 1994年有一张十分有意思的图,比尔盖茨拿着一张光盘坐在33万张纸上,自豪的发表一张光盘能够承载这整个纸张所记录的内容。这张光盘它的容量单位是MB级别。2010年,乔布斯手握一台iPhone,号称能够装下几万张光盘所包容的内容,这个容量的单位大略是GB。 (图片来源于网络) 当5G时代到来,咱们看到整个视图数据的特点是什么呢?总结下来,第一个是视频和图片的数据,宽泛在手机、车载终端、无人机、游戏机等各种终端设备上产生;第二个特点是数据量级将达到ZB级/天;第三个特点是扩散,终端设备在任何一个地位都有可能产生视频和图片数据;第四个特点是对于整个数据来说,视频和图片的数据它的价值密度绝对较低。以上所有这些特点将给整个数据数字化带来十分大的挑战。咱们如何去应答这样的挑战?如何通过云计算来更从容地迎接上述场景的到来?视图计算产品就是为了承接这样的业务场景而设计的产品计划。 视图计算——服务(视图)终端计算的云PaaS服务阿里云视图计算产品定位是面向视图终端提供就近的连贯、存储以及计算的PaaS服务,该产品联合了阿里云边缘计算节点以及公共云的特点,面向海量视图终端设备进行了一个云化的设计。其中,边缘计算节点提供城市级笼罩的云计算节点,能够更凑近设施终端。同时视图计算也联合了公共云的特点,让大数据分析、数据长久化存储以及利用部署变得更简略。 为了达到产品的设计成果,阿里云对视图计算产品架构做了三层设计: 第一层是面向视图数据处理,构建边缘计算节点架构。 整个节点包含根底层的物理资源、硬件选型、根底网络架构都做了针对性的设计,比方为了面向大规模的视图数据分析,提供数据就近缓存的能力,架构对数据缓存(周期存储)能力做了专门的设计优化,提供更高性价比的数据就近存的能力。通过周期性存储,先把视图数据在边缘计算节点进行1天、10天或者一个月的存储,当这些数据要去做进一步的数据化利用时,也能够将数据同步到公共云region,做进一步的数据长久化。两头过程中在边缘计算节做AI推理计算产生的高密度价值数据,也能够通过边缘网络回到核心region做进一步的大数据处理。 同时,节点架构内也自带了一些根底的计算能力,包含转码截图等。 第二层端边云协同的分层计算的架构设计 所谓端边云协同分层计算,是通过视图计算PaaS平台无效地连贯设施、边缘计算节点、公共云,让数据在适合的地位进行计算。 为了达到这个成果,视图计算具备了设施终端的连贯能力,以便去管制终端。当某些数据须要在终端解决,即可让数据在终端进行初步的解决。同时,就近的计算节点能够将设施终端产生数据就近的连贯上来计算,计算产生的数据,也能够通过公共云做进一步的大规模的利用和剖析。 如此,就造成了整个端边云协同的分层计算,可能保障整个计算的效率。 第三层是多节点的协同就近计算。因为视图数据的产生是在终端,客户更加心愿云节点就凑近终端对数据进行解决,所以视图计算须要有协同多节点计算的能力,来保障所有的终端设备是就近连贯到一个边缘计算节点,并在边缘计算节点进行解决和剖析。 视图计算构建了地位感知和平台调度的能力,平台透出的能力能够做到地位无感知,让开发者不须要去关注具体的物理节点的地位,只须要去专一在整个业务流程。 基于以上三层产品架构设计,视图计算具备三大产品能力: 第一, 具备对设施终端进行连贯的能力。 能够通过视图计算自带的一键上云凋谢协定平台,来进行终端连贯和数据上行的治理;同时,也能够通过规范的形式,比如说国标、RTMP或Onvif,把设施终端的数据就近的连贯上云。为了更好的适配开发者的灵活性,视图计算在连贯局部也做了一些自定义的设计能力,这意味着开发者能够让数据计算依照自定义的协定,将设施终端的数据连贯上云。 第二, 就近数据存储能力。 视图计算提供了就远视图缓存的能力,能够让周期性的数据就近存储;同时也提供了数据回核心的能力,便于数据做长久化以及大规模数据分析。 第三, AI计算能力 视图计算集成达摩院的AI计算能力,也自带了一些根底计算能力,如截图、转码等。为了让整个视频数据的解决做到更灵便、更便捷,视图计算也提供自定义的接口,开发者能够将本人开发的或者是第三方的一些算法集成到视图计算平台上来,实现更灵便的业务开发。同时,视图计算也提供了凋谢、对立的接口以及凋谢协定来帮忙开发者实现更灵便的集成。 为了达到以上产品能力,底层撑持蕴含了调度、治理、利用托管、监控与运维等技术模块,以实现更高效的协同治理、更高的稳定性和可靠性。 最终,视图计算可能承载亿级终端视图数据上云,让客户即开即用、基于凋谢的接口做简略高效的开发。 视图计算的典型利用场景面向各种设施终端,基于视图计算产品客户只须要做业务流程、数据利用开发以及最终的利用部署。其余的视图数据的连贯、存储和计算能力,都能够通过视图计算这个平台来进行承接。 谈到具体的场景案例,阿里云曾经在以下五个场景,与合作伙伴一起具备了落地实际: 第一个是路线计算场景,基于高速公路视图数据上云的落地实际,最终实现的成果是整个车辆通行变得更平安、变得更可监测。利用视图计算搭建智慧高速零碎,能够让交通视频就近上云解决,视频延时升高到10毫秒级,交通事件视频AI计算响应工夫晋升70%,让公路安全事件解决效率晋升80%,真正做到了交通全域态势感知,服务水平失去了极大晋升; 第二个是教育场景,其中典型的云课堂,将线下的教室变成数字化教室,通过视图计算产品,能够实现近程的在线听课、在线学习;同时视图计算也能够对于视图数据做了进一步AI剖析和利用,帮忙数字教室、数字课堂的视图数据,实现AI计算能力,晋升学生上课效率,帮忙老师更好的监测教育成果,并且通过反馈逐渐的晋升本人的教学效果; 第三个是新批发场景,通过视图数据将批发场景的购买链路、供应链环节做了整个连贯,帮忙批发场景晋升售卖效率以及供应链的效率。当然供应链外面有一个典型场景就是物流,视图计算能够帮忙物流场景,从设施、从货物的收发快递整个过程做了一个全链路的监测,晋升管理效率,同时让消费者享受更便捷的购物环境,助力新批发行业数字化降级; 第四个是公共安全,包含公共安全、食品安全、明厨亮灶等视频场景;基于视频的本地化上云和AI能力叠加,晋升管理效率,同时升高存储老本; 第五个是家庭娱乐场景,能够通过视图数据的赋能来进一步的晋升娱乐的成果,比方云游戏、AR/VR。 视图计算的产品价值第一,视图计算基于边缘计算节点,具备就近笼罩和解决的能力,整个网络老本更低、接入灵便度更高,同时能够达到低延时的成果。 第二,视图计算的数据处理是分层的。首先,数据能够在终端上进行粗算;其次,数据能够在边缘计算节点上进行精算,进一步的结构化提取出更高密度的价值数据;再次,这些数据也能够回传到公共云做大规模的数据利用和剖析。 同时,视图计算的数据存储也反对分层。在设施终端上,数据能够长期存储下来;当业务须要做周期性的存储,即可抉择边缘计算节点对于数据做进一步的周期存储;而当局部数据重要性更高,须要长久化的数据存储,即可通过数据计算平台调度的能力,将数据存储在公共云做进一步的长久化存储。 它带来的益处是更低的老本,以及扩容的灵活性和便捷性的一个晋升。 第三,视图计算另一个特点是地位无感知的PaaS层云服务。所有的开发接口都是通过视图计算这个产品对立透出给到客户和开发者的,而产品背地连贯了视图终端的海量的设施,连贯了边缘计算的节点,连贯了公共云。所以能够做到数据的解决地位无感,让适合的节点来做最合适的最有效率的计算服务。 这样的产品设计带来的益处是更低的网络老本、更高的开发效率。 第四,视图计算既提供了一键上云的凋谢协定,来帮忙到整个设施终端做便捷的连贯和接入,同时也凋谢了可编程的接口,来帮忙到开发者对于接入协定做本人的定义。对于整个AI计算的能力,既能够集成阿里云达摩院的AI能力,也能够通过自定义的形式来实现更细分的场景的AI计算。达到的成果是业务发展更灵便,开发效率更高,老本更低。 将来瞻望在线上分享的最初,云觉示意:心愿有更多的生态合作伙伴(节点层、算法层)来与阿里云一起去开发和落地,让更多的业务场景可能应用视图计算带来的种种便当。同时,也期待视图计算具备更智能的调度和更智慧的治理能力,帮忙海量设施终端实现十分便捷的就近接入、存储和计算,来开掘更广大的视图数据价值。 后续阿里云视图计算会在“阿里云Edge Plus”公众号中分享更多最新的产品能力、解决方案和技术实际,欢送大家一起探讨。 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

May 6, 2021 · 1 min · jiezi

关于存储:视图计算背后的技术架构思考

简介:5G时代海量视图计算场景,阿里云边缘计算节点聚焦视频上云和解决方向,阿里云高级技术专家为您解读海量视图计算背地的技术与架构能力。\>>发布会传送门:https://yqh.aliyun.com/live/edgecloud\_visual 作者:胡帆 数据载体、算力散布正在根本性变动视频和图片因其弱小的信息承载力,曾经成为数据内容的次要载体和信息流传的次要形式。5G的大带宽、低时延、广连贯的个性激活了云视频监控、云游戏、物联网等场景利用,从生产互联网到产业互联网的延长,更加促成了终端利用和视图数据的暴发。 这些终端和数据具备扩散、海量和价值密度绝对低的特点,以摄像头为例,IHS的钻研指出,目前寰球有10亿个监控摄像头在看世界,也就是继续产生视频图片数据,这个数据量是ZB级,但其中绝大部分数据价值较低,咱们更须要留存产生关注事件的片段以及其结构化信息,这样的场景和需要对计算和存储的形式带来了严厉挑战和根本性变动。 新的基于边缘的数据接入、计算和缓存的分布式系统架构无效地解决了这样的问题,它能确保流量和计算收敛到本地,显著升高网络传输老本、晋升计算效率,满足5G低延时解决的场景化需要。 基于边缘构建业务零碎的技术挑战海量、分布式、异构的边缘节点资源个性,会给业务带来微小的挑战,在服务适配、弹性和高可用等方面都要进行相应解决,对业务零碎而言有感,解决不好甚至会有损。 基于边缘构建业务零碎,技术挑战次要来自以下几个方面: 1.边缘的节点扩散且多级,节点多而体量小,须要进行简单的治理,交互拜访时关注具体位置并会有多个入口,如计算和存储的地位 2.资源的异构导致业务须要对资源进行选型,每个节点的资源类型散布也可能不平衡,如CPU、GPU、ARM阵列等不同的计算资源。 3.繁多节点的弹性弱,全局的弹性强,伸缩又必须思考部署地位和业务适配 4.单节点的割接,以及边与边、云与边之间简单的网络环境,都可能导致服务抖动,甚至单点不可用,都须要业务零碎思考好服务漂移等问题,当工作有状态时,思考的状况会更加简单。 如何应答这些挑战,在应用海量分布式节点和核心云时体验简略和统一?最好只有一个交互面 视图计算-地位无感的计算、缓存和连贯平台视图计算很好地解决了这个问题,它基于广覆盖的ENS基础设施,提供地位无感的计算、缓存平台,同时为了让视图数据能更好地上云,提供了视图(终端)上云的连贯平台。 如上图所示,在基础设施层,通过资源纳管、虚拟化和资源切片,造成对立的池化资源,并提供平安和隔离的能力;视图计算PaaS平台通过对立的网络、计算、存储调度,屏蔽了资源异构,以及资源的物理地位,依据业务个性、终端地位和资源状态,进行边缘资源与终端的匹配和协同调度,在保障业务低延时、高可用响应的同时,实现业务对计算、存储和连贯的地位无感; 比方在安防、教培、交通物流等摄像头上云场景,设施接入、流媒体接入和解决会综合思考可用算力、网络带宽和存储容量等节点状态,就近选取最匹配的节点,节点地位更凑近内容的生产端(摄像头)。而云游戏等场景,须要特定的渲染计算资源(如ARM板卡),同时要更凑近内容的生产端(手机端)侧,当须要多人观战直播时,又能够推流到CDN网络进行散发和异地观看。 视图计算云-边-端协同架构构建视图计算平台外围是云边端的协同架构: 1.终端设备负责进行视图等数据的采集和汇聚,以及视图的解码和展现(即瘦终端),同时能进行指令的输出操控,或者是依据云上下发的配置和规定进行简略计算。 2.视图计算基于扩散的边缘节点构建了低延时的设施接入网关,实现了多种终端上云连贯协定(如GB28181/RTMP等),同时能接管实时流和视频图片文件的疾速上传。在节点内或邻近节点进行计算解决和周期性存储,计算结果(如结构化的AI剖析数据)以及须要长久化长期存储的数据,通过边与云之间的平安减速通道实现疾速回云。 3.视图在核心云进行节点和设施治理,以及对立调度、Meta汇聚等。终端设备在云上会映射到一个虚构设施,相似于物理世界的投影(也就是影子设施),对影子设施的治理、配置和操作,都会通过信令通道疾速下发、执行和反馈,当设物理设施断电或异样下线后,上下文能很好地保留,上线后会及时同步。 通过视图计算看到的是一朵云、一个交互面,而不再是N个扩散入口的分布式小云,云边端的协同架构能在老本、延时和可靠性上找到最佳平衡点,比方老本上,网络带宽、计算和存储老本须要综合考量。 地位无感的多点协同计算视图计算服务针对视图数据提供了三种地位无感的计算: 1.视图根底计算:包含转码、录制、截图等,通过编码优化,实现高压缩比,等同画质可节俭20~40%的存储空间和传输带宽 2.视图AI计算:依靠达摩院在计算机视觉上的算法积攒,视图计算提供各种场景化的视图结构化分析、指标检测和跟踪等AI能力 3.自定义计算:自助上传和托管算子,升高算法接入老本,不便用户和算法供应商将算法集成到视图计算服务中应用。除了算子和参数能自定义,计算模式也能依照本身业务需要进行自助定制。 这些计算的最大特色是“算随网动”:计算随着数据在网络上的流动而开展,防止全量数据回传核心云解决,实现算力的下沉和终端计算的上浮。 这张网就是阿里云的边缘协同网络,它实现了终端-边缘、边缘-边缘、边缘-核心的一体化协同,为下层利用屏蔽简单的网络环境,在提供优质的端到端接入和数据传输能力的同时,这张网注入了可计算和缓存的能力。 除了摄像头上云等常见的本地计算场景,互联网直播等场景也能基于视图计算进行边缘转码和实时AI剖析,晋升整体用户体验。比方直播流无需上行回传核心再散发到边缘,间接在就近节点进行转码压缩。对于80%的冷流(无人观看或极少人观看)能够间接收敛到本地,而对于热流转码后就近散发,也能升高延时和卡顿,让客户端播放更晦涩。整个过程终端只须要通过对立域名进行接入,计算的具体位置不须要感知,地位无感的多点协同计算,能够像应用CDN减速一样去实现数据计算。 可自定义的场景计算在大量场景下,你可能曾经领有了自行开发的算子或利用,或是第三方算法供应商的算子,视图计算提供凋谢可自定义的场景计算框架,能够将算子或利用托管在视图计算上,真正实现帮用户做本人的计算。 整个计算平台分三层架构,从下往上,对应计算环境、计算调度和计算服务。 1.计算环境,即计算资源的生产和管控层,负责容器、VM等资源的生产,文件存储,运行的系统软件和算子利用的公布,装置部署和配置,以及日志监控等,这一层也提供了根底的利用隔离能力。 2.计算调度,实现资源的弹性伸缩治理和多维度的全局负载平衡,这一层在容器等底层资源的平安隔离上进行全局布局和兼顾,解决资源争抢问题,同时不同颗粒度的计算工作实现混跑,晋升资源的复用率。 3.计算服务,实现算子的托管、评估和理论的分流计算,同时对计算工作进行画像剖析,迭代和晋升计算资源的耗费评估精准度,比方直播转码,除了编码格局、分辨率、帧率等输入参数,输出的内容源也会肯定水平影响理论的资源耗费,每路转码在算力耗费上是动静高低浮动的,会导致调度资源分配的精准度,须要动态分析和校准,最终实现调度调配水位和理论资源水位的统一。 整个接入过程非常简单: 1.上传和治理算子,配置计算模板和参数;云端会进行兼容性适配和资源耗费评估。 2.在线申请算力等资源,如不同计算规格的最高并发量,云端会进行容量评估和确认,并将算子下发、部署到各计算节点。 3.内容接入或用户触发,云端对数据进行分流和计算,并将计算结果实时反馈给用户。 以云游戏为例,可加载游戏包并渲染视频流的串流镜像就是一种算子或利用,游戏厂商上传游戏包、配置好渲染规格后,云端进行相应适配、资源评估和动态分配。 地位无感分布式存储在实现计算平台后,数据的上云存储是咱们接下来要解决的问题,因为数据源的分散性,以及各种不同的价值密度和应用场景,比方体育赛事等直播内容的高价值,须要录制回放长久化存储,而视频监控场景的摄像头流绝对价值偏低,只须要留存要害事件的视频片段,绝大部分数据只有缓存数天或数月即可。 如何解决数据扩散存储、分级存储的拜访延时、可用性和老本问题? 视图计算基于边缘分布式文件缓存和核心长久化的OSS存储提供了地位无感的分布式存储解决方案,寰球各地的数据源都能够通过视图计算就近存取拜访边缘节点,缓存地位会参考数据接入和计算的地位,确保整体亲和度。周期性数据会缓存到边缘,长期存储的高价值数据以及结构化分析数据会回到核心存储。 同时,视图计算通过边缘减速网络解决了跨地区跨运营商上传大文件提早大、速度慢、易中断等问题,实现直达减速回云。 用户看到和应用的依然是一朵云,而不必关注具体的存储地位。 分布式缓存平台地位无感的存储接入通过分布式缓存平台实现,它提供了就近拜访、大容量、高性价比的周期性文件缓存,在缓存周期内通过多点协同的存储调度、多节点多正本冗余,实现了服务的高可用和数据的高可靠性。
视图计算提供了灵便的缓存接入和调度策略(全国、区域、运营商、自定义节点范畴)。同时兼容核心OSS应用形式(SDK/API),下载OSS SDK后只需更改endpoint接入域名就能够简直零开发成本切换到分布式缓存,相比之前不同的是去除了Region概念,间接采纳了对立的中心化域名接入和治理形式,真正实现了只上一朵云、只存一朵云。
如何实现这种地位无感呢?关键点在于: 1.物理文件缓存在边缘节点,管控数据、文件元信息等对立汇聚到核心,集中管理和检索。
2.文件写入和读取采纳302调度形式,写入对立域名,通过存储调度,跳转到实在的物理地位进行读写。
3.实时的节点状态和容量监测,单点不可写,主动迁徙到其余节点,实现服务无感漂移和切换,单点复原后疾速复制同步。
4.提供多节点多正本冗余存储,实现单点不可用时的流量疾速转移,也能够在访问量大时进行负载平衡。
视图连贯平台和全周期PaaS服务为了帮忙视图数据更好地上云,视图计算提供了终端上云的连贯平台和笼罩视图全生命周期的PaaS服务,包含采集、计算解决和内容生产。连贯的能力次要在于: 1.设施的接入和管控 2.视图内容的接入和治理 3.视图解决和视图存储别离基于后面介绍的地位无感计算平台和缓存平台,提供了针对视图进行转码、AI剖析、加密和串流渲染等根底能力和简单的解决能力。视图存储上提供了视图存取和检索能力,以及生命周期的清理策略,和回云存储及归档策略。 平安易用的视图(终端)一键上云目前支流的视图终端上云计划有三种: 1.安防畛域的国标GB/T-28181上云,存在接入简单,安全性低和性能缺失等问题,如信令明文传输,数据流根本无认证,只能基于SSRC简略甄别,无奈无效躲避冲撞或伪造;国标存在2011、2016多个版本的适配和过渡问题,整体上云体验较差。 2.ONVIF自2008年提出以来,在世界范畴内取得了大量设施厂商反对,但其组播发现机制在公共云无奈实现,上云不敌对,同时其交互基于HTTP规范,采纳SOAP协定格局来定义信令内容,通信提早较大。 3.大量设施厂商推出公有的协定规范上云,品种多,各自关闭、黑盒化,上云接入无奈复用,较多反复建设。 视图计算推出的一键上云计划,提供了凋谢、易用、平安、灵便的终端一键上云能力,次要个性在于: 兼容国标/ONVIF等,适配各类终端,同时解决了国标接入简单和安全性问题,以及ONVIF的公共云接入问题。基于阿里云广覆盖的边缘节点构建的设施接入网关,能确保就近接入,复用CDN低延时的传输和减速网络,以及多协定接入的个性,确保低延时的设施通信、信令管制和数据流接入。外围的信令通道实现了通明的双向通信,厂商和开发者也能够自定义管制信令。
阿里云凋谢设施上云协定ODCAP视图计算连贯平台的一键上云计划外围构建在ODCAP(Open Device Cloud Access Protocol)凋谢设施上云协定上,咱们会齐全凋谢协定内容,反对任何厂商的多样化设施自主接入。 ...

May 6, 2021 · 1 min · jiezi

关于存储:低代码开发管理应用这家大型连锁企业也说好

简介:大型连锁企业的数字化降级,因为厂区门店扩散、员工流动性低等因素,面临数据难以全面归集存储、流程不通顺、企业信息易泄露等一系列难题。当初,通过钉钉宜搭这一低代码利用构建平台,企业能够用更不便、快捷的形式,从点到面建设业务全生命周期的数字化管理机制。餐饮连锁龙头的数字化之痛江苏万家如意食品有限公司(以下简称如意食品)成立于2006年,旗下领有如意馄饨、如意菜饭两大品牌,是一家业余从事陈腐食品制作与连锁经营的企业。领有2000余家连锁门店和1200人员工队伍的如意食品,始终在寻求晋升管理效率的良方,却在数字化降级的路线上遭逢了费用管控、人事管理和供应商治理等系列难题。 1、费用管控难如意食品团队遍布全国,然而过来企业外部报销形式仍以纸质为主,流程次要在线下流转,使得报销周期长、效率低、流程繁冗冗余,无奈满足公司大体量、高频次、细分化的费用报销和费用管控需要。 2、人事管理难门店及分厂员工流动性大,信息更新无奈实时同步,使得根底人事管理面临许多难题,线下信息流转也容易造成企业信息泄露。 3、供应商治理难因为如意食品的各个厂区及门店扩散在全国各地,使得他们的供应商治理构造涣散。过来如意食品的员工次要通过手工录入供应商信息的形式来收集供应商数据。然而随着企业业务扩大,新的供应商一直减少,供应商产品原材料等价格稳定频繁等景象给这一形式带来了极大的挑战。 建设合乎公司理论业务需要的管理系统,同时升高员工的学习老本,成为如意食品数字化降级的重大挑战,但很快他们就找到了答案。 轻松实现全区域、全周期数字化治理2020年12月,钉钉推出了低代码利用构建平台——宜搭,提出面向超过1700万企业组织、4亿用户,凋谢低代码开发能力。 为了解决如意食品的数字化难题,宜搭联结上海致拓软件有限公司,为公司总部以及旗下连锁餐饮门店搭建云钉一体化的全平台管理系统。通过宜搭,江苏如意食品一共搭建了22个业务场景,将线下邮件报批及纸质单据全面在线化,实现了财务报销、洽购申请、品质治理、门店治理的全区域、全生命周期治理。 1、费用管控过来,如意食品审批单据,是通过线下纸质单据或通过邮件申请,无奈归集存档,审批效率低。 当初,该企业的一线无代码\软件背景的员工曾经能够通过宜搭提供的可视化拖拽的形式,将本人搭建的利用一键公布到PC和手机端,简便、高效地实现审批流程的数字化。 左图:如意食品专属工作台 右图:费用报销单页面 2、人事管理过来,扩散的管理机制给如意食品的根底人事管理带来了许多问题:员工档案扩散存储,且基层员工档案依靠纸质存储,很容易失落,材料也不不便调用。此外,门店及分厂员工流动性大,团体人资信息不能及时同步,群聊不能及时增加和删除人员,很容易造成企业信息泄露。 随着组织在线架构的搭建,如意食品利用宜搭首先实现了人事管理的线上线下一体化。 当初,企业的考勤数据可实时同步至考勤报表,人资部能随时查看全公司考勤情况。同时,员工档案是电子存储模式,并实现了自动记录员工成长门路、提供人事根底报表、员工合同到期揭示等一系列性能。共享通讯录能在入、到职审批后主动同步员工状态,实现主动退出、退出群聊,员工退群后不能再次查看群信息,从根本上保障了企业的信息安全。 3、供应商治理因为食品餐饮行业的个性决定了如意食品在供应商治理上面临着数量宏大,新供应商一直减少和供应商原料价格稳定频繁的问题。以往,单纯依附员工手工录入信息费时费力,且还存在更新不及时的问题。 当初,如意食品能够从门店供应商准入、供应商价格异动等保护进行无效管控。 门店治理,实现门店全数字化管理模式 数字化降级让“大象”起舞当初,如意食品在日常治理中缩小了纸质传递,表格流转更加快捷,缩短了审批周期,办公效率和合作能力都失去了晋升。 人事管理端升高了重复性、碎片化工作的老本,让HR更专一于培训、考核等外围工作,工夫精力进一步聚焦在为企业造就提拔人才上。而在员工端,员工也领有了专属的工作台,能够随时随地发动并且盯催本人的流程进度,实现高效反馈。 在经营治理端,财务费控、门店盈亏、品质治理等都实现了数据在线化,通过报表及时推送至各个分部及经理人。 品质在线治理,食品餐饮行业的无力数字保障 这样的变动,让如意食品的各管理层都能随时随地解决工作事务,真正做到了信息畅通、决胜千里,而企业的合作方也能高效同频,实现共赢。 有钉钉宜搭的平台利用能力加持,以及宜搭在业务流程治理上的数字化定制能力,如意食品疾速走上了数字化降级之路,进一步欠缺企业财务费用收入、洽购供应商、产品质量、门店四大管理体系,将业务提报流程数据化、标准化,全方位进步企业经营效率,晋升员工满意度,让公司的外部服务体系更欠缺,与线下进军全国的步调相辅相成,真正让大象起舞成为了可能。 欢送钉钉扫码关注“宜搭”服务窗,理解更多宜搭产品培训、最新性能和客户案例 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 29, 2021 · 1 min · jiezi

关于存储:速约阿里云存储新品发布会

简介:邀您加入【预约观看】阿里云存储新品发布会 在面对快速增长的业务需要时,如何实现更加精细化、智能化以及低成本的数据管理,让数据发明更高的价值呢?本次阿里云将带来4款存储新产品的公布,心愿帮忙企业实现更高效简便的数据管理,让数据驱动业务增长 4位阿里云产品专家面对面解读为您带来4款产品的更新公布还有产品试用,产品材料下载等您体验产品收费体验以及限时优惠券等你来拿直播工夫:2021年4月28日 想要理解更多发布会信息 立刻点击【存储发布会】预约 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 29, 2021 · 1 min · jiezi

关于存储:融合趋势下基于-Flink-Kylin-Hudi-湖仓一体的大数据生态体系

简介:本文由 T3 出行大数据平台负责人杨华和资深大数据平台开发工程师王祥虎介绍 Flink、Kylin 和 Hudi 湖仓一体的大数据生态体系以及在 T3 的相干利用场景。 本文由 T3 出行大数据平台负责人杨华和资深大数据平台开发工程师王祥虎介绍 Flink、Kylin 和 Hudi 湖仓一体的大数据生态体系以及在 T3 的相干利用场景,内容包含: 湖仓一体的架构Flink/Hudi/Kylin 介绍与交融T3 出行联合湖仓一体的实际这个分享有三个局部,首先探讨湖仓一体的架构,而后交换如何交融三个框架以及 T3 如何实际湖仓一体这个架构。 一、湖仓一体的架构数据湖和数据仓库既然聊湖仓一体,咱们先理解一下什么是湖,什么是仓。数据湖是一个很老的概念,在近些年又被热炒。业界对于数据湖到当初也没有一个对立的定义。AWS 是最早在云上推出数据湖解决方案的云服务提供商,在这里咱们便援用 AWS 对数据湖的定义:“数据湖是一个集中式的存储库,容许存储任意构造的数据并且能将它利用于大数据处理,以及进行实时剖析和机器学习等相干的利用场景。” 同样咱们也借助于 AWS 对数据仓库做这样的定义:“数据仓库是信息的一个地方存储库。” 这里的信息是可对其进行剖析,并且可做出更理智的决策。 这个定义还有具体的开展。AWS 这张图通过展现了从湖到仓的数据流向的关系,来演示数据湖与数据仓库之间的区别和分割。首先数据最后是存在于数据湖或是数据库中,而后通过数据筛选和筹备之后,就会流向数据仓库来进行一些高价值的剖析。这个比照表格很直观的从数据、Schema、性价比、数据品质、用户和剖析这 6 个维度给出数据湖和仓的比照。 湖仓一体的先例往年咱们据说阿里巴巴提及的“湖仓一体”的概念。不晓得大家有没有想过湖仓一体在业界是否有胜利的先例?我集体认为是有的。往年 (2020年)9 月份,一家叫 Snowflake 的公司在纽交所上市。Snowflake 是一家做云数仓的公司,基于云厂商提供的基础设施提供 SaaS 平台,面向中小企业提供数据的托管和剖析服务。Snowflake 自称本人是一家云数仓公司,并且在 16 年的数据顶会上发表了一篇论文来介绍他们弹性数仓的架构以及一些技术的细节。 Snowflake 其实是基于云上的对象存储,一份存储多份计算,并且计算与存储拆散的这样一套架构。其实这就是 AWS 以及当初支流云厂商所主推的这个数据湖的架构。Snowflake上市的首日,他的市值就飙升到了 700 亿美元的规模。所以我集体认为 Snowflake 能够算是履行湖仓一体的一个最胜利的先例。大家能够去理解一下刚谈到的这篇论文。我摘出了这 5 个点来和大家做简略的分享: 首先第一点,是没有走当初传统数仓所广泛应用的 Shared-Nothing 这个架构,而是转向 Shared-Data 这个架构。其次,论文中重点提及的存储和计算拆散,是文中我感觉最有价值的一个观点。他提出了对立存储而后弹性计算的这样一个观点。第三,数仓及服务是我认为他们商业化最胜利的点。它将数仓提供了一个 SaaS 化的体验,并且摒弃传统上大家认为的数仓是大而重的偏见。第四,高可用这一块是进步用户体验和容错的很要害的一个点。最初,结构化延长到半结构化这一块曾经体现过后他们可能摸索湖上通用数据的能力。 这尽管是 16 年的一篇论文,但外面的观点并不算古老并且依然值得咱们去学习。后续咱们会简略介绍几个被咱们排汇并且将会去实际的一些点,而且这些点也是 T3 出行在实现湖仓一体上很要害的中央。 ...

April 28, 2021 · 3 min · jiezi

关于存储:饿了么EMonitor演进史

简介:可观测性作为技术体系的外围环节之一,追随饿了么技术的飞速发展,一直自我变革。序言工夫回到2008年,还在上海交通大学上学的张旭豪、康嘉等人在上海开办了饿了么,从校园外卖场景登程,饿了么一步一步发展壮大,成为外卖行业的领头羊。2017年8月饿了么并购百度外卖,强强合并,持续开疆扩土。2018年饿了么退出阿里巴巴小家庭,与口碑交融成立阿里巴巴本地生存公司。“爱什么,来什么”,是饿了么对用户不变的承诺。 饿了么的技术也随同着业务的飞速增长也一直突飞猛进。据公开报道,2014年5月的日订单量只有10万,但短短几个月之后就冲到了日订单百万,到当今日订单上千万单。在短短几年的技术倒退历程上,饿了么的技术体系、稳定性建设、技术文化建设等都有长足的倒退。各位可查看往期文章一探其中倒退历程,在此不再赘述: 《饿了么技术往事(上)》《饿了么技术往事(中)》《饿了么技术往事(下)》而可观测性作为技术体系的外围环节之一,也追随饿了么技术的飞速发展,一直自我变革,从“全链路可观测性ETrace”扩大到“多活下的可观测性体系ETrace”,倒退成目前“一站式可观测性平台EMonitor”。 EMonitor通过5年的屡次迭代,当初曾经建成了集指标数据、链路追踪、可视化面板、报警与剖析等多个可观测性畛域的平台化产品。EMonitor每日解决约1200T的原始可观测性数据,笼罩饿了么绝大多数中间件,可观测超5万台机器实例,可观测性数据时延在10秒左右。面向饿了么上千研发人员,EMonitor提供精准的报警服务和多样化的触达伎俩,同时运行约2万的报警规定。本文就细数饿了么可观测性的建设历程,回顾下“饿了么可观测性建设的那些年”。 1.0:混沌初开,万物衰亡 翻看代码提交记录,ETrace我的项目的第一次提交在2015年10月24日。而2015年,正是饿了么倒退的第七个年头,也是饿了么业务、技术、人员开始蓬勃发展的年头。彼时,饿了么的可观测性零碎依赖Zabbix、Statsd、Grafana等传统的“轻量级”零碎。而“全链路可观测性”正是过后的微服务化技术改造、后端服务Java化等技术发展趋势下的必行之势。 咱们可观测性团队,在调研业界支流的全链路可观测性产品--包含驰名的开源全链路可观测性产品“CAT”后,汲取众家之所长,在两个多月的爆肝开发后,推出了初代ETrace。咱们提供的Java版本ETrace-Agent随着新版的饿了么SOA框架“Pylon”在饿了么研发团队中的推广和遍及开来。ETrace-Agent能主动收集利用的SOA调用信息、API调用信息、慢申请、慢SQL、异样信息、机器信息、依赖信息等。下图为1.0版本的ETrace页面截图。 在经验了半年的爆肝开发和各中间件兄弟团队的鼎力支持,咱们又开发了Python版本的Agent,更能适应饿了么过后各语言百花齐放的技术体系。并且,通过和饿了么DAL组件、缓存组件、音讯组件的密切配合与埋点,用户的利用减少了多层次的访问信息,链路更加残缺,故障排查过程更加清晰。 整体架构体系ETrace整体架构如下图。通过SDK集成在用户利用中的Agent定期将Trace数据经Thrift协定发送到Collector(Agent本地不落日志),Collector经初步过滤后将数据打包压缩发往Kafka。Kafka上游的Consumer生产这些Trace数据,一方面将数据写入HBase+HDFS,一方面依据与各中间件约定好的埋点规定,将链路数据计算成指标存储到工夫序列数据库-- LinDB中。在用户端,Console服务提供UI及查问指标与链路数据的API,供用户应用。 全链路可观测性的实现 所谓全链路可观测性,即每次业务申请中都有惟一的可能标记这次业务残缺的调用链路,咱们称这个ID为RequestId。而每次链路上的调用关系,相似于树形构造,咱们将每个树节点上用惟一的RpcId标记。 如图,在入口利用App1上会新建一个随机RequestId(一个相似UUID的32位字符串,再加上生成时的工夫戳)。因它为根节点,故RpcId为“1”。在后续的RPC调用中,RequestId通过SOA框架的Context传递到下一节点中,且下一节点的层级加1,变为形如“1.1”、“1.2”。如此重复,同一个RequestId的调用链就通过RpcId还原成一个调用树。 也能够看到,“全链路可观测性的实现”不仅依赖与ETrace零碎本身的实现,更依靠与公司整体中间件层面的反对。如在申请入口的Gateway层,能对每个申请生成“主动”新的RequestId(或依据申请中特定的Header信息,复用RequestId与RpcId);RPC框架、Http框架、Dal层、Queue层等都要反对在Context中传递RequestId与RpcId。 ETrace Api示例在Java或Python中提供链路埋点的API: /*记录一个调用链路/Transaction trasaction = Trace.newTransaction(String type, String name);// business codestransaction.complete();/*记录调用中的一个事件/Trace.logEvent(String type, String name, Map<String,String> tags, String status, String data)/*记录调用中的一个异样/Trace.logError(String msg, Exception e)Consumer的设计细节Consumer组件的外围工作就是将链路数据写入存储。次要思路是以RequestId+RpcId作为主键,对应的Data数据写入存储的Payload。再思考到可观测性场景是写多读少,并且多为文本类型的Data数据可批量压缩打包存储,因而咱们设计了基于HDFS+HBase的两层索引机制。 如图,Consumer将Collector已压缩好的Trace数据先写入HDFS,并记录写入的文件Path与写入的Offset,第二步将这些“索引信息”再写入HBase。特地的,构建HBase的Rowkey时,基于ReqeustId的Hashcode和HBase Table的Region数量配置,来生成两个Byte长度的ShardId字段作为Rowkey前缀,防止了某些固定RequestId格局可能造成的写入热点问题。(因RequestId在各调用源头生成,如利用本身、Nginx、饿了么网关层等。可能某利用谬误设置成以其AppId为前缀RequestId,若没有ShardId来打散,则它所有RequestId都将落到同一个HBase Region Server上。) 在查问时,依据RequestId + RpcId作为查问条件,顺次去HBase、HDFS查问原始数据,便能找到某次具体的调用链路数据。但有的需要场景是,只晓得源头的RequestId须要查看整条链路的信息,心愿只排查链路中状态异样的或某些指定RPC调用的数据。因而,咱们在HBbase的Column Value上还额定写了RPCInfo的信息,来记录单次调用的简要信息。如:调用状态、耗时、上下游利用名等。 此外,饿了么的场景下,研发团队多以订单号、运单号作为排障的输出,因而咱们和业务相干团队约定非凡的埋点规定--在Transaction上记录一个非凡的"orderId={理论订单号}"的Tag--便会在HBase中新写一条“订单表”的记录。该表的设计也不简单,Rowkey由ShardId与订单号组成,Columne Value局部由对应的RequestId+RpcId及订单根本信息(相似上文的RPCInfo)三局部组成。 如此,从业务链路到全链路信息到具体单个链路,造成了一个残缺的全链路排查体系。 Consumer组件的另一个工作则是将链路数据计算成指标。实现形式是在写入链路数据的同时,在内存中将Transaction、Event等数据依照既定的计算逻辑,计算成SOA、DAL、Queue等中间件的指标,内存稍加聚合后再写入时序数据库LinDB。 指标存储:LinDB 1.0利用指标的存储是一个典型的工夫序列数据库的应用场景。依据咱们以前的教训,市面上支流的工夫序列数据库-- OpenTSDB、InfluxDB、Graphite--在扩大能力、集群化、读写效率等方面各有缺憾,所以咱们选型应用RocksDB作为底层存储引擎,借鉴Kafka的集群模式,开发了饿了么的工夫序列数据库--LinDB。 指标采纳相似Prometheus的“指标名+键值对的Tags”的数据模型,每个指标只有一个反对Long或Double的Field。某个典型的指标如: COUNTER: eleme_makeorder{city="shanghai",channel="app",status="success"} 45 咱们次要做了一些设计实现: 指标写入时依据“指标名+Tags”进行Hash写入到LinDB的Leader上,由Leader负责同步给他的Follower。借鉴OpenTSDB的存储设计,将“指标名”、TagKey、TagValue都转化为Integer,放入映射表中以节俭存储资源。RocksDB的存储设计为:以"指标名+TagKeyId + TagValueId+工夫(小时粒度)“作为Key,以该小时工夫线内的指标数值作为Value。为实现Counter、Timer类型数据聚合逻辑,开发了C++版本RocksDB插件。这套存储计划在初期很好的反对了ETrace的指标存储需要,为ETrace大规模接入与可观测性数据的时效性提供了坚硬的保障。有了ETrace,饿了么的技术人终于能从全链路的角度去排查问题、治理服务,为之后的技术升级、架构演进,提供了可观测性层面的反对。 其中架构的几点阐明1. 是否保障所有可观测性数据的可靠性?不,咱们承诺的是“尽可能不丢”,不保障100%的可靠性。基于这个前提,为咱们设计架构时提供了诸多便当。如,Agent与Collector若连贯失败,若干次重试后便抛弃数据,直到Collector复原可用;Kafka上下游的生产和生产也不用Ack,防止影响解决效率。 2. 为什么在SDK中的Agent将数据发给Collector,而不是间接发送到Kafka?防止Agent与Kafka版本强绑定,并防止引入Kafka Client的依赖。在Collector层能够做数据的分流、过滤等操作,减少了数据处理的灵活性。并且Collector会将数据压缩后再发送到Kafka,无效缩小Kafka的带宽压力。Collector机器会有大量TCP连贯,可针对性应用高性能机器。3. SDK中的Agent如何管制对业务利用的影响?纯异步的API,外部采纳队列解决,队列满了就抛弃。Agent不会写本地日志,防止占用磁盘IO、磁盘存储而影响业务利用。Agent会定时从Collector拉取配置信息,以获取后端Collector具体IP,并可实时配置来开关是否执行埋点。4. 为什么抉择侵入性的Agent?抉择寄生在业务利用中的SDK模式,在过后看来更利于ETrace的遍及与降级。而从当初的眼光看来,非侵入式的Agent对用户的集成更加便当,并且能够通过Kubernates中SideCar的形式对用户通明部署与降级。 5. 如何实现“尽量不丢数据”?Agent中依据取得的Collector IP周期性数据发送,若失败则重试3次。并定期(5分钟)获取Collector集群的IP列表,随机选取可用的IP发送数据。Collector中实现了基于本地磁盘的Queue,在后端的Kafka不可用时,会将可观测性数据写入到本地磁盘中。待Kafak复原后,又会将磁盘上的数据,持续写入Kafka。6. 可观测性数据如何实现多语言反对?Agent与Collector之间抉择Thrift RPC框架,并定制整个序列化形式。Java/Python/Go/PHP的Agent依数据标准开发即可。 ...

April 28, 2021 · 2 min · jiezi

关于存储:亮相-LiveVideoStackCon透析阿里云窄带高清的现在与未来

简介:2021.4.16-4.17,阿里云视频云亮相 LiveVideoStackCon 音视频技术大会上海站,带来三场不同视角的主题演讲,并与泛滥行业搭档一起交换。在 “编解码的新挑战与新机会” 专场,视频云的资深技术专家深度分享了 “窄带高清” 技术演进思路。 窄带高清是一套以人眼的主观感触最优为基准的视频编码技术,钻研在带宽受限的状况下,如何谋求最佳的视觉感触。阿里云早在 2015 年就提出了该技术概念,在 2016 年正式推出窄带高清技术品牌并产品化,自提出便促动整个行业开始逐渐援用该概念,造成了行业共识并一直演变至今。 阿里云智能视频云资深技术专家王豪,在演讲中阐释了窄带高清的实质、以后的技术聚焦点、及其将来的方向与布局。以下为残缺的演讲内容。 “大家好,我是王豪,来自阿里云智能视频云。当初次要负责视频编码和加强。咱们团队始终关注视频编码和解决方向的停顿及其技术前沿工作。明天和大家分享的是咱们在窄带高清方面的停顿和思考,心愿能与大家一起探讨。 我明天重点要讲的是三个局部:窄带高清是什么、对于当初在窄带高清方面关注哪些内容、以及对于将来的布局是什么。” 阿里云的窄带高清1.1 窄带高清技术 窄带高清是阿里云视频云的技术品牌,是属于内容自适应编码里的。窄带高清是修复加强 + 压缩的问题,次要指标是谋求品质、码率、和老本的最优平衡。在这个方向咱们有两代不同版本。 第一代是平衡版,次要作用是如何用起码的老本去实现自适应的内容解决和编码,达到品质晋升同时节俭码率的目标。所以,咱们在窄高 1.0 充分利用编码器里的信息帮忙视频解决,即老本很小的前解决办法,从而实现低成本的自适应内容解决和编码。同时,在编码器里,次要工夫是基于主观的码控。 第二代(窄高 2.0),与窄高 1.0 相比会有更多的、更充沛的、复杂度更高的技术来保障自适应能力,同时咱们在窄高 2.0 里减少了修复能力,比拟实用于高热内容,比方优酷世界杯。对这种重要的较量用窄高 2.0 进行解决,在品质晋升的同时,码率节俭也更多,具体内容我在前面会一一开展。 1.2 窄带高清的全景图 上图是窄带高清的框图。从上一页 PPT 来讲,窄带高革除了单点技术之外,主打内容自适应。上图最上面的内容是核心技术:视频解决和视频编码。视频解决和视频编码是原子能力,下面的内容就是如何去做自适应。对窄带高清来说,自适应来自三个维度。 第一个维度:业务。不同的视频语音业务对窄带高清的诉求是不一样的,比方长视频和短视频:因为视频的采集形式不同和时效性不同,它所须要的窄高采纳的技术和编码模式都是不同的。 第二个维度:视频热度。在首淘场景中对高热内容能够用窄高 2.0 启动二次转码来实现品质的进一步晋升和码率的节俭。 第三个维度:内容。内容分为两块 ——High level 和 Low level。 High level 第一点就是语义。在语义中,基于不同的场景决策最优的编码参数,同时还有宰割,宰割就是 ROI,咱们能够对感兴趣的区域进行编码。第二点是品质,片源品质包含失真,包含亮度、对比度、噪声等等,以及它的片源品质是怎么的。这些内容极大地决定了视频解决的组合和强度,同时对编码器的决策也会有很大的影响。 Low level 被咱们认为是低成本的思路,包含时空复杂度和 JND 两个内容,我在前面都会进行开展。 视频普惠化下的视频编码与视频解决阿里云视频云当下重点发力的内容之一是把视频普惠化,而视频普惠化的关键在于老本,2021 年咱们会持续聚焦在 264、265 继续老本的节俭,同时在下一代 VVC 和 AV1 上发力。 2.1 视频解决 在视频解决方向,除了单点算法之外,咱们还把重点放在了自适应方向上。窄高 1.0 的外围就是低成本和自适应如何兼得,咱们的重要思路就是:尽可能地重用编码器的编码信息去帮忙视频解决做自适应的决策,这样的自适应是零老本自适应,包含视频编码里的 CUtree 和自适应量化 (AQ) 的信息、静止搜寻的信息等,充沛地应用到这些信息并帮忙视频解决做出决策。 ...

April 27, 2021 · 3 min · jiezi

关于存储:阿里云数据库RDS-PG联合电商SaaS领导者班牛助力1500品牌数智化

简介:班牛选用阿里云数据库RDS PostgreSQL作为基建,撑持起了一万多商户的数据隔离,助力班牛PaaS化诸多场景落地。国内当先电商服务商——班牛通过阿里云数据库RDS从0到1搭建电商服务平台,目前已赋能1500余家世界500强及知名品牌,实现了数智化多场景落地。2017年,班牛创建之初就依靠阿里云承载其整体业务,并选用阿里云数据库RDS PostgreSQL作为基建,撑持起了一万多商户的数据隔离,助力班牛PaaS化诸多场景落地。 杭州正马软件科技有限公司(简称“正马软件”)创建于2017年,是国内当先的电商全周期客户服务与营销自动化服务提供商,其独立自主研发的外围电商PaaS产品——班牛,帮忙商家实现15个平台服务业务一站式治理,曾经服务欧莱雅、安踏、Babycare、阿迪达斯、美的、良品铺子、迪卡侬、戴森、李佳琦、KEEP等1500+品牌。 随着正马软件业务的一直增长,原先的零碎给技术团队带来了不少懊恼。首先,原有的数据库产品作为底层存储实现积木式工单场景,基于固定表的设计实现,存在诸多问题;其次,业务上有查问和剖析的强烈需要,前期都将存在施行和业务落地艰难的问题。在两大痛点背后,正马软件抉择阿里云数据库RDS PostgreSQL,联合PostgreSQL的多租户性能、内置全文检索、并行计算、以及冷热数据拆散存储、简单SQL高性能优化等特点,奇妙地设计出了对应利用的PaaS化场景,为全行业商家提供客户提供业余的数智化解决方案,实现一体化、标准化、自动化、场景化、数据化治理。 只需一个班牛平台,即可买通15个支流电商平台,还可无缝对接企业内外部业务零碎,突破数据孤岛,晋升数据流通性与复用性。 通过如宜家式拼装能力的利落拽式班牛智能工单,使安踏等客户的服务人员疾速上手,标准化智能工单组件满足了安踏个性化服务场景的搭建需要,学习零老本,服务人员应用即进入业务标准,大幅度降低人员培训老本,同时退款治理解决效率晋升30%,退换货自动化比例达70%。 此外,班牛还独创批量转账解决方案,帮忙安踏通过智能工单间接驱动支付宝付款,一键转账实时到账,升高财务手工操作的领取危险,让售后款项领取更便捷,支付宝小额退款效率晋升95%以上。 班牛创始人熊大(花名)示意:“公司成立之初就和淘系开放平台放弃着良好的单干关系,从应用阿里云ECS,成为阿里云数据库RDS第一个用户开始,到RDS PostgreSQL版本上线并单干应用,一路走来阿里云给了咱们很多助力。将来,班牛将与阿里云一路携手,为企业客户提供更欠缺、更优质的服务治理解决方案,从而带动整体业务的晋升。”目前,阿里云领有国内最丰盛的云数据库产品家族,其中,阿里云RDS是国内规模最大、最成熟、体系最残缺的云数据库,已有超过40万个数据库迁徙到阿里云上。在Gartner颁布的2020年度寰球数据库魔力象限中,阿里云首次挺进寰球数据库第一营垒——领导者象限。 版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。

April 27, 2021 · 1 min · jiezi